Sự cần thiết xây dựng khung pháp lý về AI: Kinh nghiệm của các nước và một số đề xuất cho Việt Nam

(Pháp lý). Nghiên cứu từ thực tiễn cho thấy trí tuệ nhân tạo ( AI ) là công nghệ quan trọng, có thể mang lại đột phá cho phát triển kinh tế. Tuy nhiên AI cũng đã bộc lộ tiềm ẩn nhiều rủi ro, tác động tiêu cực đến an ninh quốc gia, trật tự an toàn xã hội. Ngoài ra, AI còn tạo ra các rủi ro và thách thức về an ninh mạng, điển hình là sử dụng AI để lừa đảo. Nhiều nước trên thế giới đã và đang thúc đẩy xây dựng khung pháp lý về trí tuệ nhân tạo. Đối với Việt Nam, vấn đề này cũng cần được cơ quan chức năng đặt ra nghiên cứu nhằm phát huy tác động tích cực, đồng thời ngăn chặn những tác động tiêu cực của AI đến an ninh và trong đấu tranh phòng, chống tội phạm.
1-1717143891.jpg

Nghiên cứu kinh nghiệm của thế giới

EU và Đạo luật AI đầu tiên trên thế giới

Ngày 13/3/2024, nghị viện Liên minh châu Âu (EU) chính thức thông qua đạo luật quản lý AI, đặt nền tảng pháp lý đầu tiên trên thế giới quản lý lĩnh vực công nghệ mới nổi và các hoạt động đầu tư có liên quan. Roberta Metsola, chủ tịch nghị viện EU nói đạo luật tiên phong này sẽ tạo điều kiện cho đổi mới sáng tạo, đồng thời bảo vệ các giá trị cốt lõi. “Trí tuệ nhân tạo đã trở thành một phần quan trọng trong cuộc sống của chúng ta. Bây giờ, nó cũng sẽ là một phần trong luật pháp của EU”, trích bài đăng của lãnh đạo EU.

Bắt đầu xây dựng từ năm 2021, đạo luật AI EU phân loại công nghệ theo mức độ rủi ro, từ “không thể chấp nhận” - đồng nghĩa với cấm phát hành, cho đến rủi ro mức độ cao, trung bình và thấp. EU đang đi đầu thế giới trong nỗ lực thiết lập nền tảng pháp lý quản lý những lĩnh vực công nghệ mới nổi . Một số quốc gia châu Âu, chẳng hạn như Đức và Pháp, ủng hộ việc chính phủ các nước thành viên “tự điều chỉnh” biện pháp quản lý với doanh nghiệp AI, do lo quy định chặt chẽ quá mức có thể làm giảm sức cạnh tranh với các công ty Trung Quốc và Mỹ.

“Đạo luật AI đã thúc đẩy sự phát triển của AI theo hướng con người kiểm soát công nghệ và công nghệ sẽ giúp chúng ta thúc đẩy những khám phá mới để tăng trưởng kinh tế, tiến bộ xã hội và giải phóng tiềm năng của con người,” Dragos Tudorache, nghị sĩ giám sát quá trình thảo luận của EU về dự luật cho hay. Theo đó, đạo luật quản lý AI được thông qua không phải là “điểm kết thúc” đối với lĩnh vực công nghệ này, thay vào đó đây là điểm khởi đầu cho một mô hình quản trị mới được xây dựng dựa trên công nghệ.

Các chuyên gia pháp lý nhận định đạo luật này là một cột mốc quan trọng đối với quy định về AI quốc tế và có thể mở đường cho các quốc gia khác làm theo. Mark Ferguson, chuyên gia chính sách công tại Pinsent Masons cho biết, việc thông qua đạo luật, mới chỉ là bước khởi đầu và các doanh nghiệp sẽ cần hợp tác chặt chẽ với các nhà lập pháp để hiểu cách thực hiện đạo luật này .  Dù vậy, không phải là không có những lo ngại. Emma Wright, đối tác tại công ty luật Harbottle & Lewis, quan ngại các nội dung của đạo luật này có thể nhanh chóng trở nên lỗi thời khi công nghệ là lĩnh vực chuyển động nhanh và liên tục phát triển.  

Với 523 phiếu thuận, 46 phiếu chống và 49 phiếu trắng, đạo luật AI EU chính thức được thông qua, dự kiến có hiệu lực vào tháng 5/2024, sau khi các quy trình lập pháp cuối cùng được tiến hành. Các nội dung sẽ được thực thi từng bước từ năm 2025 trở đi.

2-1717143899.jpg

EU đang đi đầu thế giới trong nỗ lực thiết lập nền tảng pháp lý quản lý những lĩnh vực công nghệ mới nổi

Trước đó, EU cũng đưa vào thực thi đạo luật Thị trường Kỹ thuật số nhằm kiềm chế sức mạnh của các gã khổng lồ công nghệ Mỹ như Apple, Google, Amazon, Meta và Microsoft hay ByteDance của Trung Quốc. Theo đạo luật này, EU có thể trấn áp những hành vi bị coi là phản cạnh tranh, đồng thời bắt buộc các doanh nghiệp phải “cởi mở” hơn trong những lĩnh vực mà họ đang thống trị, để đưa đến nhiều lựa chọn hơn với người tiêu dùng.

Đại hội đồng Liên hợp quốc đã thông qua nghị quyết đầu tiên về AI

Mới đây nhất, ngày 21/3/2024, Đại hội đồng Liên hợp quốc đã nhất trí thông qua nghị quyết toàn cầu đầu tiên về trí tuệ nhân tạo (AI), để khuyến khích các thành viên đảm bảo công nghệ AI là “an toàn, bảo mật và đáng tin cậy”. Nghị quyết của Đại hội đồng Liên hợp quốc về trí tuệ nhân tạo được coi là “bước quan trọng đầu tiên”. Nghị quyết do Mỹ đề xuất và được Trung Quốc cùng 122 quốc gia khác đồng bảo trợ và là một nghị quyết không mang tính ràng buộc. Tuy nhiên, việc bỏ phiếu nhất trí ủng hộ nó là rất hiếm, đặc biệt là trong bối cảnh bất ổn địa chính trị đang diễn ra.

Nghị quyết được đưa ra khi các chính phủ trên toàn cầu đang nghiên cứu các sáng kiến nhằm định hình và điều chỉnh sự phát triển của AI trong bối cảnh lo ngại nó có thể làm gia tăng gian lận, dẫn đến mất việc làm và thậm chí phá vỡ các quy trình dân chủ. Biện pháp này cho biết: “Việc thiết kế, phát triển, triển khai và sử dụng hệ thống trí tuệ nhân tạo không đúng hoặc có ác ý sẽ gây ra những rủi ro có thể, làm suy yếu việc bảo vệ, thúc đẩy và hưởng thụ các quyền con người cũng như các quyền tự do cơ bản”. Trước đó, vào tháng 11/2023, Mỹ, Anh và hơn chục quốc gia khác đã ký một thỏa thuận quốc tế không ràng buộc về cách giữ cho AI có những thiết kế an toàn để nó không bị những kẻ lừa đảo lạm dụng. Thỏa thuận này phần lớn xuất phát từ quan điểm an ninh mạng.

Trung Quốc  tiến tới giai đoạn định hình đạo luật về trí tuệ nhân tạo (AI)

Sau một kế hoạch bài bản hướng đến việc cân bằng giữa chính sách khuyến khích phát triển và điều tiết rủi ro, hiện Trung Quốc đang tiến tới giai đoạn định hình đạo luật về trí tuệ nhân tạo (AI) . Dự luật được lên kế hoạch hoàn thiện vào cuối năm 2024. Đây có thể là một trong những đạo luật đầu tiên trên thế giới về AI (bên cạnh đạo luật của EU đã được ban hành) và sẽ có tác động rất lớn đến chính sách, pháp luật toàn cầu nhằm điều chỉnh các hoạt động liên quan đến AI.

Theo dự thảo luật, việc đánh giá các sản phẩm AI mới phải đảm bảo “tính hợp pháp của nguồn dữ liệu trước khi đào tạo”, với việc các nhà phát triển cần chứng minh sự liên kết của các sản phẩm với “giá trị cốt lõi của chủ nghĩa xã hội”. Các sản phẩm sẽ bị hạn chế sử dụng dữ liệu cá nhân để đào tạo và sẽ cần yêu cầu người dùng xác minh danh tính thực của họ. Ngoài ra, các mô hình AI chia sẻ nội dung cực đoan, bạo lực, khiêu dâm hoặc thông điệp kêu gọi “lật đổ chính quyền” sẽ vi phạm các quy định.

Hiện tại, các hành vi vi phạm sẽ bị phạt từ 10.000 nhân dân tệ ( khoảng 1.454 USD) đến 100.000 nhân dân tệ (khoảng 14.545 USD), cùng với việc đình chỉ dịch vụ và có thể bị điều tra hình sự. Ngoài ra, các nhà cung cấp bị phát hiện chia sẻ nội dung được cho là không phù hợp sẽ cần cập nhật hệ thống của họ trong vòng 3 tháng để đảm bảo ngăn ngừa tái phạm.

Được biết, dự thảo đang xây dựng khung pháp lý dựa trên bốn nguyên tắc tiếp cận pháp lý sau đây: Thứ nhất, việc lựa chọn phương thức tiếp cận phải đảm bảo lấy con người làm trung tâm. Cụ thể, các quyền con người và quyền dân sự cơ bản phải là trọng tâm xem xét trong quá trình xây dựng khung pháp lý cho AI. Ngoài ra, cần phải đặc biệt lưu tâm đến quyền và lợi ích của các nhóm đặc thù, nhóm yếu thế trong tiếp cận không gian số (ví dụ như người già, người khuyết tật…) nhằm đảm bảo quyền được giải thích cũng như quyền được từ chối sử dụng AI cho những nhóm người này.

Thứ hai, nguyên tắc tuân thủ là một trong những nguyên tắc quan trọng nhất. Cụ thể, việc cung cấp và sử dụng AI phải đảm bảo tuân thủ nghiêm ngặt các quy định pháp luật, tôn trọng quy chuẩn và đạo đức xã hội, nghiêm cấm tạo ra các nội dung kích động, gây nguy hiểm cho an ninh, lợi ích quốc gia, làm tổn hại đến hình ảnh đất nước, nghiêm cấm nội dung bạo lực, khiêu dâm, phân biệt đối xử, thông tin sai lệch… Căn cứ quan trọng để đối chiếu, xác minh là các quy định pháp luật hiện hành, cũng như “Chuẩn mực đạo đức cho AI thế hệ mới” ban hành năm 2021.

Thứ ba, nghĩa vụ công khai và minh bạch phải đặc biệt được nhấn mạnh. Giống như các nền tảng cung cấp dịch vụ Internet, nhà cung cấp dịch vụ AI cũng đóng vai trò người gác cổng, đảm bảo dịch vụ AI được cung cấp sẽ trở nên minh bạch hơn và nội dung được tạo ra chính xác và đáng tin cậy hơn. Đối với người dùng, nhà cung cấp có nghĩa vụ làm rõ và công bố đối tượng người dùng mục tiêu, các trường hợp và cách sử dụng dịch vụ, hướng dẫn người dùng hiểu và sử dụng dịch vụ AI một cách khoa học và hợp lý;  Thứ tư, nghĩa vụ tôn trọng quyền sở hữu trí tuệ và bảo mật thông tin người dùng cũng phải được ưu tiên quy định cụ thể. Đặc biệt là trong quá trình thu thập và xử lý thông tin (training-data processing), chú thích dữ liệu (data Annotation), thiết lập và thu thập thông tin hồ sơ sử dụng của người dùng…

3-1717143899.jpg

Nhìn chung, thay vì đặt ra giới hạn và hạn chế sự phát triển của AI, khung pháp lý hiện tại về AI của Trung Quốc tập trung khá nhiều vào việc tìm kiếm điểm cân bằng giữa khuyến khích phát triển và phòng ngừa rủi ro, giữa đổi mới và an toàn. Đây là một góc nhìn có thể còn gây tranh cãi nhưng chắc chắn tốt hơn việc chỉ nhìn nhận và lên án AI như một “thiên thạch” đang bay đến và đe dọa tồn vong của nhân loại. Đây cũng là cơ sở quan trọng để xây dựng các nguyên tắc phát triển bền vững, thúc đẩy giám sát chặt chẽ hơn các loại AI quan trọng, trong tình huống đặc biệt và xây dựng khung pháp lý thử nghiệm (sandbox) phù hợp.

Ngoài ra, một mục tiêu lập pháp nữa cũng được thể hiện thống nhất là đảm bảo sự chủ động của con người đối với AI thông qua cả giám sát trực tiếp và phương tiện kỹ thuật, kể cả khi AI hoạt động tự chủ. Do đó, nhóm chuyên gia cũng cho rằng cách tiếp cận theo Danh sách tiêu cực (Negative list), nhiều tương đồng với phương pháp phân loại AI theo rủi ro để quản lý tại đạo luật AI của EU, là phù hợp với Trung Quốc. Bên cạnh đó, các chuyên gia cũng đề xuất thành lập một cơ quan mới là Văn phòng AI quốc gia (đầu tiên trên toàn thế giới) để tập trung điều phối và giám sát việc quản lý công nghệ AI, tránh trường hợp phân tán giám sát hoặc chồng chéo quản lý và trách nhiệm hành chính.

Nhiều quốc gia khác thúc đẩy xây dựng quy định về trí tuệ nhân tạo tạo sinh

Sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) nói chung và trí tuệ nhân tạo tạo sinh (Generative AI) như ChatGPT nói riêng mang lại nhiều lợi ích to lớn. Bên cạnh đó, công nghệ mới nổi tiềm ẩn rủi ro buộc các quốc gia và khu vực thúc đẩy xây dựng các quy định kiểm soát.

4-1717143899.jpg

Ảnh minh họa.

Úc:  Các cơ quan quản lý Úc đang thúc đẩy xây dựng các quy định nhằm mục đích dập tắt những lo ngại được chia sẻ bởi Ủy viên Nhân quyền Úc Lorraine Finlay, người đã tuyên bố rằng các chatbot AI như ChatGPT của Microsoft và Bard của Google có thể gây hại cho xã hội.

Ngoài ra, các cuộc thảo luận đang diễn ra giữa các cơ quan quản lý về những thay đổi có thể có đối với Đạo luật quyền riêng tư nhằm khắc phục sự thiếu minh bạch có thể xảy ra với việc đào tạo các mô hình AI mà không có sự giám sát của con người. Ngoài ra, còn có các cuộc thảo luận xung quanh việc sử dụng dữ liệu và sinh trắc học để đào tạo các mô hình, điều này có thể yêu cầu áp dụng các quy tắc bảo mật bổ sung. Một số thành viên của Hội đồng Công nghệ Úc đã kêu gọi thành lập một “Ủy ban giám sát trong cơ quan quản lý công nghệ” để giám sát và theo dõi sự phát triển của công nghệ AI tạo sinh và tham vấn cho các cơ quan chính phủ về cách thức giám sát công nghệ mới nổi này nhằm phát hiện những rủi ro có thể xảy ra.

Brazil:  Quy trình lập pháp liên quan đến AI ở Brazil đã được thúc đẩy bởi một khung pháp lý đã được chính phủ phê duyệt vào tháng 9 năm 2022, nhưng đã nhận được nhiều chỉ trích do các quy định còn quá mơ hồ. Với việc ra đời của ChatGPT, các cuộc thảo luận đã được tổ chức và một báo cáo cũng đã được gửi tới Chính phủ Brazil, trong đó trình bày chi tiết các đề xuất liên quan đến việc quản lý AI.

Nghiên cứu được thực hiện bởi các chuyên gia pháp lý, các nhà khoa học, các nhà lãnh đạo doanh nghiệp và các thành viên của cơ quan giám sát bảo vệ dữ liệu quốc gia (ANPD), trong đó đề cập đến 3 lĩnh vực chính gồm quyền công dân, phân loại các rủi ro và các biện pháp quản trị và xử phạt hành chính liên quan đến quản lý và sử dụng AI. Tài liệu này hiện đang được thảo luận trong Chính phủ Brazil và ngày công bố cụ thể vẫn chưa được đưa ra.

Mỹ:  Nước Mỹ, “cái nôi” của các nhà đổi mới công nghệ và phát triển AI, trong đó có công ty OpenAI tạo ra ChatGPT, đã tăng cường quản lý các công cụ AI. Ngày 3/5/2023, người đứng đầu Ủy ban Thương mại liên bang Mỹ (FTC) cho biết cơ quan này cam kết sẽ sử dụng các luật hiện hành để hạn chế những mối nguy hiểm từ AI tạo sinh, chẳng hạn như việc mở rộng ảnh hưởng của các công ty lớn và hành vi gian lận.

Canada: Theo kế hoạch, Đạo luật về dữ liệu và trí tuệ nhân tạo (AIDA) sẽ được đưa ra sớm nhất vào năm 2025. Bên cạnh đó, các quy định pháp lý đang được nghiên cứu để quản lý các rủi ro và cạm bẫy do AI tạo sinh gây ra nhằm khuyến khích việc áp dụng công nghệ này một cách có trách nhiệm.

Theo Chính phủ Canada, cách tiếp cận dựa trên rủi ro phù hợp với các quy định tương tự ở Mỹ và Liên minh châu Âu, với các kế hoạch dựa trên luật nhân quyền và bảo vệ người tiêu dùng hiện có của Canada để nhận ra sự cần thiết của các hệ thống AI “có tác động cao” để đáp ứng luật nhân quyền và an toàn thông tin. Các cơ quan chức năng Canada sẽ chịu trách nhiệm đảm bảo rằng các quy định mới ban hành phải theo kịp sự phát triển của công nghệ và hạn chế tối đa việc sử dụng cho các mục đích xấu.

Ấn Độ:  Vào tháng 3 năm 2021, Chính phủ Ấn Độ đã thông báo rằng họ sẽ tiếp cận một cách cẩn trọng về quy định liên quan đến AI nhằm mục đích duy trì sự đổi mới trên toàn quốc. Các công nghệ liên quan đến AI được Bộ Điện tử và CNTT Ấn Độ xác định là “quan trọng và chiến lược”, nhưng cơ quan này tuyên bố rằng họ sẽ đưa ra các chính sách và biện pháp cơ sở hạ tầng để giúp chống lại sự thiên vị, phân biệt đối xử và các vấn đề đạo đức .

Chính phủ Ấn Độ đã đề xuất các khung pháp lý trên cơ sở tự nguyện để quản lý AI. Chiến lược quốc gia về Trí tuệ nhân tạo năm 2018 đã xem xét 5 lĩnh vực chính của sự phát triển AI: nông nghiệp, giáo dục, y tế, thành phố thông minh và di động thông minh. Sau đó, vào năm 2020, việc sử dụng AI có đạo đức đã được trình bày chi tiết trong bản dự thảo Chiến lược trí tuệ nhân tạo quốc gia, kêu gọi tất cả các hệ thống phải minh bạch, có trách nhiệm giải trình và không thiên vị.

Hàn Quốc: Dự luật AI của Hàn Quốc hiện đang trong giai đoạn soạn thảo và dự kiến sẽ được bỏ phiếu tại Quốc hội trong thời gian tới. Theo đó, sẽ quy định cụ thể các mô hình AI mới nào sẽ được tạo ra mà không phải xin phép chính phủ, mô hình nào phải được sự chấp thuận của chính phủ trước khi đưa ra thị trường. Dự luật AI mới này cũng tập trung vào việc thiết lập các quy định pháp lý liên quan đến phát triển hệ thống AI một cách có trách nhiệm.

Vương quốc Anh:  Hiện tại, quy định về AI tạo sinh ở Vương quốc Anh được đặt trong tay các cơ quan quản lý ngành nơi AI đang được sử dụng, chưa có luật chung nào được lên kế hoạch ngoài Quy định bảo vệ dữ liệu chung của Liên minh châu Âu (GDPR). Chính phủ đã chọn “cách tiếp cận ủng hộ đổi mới” trong các thông báo chính thức về chủ đề này nhằm đưa Vương quốc Anh trở thành quốc gia dẫn đầu trong cuộc đua AI toàn cầu.

Nhật Bản: Theo giới chức Nhật Bản, AI tạo sinh mang lại triển vọng tích cực với kinh tế - xã hội song cũng tiềm ẩn những nguy cơ. Do đó, việc đưa ra các biện pháp ứng phó thích hợp từ cả hai khía cạnh sẽ đóng vai trò quan trọng. Thủ tướng Nhật Bản Kishida Fumido cho biết, sẽ chỉ đạo các cơ quan chức năng thúc đẩy sớm các bước thảo luận trên nhiều lĩnh vực để tận dụng tối đa triển vọng, ứng phó các nguy cơ từ AI tạo sinh. Giới chức Nhật Bản cũng cho biết sẽ xây dựng các quy tắc mang tính quốc tế đối với AI tạo sinh.

Việt Nam nghiên cứu sớm hoàn thiện khung pháp lý về AI, đặc biệt ngăn chặn những tác động tiêu cực của AI đến an ninh và trong đấu tranh phòng, chống tội phạm

Mới đây, phát biểu tại sự kiện Hội thảo và Triển lãm An toàn không gian mạng Việt Nam ( Hội thảo có chủ đề An toàn trong thời kỳ bùng nổ của trí tuệ nhân tạo do Cục An toàn thông tin (Bộ Thông tin và Truyền thông) phối hợp cùng IEC tổ chức, dưới sự bảo trợ của Bộ Thông tin và Truyền thông) , Thứ trưởng Bộ Thông tin và Truyền thông Phạm Đức Long nhận định: Với lĩnh vực an toàn thông tin mạng, AI tham gia ở cả hai khía cạnh tích cực và tiêu cực, có mặt ở cả hai chiến tuyến tấn công mạng và phòng thủ hệ thống. Trong đó, ở khía cạnh tiêu cực, "các cuộc tấn công mạng liên tục phát triển với mức độ ngày càng tinh vi, phức tạp. Đặc biệt, khi có sự hỗ trợ của AI, nguy cơ, mối đe dọa an toàn thông tin mà chúng ta phải đối mặt sẽ ngày càng tăng theo cấp số nhân", ông Phạm Đức Long chia sẻ.

5-1717143899.jpg

Thứ trưởng Phạm Đức Long cùng các đại biểu tham quan triển lãm an toàn thông tin mạng, diễn ra song song các phiên hội thảo. Ảnh: T.Anh ( Vietnamnet)

Theo Thứ trưởng Phạm Đức Long việc tạo ra một không gian mạng an toàn, bảo vệ người dân trước các nguy cơ tấn công từ không gian mạng là việc làm cấp thiết. Để đảm bảo an toàn thông tin, cần phải có sự phối hợp đồng bộ giữa các tổ chức, doanh nghiệp và các cơ quan Chính phủ. Sự hợp tác này không chỉ mở ra cơ hội chia sẻ thông tin và kinh nghiệm mà còn giúp chúng ta tăng cường khả năng phản ứng nhanh chóng và hiệu quả đối với các mối đe dọa.

“Đảm bảo an toàn thông tin để bảo vệ người dân, doanh nghiệp không chỉ là trách nhiệm của các cơ quan chuyên trách hay các doanh nghiệp an toàn thông tin mạng mà cần sự chung tay của toàn xã hội, trong đó mỗi cá nhân và mỗi tổ chức đều phải ý thức được chịu trách nhiệm của mình trong việc bảo vệ thông tin, hệ thống thông tin của mình”, Thứ trưởng Phạm Đức Long nhấn mạnh.

Cũng tại sự kiện trên, Thượng tá Nguyễn Anh Tuấn, Phó Giám đốc Trung tâm Dữ liệu Quốc gia về Dân cư - Bộ Công an, đưa ra đánh giá AI là công nghệ quan trọng, có thể mang lại đột phá cho phát triển kinh tế, tuy nhiên ông Tuấn cho rằng trí tuệ nhân tạo tiềm ẩn nhiều rủi ro, tác động tiêu cực đến an ninh quốc gia, trật tự an toàn xã hội. Các nguy cơ được nhắc đến như vi phạm quyền riêng tư, thông tin sai sự thật, phân biệt đối xử... Ngoài ra, AI còn tạo ra các rủi ro và thách thức về an ninh mạng, điển hình là sử dụng AI để lừa đảo. "AI có thể tạo ra nhiều ứng dụng có hình ảnh và tên giả mạo các app, trang web của Bộ Công an để người dân tải về, cài đặt và cung cấp thông tin như số CCCD, mật khẩu đăng nhập", ông Tuấn lấy ví dụ. Bên cạnh đó, đại diện Bộ cho biết AI đang bị tin tặc sử dụng trong nhiều hình thức tấn công, như tạo phần mềm độc hại, mô phỏng hệ thống, tự động hóa các cuộc tấn công.

Dù tiềm ẩn nhiều nguy cơ, các quy định cho AI vẫn chưa được hoàn thiện. Dẫn thống kê của Legalnodes, ông Tuấn cho biết đến nay có khoảng 33 quốc gia đã xây dựng dự thảo pháp lý về AI. Tuy nhiên, thế giới chưa có bộ quy chuẩn mang tính tổng thể, chưa có tiếng nói chung trên toàn cầu. Trước thực trạng trên, đại diện Bộ đề xuất cần sớm hoàn thiện hành lang pháp lý về AI để đón đầu xu thế, đồng thời ban hành các văn bản quy định về đạo đức trong quá trình phát triển, sản xuất, ứng dụng, sử dụng AI, như bảo vệ quyền riêng tư, dữ liệu cá nhân, quyền con người, của các đơn vị trong và ngoài nước. Đồng thời quy định cụ thể trách nhiệm nếu AI bị lợi dụng để phạm tội. Ngoài ra, theo Phó Giám đốc Trung tâm Dữ liệu Quốc gia về dân cư, AI do con người tạo ra và có những biến thể "AI tốt", "AI xấu", nên "cần ứng dụng trí tuệ nhân tạo để chống lại chính những rủi ro vì trí tuệ nhân tạo".

Theo tìm hiểu của chúng tôi, riêng đối với công tác đấu tranh phòng, chống tội phạm , AI có một số tác động cả tích cực và tiêu cực . Về mặt tích cực, trí tuệ nhân tạo đã và đang có những đóng góp to lớn, giúp nâng cao chất lượng, hiệu quả công tác đấu tranh phòng, chống tội phạm. Cụ thể như ứng dụng AI trong quá trình phân tích video, hình ảnh của tội phạm và những chứng cứ khác có liên quan (nhận dạng tội phạm). Bên cạnh việc nhận diện các yếu tố đặc trưng của đối tượng, công nghệ trí tuệ nhân tạo còn có khả năng cải thiện các biện pháp truy nguyên đối tượng phạm tội và vật chứng của tội phạm, điển hình là công nghệ nhận dạng biển số xe tự động.

Hay như ứng dụng AI trong quá trình phòng ngừa tội phạm và vi phạm pháp luật, theo đó phân tích và dự báo tình hình tội phạm trong tương lai là một quá trình đòi hỏi hệ thống phải sử dụng một khối lượng lớn dữ liệu. Trong lĩnh vực đấu tranh phòng, chống tội phạm, công tác này thuộc trách nhiệm của các cơ quan thực thi pháp luật như: Cảnh sát, Viện kiểm sát (cơ quan Công tố), Bộ Tư pháp, Tòa án… đòi hỏi các cán bộ, chuyên gia phải có kiến thức chuyên môn, tổng hợp số liệu qua nhiều năm. Với trí tuệ nhân tạo, những thông tin pháp lý, thông tin chính trị, kinh tế, văn hóa xã hội có thể được lưu trữ trong một bộ nhớ khổng lồ cùng khả năng phân tích các dữ liệu, từ đó, giúp làm tăng khả năng hoạt động dự báo tình hình tội phạm của các cơ quan thực thi pháp luật. Ngoài ra, AI có thể được sử dụng để dự báo các nhóm nạn nhân tiềm năng của tội phạm bạo lực dựa trên hành vi….

Hiện nay việc ứng dụng công nghệ trí tuệ nhân tạo trong hoạt động truy tố, xét xử các vụ án hình sự vẫn có nhiều ý kiến trái chiều. Đa số ý kiến cho rằng chỉ nên xem hoạt động của AI trong giai đoạn này tương tự như trong hoạt động điều tra, trong khi những ý kiến còn lại cho rằng hoàn toàn có thể thay thế hoạt động bình thường của Kiểm sát viên (Công tố viên), Thẩm phán trong việc truy tố, xét xử các vụ án hình sự.  Được biết, Trung Quốc là một trong những quốc gia Châu Á đầu tiên triển khai, ứng dụng công nghệ trí tuệ nhân tạo trong hoạt động truy tố các vụ án hình sự.

Bên cạnh những lợi ích mà AI mang lại, vẫn tiềm ẩn những rủi ro và thách thức đối với cơ quan thực thi pháp luật khi các đối tượng phạm tội lợi dụng AI để thay đổi phương thức thực hiện hành vi phạm tội, tính chịu trách nhiệm pháp lý của AI, tính công bằng của các thuật toán hay nguy cơ gây suy giảm năng lực của cán bộ thực thi pháp luật. Những tác động tiêu cực của AI  có thể kể đến là gia tăng tỉ lệ tội phạm sử dụng AI và  thay đổi phương thức thực hiện hành vi vi phạm pháp luật; và liệu ứng dụng, sử dụng AI hỗ trợ thay thế cho cán bộ thực thi pháp luật có khiến các phán quyết trở nên thực sự công bằng, tuân thủ theo pháp luật ? còn nữa,  tính chịu trách nhiệm pháp lý của AI trong mối liên hệ với việc thực hiện nhiệm vụ của các cán bộ thực thi pháp luật ? …

Với những thành tựu phát triển kinh tế - xã hội mà cuộc cách mạng công nghiệp lần thứ tư đem lại đã đặt ra nhiều thách thức đối với Việt Nam trong quá trình định hướng ứng dụng công nghệ trí tuệ nhân tạo trên các lĩnh vực, trong đó có lĩnh vực đấu tranh phòng, chống tội phạm. Từ những kinh nghiệm của các nước EU, Trung Quốc, Mỹ, Nga và nhiều nước khác trên thế giới, theo chúng tôi, Việt Nam cần sớm xúc tiến nghiên cứu nhằm hướng tới xây dựng và hoàn thiện khung pháp lý ứng dụng AI , đặc biệt trong công tác đấu tranh phòng, chống tội phạm được thực hiện chặt chẽ. Bởi Hệ thống pháp luật của Việt Nam hiện nay đối với hoạt động của trí tuệ nhân tạo trong đấu tranh phòng, chống tội phạm chưa thật sự được quan tâm. Hầu hết các quy định pháp luật Việt Nam hiện nay chưa thể xử lý toàn diện các vấn đề phát sinh liên quan đến trách nhiệm pháp lý của AI.

Trong quá trình xây dựng các qui tắc hoặc dự luật về AI cần tham khảo kinh nghiệm của Trung Quốc. Theo đó cần quán triệt một số nguyên tắc như: nguyên tắc tuân thủ là một trong những nguyên tắc quan trọng nhất. Cụ thể, việc cung cấp và sử dụng AI phải đảm bảo tuân thủ nghiêm ngặt các quy định pháp luật, tôn trọng quy chuẩn và đạo đức xã hội, nghiêm cấm tạo ra các nội dung kích động, gây nguy hiểm cho an ninh, lợi ích quốc gia, làm tổn hại đến hình ảnh đất nước, nghiêm cấm nội dung bạo lực, khiêu dâm, phân biệt đối xử, thông tin sai lệch… Nguyên tắc, nghĩa vụ công khai và minh bạch phải đặc biệt được nhấn mạnh. Giống như các nền tảng cung cấp dịch vụ Internet, nhà cung cấp dịch vụ AI cũng đóng vai trò người gác cổng, đảm bảo dịch vụ AI được cung cấp sẽ trở nên minh bạch hơn và nội dung được tạo ra chính xác và đáng tin cậy hơn. Đối với người dùng, nhà cung cấp có nghĩa vụ làm rõ và công bố đối tượng người dùng mục tiêu, các trường hợp và cách sử dụng dịch vụ, hướng dẫn người dùng hiểu và sử dụng dịch vụ AI một cách khoa học và hợp lý;  Và nghĩa vụ tôn trọng quyền sở hữu trí tuệ và bảo mật thông tin người dùng cũng phải được ưu tiên quy định cụ thể. Đặc biệt là trong quá trình thu thập và xử lý thông tin (training-data processing), chú thích dữ liệu (data Annotation), thiết lập và thu thập thông tin hồ sơ sử dụng của người dùng…

Bên cạnh đó cơ quan chức năng cần sớm quan tâm , sửa đổi, bổ sung một số điều, khoản quy định tội phạm của Bộ luật Hình sự hiện hành: Bổ sung tình tiết định khung tăng nặng hoặc tình tiết tăng nặng “sử dụng công nghệ trí tuệ nhân tạo để thực hiện hành vi phạm tội” đối với một số tội danh như khủng bố, gián điệp; các tội danh xâm phạm đến sức khỏe, tính mạng, danh dự, nhân phẩm của người khác; một số tội phạm xâm phạm sở hữu như lừa đảo chiếm đoạt tài sản hay các hành vi vận chuyển trái phép hàng cấm, ma túy….

Lê Phúc – Trần Dương

Bạn đọc đặt tạp chí Pháp lý dài hạn vui lòng để lại thông tin