Nhiều quốc gia đang tìm cách giới hạn nguy cơ từ trí tuệ nhân tạo (AI) - Ảnh: REUTERS
Có thể thấy mảng trí tuệ nhân tạo đang trải qua sự bùng nổ về đầu tư và mức độ phổ biến đối với người dùng trong những tháng gần đây, sau khi OpenAI tung ra chatbot ChatGPT.
Tại Trung Quốc, một loạt các công ty công nghệ hàng đầu như Baidu, SenseTime và Alibaba trong những tuần gầy đây đã giới thiệu các mô hình AI mới, từ chatbot đến sản xuất hình ảnh.
Gần đây, một loạt gã khổng lồ công nghệ Trung Quốc trong đó có Alibaba đã công bố các mô hình AI mới của họ.
Trước bối cảnh này nhiều quốc gia, trong đó có Trung Quốc đang tìm cách giới hạn nguy cơ từ trí tuệ nhân tạo (AI).
Cơ quan không gian mạng của Trung Quốc (CAC) nhấn mạnh Trung Quốc ủng hộ đổi mới và ứng dụng về AI, đồng thời khuyến khích việc sử dụng phần mềm, công cụ và tài nguyên dữ liệu an toàn và đáng tin cậy. Tuy nhiên, nội dung tạo ra bởi AI phải phù hợp với các giá trị của đất nước.
Theo dự thảo, các nhà cung cấp cần chịu trách nhiệm về tính hợp pháp của dữ liệu được sử dụng để huấn luyện các sản phẩm AI tạo sinh và nên thực hiện các biện pháp để ngăn chặn sự phân biệt đối xử khi thiết kế thuật toán và dữ liệu đào tạo.
Các nhà cung cấp dịch vụ phải yêu cầu người dùng gửi danh tính thực và thông tin liên quan. Các nhà cung cấp sẽ bị phạt tiền, đình chỉ dịch vụ hoặc thậm chí đối mặt với các cuộc điều tra hình sự nếu họ không tuân thủ các quy tắc. Nếu nội dung không phù hợp được tạo ra bởi nền tảng của họ, các công ty phải cập nhật công nghệ trong vòng ba tháng để ngăn nội dung tương tự được tạo ra một lần nữa.
Các qui định trên dự kiến sẽ có hiệu lực trong năm nay.
Trần Dương ( tổng hợp)
Link nội dung: https://phaply.net.vn/du-luat-kiem-soat-tri-tue-nhan-tao-cua-trung-quoc-co-gi-dang-chu-y-a256733.html