
Trung cộng đã đề xuất các quy định mới nghiêm ngặt đối với trí tuệ nhân tạo (AI) nhằm bảo vệ trẻ em và ngăn chặn chatbot đưa ra lời khuyên có thể dẫn đến tự gây hại hoặc bạo lực.
Theo các quy định dự
kiến, các nhà phát triển cũng cần đảm bảo mô hình AI của họ không tạo ra nội
dung quảng bá cờ bạc.
Thông báo này được
đưa ra sau sự gia tăng đột biến số lượng chatbot được ra mắt tại Trung cộng
cũng như trên toàn thế giới.
Sau khi được hoàn
thiện, các quy định này sẽ áp dụng cho các sản phẩm và dịch vụ AI tại Trung cộng,
đánh dấu một bước tiến lớn trong việc điều chỉnh công nghệ đang phát triển
nhanh chóng này, vốn đã bị giám sát chặt chẽ về các vấn đề an toàn trong năm
nay.
Dự thảo quy định, được
Cục Quản lý Không gian mạng Trung cộng (CAC) công bố vào cuối tuần qua, bao gồm
các biện pháp bảo vệ trẻ em.
Những biện pháp gồm
việc yêu cầu các công ty AI cung cấp cài đặt cá nhân hóa, giới hạn thời gian sử
dụng và phải có sự đồng ý của người giám hộ trước khi cung cấp dịch vụ đồng
hành về mặt cảm xúc.
CAC cho hay các nhà
điều hành chatbot phải có người tiếp quản bất kỳ cuộc trò chuyện nào liên quan
đến tự tử hoặc tự gây thương tích và phải thông báo ngay lập tức cho người giám
hộ hoặc người liên hệ khẩn cấp của người dùng.
Các nhà cung cấp AI
phải đảm bảo rằng dịch vụ của họ không tạo ra hoặc chia sẻ "nội dung gây
nguy hiểm cho an ninh quốc gia, làm tổn hại đến danh dự và lợi ích quốc gia [hoặc]
làm suy yếu sự thống nhất quốc gia", tuyên bố cho biết thêm.
CAC khuyến khích việc
áp dụng AI, chẳng hạn như để quảng bá văn hóa địa phương và tạo ra các công cụ
đồng hành cho người cao tuổi, với điều kiện công nghệ đó an toàn và đáng tin cậy.
Họ cũng kêu gọi phản hồi từ công chúng.
Công ty AI DeepSeek
của Trung cộng đã gây chú ý trên toàn thế giới trong năm nay sau khi đứng đầu bảng
xếp hạng lượt tải ứng dụng.
Tháng này, hai công
ty khởi nghiệp Trung cộng Z.ai và Minimax, với tổng số hàng chục triệu người
dùng, đã công bố kế hoạch niêm yết trên thị trường chứng khoán.
Công nghệ này nhanh
chóng thu hút một lượng lớn người dùng, một số người sử dụng AI để bầu bạn hoặc
trị liệu.
Tác động của AI lên
hành vi con người đã được nhìn nhận kỹ lưỡng hơn trong những tháng gần đây.
Sam Altman, người đứng
đầu OpenAI, nhà sản xuất ChatGPT, nói trong năm nay rằng cách chatbot phản hồi
các cuộc hội thoại liên quan đến việc tự gây hại là một trong những vấn đề khó
khăn nhất của công ty.
Vào tháng 8/2025, một
gia đình ở California đã kiện OpenAI về cái chết của con trai 16 tuổi của họ,
cáo buộc rằng ChatGPT đã khuyến khích cậu bé tự tử. Vụ kiện đánh dấu hành động
pháp lý đầu tiên cáo buộc OpenAI gây ra cái chết đáng tiếc.
Tháng này, công ty
đã đăng tuyển vị trí "trưởng bộ phận chuẩn bị" chịu trách nhiệm phòng
chống các rủi ro từ mô hình AI đối với sức khỏe tâm thần và an ninh mạng của
con người.
Ứng viên trúng tuyển
sẽ chịu trách nhiệm theo dõi các rủi ro AI có thể gây hại cho con người.
Ông Altman nói:
"Đây sẽ là một công việc căng thẳng và bạn sẽ phải đối mặt với thử thách lớn
ngay lập tức."
Osmond Chia
No comments:
Post a Comment
Note: Only a member of this blog may post a comment.