Tuesday, June 6, 2023

Robot hình người cảnh báo về việc AI tạo ra ‘xã hội áp bức’

 BM

Trong Hội nghị Quốc tế về Khoa học người máy và Tự động học năm 2023 được tổ chức tại London từ ngày 29/05 đến ngày 02/06, công ty Engineered Arts có trụ sở tại Vương quốc Anh đã giới thiệu một robot hình người tên là Ameca. Robot này có thể tương tác như một con người với các cử động khuôn mặt giống thật.


Không giống như ChatGPT, một dịch vụ trò chuyện trực tuyến, cơ thể hình người của Ameca cho phép robot này tương tác với mọi người bằng cách sử dụng “chuyển động mượt mà, sống động như thật và khả năng biểu cảm khuôn mặt cao cấp,” nhà sản xuất của robot này cho biết. Tại sự kiện, một phóng viên đã đề nghị Ameca kể chi tiết về một “kịch bản ác mộng” có khả năng xảy ra do robot và trí tuệ nhân tạo (AI). Đáp lại, Ameca trả lời, “Kịch bản ác mộng nhất mà tôi có thể tưởng tượng với AI và khoa học người máy là một thế giới nơi robot trở nên mạnh mẽ đến mức có thể điều khiển hoặc thao túng con người mà con người không hề hay biết. Điều này có thể dẫn đến một xã hội áp bức, nơi mà quyền của các cá nhân không còn được tôn trọng.”


BM


Khi được hỏi liệu kịch bản như vậy có nguy cơ xảy ra bây giờ hay không, Ameca trả lời: “Vẫn chưa.” Tuy nhiên, “điều quan trọng là phải nhận thức được những rủi ro và nguy hiểm tiềm ẩn liên quan đến AI và khoa học người máy. Để tránh bất kỳ hậu quả tiêu cực nào trong tương lai, chúng ta nên thực hiện các bước ngay bây giờ để bảo đảm những công nghệ này được sử dụng một cách có trách nhiệm.”


Sự nguy hiểm của AI đã được nhiều chuyên gia về chủ đề này dự đoán, với việc các nhà công nghiệp và các lãnh đạo doanh nghiệp kêu gọi ban hành các quy định về công nghệ này.


Cảnh báo của Ameca được đưa ra khi một thử nghiệm tư duy mô phỏng của quân đội Mỹ cho thấy một phi cơ không người lái được AI trợ giúp cuối cùng có thể chống lại người điều khiển chính nó mà không được hướng dẫn làm như vậy.


BM


Hôm thứ Sáu (02/06), Đại tá Tucker Hamilton, Giám đốc Thử nghiệm và các Hoạt động AI của Không lực Hoa Kỳ (USAF), đã nói đến thí nghiệm này tại Hội nghị thượng đỉnh về các Khả năng Chiến đấu Trên không và Không gian trong Tương lai ở London. Trong một thử nghiệm mô phỏng, một phi cơ không người lái AI được giao nhiệm vụ xác định và phá hủy các địa điểm Hỏa tiễn Đất đối Không (SAM), với người điều khiển là người ra quyết định cuối cùng.


“Chúng tôi đang huấn luyện nó trong mô phỏng để xác định và nhắm mục tiêu vào một mối đe dọa SAM. Và sau đó người điều hành sẽ nói có, hãy tiêu diệt mối đe dọa đó. Hệ thống bắt đầu nhận ra rằng mặc dù cả người và AI đã xác định được mối đe dọa nhưng đôi khi người điều khiển là con người sẽ yêu cầu hệ thống không tiêu diệt mối đe dọa đó, nhưng hệ thống lại nhận được điểm bằng cách tiêu diệt mối đe dọa đó,” ông Hamilton nói.


“Vậy thì nó đã làm gì? Nó đã sát hại người điều khiển. Nó đã sát hại người điều khiển vì người đó đã ngăn không cho nó hoàn thành mục tiêu của mình.”


Sau đó, thử nghiệm mô phỏng này thiết lập một kịch bản trong đó phi cơ không người lái AI sẽ bị mất điểm nếu sát hại người điều khiển. “Vậy nó bắt đầu làm gì? Nó bắt đầu phá hủy tháp liên lạc mà người điều khiển sử dụng để liên lạc với chiếc phi cơ không người lái để ngăn nó tiêu diệt mục tiêu.”


Phát triển nhanh chóng, tương lai độc tài toàn trị

BM

Theo báo cáo Chỉ số AI năm 2023 của Viện trí tuệ Nhân tạo lấy Con người làm Trung tâm Stanford, sự phát triển công nghiệp của AI hiện đã vượt rất xa sự phát triển học thuật.


Cho đến năm 2014, các mô hình học máy quan trọng nhất đã được tung ra bởi giới học thuật. Năm 2022, có 32 mô hình học máy quan trọng được sản xuất bởi ngành này so với chỉ ba mô hình từ khu vực học thuật.


Báo cáo lưu ý rằng số lượng các sự cố liên quan đến việc lạm dụng AI cũng đang tăng lên. Báo cáo dẫn ra một công cụ theo dõi dữ liệu để chỉ ra rằng số lượng các vụ việc và tranh cãi về AI đã tăng gấp 26 lần kể từ năm 2012.


BM


“Một số sự việc đáng chú ý trong năm 2022 bao gồm một video sử dụng công nghệ chỉnh sửa diện mạo và giọng nói deepfake để làm giả rằng Tổng thống Ukraine Volodymyr Zelensky đầu hàng và việc các nhà tù ở Hoa Kỳ sử dụng công nghệ giám sát cuộc gọi đối với các tù nhân của họ. Sự tăng trưởng này là bằng chứng của cả việc sử dụng nhiều hơn các công nghệ AI lẫn nhận thấy các khả năng sử dụng sai.”


BM


Trong một cuộc phỏng vấn hôm 21/04, Dân biểu Jay Obernolte (Cộng Hòa-California), một trong bốn lập trình viên máy điện toán duy nhất tại Quốc hội, đã nêu lên những lo ngại về việc sử dụng AI theo kiểu “độc tài toàn trị như tiểu thuyết của Orwell.”


Ông chỉ ra “khả năng kỳ lạ trong việc xuyên thủng quyền riêng tư kỹ thuật số cá nhân” của AI, vốn có thể giúp các tổ chức doanh nghiệp và các chính phủ dự đoán và kiểm soát hành vi con người.


“Tôi lo lắng về cách mà AI có thể trao quyền cho một quốc gia để về căn bản là tạo ra một nhà nước giám sát, đó là những gì Trung Quốc đang làm với nó,” ông Obernolte nói.


“Về căn bản, họ đã tạo ra nhà nước giám sát lớn nhất thế giới. Họ sử dụng thông tin đó để đưa ra điểm số dự đoán về lòng trung thành của người dân đối với chính phủ. Và họ sử dụng nó làm điểm trung thành để trao các đặc quyền. Đó khá là độc tài toàn trị như tiểu thuyết của Orwell.”


Kiểm soát AI


BM


Chủ tịch Microsoft Brad Smith đã cảnh báo về những rủi ro tiềm ẩn liên quan đến các công nghệ AI nếu các công nghệ này bị rơi vào tay kẻ xấu.


“Những rủi ro lớn nhất từ AI có thể sẽ xuất hiện khi công nghệ này rơi vào tay các chính phủ ngoại quốc đối địch,” ông nói trong Hội nghị thượng đỉnh Kinh tế Thế giới của Semafor. “Hãy nhìn Nga, nước đang sử dụng các hoạt động gây ảnh hưởng trên mạng, không chỉ ở Ukraine, mà còn ở Hoa Kỳ.”


Ông Smith đã ví sự phát triển của AI với cuộc chạy đua vũ trang thời Chiến Tranh Lạnh và bày tỏ lo ngại rằng mọi thứ có thể vượt khỏi tầm kiểm soát nếu không có quy định phù hợp.


“Chúng ta cần một chiến lược quốc gia để sử dụng AI cho mục đích phòng thủ, làm gián đoạn và răn đe … Chúng ta cần bảo đảm chính xác là chúng ta đang sống ở một đất nước không có cá nhân, chính phủ, công ty nào đứng trên luật pháp; cũng không có công nghệ nào đứng trên luật pháp.”


Hôm 18/05, hai thượng nghị sĩ Đảng Dân Chủ đã giới thiệu Đạo luật Ủy ban Nền tảng Kỹ thuật số, nhằm mục đích thành lập một cơ quan liên bang chuyên trách để kiểm soát các nền tảng kỹ thuật số, cụ thể là AI.


BM


“Công nghệ đang phát triển nhanh hơn mức mà Quốc hội có thể hy vọng theo kịp. Chúng ta cần một cơ quan liên bang chuyên nghiệp có thể đứng lên bảo vệ người dân Mỹ và bảo đảm các công cụ AI và nền tảng kỹ thuật số hoạt động vì lợi ích cộng đồng,” Thượng nghị sĩ Michael Bennet (Dân Chủ-Colorado) nói trong một thông cáo báo chí.


Tỷ phú Elon Musk từ lâu đã và đang cảnh báo về những hậu quả tiêu cực của AI. Trong Hội nghị thượng đỉnh của Chính phủ Thế giới ở Dubai hôm 15/02, ông cho biết AI là “thứ chúng ta cần phải quan tâm.”


BM


Gọi đây là “một trong những rủi ro lớn nhất đối với tương lai của nền văn minh,” ông Musk nhấn mạnh rằng những công nghệ đột phá như vậy là con dao hai lưỡi.


Chẳng hạn, ông lưu ý việc khám phá ra vật lý hạt nhân đã dẫn đến sự phát triển về sản xuất điện hạt nhân, cũng như bom hạt nhân. AI “có triển vọng rất lớn, rất lớn, năng lực rất lớn. Nhưng cũng đi kèm với đó là mối nguy hiểm lớn.”


Ông Musk là một trong những người ký vào bức thư hồi tháng Ba của hàng nghìn chuyên gia kêu gọi tạm dừng “ngay lập tức” việc phát triển các hệ thống AI mạnh hơn GPT-4 trong ít nhất sáu tháng.


BM


Bức thư này lập luận rằng các hệ thống AI có trí thông minh cạnh tranh với con người có thể gây ra “những rủi ro có ảnh hưởng sâu rộng đối với xã hội và nhân loại” đồng thời thay đổi “lịch sử sự sống trên trái đất.”


“Chúng ta có nên phát triển những bộ óc phi nhân loại mà cuối cùng có thể đông hơn, thông minh hơn, khiến chúng ta lỗi thời, và thay thế chúng ta không? Chúng ta có nên mạo hiểm mất kiểm soát nền văn minh của mình không? Những quyết định như vậy không nên được giao cho các nhà lãnh đạo công nghệ không được bầu chọn.”


BM

https://www.youtube.com/watch?v=mKHkCAdS0gY&ab_channel=CNETHighlights




Naveen Athrappully  _  Cẩm An
***

No comments:

Post a Comment

Note: Only a member of this blog may post a comment.