Pages

Friday, August 4, 2023

Lừa đảo bằng deepfake tăng hơn 1,000% _ Deep fake là gì?

 BM

Khi ranh giới giữa thực tại và hư cấu ngày càng khó phân biệt, tội phạm trực tuyến chỉ cần hai tiếng đồng hồ để khiến máy điện toán tạo ra một sản phẩm “deepfake” như thật, vốn có thể hủy hoại cuộc sống của một người nào đó.


Sự gia tăng về mức độ phổ biến của các hình ảnh, âm thanh, và video siêu thực được phát triển bằng trí tuệ nhân tạo (AI) thường được gọi là deepfake đã khiến người dùng Internet giật mình.


BM

BM

https://www.youtube.com/watch?v=cQ54GDm1eL0&ab_channel=BuzzFeedVideo


Công nghệ này cũng mang lại cho những kẻ bại hoại trên mạng một lợi thế trong giới tội phạm.


Từ năm 2022 đến quý đầu tiên của năm nay (2023), chỉ riêng ở Hoa Kỳ, việc sử dụng deepfake để lừa đảo đã tăng đến 1,200%.


BM


Dù vậy, vấn đề này không chỉ xảy ra ở Mỹ.


Cùng một phân tích cho thấy deepfake được sử dụng cho mục đích lừa đảo đã bùng nổ ở Canada, Đức, và Vương quốc Anh. Trong nghiên cứu, Hoa Kỳ chiếm 4.3% các vụ lừa đảo deepfake toàn cầu.


Trong khi đó, các chuyên gia AI và các nhà điều tra tội phạm mạng nói rằng chúng ta mới chỉ thấy phần nổi của tảng băng. Những hiện tượng phức tạp của lừa đảo bằng deepfake vẫn tiếp tục.


Ông Michael Roberts nói: “Tôi tin rằng động cơ số 1 khiến bọn tội phạm trực tuyến hoành hành trên mạng là do cơ quan chấp pháp và khả năng theo sát của họ.”


BM

https://www.youtube.com/watch?v=ZaxWPog4h28&t=9s&ab_channel=RapMusic


Ông Roberts là một nhà điều tra chuyên nghiệp và là nhà sáng lập công ty tiên phong Rexxfiled chuyên giúp đỡ nạn nhân của các cuộc tấn công trên web.


Ông cũng thành lập PICDO, một tổ chức chống tội phạm trực tuyến và điều hành chương trình đào tạo chống xâm nhập mạng cho các quân chủng của quân đội Hoa Kỳ, Úc cũng như NATO.


Ông Roberts cho biết, hệ thống luật pháp ở thế giới Tây phương đang bị các vụ lừa đảo trực tuyến “lấn át trong vô vọng,” trong đó có nhiều vụ tấn công bằng deepfake. Hơn nữa, phương pháp chọn lựa được sử dụng để quyết định xem vụ nào được điều tra mà không cần thuê các công ty tư nhân.


Ông cho biết: “Và cho dù như thế, vụ việc vẫn không được giải quyết.”


Theo báo cáo của HSRC, vào năm 2020, thị trường các công cụ phát hiện deepfake được định giá 3.86 tỷ USD và dự báo sẽ tăng trưởng 42% mỗi năm cho đến năm 2026.


Trò đánh lận con đen


BM


Hãy hình dung quý vị nhận được một cú điện thoại từ một người thân yêu, vừa khóc vừa nói rằng họ bị bắt cóc. Đương nhiên, những kẻ bắt cóc muốn có tiền, còn giọng nói của thân nhân quý vị tiếp tục hướng dẫn cách thức giao tiền chuộc.


Quý vị có thể tin rằng ở đầu dây bên kia là giọng nói của người mà quý vị thương yêu, nhưng cũng có thể không phải.


Trong năm nay, các vụ lừa đảo bằng âm thanh deepfake hay “nhân bản giọng nói” đã lan ra rất nhanh trên khắp Hoa Kỳ, khiến những người có lòng trắc ẩn và không có sự đề phòng ở nhiều tiểu bang bị bất ngờ.


Tuy nhiên sự việc không dừng lại ở đó. Các cuộc tấn công deepfake có thể xảy ra dưới nhiều hình thức khác nhau. Những trò lừa đảo khôn lanh này cũng có thể xuất hiện dưới dạng trò chuyện video với người mà quý vị biết.


Các vụ lừa đảo cũng có thể xuất hiện dưới dạng bài đăng trên mạng xã hội của một đồng nghiệp lâu năm để thảo luận cách để khoản đầu tư tiền mã hóa giúp cho họ mua căn nhà mới đẹp đẽ mà họ đang hào hứng chỉ cho quý vị thấy trong một bức ảnh.


Ông Roberts nói: “Chúng ta đã bắt gặp rất nhiều vụ lừa đảo tiền mã hóa.”


Deepfake cũng được sử dụng để tống tiền. Phương thức thường là tạo ra một video hoặc ảnh chất lượng tàm tạm của nạn nhân trong một tình huống dâm ô hoặc gây mất thể diện.


Thế rồi những kẻ tấn công yêu cầu một khoản tiền chuộc, bằng không chúng sẽ phát tán hình ảnh giả mạo này cho đồng nghiệp, cấp trên, gia đình, và những người bạn của nạn nhân.

BM

Từng vụ việc trong số những ví dụ nói trên đã thật sự diễn ra.


Tuy nhiên để tạo ra những thứ giả mạo như thật này, bọn tội phạm cần có quyền truy cập vào các tài liệu như ảnh, âm thanh, và video. Thật không may, lấy được những tư liệu này là điều không khó.


Ông Roberts nói: “Nếu ai đó truy cập vào các ảnh riêng tư trong iCloud của quý vị vốn cung cấp tất cả các mẫu ảnh, thì toàn bộ công nghệ này… sẽ tạo ra những bức ảnh giả siêu thực.”


Hồ sơ truyền thông xã hội là một nguồn tư liệu quý báu cho những tên tội phạm đang tìm cách tạo ra những sản phẩm này.


Con đường để nạn nhân thu hồi tài sản bị mất và danh tiếng có thể rất nghiệt ngã. Ông Roberts lưu ý rằng vụ kiện tụng chống lại tội phạm trực tuyến là một cuộc chiến khó khăn. “Đó là quá trình kéo dài, gian khổ, dai dẳng, và bào mòn người ta về cảm xúc lẫn tài chính.”


Những người khác trong ngành AI nói rằng vấn đề không chỉ nằm ở chất lượng của các sản phẩm giả mạo mà còn ở số lượng.


Ông Alan Ikoev nói: “Sớm hay muộn, người ta sẽ có thể tạo ra bất kỳ tổ hợp pixel của bất kỳ loại nội dung nào. Và việc gạn lọc là tùy thuộc vào quý vị.”


BM


Ông Ikoev là giám đốc điều hành của Fame Flow, công ty tạo ra các quảng cáo dành cho người nổi tiếng và người có ảnh hưởng được cấp phép.


Là một người tiên phong về nội dung được ủy quyền do AI tạo ra liên quan đến những người nổi tiếng, ông đã quá quen thuộc với những hoạt động của các đồng nghiệp phản diện.


Nhưng để chống lại những trò gian lận ngày càng tinh vi này, mọi người cần phải ngờ vực mọi thứ họ nhìn thấy trên mạng. Ông Ikoev nói: “Nếu họ không đặt nghi vấn, thì họ sẽ dễ dàng tin theo.”


Phân biệt thật giả trên mạng đã trở nên khó khăn. Theo một cuộc khảo sát của Ipsos với hơn 25,000 người tham gia ở 25 quốc gia, 86% người dùng Internet thừa nhận họ đã bị các tin tức giả đánh lừa.


Cuộc khảo sát này được kết hợp với một nghiên cứu an ninh mạng gần đây, cho thấy hiện nay các bot tạo ra gần một nửa lưu lượng truy cập Internet.


Nhưng toàn bộ tin xấu không dừng lại ở đó. Ông Roberts cho rằng bọn tội phạm chưa bắt kịp tốc độ phát triển của công nghệ vốn hiện đang vượt xa “những nhân tố xấu.”

Tuy nhiên, cần phải cảnh giác và có sẵn một kế hoạch để đẩy lùi hoặc chống lại các cuộc tấn công bằng deepfake.


Các hành động và biện pháp đối phó


BM


Sự tiến bộ nhanh chóng của công nghệ lừa đảo dường như gợi lên hoài niệm về cái thời mà các vụ lừa đảo trên Internet chỉ là một thư điện tử từ một hoàng tử tự xưng ở một vùng đất xa xôi nào đó cần giúp chuyển tiền.


AI đã cung cấp cho tội phạm mạng những công cụ tốt hơn, nhưng công nghệ này cũng có thể được sử dụng để chống tội phạm.


Ông Nikita Sherbina, giám đốc điều hành của AIScreen, nói với The Epoch Times, “Việc phát triển các công cụ phát hiện deepfake tân tiến áp dụng thuật toán do AI điều khiển là vô cùng quan trọng để chống lại mối đe dọa này. Nỗ lực hợp tác giữa các nhà phát triển AI, nhà nghiên cứu, và công ty công nghệ là điều cần thiết để tạo ra các biện pháp bảo mật mạnh mẽ và nâng cao nhận thức.”


Ông Sherbina cho biết các doanh nghiệp có thể tự bảo vệ mình bằng cách tăng cường công nghệ. Thực chất là biện pháp lấy đòn phản đòn về kỹ thuật số.


Ông nói: “Hãy khai triển các hệ thống xác thực tân tiến dựa trên AI, bao gồm nhận dạng giọng nói và khuôn mặt cùng với xác thực đa yếu tố. Việc liên tục theo dõi và phân tích các mẫu giao tiếp bằng thuật toán AI cũng có thể giúp phát hiện và ngăn chặn các hoạt động lừa đảo.”


Nhưng với mỗi cá nhân, việc phá vỡ hoặc ngăn chặn một vụ lừa đảo deepfake đơn giản hơn.


BM

Trong trường hợp nghi ngờ có một cuộc tấn công nhại giọng nói, ông Roberts cho biết, “Đầu tiên quý vị nên nói, ‘em yêu, anh sẽ gọi lại cho em ngay.’”


Ông lưu ý rằng những kẻ lừa đảo sẽ bịa ra một cái cớ tại sao quý vị không thể gọi lại để xác minh danh tính của họ. Có một mẹo để đánh lạc hướng bọn tội phạm dùng âm thanh nhân bản để giả mạo một vụ bắt cóc là hỏi người gọi những câu hỏi về các thông tin riêng tư không được công khai.


Ông Roberts nói thêm, “Hãy thảo luận về nạn lừa đảo này với gia đình quý vị trước khi vụ việc thực sự xảy ra để họ hiểu những gì quý vị đang làm.”


Ông nhấn mạnh tầm quan trọng của việc không sử dụng các địa chỉ thư điện tử cá nhân có tên đầy đủ hoặc các số liên quan đến ngày sinh của người dùng.


Ngoài ra, người dùng không bao giờ nên sử dụng cùng một mật khẩu đăng nhập cho nhiều trương mục. Ông Roberts lưu ý rằng điều đầu tiên mà tin tặc làm khi lấy được mật khẩu là thử đăng nhập vào mọi trang web có thể để xem mật khẩu này trùng khớp với trương mục nào.


Điều này đúng với các trương mục ngân hàng, lưu trữ đám mây, truyền thông xã hội, v.v.


BM


Nhưng trong khi deepfake đã giúp nâng cao tiêu chuẩn của bọn lừa đảo trực tuyến, thì các phương pháp theo dõi họ vẫn không thay đổi.


Ông Ikoev nói: “Quy trình không thay đổi. AI chỉ là nội dung… còn breadcrumb (*) mà bọn tội phạm để lại thì luôn giống nhau.”


(*) breadcrumb: một tập hợp các liên kết cho phép cho người dùng xác định được vị trí hiện tại của mình trên cấu trúc website


Người ta có thể thiết lập tốt việc lần theo dấu vết bọn lừa đảo, nhưng không thể đưa ra một cách thức rõ ràng để thu hồi số tiền bị mất.


Theo một phân tích, các vụ lừa đảo tài chính bằng deepfake có thể dao động từ 243,000 đến 35 triệu USD.


Ví dụ như, một dụ dỗ đầu tư tiền mã hóa bằng cách sử dụng các chân dung giả mạo ông Elon Musk được cho là khiến người tiêu dùng Hoa Kỳ thất thoát khoảng 2 triệu USD trong sáu tháng.


Có lẽ điều rắc rối hơn là bất cứ ai cũng có thể tạo ra một deepfake. Ông Ikoev giải thích rằng tất cả những gì mà người ta cần để tạo một deepfake trên điện thoại thông minh là một card đồ họa và xem một vài hướng dẫn trên web.


Ông nói: “Vậy là đủ để quý vị tiến hành.”

 

Những gì có thể xảy ra tiếp theo?


BM


Thời điểm diễn ra cuộc bầu cử tổng thống Hoa Kỳ sắp tới vào năm 2024 là rất bấp bênh, do sự gia tăng của các nội dung deepfake.


Ông Roberts cho biết người Mỹ nên chuẩn bị tinh thần cho một cuộc đua bầu cử đầy rẫy những kẻ lừa đảo sử dụng kho vũ khí deedfake.


Bộ An ninh Nội địa Hoa Kỳ cũng bày tỏ lo ngại về việc sử dụng công nghệ này khi nêu rõ: “Mối đe dọa từ deepfake và truyền thông giả không đến từ công nghệ được sử dụng để tạo ra các sản phẩm này, mà từ xu hướng tự nhiên của con người là tin vào những gì họ nhìn thấy.”


Lúc này, những rắc rối mới đã xuất hiện.


Trước đó trong năm nay, các video cho thấy các chính trị gia Hoa Kỳ đưa ra những nhận xét rất khác thường đã nổi lên.


Một video liên quan đến việc bà Hillary Clinton ủng hộ ông Ron DeSantis, một ứng cử viên tổng thống đầy triển vọng thuộc Đảng Cộng Hòa.


Một video khác mô tả Tổng thống Joe Biden đang có những lời nhận xét vô cùng giận dữ về một người chuyển giới.


Theo ông Roberts, đây mới chỉ là bước khởi đầu.


BM


Ông nói: “Deepfake sẽ được sử dụng nhiều để can thiệp vào chính trị,” đồng thời cho biết thêm rằng công nghệ này sẽ khiến công chúng đối mặt với sự kiện tiếp theo có tầm cỡ như COVID nhưng tồi tệ hơn nhiều.


“Tôi không nói về loại thông tin sai lệch như mô tả của cánh tả cấp tiến. Tôi đang nói về những lời dối trá có chủ ý được sử dụng để thao túng xã hội trên toàn thế giới.”




Autumn Spredemann  _  Doanh Doanh


***

Deep fake là gì?

 BM
Trí tuệ con người đang dần dần bị “trí tuệ nhân tạo” (AI=Artificial Intelligence) thay thế trong khá nhiều lãnh vực như chơi cờ vua, dịch thuật, y tế trị liệu, xử lý dữ liệu để tự học hỏi... Bài viết sau đây nói về một khả năng khác của AI đang làm con người hoảng sợ. 

BM
Điều trị vết thương cấp tính bằng thuốc tự nhiên
Lời xin lỗi "Cay Đắng _ Bitter Apology"
Bản chất của chủ nghĩa cánh tả thời nay
Quan hệ tình dục qua mạng: Xu thế mới thời đại dịch
Thảm kịch ‘Đông Âu biến động, Liên Xô tan rã’ có thể xảy ra ở Trung cộng
Thành phố Munich: Một kỳ quan hiện đại và truyền thống
Hoa Kỳ mời tân ngoại trưởng Trung cộng
Biden cấm bóng đèn sợi _ Đẩy nhanh quá trình chuyển sang đèn LED
Nghệ thuật chôn sống
Bàn về thời trang nổi loạn của thiếu niên
Chương trình HO và những người có công đầu
Béo phì liên quan đến các rối loạn tâm thần
Chúng ta hoàn toàn bị nhấn chìm trong "Ngụy Khoa Học"
Ngân hàng thắt chặt tiêu chuẩn tín dụng cho doanh nghiệp và người tiêu dùng
Thêm nhiều tin buồn cho nền kinh tế Trung cộng
Các chiến lược kinh tế thất bại của Trung cộng
Tư thế nằm ngủ nào là tốt nhất?
Vũ khí hóa ngân hàng của quý vị
Dựa vào thế lực của Cha: Hunter Biden làm tiền
Biết cách chu toàn giữa việc dạy học tại gia và sự nghiệp

No comments:

Post a Comment

Note: Only a member of this blog may post a comment.