Taylor Swift vướng phải bê bối ảnh nhạy cảm: AI càng mạnh, Deepfakes càng hoành hành, Microsoft và Twitter không thể đổ lỗi.

Giám đốc âm nhạc Taylor Swift mới đây đã phải đối mặt với một vụ việc gây sốc trên mạng xã hội. Vào tuần trước, một loạt các hình ảnh và video giả mạo (deepfakes) không phù hợp về cô được lan truyền rộng rãi trên nền tảng X. Những hình ảnh này thu hút hơn 27 triệu lượt xem và hơn 260 nghìn lượt thích trong vòng 19 giờ sau khi được đăng tải. Tuy nhiên, vì nội dung quá nhạy cảm nên chúng tôi sẽ không chia sẻ chi tiết.
Các hình ảnh deepfakes miêu tả cảnh tượng không phù hợp của Swift đã lan truyền nhanh chóng, bao gồm cả những hình ảnh viral đã đạt hàng triệu lượt xem. Các dấu vết trong hình cho thấy chúng xuất phát từ một trang web có lịch sử lâu đời chuyên đăng tải các hình ảnh giả mạo người nổi tiếng. Một phần của trang web này mang tên “AI Deepfakes”.
Vào ngày thứ Năm tuần trước, hashtag #ProtectTaylorSwift bắt đầu trở nên phổ biến trên X. Những hình ảnh này ban đầu được tải lên Telegram, sau đó nhanh chóng được chia sẻ trên các nền tảng mạng xã hội khác, đạt hàng triệu lượt xem và vẫn chưa bị gỡ bỏ khỏi một số nền tảng.
Trả lời lại sự việc, X dường như đã cấm tìm kiếm tên của Swift sau vài ngày, nhưng điều này diễn ra quá muộn so với việc giảm thiểu tác động do việc cắt giảm đáng kể nhân viên kiểm duyệt nội dung trong hai năm qua.
Sự kiện này một lần nữa nhấn mạnh vấn đề nghiêm trọng của việc tạo ra deepfakes không được sự đồng ý của chủ thể. Trước đó, mọi người đã bày tỏ lo ngại về các nội dung deepfakes không phù hợp đang lan truyền trực tuyến. Bây giờ, cả ngôi sao nhạc pop Taylor Swift cũng bị cuốn vào cuộc tranh cãi này, khiến toàn bộ cộng đồng mạng sôi sục. Đồng thời, công ty Microsoft cũng bị kéo vào cuộc.
Theo báo cáo của 404 Media, những hình ảnh này đến từ một cộng đồng sản xuất không tự nguyện trên Telegram, nơi khuyến nghị sử dụng công cụ tạo hình ảnh Microsoft Designer. Mặc dù theo nguyên tắc, công cụ này từ chối tạo hình ảnh của người nổi tiếng, nhưng hệ thống AI dễ dàng bị lừa đổi hướng bằng cách điều chỉnh nhỏ các thông điệp. Mặc dù điều này không chứng minh rằng Designer đã được sử dụng để tạo ra hình ảnh của Swift, nhưng đây là một vấn đề mà Microsoft cần giải quyết.
CEO của Microsoft, Satya Nadella, đã đưa ra phản ứng đối với vụ việc này. Ông cho biết việc lan truyền hình ảnh giả mạo không phù hợp là điều đáng sợ và cần được ngăn chặn. “An ninh mạng là điều quan trọng đối với tất cả mọi người. Vì vậy, không ai muốn sống trong một môi trường mạng mà người tạo và người tiêu dùng nội dung đều thiếu bảo vệ. Chúng ta cần hành động nhanh chóng dựa trên sự việc này.”
Satya cho biết họ đã thành công trong việc khắc phục lỗ hổng, nhưng trong phản hồi của mình, ông ít đề cập đến các vấn đề kỹ thuật cụ thể:
“Chúng ta cần thiết lập các rào cản xung quanh công nghệ để đảm bảo tạo ra nhiều nội dung an toàn hơn. Hiện tại, rất nhiều công việc đang được thực hiện, nhưng vẫn còn nhiều việc phải làm. Đây là một vấn đề toàn cầu cần sự đồng lòng về các quy tắc, đặc biệt là khi luật pháp, lực lượng thực thi pháp luật và các nền tảng công nghệ có thể kết hợp chặt chẽ với nhau, con người có khả năng quản lý nhiều vấn đề hơn họ tưởng.”
Sarah Bird, Giám đốc kỹ thuật AI của Microsoft, xác nhận rằng họ đang tiếp tục điều tra những hình ảnh này và tăng cường hệ thống bảo mật hiện tại để ngăn chặn dịch vụ của họ bị lạm dụng để tạo ra những hình ảnh tương tự.
Với nền tảng X, mặc dù họ đã cấm các hành vi có thể gây hại cho một nhóm người cụ thể, nhưng họ đã chậm trễ trong việc giải quyết vấn đề deepfakes không phù hợp.
Vào tháng 1, một ngôi sao Marvel 17 tuổi đã công khai cho biết cô đã tìm thấy các hình ảnh deepfakes không phù hợp của mình trên X nhưng không thể xóa chúng. Vào tháng 6 năm 2023, trên nền tảng này còn lan truyền các hình ảnh deepfakes không phù hợp của các ngôi sao TikTok, và sau khi liên hệ với X, chỉ một phần nhỏ nội dung đã được gỡ bỏ.
Với sự phát triển phức tạp và phổ biến của công nghệ AI, vấn đề này dường như ngày càng trở nên nghiêm trọng hơn mỗi năm.
Một báo cáo của Deeptrace Labs vào tháng 9 năm 2019 cho thấy 96% các nội dung deepfakes không phù hợp trực tuyến là không được sự đồng ý của chủ thể. Theo một nghiên cứu độc lập được chia sẻ bởi Wired vào tháng 10 năm 2023, trong chín tháng đầu năm 2023, đã có 113.000 video deepfakes được tải lên trang web deepfakes phổ biến nhất, tăng đáng kể so với 73.000 video trong cả năm 2022.
Nhiều fan của Taylor Swift đã bày tỏ sự thất vọng về việc thiếu các quy định pháp lý để kiểm soát các hình ảnh không phù hợp này.
Karine Jean-Pierre, phát ngôn viên của Nhà Trắng, tuyên bố rằng Quốc hội nên thực hiện các biện pháp lập pháp để ngăn chặn việc lan truyền các hình ảnh không phù hợp giả mạo. Cô nói với ABC News rằng, “Chúng tôi rất sốc trước báo cáo về việc lan truyền rộng rãi các hình ảnh không phù hợp này – đúng hơn là hình ảnh giả mạo.”
Tương tự, Jean-Pierre cũng kêu gọi các ứng dụng mạng xã hội như X xóa bỏ những hình ảnh này và ngăn chặn việc lan truyền nội dung không phù hợp trên mạng. Cô thêm rằng, “Mặc dù các công ty mạng xã hội có quyền quyết định riêng về việc quản lý nội dung, chúng tôi tin rằng họ có thể và nên đóng vai trò quan trọng trong việc thực thi các quy định, ngăn chặn thông tin sai lệch và hình ảnh nhạy cảm không được sự đồng ý của chủ thể.”
Vào đầu tháng này, các nghị sĩ Mỹ Joe Morelle (Dân chủ, New York) và Tom Kean (Cộng hòa, New Jersey) đã tái khởi động Dự luật Ngăn chặn Hình ảnh Deepfakes Nhạy Cảm. Dự luật này nhằm mục đích coi việc tạo và lan truyền hình ảnh không phù hợp không được sự đồng ý của chủ thể là tội phạm và có thể bị phạt tù lên đến mười năm.
Dorota, một nạn nhân của hình ảnh deepfakes không phù hợp, đã bày tỏ sự đau đớn khi không thể ngăn chặn việc lan truyền nội dung không phù hợp.
Francesca, trong bài phát biểu của mình, nhấn mạnh rằng, “Dù tôi còn trẻ, nhưng tiếng nói của tôi vẫn mạnh mẽ. Trước tình hình này, tôi sẽ không im lặng. Chúng ta cần dũng cảm lên tiếng, chống lại bất công mà chúng ta gặp phải. Sự việc này đã ảnh hưởng sâu sắc đến tôi và bạn bè của tôi, và tôi sẽ không ngồi yên và làm ngơ.”
“Tôi ở đây để mạnh mẽ kêu gọi thay đổi, chiến đấu vì luật pháp, để tránh cho nhiều người khác rơi vào hoàn cảnh bối rối và bất lực như tôi vào ngày 20 tháng 10 năm ngoái. Tiếng nói của chúng ta chính là vũ khí của chúng ta, và mẹ tôi và tôi yêu cầu một thế giới mạng an toàn hơn – không chỉ để duy trì công lý và hy vọng, mà còn để cải thiện môi trường thực tế mà chúng ta đang sống.”
Dự luật này đã được đệ trình lên Quốc hội vào năm 2023 và được Ủy ban Tư pháp Hạ viện tiếp nhận, nhưng không có hành động nào được thực hiện.
Chúng ta không phải không có vũ khí để đối mặt với thực tế. Công cụ và luật pháp mới có tiềm năng ngăn chặn loại hình ảnh không phù hợp này và giúp chúng ta hiệu quả hơn trong việc truy cứu trách nhiệm của những kẻ gây án.
Các nền tảng mạng xã hội sẽ sàng lọc các bài đăng được tải lên trang web của họ và xóa bỏ nội dung vi phạm chính sách. Tuy nhiên, từ vụ việc lan truyền video của Swift trên X, có vẻ như quá trình quản lý nội dung này chưa hoàn toàn đầy đủ và có thể bỏ sót nhiều nội dung gây hại. Ngoài ra, việc phân biệt nội dung thực tế và nội dung được tạo ra bằng AI cũng là một thách thức lớn.
Một giải pháp công nghệ khả thi là sử dụng dấu mộc để ẩn các tín hiệu không nhìn thấy được trong hình ảnh, giúp máy tính nhận biết liệu nội dung đó có được tạo ra bởi AI hay không. Ví dụ, Google đã phát triển hệ thống được gọi là SynthID, sử dụng mạng thần kinh để sửa đổi các điểm ảnh trong hình ảnh, từ đó thêm dấu mộc không nhìn thấy bằng mắt thường. Dấu mộc này vẫn có thể được phát hiện ngay cả khi hình ảnh được chỉnh sửa hoặc chụp lại, theo lý thuyết, các công cụ này có thể giúp doanh nghiệp cải thiện khả năng kiểm duyệt nội dung, phát hiện nhanh chóng các loại nội dung giả mạo bao gồm cả hình ảnh deepfakes không được sự đồng ý.
Lợi ích của phương pháp này là dấu mộc có tính thực tiễn cao, giúp dễ dàng và nhanh chóng nhận diện nội dung được tạo ra bởi AI, từ đó phát hiện các bài đăng độc hại đã bị xóa. Sasha Luccioni, một nhà nghiên cứu tại Hugging Face, đã nghiên cứu hệ thống AI về vấn đề thiên vị, cho biết việc bao gồm dấu mộc trong tất cả các hình ảnh có thể giúp kiềm chế hành vi của những kẻ xấu tạo ra nội dung deepfakes.
Nhược điểm của phương pháp này là hệ thống này vẫn đang trong giai đoạn thử nghiệm và chưa được áp dụng rộng rãi. Những kẻ xấu kiên trì cũng có thể tìm cách né tránh dấu mộc. Các công ty liên quan không áp dụng dấu mộc cho tất cả các hình ảnh được tạo ra bởi AI. Ví dụ, người dùng của công cụ tạo hình ảnh AI Imagen của Google có thể tự chọn việc có thêm dấu mộc vào hình ảnh AI hay không. Thực tế này rõ ràng hạn chế tác dụng của dấu mộc trong việc ngăn chặn nội dung deepfakes không phù hợp.
Hiện tại, mọi hình ảnh trực tuyến đều có thể được sử dụng để tạo ra nội dung deepfakes. Và với sự phức tạp và hiệu suất cải thiện của các hệ thống tạo hình ảnh AI mới, chúng ta càng khó phân biệt đâu là thật, đâu là giả.
Nhưng các công cụ bảo vệ mới đang cố gắng thay đổi cách hiểu và xử lý nội dung của các hệ thống AI, từ đó bảo vệ cá nhân khỏi việc bị lạm dụng bởi công nghệ deepfakes.
Ví dụ, công cụ PhotoGuard do các nhà nghiên cứu tại MIT phát triển, giống như một lớp bảo vệ vô hình, có thể thay đổi các pixel trong hình ảnh theo cách mà mắt thường không thể nhìn thấy. Khi ai đó sử dụng công cụ tạo hình ảnh AI như Stable Diffusion để xử lý hình ảnh đã được PhotoGuard chỉnh sửa, họ sẽ không nhận được kết quả mong đợi.
Công cụ Fawkes do các nhà nghiên cứu tại Đại học Chicago phát triển cũng thuộc loại công cụ này, nó sử dụng các tín hiệu ẩn để bảo vệ nội dung hình ảnh, đảm bảo rằng phần mềm nhận dạng khuôn mặt không thể dễ dàng nhận diện khuôn mặt trong hình ảnh.
Một công cụ mới khác có tên là Nightshade, cũng có thể bảo vệ mọi người khỏi tác động của các hệ thống AI. Công cụ này cũng do các nhà nghiên cứu tại Đại học Chicago phát triển, có khả năng thêm một lớp “độc hại” không nhìn thấy được vào hình ảnh. Công cụ này được phát triển để bảo vệ các hình ảnh nghệ thuật có bản quyền khỏi việc bị đánh cắp và sử dụng mà không có sự đồng ý của người sáng tạo. Tuy nhiên, về nguyên tắc, công nghệ này cũng có thể giúp bảo vệ bất kỳ hình ảnh nào của chủ sở hữu khỏi việc bị AI sử dụng. Khi công nghệ này lấy tài liệu đào tạo từ internet mà không có sự đồng ý của chủ sở hữu, các hình ảnh độc hại này sẽ phá hỏng mô hình AI, ví dụ như khiến mô hình nhận diện hình ảnh của mèo hoặc thậm chí là hình ảnh của Taylor Swift như hình ảnh của chó con.
Lợi ích của phương pháp này là nó có thể tăng cường độ khó khăn cho những kẻ xấu trong việc sử dụng hình ảnh mạng để tạo ra nội dung gây hại. Ajder cho biết, công nghệ này mang lại hy vọng trong việc ngăn chặn việc lạm dụng hình ảnh AI, và sau khi được phổ biến, nó sẽ tăng cường đáng kể khả năng quản lý nội dung giả mạo của các ứng dụng hẹn hò và mạng xã hội.
Nhược điểm của phương pháp này là lớp bảo vệ này chỉ hiệu quả với các mô hình AI mới nhất, và không chắc chắn rằng nó sẽ tiếp tục hoạt động ổn định trong các phiên bản sau. Ngoài ra, chúng không hiệu quả với những hình ảnh đã tồn tại trên mạng, và không thể bảo vệ các hình ảnh nổi tiếng thường xuyên xuất hiện trên mạng.
“Đây sẽ là một cuộc chạy đua công nghệ kéo dài,” Rumman Chowdhury, người sáng lập của công ty tư vấn và kiểm toán Ethical AI Parity Consulting, nhận định.
Khả năng sửa chữa công nghệ là có giới hạn, và sự thay đổi sâu sắc và toàn diện cuối cùng vẫn phụ thuộc vào việc siết chặt quản lý.
Vụ việc deepfakes của Taylor Swift không chỉ thu hút sự chú ý rộng rãi mà còn thúc đẩy nỗ lực chống lại các hành vi ác ý này. Nhà Trắng cho biết vụ việc này “là một cú sốc” và thúc giục Quốc hội thực hiện các biện pháp lập pháp.
Cho đến nay, Hoa Kỳ vẫn đang xây dựng các quy định quản lý từng tiểu bang riêng lẻ. Ví dụ, California và Virginia đã cấm việc tạo ra deepfakes không được sự đồng ý, và New York và Virginia còn cấm việc lan truyền loại nội dung này. Quốc hội Mỹ gần đây đã tái khởi động một dự luật mới hai bên, yêu cầu coi việc lan truyền hình ảnh giả mạo không phù hợp là tội phạm. Scandal deepfakes tại một trường trung học ở New Jersey cũng đã thúc đẩy các nhà lập pháp nghiêm túc xem xét dự luật Ngăn chặn Hình ảnh Deepfakes Nhạy Cảm. Sự chú ý rộng rãi do vụ việc của Swift có thể thu hút thêm sự ủng hộ từ cả hai bên.
Trên khắp thế giới, các cơ quan lập pháp đang thúc đẩy việc quản lý nghiêm ngặt công nghệ deepfakes. Tại Vương quốc Anh, Đạo luật An ninh Trực tuyến được thông qua vào năm ngoái đã cấm việc lan truyền nội dung deepfakes không phù hợp, nhưng không cấm việc tạo ra chúng. Người lan truyền có thể đối mặt với mức phạt tù tối đa sáu tháng.
Về phía Liên minh châu Âu, một loạt các dự luật mới đang cố gắng giải quyết vấn đề này từ nhiều góc độ khác nhau. Dự luật Toàn diện về Trí tuệ nhân tạo yêu cầu người tạo ra deepfakes phải công khai thông tin rằng nội dung được tạo ra bởi AI, trong khi Đạo luật Dịch vụ Kỹ thuật số yêu cầu các công ty công nghệ tăng tốc độ xóa bỏ nội dung gây hại.
Trung Quốc đã đi xa nhất trong việc quản lý deepfakes, với đạo luật được ban hành vào năm 2023. Tại đây, người tạo ra deepfakes phải chịu trách nhiệm thực hiện các biện pháp để ngăn chặn dịch vụ của họ được sử dụng cho mục đích bất hợp pháp hoặc gây hại, và họ phải xin phép và xác minh danh tính của người dùng trước khi tạo ra nội dung deepfakes, đồng thời đánh dấu nội dung được tạo ra bởi AI.
Lợi ích của việc quản lý này là nó cung cấp quyền cho nạn nhân theo đuổi, truy cứu trách nhiệm đối với việc tạo ra và lan truyền deepfakes không được sự đồng ý, từ đó tạo ra một sức mạnh răn đe mạnh mẽ. Các quy định này cũng gửi một tín hiệu rõ ràng rằng việc tạo ra deepfakes không được sự đồng ý là hành vi bất hợp pháp.
Ajder lưu ý rằng, với sự hiểu biết rộng rãi về việc tạo ra deepfakes không phù hợp là hành vi xâm phạm tình dục, một sự chuyển biến thực sự sẽ xuất hiện. “Điều này sẽ thay đổi thái độ thờ ơ của một số người đối với loại nội dung này, và phá vỡ quan niệm sai lầm rằng nội dung này vô hại hoặc không thuộc dạng lạm dụng thực sự.”
Nhược điểm của việc này là việc thực thi các quy định này rất khó khăn. Với tình hình công nghệ hiện tại, nạn nhân vẫn khó khăn trong việc tìm ra người gây ra vụ việc và kiện họ. Ngoài ra, người tạo ra deepfakes thực sự có thể nằm ở các khu vực tư pháp khác nhau, làm tăng thêm khó khăn trong việc kiện tụng.
Deepfakes không phải là hiện tượng mới, chúng đã khá phổ biến nhiều năm trước. Tuy nhiên, sự gia tăng của công nghệ tạo ra AI đang làm giảm bớt rào cản để tạo ra hình ảnh và video deepfakes không phù hợp và nội dung quấy rối tình dục.
Henry Ajder, một chuyên gia AI chuyên về AI tạo ra và media tổng hợp, cho biết trong số tất cả các hành vi ác ý liên quan đến AI tạo ra, số người bị ảnh hưởng bởi deepfakes không tự nguyện chiếm phần lớn, và nữ giới chiếm tỷ lệ cao.
Các giải pháp cho vấn đề deepfakes thường tập trung vào việc phân biệt giữa “thật” và “giả”, nhưng đối với hầu hết nạn nhân, điều này không có ích: dù theo cách nào, nhiều nạn nhân vẫn cảm thấy mình bị xâm phạm. Rối loạn trầm cảm, tổn thương tình dục và rối loạn căng thẳng sau chấn thương là những trải nghiệm phổ biến của nạn nhân, và họ khó khăn trong việc cảm thấy an toàn về mặt tâm lý.
Vì vậy, “trí tuệ nhân tạo vì lợi ích cộng đồng” và “không làm điều xấu” là trách nhiệm chung của các nhà phát triển và người dùng công nghệ.
### Từ khóa:
– Deepfakes
– Taylor Swift
– Microsoft
– #ProtectTaylorSwift
– Trí tuệ nhân tạo
© Thông báo bản quyền
Bản quyền bài viết thuộc về tác giả, vui lòng không sao chép khi chưa được phép.
Những bài viết liên quan:
Không có đánh giá...