Vũ khí bí mật của OpenAI đã bị lộ: Có khả năng nhận diện nội dung do AI tạo ra với độ chính xác 99%! Công việc bạn được AI làm giờ không thể giấu giếm sếp nữa rồi.

công nghệ số5tháng trướccập nhật AIANT
39 00
Vũ khí bí mật của OpenAI đã bị lộ: Có khả năng nhận diện nội dung do AI tạo ra với độ chính xác 99%! Công việc bạn được AI làm giờ không thể giấu giếm sếp nữa rồi.

Trong những ngày gần đây, nhiều báo cáo từ các phương tiện truyền thông quốc tế cho biết, công ty OpenAI đã phát triển một phương pháp đáng tin cậy để phát hiện liệu có ai đó đã sử dụng ChatGPT để hoàn thành bài tập hoặc viết nghiên cứu khoa học hay không. Tuy nhiên, mặc dù mọi người đều lo ngại về việc học sinh sử dụng AI để gian lận, công ty vẫn chưa công bố giải pháp này.

Theo nguồn tin nội bộ và các tài liệu nội bộ được tờ Wall Street Journal xem xét, dự án này đã gây ra tranh cãi gay gắt trong nội bộ OpenAI trong suốt hai năm qua và đã sẵn sàng để ra mắt cách đây một năm. Một nguồn tin cho biết, “Chỉ còn thiếu một bước cuối cùng.”

Quá trình ra quyết định thực tế của OpenAI đã xoay quanh sự cam kết minh bạch ban đầu của họ và mong muốn thu hút và giữ chân người dùng. Trong một cuộc khảo sát với nhóm người dùng trung thành của ChatGPT, công ty phát hiện ra rằng gần một phần ba người dùng sẽ ngừng sử dụng nếu có công cụ chống gian lận.

Một đại diện của OpenAI cho biết, công ty lo ngại công cụ này có thể ảnh hưởng đặc biệt lớn đến những người không nói tiếng Anh là ngôn ngữ mẹ đẻ. Cô giải thích, “Phương pháp đánh dấu văn bản mà chúng tôi đang phát triển về mặt kỹ thuật rất hứa hẹn, nhưng cũng tiềm ẩn nhiều rủi ro. Hiện tại, chúng tôi đang nghiên cứu các giải pháp thay thế và cân nhắc các rủi ro. Theo quan điểm của chúng tôi, do vấn đề phức tạp và tác động tiềm ẩn đối với hệ sinh thái rộng lớn hơn ngoài OpenAI, chúng tôi cần tiếp cận thận trọng hơn.”

Những nhân viên ủng hộ công cụ này, bao gồm cả những người đã giúp phát triển nó, đã bày tỏ trong nội bộ rằng so với lợi ích mà công nghệ này mang lại, những lo ngại trên là không đáng kể.

AI tạo ra văn bản có thể tạo ra toàn bộ bài tập hoặc nghiên cứu khoa học trong vài giây mà không cần chi phí. Giáo viên và giáo sư đã nhấn mạnh rằng họ cần sự hỗ trợ chính thức từ phía OpenAI để ngăn chặn tình trạng lạm dụng công nghệ này.

Alexa Gutterman, một giáo viên dạy tiếng Anh và báo chí tại trường trung học ở New York, cho biết, “Đây đã trở thành một vấn đề lớn, tất cả giáo viên mà tôi làm việc cùng đều đang thảo luận về xu hướng này.”

Một cuộc điều tra gần đây của Trung tâm Dân chủ và Công nghệ (một tổ chức phi lợi nhuận quan tâm đến chính sách công nghệ) cho thấy 59% giáo viên trung học và phổ thông đã nhận thấy học sinh sử dụng AI để giúp hoàn thành bài tập, tỷ lệ này tăng 17% so với năm trước.

CEO của OpenAI, Sam Altman, và CTO Mira Murati, cũng đã tham gia vào cuộc thảo luận về công cụ chống gian lận. Theo một nguồn tin, Altman đã ủng hộ dự án này nhưng không thúc đẩy việc công bố.

Tập đoàn News Corp, sở hữu tờ Wall Street Journal, cũng đã thiết lập quan hệ hợp tác cấp phép nội dung với OpenAI.

ChatGPT hoạt động dựa trên một hệ thống AI có khả năng dự đoán từ hoặc đoạn văn tiếp theo trong câu. Công cụ chống gian lận mà OpenAI đang thảo luận sẽ thay đổi cách chọn từ, tạo ra một mẫu gọi là “đánh dấu”.

Đánh dấu này không thể nhìn thấy bằng mắt thường nhưng có thể được phát hiện bằng công nghệ phát hiện của OpenAI. Công cụ phát hiện sẽ đưa ra một điểm số, thể hiện khả năng một tài liệu hoặc phần của tài liệu được tạo ra bởi ChatGPT.

Theo tài liệu nội bộ, sau khi ChatGPT tạo ra đủ văn bản mới, hiệu quả của cơ chế đánh dấu đạt tới 99.9%.

Nhóm nghiên cứu của John Thickstun tại Đại học Stanford cũng đang phát triển phương pháp đánh dấu văn bản AI tương tự, ông cho biết, “Xác suất Mặt trời nổ tung hôm nay còn cao hơn xác suất học sinh viết bài mà không dùng AI.”

Mặc dù vậy, một nhân viên của OpenAI đã tiết lộ rằng họ lo ngại những đánh dấu này có thể bị xóa đơn giản bằng cách dịch văn bản sang một ngôn ngữ khác bằng Google và dịch lại, hoặc thêm biểu tượng cảm xúc vào văn bản bằng ChatGPT và xóa thủ công.

Công ty cũng đã thảo luận về việc công cụ phát hiện nên được cung cấp cho ai sử dụng. Nếu quá ít người sử dụng, nó sẽ không có ý nghĩa thực tế; nhưng nếu mở rộng quyền truy cập, kẻ xấu có thể phá vỡ công nghệ đánh dấu.

Nhân viên của OpenAI cũng đã thảo luận về việc cung cấp công cụ phát hiện trực tiếp cho giáo viên hoặc doanh nghiệp bên ngoài để giúp trường học nhận biết các bài viết và bài sao chép được tạo ra bởi AI.

Google cũng đã phát triển một công cụ đánh dấu để phát hiện văn bản được tạo ra bởi hệ thống AI của họ, Gemini AI. Công cụ này có tên SynthID và hiện đang trong giai đoạn thử nghiệm beta, chưa được mở rộng ra công chúng.

OpenAI cũng có công cụ để xác định liệu nội dung hình ảnh có được tạo ra bởi hệ thống tạo hình ảnh từ văn bản DALL-3 của họ hay không và đã mở cửa thử nghiệm vào mùa xuân năm nay. Nhân viên nội bộ cho biết, công ty ưu tiên phát triển dấu hiệu âm thanh và thị giác hơn là dấu hiệu văn bản, vì những vấn đề này rõ ràng nguy hiểm hơn trong bối cảnh bầu cử ở Mỹ.

Tháng 1 năm 2023, OpenAI đã công bố một thuật toán nhằm phát hiện văn bản được tạo ra bởi nhiều mô hình AI khác nhau, nhưng tỷ lệ thành công chỉ đạt 6%. Bảy tháng sau, OpenAI đã quyết định rút lại công cụ này.

Có nhiều công cụ tương tự được phát triển bởi các doanh nghiệp và nhà nghiên cứu bên ngoài, nhiều giáo viên đã thử nghiệm chúng, nhưng đôi khi không chỉ không phát hiện được văn bản được tạo ra bởi mô hình ngôn ngữ lớn mà còn thường xuyên tạo ra báo cáo sai.

Mike Kentz, một cố vấn về AI trong ngành giáo dục tại một trường tư ở Georgia, cho biết ban đầu, học sinh “tin rằng giáo viên đã tìm thấy một loại phép màu nào đó có thể phát hiện việc họ sử dụng AI. Nhưng đến cuối năm học… họ đã nhận ra rằng giáo viên không có phương pháp xác nhận đáng tin cậy.”

Cũng có giáo viên khuyến khích học sinh sử dụng AI để hỗ trợ nghiên cứu hoặc phản hồi ý tưởng hiện tại. Tuy nhiên, vấn đề là nếu học sinh hoàn toàn dựa vào ứng dụng như ChatGPT để hoàn thành bài tập, họ thậm chí không biết mình đã học được gì.

Năm ngoái, giáo sư Josh McCrain của Đại học Utah đã giao bài tập viết cho sinh viên, trong đó có một số đoạn văn khó nhận biết, yêu cầu học sinh trích dẫn nội dung về Người Dơi. Nếu học sinh dán toàn bộ bài tập vào hộp thoại AI, phần mô tả này cũng sẽ được bao gồm.

Quả nhiên, một số sinh viên đã nộp bài tập với việc trích dẫn Người Dơi một cách vô nghĩa. McCrain đang tiếp tục điều chỉnh bài tập viết, đồng thời khuyến nghị học sinh không nên giao hoàn toàn bài tập cho AI xử lý. “Tôi luôn nhấn mạnh với học sinh rằng đây là quá trình học tập của bạn, bạn không thể lười biếng.”

Vũ khí bí mật của OpenAI đã bị lộ: Có khả năng nhận diện nội dung do AI tạo ra với độ chính xác 99%! Công việc bạn được AI làm giờ không thể giấu giếm sếp nữa rồi.

Sam Altman, CEO của OpenAI, đã tham gia vào cuộc thảo luận về công cụ chống gian lận.

Theo nguồn tin, cuộc thảo luận về công cụ đánh dấu bắt đầu trước khi OpenAI ra mắt ChatGPT vào tháng 11 năm 2022 và đã trở thành nguồn gốc của nhiều xung đột và bất đồng. Công cụ này được phát triển bởi giáo sư khoa học máy tính Scott Aaronson, người đã dành hai năm nghỉ phép tại Đại học Texas để làm việc về an ninh tại OpenAI.

Tháng 1 năm 2023, John Schulman, một trong những đồng sáng lập của OpenAI, đã tóm tắt ưu và nhược điểm của công cụ trong một tài liệu Google Docs chia sẻ. Ban lãnh đạo của OpenAI đã quyết định thu thập thêm ý kiến trước khi đi xa hơn.

Trong một năm rưỡi tiếp theo, ban quản lý của OpenAI đã thảo luận lại về công nghệ này và quyết định thông qua phân tích dữ liệu để xác định liệu có nên công bố hay không.

Một tài liệu nội bộ cho thấy, vào tháng 4 năm 2023, OpenAI đã ủy thác một cuộc điều tra toàn cầu, cho thấy công chúng ủng hộ việc ra mắt công cụ phát hiện AI với tỷ lệ 4:1.

Vào cùng tháng, OpenAI đã tiến hành khảo sát người dùng ChatGPT và phát hiện ra 69% người được hỏi cho rằng việc công cụ phát hiện gian lận gây ra sai lệch sẽ khiến việc lạm dụng AI trở nên mất kiểm soát. Gần 30% người được hỏi nhấn mạnh rằng nếu ChatGPT quyết định triển khai công cụ đánh dấu, họ sẽ chuyển sang sử dụng đối thủ cạnh tranh khác hoặc ít nhất sẽ giảm sử dụng ChatGPT.

Công ty cũng lo ngại rằng công cụ chống gian lận có thể làm giảm chất lượng viết của ChatGPT. Tuy nhiên, theo nguồn tin, OpenAI đã tiến hành một bài kiểm tra vào đầu năm và phát hiện ra rằng đánh dấu không ảnh hưởng đến hiệu suất của ChatGPT.

Theo tài liệu nội bộ, nhân viên tham gia kiểm tra kết luận, “Do chúng tôi đã xác nhận rằng đánh dấu không làm giảm chất lượng đầu ra, có lẽ khó có thể tiếp tục phản đối việc triển khai cơ chế đánh dấu văn bản.”

Vào đầu tháng 6, nhóm lãnh đạo cao cấp và các nhà nghiên cứu của OpenAI đã họp lại để thảo luận về dự án này. Nhóm đồng lòng rằng công nghệ đánh dấu hoạt động tốt, nhưng kết quả khảo sát người dùng ChatGPT năm ngoái vẫn rất quan trọng. Theo người tham gia cuộc họp, mọi người cho rằng công ty nên nghiên cứu các phương pháp khác chưa được chứng minh nhưng có thể gây ít tranh cãi hơn trong cộng đồng người dùng.

Tài liệu nội bộ cho thấy, những người tham dự cuộc họp cho rằng OpenAI nên xây dựng kế hoạch trong mùa thu này để hướng dẫn công chúng về sự minh bạch của AI, bao gồm thúc đẩy các hành động lập pháp mới trong lĩnh vực này.

Tóm tắt cuộc họp vào tháng 6 đã nêu rõ, “Nếu không làm được điều này, uy tín của chúng tôi như một người hành động có trách nhiệm sẽ bị đe dọa.”

#AI #OpenAI #CheatingDetection #ChatGPT #EduTech

© Thông báo bản quyền

Những bài viết liên quan:

Chưa có đánh giá nào

none
Không có đánh giá...