Ultraman đột ngột trở thành “người bảo vệ an toàn” của OpenAI! Người dùng mạng: Vừa bị phanh phui không quan tâm đến an toàn còn “tra tấn tâm lý”, ai tin được?

công nghệ số9tháng trướcxuất bản AIANT
38 00

OpenAI Thành lập Nhóm An toàn Mới: Liệu có phải là một sự chuyển hướng?

Những ngày gần đây, công ty OpenAI đã thông báo về việc thành lập một nhóm an toàn mới, được gọi là Nhóm An toàn và Bảo vệ (Safety and Security Committee, viết tắt là SSC). Nhóm này sẽ tập trung vào việc phát triển mô hình kế nhiệm cho GPT-4, đồng thời đối phó với những chỉ trích gay gắt từ các cựu nhân viên về mục tiêu kinh doanh của họ.

Ban lãnh đạo của SSC bao gồm Giám đốc điều hành Sam Altman, Chủ tịch Bret Taylor, và các thành viên hội đồng quản trị như Adam D’Angelo và Nicole Seligman. Ngoài ra, các trưởng phòng từ các đội khác nhau trong OpenAI cũng tham gia vào nhóm này, bao gồm Jakub Pachocki, người đã từng thay thế nhà sáng lập Ilya Sutskever và giữ chức vụ Chief Scientist trong 13 ngày.

OpenAI tuyên bố rằng nhóm an toàn này sẽ tư vấn cho hội đồng quản trị về những quyết định quan trọng liên quan đến an toàn và bảo vệ, đặc biệt là trong quá trình phát triển mô hình kế nhiệm cho GPT-4. Tuy nhiên, việc này dễ dàng khiến người ta liên tưởng đến việc OpenAI đang cố gắng chuyển hướng sự chú ý khỏi những chỉ trích về mục tiêu kinh doanh của họ.

Công ty giải thích rằng họ rất tự hào khi tạo ra và phát hành các mô hình có khả năng hàng đầu và mức độ an toàn cao. Tuy nhiên, họ không đề cập cụ thể về nội dung cuộc thảo luận. Nhóm an toàn mới này sẽ có 90 ngày để đưa ra các khuyến nghị an toàn cho hội đồng quản trị xem xét, mặc dù Sam Altman và các thành viên khác vẫn giữ quyền quyết định cuối cùng.

Một số người hoài nghi cho rằng việc thành lập nhóm an toàn này không thể làm dịu đi những chỉ trích về sự thiếu an toàn của sản phẩm. Nhiều người đặt câu hỏi liệu nhóm an toàn này có thực sự độc lập hay không. Một số người thậm chí còn cho rằng Sam Altman và các thành viên khác vẫn có thể ảnh hưởng đến nội dung khuyến nghị trước khi chúng được đệ trình lên hội đồng quản trị.

Mặc dù vậy, vẫn có những người hy vọng rằng nhóm an toàn mới sẽ mang lại kết quả tích cực. Họ cho rằng việc tạo ra một nhóm chuyên trách về an toàn là một bước đi đúng đắn, nhưng vẫn cần thời gian để chứng minh hiệu quả của nó.

Trong khi đó, Helen Toner và Tasha McCauley, hai thành viên cũ của hội đồng quản trị, đã đưa ra một bài viết chung, tiếp tục chỉ trích Sam Altman vì không quan tâm đến an toàn. Họ cho biết rằng những hành vi của Altman đã gây ra nhiều lo ngại về khả năng giám sát của hội đồng quản trị đối với các quyết định quan trọng và các thỏa thuận an toàn nội bộ.

Theo lời Toner, Altman đã tạo ra một văn hóa độc hại và lừa dối, đồng thời che giấu thông tin. Cô ấy cho biết rằng cô ấy đã biết về việc phát hành ChatGPT thông qua Twitter, chứ không phải từ hội đồng quản trị. Điều này cho thấy sự thiếu minh bạch trong việc quản lý công ty.

Việc Sutskever và Leike rời bỏ OpenAI càng làm tăng thêm sự hoài nghi về việc công ty có thực sự coi trọng an toàn hay không. Cả hai đều là những chuyên gia kỹ thuật có nhiều kinh nghiệm về an toàn, và họ đã bày tỏ sự lo ngại về việc công ty không chú trọng đủ vào an toàn.

Tuy nhiên, cũng có những người ủng hộ Altman, cho rằng việc thành lập nhóm an toàn mới là một bước tiến đáng kể. Họ hy vọng rằng nhóm này sẽ giúp cải thiện mức độ an toàn của sản phẩm và xây dựng niềm tin của công chúng đối với OpenAI.

Nhìn chung, việc thành lập nhóm an toàn mới của OpenAI đã tạo ra nhiều tranh cãi. Mặc dù nó có thể là một bước đi đúng đắn, nhưng nó cũng cần thời gian để chứng minh hiệu quả của nó.

Tóm tắt 5 từ khóa:

  • An toàn
  • Bảo vệ
  • OpenAI
  • Safety and Security Committee (SSC)
  • Sam Altman
© Thông báo bản quyền

Những bài viết liên quan:

Chưa có đánh giá nào

none
Không có đánh giá...