Vấn đề lớn đã xảy ra, Quy luật mở rộng đã va chạm với bức tường lợi nhuận giảm dần? Tất cả các mô hình lớn, bao gồm OpenAI, đang gặp phải những rào cản lớn.

công nghệ số5tháng trướccập nhật AIANT
48 00
Vấn đề lớn đã xảy ra, Quy luật mở rộng đã va chạm với bức tường lợi nhuận giảm dần? Tất cả các mô hình lớn, bao gồm OpenAI, đang gặp phải những rào cản lớn.

Trong những ngày gần đây, có thông tin từ một số nguồn nước ngoài rằng OpenAI đang lên kế hoạch đưa ra chiến lược mới để đối phó với tình trạng cải tiến của các mô hình lớn trong lĩnh vực trí tuệ nhân tạo (AI) đang chậm lại. Gary Marcus, một nhà khoa học nhận thức nổi tiếng và là nhà nghiên cứu AI, đã nhanh chóng phản hồi rằng “như tôi đã nói, GPT đang bước vào giai đoạn giảm hiệu quả”.

Vấn đề lớn đã xảy ra, Quy luật mở rộng đã va chạm với bức tường lợi nhuận giảm dần? Tất cả các mô hình lớn, bao gồm OpenAI, đang gặp phải những rào cản lớn.

Theo một bài báo mới nhất từ The Information, mô hình cờ bọc tiếp theo của OpenAI có thể không mang lại sự đột phá lớn như các phiên bản trước đó. Mô hình mới có mã thử nghiệm là Orion, do các nhân viên của OpenAI phát triển, mặc dù đạt được mức độ hiệu suất vượt trội so với các mô hình hiện tại và chỉ cần 20% thời gian huấn luyện để đạt đến mức độ của GPT-4, nhưng so với sự nhảy vọt từ GPT-3 đến GPT-4, chất lượng tổng thể tăng lên không đáng kể.

Vấn đề lớn đã xảy ra, Quy luật mở rộng đã va chạm với bức tường lợi nhuận giảm dần? Tất cả các mô hình lớn, bao gồm OpenAI, đang gặp phải những rào cản lớn.

Điều này cho thấy tốc độ nâng cấp của GPT dường như đang chậm lại. Trên thực tế, Orion có thể không tốt hơn các mô hình trước đó trong một số lĩnh vực, ví dụ như lập trình. Khi được hỏi về việc này, OpenAI cho biết họ không có kế hoạch công bố mô hình Orion trong năm nay.

Vấn đề lớn đã xảy ra, Quy luật mở rộng đã va chạm với bức tường lợi nhuận giảm dần? Tất cả các mô hình lớn, bao gồm OpenAI, đang gặp phải những rào cản lớn.

Một phần nguyên nhân của sự chậm trễ này là do nguồn văn bản và dữ liệu dùng để huấn luyện tiền kỳ bị thiếu hụt (huấn luyện tiền kỳ giúp LLM hiểu mối quan hệ giữa các khái niệm, từ đó giải quyết các tác vụ như soạn thảo nội dung hoặc gỡ lỗi mã). Theo lời của các nhân viên và nhà nghiên cứu của OpenAI, công ty hiện gặp khó khăn trong việc thu thập dữ liệu huấn luyện chất lượng cao, và các nhà phát triển đã cạn kiệt các nguồn dữ liệu công khai như trang web, sách vở, và các nguồn khác.

Vấn đề lớn đã xảy ra, Quy luật mở rộng đã va chạm với bức tường lợi nhuận giảm dần? Tất cả các mô hình lớn, bao gồm OpenAI, đang gặp phải những rào cản lớn.

Để giải quyết vấn đề này, OpenAI đã thành lập một nhóm cơ sở để nghiên cứu các chiến lược mới nhằm cải thiện mô hình của họ khi nguồn dữ liệu huấn luyện mới đang dần cạn kiệt. Các chiến lược mới này bao gồm việc sử dụng dữ liệu tổng hợp được tạo ra bởi các mô hình AI để huấn luyện mô hình, cũng như cải thiện mô hình trong quá trình huấn luyện cuối cùng bằng cách sử dụng ít dữ liệu mới hơn.

Vấn đề lớn đã xảy ra, Quy luật mở rộng đã va chạm với bức tường lợi nhuận giảm dần? Tất cả các mô hình lớn, bao gồm OpenAI, đang gặp phải những rào cản lớn.

Sự chậm trễ này cũng cho thấy rằng do nguồn dữ liệu khan hiếm và chi phí phần cứng tăng cao, việc cải tiến truyền thống đối với các mô hình lớn có thể đã đạt đến giới hạn. Một số nhà nghiên cứu và doanh nhân lo ngại rằng AI tạo ra đã gặp phải rào cản, ngay cả các công ty như OpenAI, đang cố gắng mở rộng ứng dụng của công nghệ này, cũng gặp nhiều khó khăn trong việc thực hiện điều này.

Vấn đề lớn đã xảy ra, Quy luật mở rộng đã va chạm với bức tường lợi nhuận giảm dần? Tất cả các mô hình lớn, bao gồm OpenAI, đang gặp phải những rào cản lớn.

Tương tự, những khó khăn tương tự cũng xuất hiện ở các phòng thí nghiệm hàng đầu khác. Theo tiết lộ từ Yam Peleg, một nhà phân tích dữ liệu, một phòng thí nghiệm hàng đầu đã cố gắng đạt được kết quả tốt hơn bằng cách tăng thời gian huấn luyện và sử dụng nhiều dữ liệu hơn, nhưng kết quả lại gặp phải một bức tường lợi ích giảm dần (nặng hơn so với những gì đã công bố).

Vấn đề lớn đã xảy ra, Quy luật mở rộng đã va chạm với bức tường lợi nhuận giảm dần? Tất cả các mô hình lớn, bao gồm OpenAI, đang gặp phải những rào cản lớn.

“Vì vậy, tôi tin chắc rằng tất cả các bên tham gia chính đã đạt đến giới hạn của việc tăng thời gian huấn luyện và thu thập dữ liệu… Hiện tại, yếu tố quan trọng là chất lượng dữ liệu, và điều này đòi hỏi thời gian,” Peleg chia sẻ. Ý kiến này đang được nhiều người đồng ý, và một số người dùng mạng xã hội cho rằng “tất cả các phòng thí nghiệm đều đã chạm vào bức tường này.”

Vấn đề lớn đã xảy ra, Quy luật mở rộng đã va chạm với bức tường lợi nhuận giảm dần? Tất cả các mô hình lớn, bao gồm OpenAI, đang gặp phải những rào cản lớn.

Tóm lại, có vẻ như chúng ta cần tìm kiếm các phương pháp mới để thúc đẩy công nghệ AI vượt qua giới hạn hiện tại của nó.

“Chúng tôi đã hết dữ liệu. Dữ liệu tổng hợp chỉ có nghĩa là tinh chỉnh các mô hình hiện tại, chứ không phải học hỏi từ con người,” một người dùng mạng xã hội chia sẻ sau khi nghe tin tức.

Một người dùng khác thì cho rằng “tương lai nên là sự kết hợp giữa LLM và mô hình suy luận, khả năng suy luận càng mạnh, hiệu quả càng tốt. Trời sẽ không sập xuống.”

Tuy nhiên, một nghiên cứu gần đây từ MIT đã gây ra nhiều nghi ngờ về khả năng hiểu và học của các mô hình lớn, thậm chí một số người dùng mạng xã hội còn bình luận gay gắt rằng “LLM chỉ biết học thuộc lòng, chứ không thể áp dụng kiến thức đã học vào các vật thể mới như con người hoặc động vật khác.”

Nhóm nghiên cứu đã phát hiện ra rằng mặc dù đầu ra của AI tạo ra ấn tượng mạnh mẽ, nhưng chúng không có hiểu biết toàn diện về thế giới. Nói cách khác, một khi nhiệm vụ hoặc môi trường có sự thay đổi nhỏ, các mô hình trước đó hoạt động tốt có thể đột nhiên sụp đổ.

Nhóm nghiên cứu tập trung vào các mô hình biến đổi (transformer), một loại được huấn luyện trên dữ liệu chuỗi ngẫu nhiên và một loại khác được huấn luyện theo chiến lược được xác định trước. Họ đánh giá các ví dụ trên vấn đề tự động hóa xác định hữu hạn (DFA), cụ thể là dẫn đường trong các con phố của Thành phố New York và chơi trò chơi bàn cờ.

Trong ví dụ dẫn đường, mặc dù mô hình có thể cung cấp hướng dẫn dẫn đường chính xác cho Thành phố New York, nhưng khi nhóm nghiên cứu đóng một số con phố và thêm các tuyến đi vòng, hiệu suất của nó giảm đáng kể. Keyon Vafa, một nghiên cứu sinh sau tiến sĩ tại Đại học Harvard, chia sẻ, “Thật bất ngờ, chỉ cần thêm một tuyến đi vòng, hiệu suất của mô hình giảm mạnh. Ngay cả khi chúng tôi chỉ đóng khoảng 1% các con phố, độ chính xác giảm từ gần 100% xuống còn 67%.”

Tuy nhiên, cả hai loại mô hình biến đổi đều không thể tạo ra mô hình thế giới mạch lạc, và khi nhóm nghiên cứu tái tạo bản đồ thành phố được mô hình tạo ra, họ phát hiện ra rằng bản đồ này thường chứa các cầu vượt có hướng ngẫu nhiên hoặc các con phố không tồn tại trong thực tế.

Trong ví dụ chơi trò chơi bàn cờ, họ phát hiện ra rằng mô hình biến đổi không cần hiểu bất kỳ quy tắc nào có thể dự đoán gần như chính xác các nước đi hợp lệ trong trò chơi. Vafa giải thích, “Trong trò chơi bàn cờ, nếu bạn nhìn thấy hai máy tính ngẫu nhiên chơi cờ thay vì các kỳ thủ vô địch, lý thuyết bạn sẽ thấy tất cả các nước đi có thể, bao gồm cả những nước đi xấu mà kỳ thủ vô địch sẽ không bao giờ chơi.”

Thật ngạc nhiên, nhóm nghiên cứu phát hiện ra rằng mô hình biến đổi đưa ra lựa chọn ngẫu nhiên lại tạo ra mô hình thế giới chính xác hơn, có thể là do chúng đã tiếp xúc với nhiều khả năng đi tiếp theo hơn trong quá trình huấn luyện. Tuy nhiên, mặc dù mô hình biến đổi gần như luôn tạo ra hướng chính xác và các nước đi hợp lệ, chỉ có loại mô hình thứ hai có thể tạo ra mô hình thế giới mạch lạc.

Nhóm nghiên cứu nhấn mạnh, “Khi nhìn thấy những hiệu suất ấn tượng này, chúng ta thường nghĩ rằng chúng phải hiểu biết về thế giới thực. Nhưng tôi muốn nhắc nhở mọi người rằng không nên kết luận vội vàng, và không nên dựa vào trực giác để đưa ra khẳng định.”

Với những trở ngại hiện tại trong việc phát triển các mô hình lớn, một số người dùng mạng xã hội đã đưa ra những ý tưởng thú vị.

Một người dùng đề xuất, “Tôi muốn biết liệu có thể kết nối LLM với Cyc (một engine logic và cơ sở dữ liệu quy tắc kiến thức sống), engine này có thể tìm ra sự phù hợp tối ưu giữa mô hình ngôn ngữ (văn bản) và mô hình Cyc, và cân nhắc các mô hình ứng viên ngắn hơn (biểu đồ logic nhỏ nhất). Việc tạo ra các ứng cử viên mô hình Cyc từ mô hình ngôn ngữ có thể yêu cầu huấn luyện rất nhiều.”

Một người dùng khác cho rằng, “Hiện tại cần có robot hình người để cải thiện quy luật mở rộng (scaling law). Nếu không có dữ liệu thuần túy từ thế giới thực được trải nghiệm bởi robot, GPT không thể được cải thiện.”

### Từ khóa:
– Trí tuệ nhân tạo
– Mô hình lớn
– OpenAI
– Phát triển AI
– Hiểu biết thế giới

© Thông báo bản quyền

Những bài viết liên quan:

Chưa có đánh giá nào

none
Không có đánh giá...