Li Fei Fei: Mô hình ngôn ngữ lớn hơn cũng sẽ không mang lại khả năng cảm nhận.

công nghệ số5tháng trướccập nhật AIANT
41 00




Trí tuệ nhân tạo và Trải nghiệm Chủ quan

Trí tuệ nhân tạo và Trải nghiệm Chủ quan

Li Fei Fei: Mô hình ngôn ngữ lớn hơn cũng sẽ không mang lại khả năng cảm nhận.

Trí tuệ nhân tạo tổng quát (AGI) là một thuật ngữ mô tả trí tuệ nhân tạo có thể thể hiện sự thông minh ở mọi khía cạnh mà con người thể hiện hoặc có thể thể hiện. Điều này bao gồm các chương trình và thiết bị “thông minh” nhưng chỉ giới hạn trong lĩnh vực cụ thể như cờ vua, dịch ngôn ngữ, dọn nhà.

Nhu cầu thêm chữ “Tổng quát” (General) vào AGI xuất phát từ sự gia tăng của hệ thống trí tuệ nhân tạo dựa trên AI, nhưng chủ yếu chỉ tập trung vào các nhiệm vụ đơn lẻ hoặc rất ít. Chương trình cờ vua của IBM “Deep Blue” đã đánh bại kỳ thủ Garry Kasparov, nhưng ngay cả khi căn phòng bốc cháy, nó vẫn tiếp tục chơi cờ.

Ý niệm về trí tuệ tổng quát có thể không chính xác, chúng ta chỉ tự nhận thức về điều đó. Trong thế giới động vật, chúng ta tìm thấy nhiều ví dụ về hành vi thông minh vượt trội so với những gì chúng ta đạt được trong các nhiệm vụ tương tự. Trí tuệ của chúng ta không hoàn toàn tổng quát, nhưng đủ để thực hiện hầu hết các công việc chúng ta muốn trong môi trường xung quanh mình.

Một đặc điểm cơ bản của trí tuệ tổng quát là khả năng “cảm nhận”, nghĩa là khả năng có trải nghiệm chủ quan như cảm giác đói, nếm táo, nhìn màu đỏ. Khả năng cảm nhận là bước quan trọng dẫn đến trí tuệ tổng quát.

Vào tháng 11 năm 2022, với sự ra mắt của ChatGPT, kỷ nguyên của Mô hình Ngôn ngữ lớn (LLM) đã bắt đầu. Điều này lập tức gây ra cuộc tranh luận sôi nổi về liệu các thuật toán này có thực sự có khả năng cảm nhận hay không. Sự xuất hiện của trí tuệ nhân tạo có cảm nhận có thể gây nguy hiểm cho loài người, thậm chí có thể gây ra “khủng hoảng diệt vong” hoặc “khủng hoảng tồn tại”.

Bài viết này bắt nguồn từ cuộc trò chuyện trên nhóm WhatsApp, nhằm bác bỏ ý kiến cho rằng LLM có thể đã có khả năng cảm nhận. Bài viết này không đưa ra phân tích toàn diện. Chúng tôi phản bác lập luận chính của phe ủng hộ “trí tuệ nhân tạo có cảm nhận”. Họ dựa trên khả năng LLM báo cáo “trải nghiệm chủ quan”.

Trong những tháng gần đây, chúng tôi đã có nhiều cuộc tranh luận và trao đổi với nhiều đồng nghiệp trong lĩnh vực trí tuệ nhân tạo, bao gồm cả những nhà khoa học hàng đầu và tiên phong trong lĩnh vực này. Trí tuệ nhân tạo có cảm nhận là một chủ đề nóng bỏng. Một số người trong số họ kiên quyết tin rằng AI đã có khả năng này.

Dưới đây là tóm tắt luận điểm chính của một trong những người ủng hộ mạnh mẽ, đại diện cho phe “trí tuệ nhân tạo có cảm nhận”:

Nếu chúng ta áp dụng cùng một “luật” lên LLM, giống như chúng ta không thể biết trạng thái nội tại của bất kỳ con người nào. Tuy nhiên, chúng ta có thể hỏi về trải nghiệm chủ quan của họ. Chúng ta có thể hỏi, “Bạn có đói không?” Nó có thể trả lời chính xác là có hoặc không. Ngoài ra, nó còn chia sẻ rõ ràng trải nghiệm chủ quan của mình, từ việc nhìn thấy màu đỏ, cảm thấy hạnh phúc sau bữa ăn, đến quan điểm chính trị mạnh mẽ. Do đó, không có lý do để tin rằng nó không có ý thức hoặc không nhận thức được trải nghiệm chủ quan của mình, giống như không có lý do để tin bạn không có ý thức.

Điều này có vẻ hợp lý, nhưng thực tế lại không đúng. Lý do là bằng chứng trong hai trường hợp này không hoàn toàn giống nhau, thậm chí còn khác biệt đáng kể.

Khi bạn nói, “Tôi đói”, tôi kết luận rằng bạn đang trải qua tình trạng đói, dựa trên nhiều tình huống thực tế. Đầu tiên là báo cáo của bạn – những gì bạn nói – có thể kèm theo các dấu hiệu hành vi khác, như tiếng bụng kêu. Thứ hai, không có bằng chứng trái ngược, chẳng hạn như bạn vừa ăn một bữa ăn năm món. Cuối cùng, và quan trọng nhất, bạn có một cơ thể giống như tôi, cần ăn uống định kỳ, lạnh khi trời lạnh, nóng khi trời nóng, v.v.

Nay, hãy so sánh bằng chứng về LLM. Điểm duy nhất giống nhau là báo cáo, LLM có thể tạo ra chuỗi âm tiết, nói “Tôi đói”. Nhưng điểm tương đồng chỉ dừng lại ở đó. Trên thực tế, LLM không có cơ thể, nên nó thậm chí không phải là loại cần ăn.

Nếu LLM nói, “Ngón chân cái bên trái của tôi đau dữ dội”, liệu chúng ta có kết luận rằng ngón chân cái bên trái của nó đau? Tất nhiên không, vì nó không có ngón chân cái! Tương tự, khi nó nói nó đói, chúng ta có thể chắc chắn rằng nó không đói, vì nó không có cơ chế sinh lý cần thiết để cảm thấy đói.

Khi con người cảm thấy đói, chúng ta cảm nhận một loạt các trạng thái sinh lý – lượng đường trong máu thấp, tiếng bụng kêu, v.v. – LLM không có những trạng thái sinh lý này, giống như nó không có miệng để ăn và dạ dày để tiêu hóa.

Nếu khi nó nói nó đói, chúng ta nên tin tưởng, thì khi nó nói nó đang nói chuyện với chúng ta từ mặt sau của Mặt Trăng, chúng ta cũng nên tin tưởng. Chúng ta biết rằng điều này không đúng, và tuyên bố ngược lại của LLM cũng không thay đổi điều này.

Tất cả các cảm giác – đói, đau, nhìn thấy màu đỏ, rơi vào tình yêu – đều là kết quả của các trạng thái sinh lý mà LLM không có. Do đó, chúng ta biết rằng LLM không thể có trải nghiệm chủ quan của những trạng thái này. Nói cách khác, nó không có khả năng cảm nhận.

LLM là mô hình toán học, là mã chương trình trên chip silicon. Nó không phải là một thực thể như con người. Nó không có “cuộc sống” cần ăn, uống, sinh sản, trải nghiệm tình cảm, mắc bệnh và cuối cùng chết.

Quan trọng là phải hiểu sự khác biệt sâu sắc giữa quá trình con người tạo ra chuỗi từ và quá trình LLM tạo ra chuỗi từ tương tự.

Khi tôi nói, “Tôi đói”, tôi đang báo cáo trạng thái sinh lý mà tôi cảm nhận. Khi LLM tạo ra chuỗi từ “Tôi đói”, nó chỉ tạo ra chuỗi từ phù hợp nhất với gợi ý hiện tại. Việc nó làm giống như nếu gợi ý khác, nó sẽ báo cáo “Tôi không đói” hoặc dưới gợi ý khác, nó sẽ nói “Mặt trăng được làm bằng pho mát xanh”, tất cả đều chỉ là hoàn thiện xác suất.

Chúng ta chưa đạt được trí tuệ nhân tạo có cảm nhận, và mô hình ngôn ngữ lớn hơn không giúp chúng ta đạt được mục tiêu này. Nếu chúng ta muốn tái tạo khả năng cảm nhận trong hệ thống trí tuệ nhân tạo, chúng ta cần hiểu rõ hơn về cách cảm nhận xuất hiện trong các hệ thống sinh học cụ thể. Cảm nhận không phải là thứ chúng ta có thể vô tình phát hiện trong phiên bản tiếp theo của ChatGPT.

Từ khóa

  • Trí tuệ nhân tạo
  • Trải nghiệm chủ quan
  • Mô hình Ngôn ngữ lớn
  • Deep Blue
  • ChatGPT


© Thông báo bản quyền

Những bài viết liên quan:

Chưa có đánh giá nào

none
Không có đánh giá...