Tại sao một dự luật trí tuệ nhân tạo lại khiến Silicon Valley hoảng loạn?

công nghệ số5tháng trướccập nhật AIANT
48 00




Điều chỉnh quy định về Trí tuệ nhân tạo tại California


Tại sao một dự luật trí tuệ nhân tạo lại khiến Silicon Valley hoảng loạn?

Những tháng gần đây, các công ty công nghệ ở Silicon Valley liên tục cảnh báo rằng một dự luật sắp được thông qua sẽ phá hủy vị thế lãnh đạo của Mỹ trong lĩnh vực Trí tuệ nhân tạo (AI).

Với sự phát triển ngày càng phức tạp của AI, các nhà lập pháp đang hành động để đảm bảo công nghệ này không tạo ra những rủi ro không thể đảo ngược. Dự luật số 1047 của bang California đã ra đời từ đó. Tháng trước, Thượng viện California đã chính thức thông qua dự luật này, và nó sẽ được gửi đến Hạ viện California để xem xét và điều chỉnh thêm.

Xét vì California là nơi đặt trụ sở của nhiều công ty AI tiên tiến nhất trên thế giới, dự luật này thu hút sự chú ý chưa từng có và gặp phải sự phản đối mạnh mẽ từ nhiều công ty công nghệ lớn. Yann LeCun, nhà khoa học AI hàng đầu của Meta, đã viết bài bác rằng Dự luật 1047 sẽ chấm dứt lịch sử đổi mới công nghệ của California.

Câu hỏi đặt ra là AI nên được quản lý như thế nào và chúng ta cần loại AI nào?

Nếu một công ty sản xuất một chiếc xe hơi cực kỳ nguy hiểm và bỏ qua tất cả các thử nghiệm an toàn, dẫn đến một tai nạn nghiêm trọng, chắc chắn công ty đó sẽ bị phạt, thậm chí có thể đối mặt với cáo buộc hình sự.

Nhưng nếu công ty đó phát triển một công cụ tìm kiếm và một kẻ xấu sử dụng công cụ này để tìm kiếm thông tin về cách thực hiện tội ác, gây ra hậu quả không thể khắc phục, theo Đạo luật Truyền thông Chính xác của Mỹ, công ty sẽ không chịu trách nhiệm pháp lý.

Điều này đặt ra câu hỏi: AI nên được coi như một chiếc xe hơi, cần nhà sản xuất thực hiện các thử nghiệm an toàn, hay giống như một công cụ tìm kiếm?

Những tranh cãi gay gắt xoay quanh Dự luật 1047 tập trung vào điểm này. Nếu dự luật cuối cùng được thông qua, các công ty công nghệ lớn ở Silicon Valley, đã đầu tư hơn 100 triệu đô la vào AI, sẽ bị yêu cầu thực hiện các thử nghiệm an toàn. Nếu không tuân thủ, họ sẽ bị phạt, số tiền tối đa có thể lên tới 30% chi phí phát triển mô hình, và các nhà phát triển thậm chí còn có thể bị truy cứu hình sự.

Theo quan điểm của các nhà lập pháp, mô hình lớn do các công ty công nghệ tạo ra giống như những chiếc xe hơi, họ nên chịu trách nhiệm về độ an toàn của chúng, điều này đã tạo thành sự đồng thuận trên toàn cầu, nhưng các công ty công nghệ lớn ở Silicon Valley không đồng ý.

Họ cho rằng việc thảo luận về sự an toàn của AI vẫn còn quá sớm. Andrew Ng, một nhà khoa học AI, nói rằng ông không lo lắng về sự an toàn của AI, giống như ông không lo lắng về việc thừa miệng trên Sao Hỏa. LeCun cũng viết trên Twitter rằng việc sở hữu trí thông minh không có nghĩa là sẽ tự nhiên sinh ra khát vọng thống trị, và trong con người, những người thông minh nhất không nhất thiết muốn nắm quyền lực.

Nếu Dự luật 1047 cuối cùng được thông qua, nó sẽ làm tăng đáng kể chi phí phát triển của các công ty lớn, có thể thay đổi chiến lược của họ trong lĩnh vực AI (ví dụ: không còn mở mã nguồn cho mô hình lớn), và cuối cùng ảnh hưởng đến toàn bộ hệ sinh thái phát triển phần mềm, thậm chí có thể ngăn chặn các công ty khởi nghiệp AI mới nổi.

Theo yêu cầu của Dự luật, dù công ty đã thực hiện các “đối sánh” để đảm bảo AI không làm hại con người và đã mở mã nguồn, nhưng nếu có một nhà phát triển khác thay đổi điều chỉnh đó và sử dụng nó để làm điều xấu, công ty vẫn sẽ chịu trách nhiệm về thiệt hại gây ra, điều này dường như không hợp lý.

Thêm vào đó, chúng ta đã chứng kiến trong nhiều ngành công nghiệp, yêu cầu tuân thủ quá mức sẽ chiếm dụng rất nhiều thời gian và năng lượng, từ đó ảnh hưởng đến tiến độ của công việc chính.

Scott Wiener, người soạn thảo Dự luật 1047, đã nói rằng ông đã điều chỉnh dự luật để giải quyết một số lo ngại. Ông đã điều chỉnh tiêu chuẩn về mô hình lớn và làm rõ rằng các nhà phát triển không cần chịu trách nhiệm hoàn toàn cho hậu quả tiêu cực do mã nguồn mở gây ra. Wiener cũng nhấn mạnh rằng ông sẵn lòng điều chỉnh thêm, mục đích của ông chỉ là mong muốn mọi người chú ý đến sự an toàn của AI, điều này rất quan trọng.

Hiện tại, rủi ro mà AI có thể gây ra có thể được phân loại thành hai loại: kết quả ngoài ý muốn và lạm dụng cố ý.

Kết quả ngoài ý muốn là những tình huống thường được dự đoán trong nhiều tác phẩm khoa học viễn tưởng: khi AI tiếp tục tiến hóa, chúng bắt đầu có ý thức tự chủ. Nếu giá trị cơ bản của chúng xung đột với con người, có thể dẫn đến hậu quả thảm khốc.

Dự luật 1047 dường như tập trung vào việc giải quyết rủi ro này, giả định rằng AI chính là mối đe dọa, yêu cầu các nhà phát triển đánh giá an toàn cho mô hình lớn để nhận biết các rủi ro tiềm ẩn. Dự luật cũng yêu cầu khi AI gặp vấn đề, nó phải được tắt và báo cáo cho cơ quan quản lý mới được thành lập. Ngay cả khi mô hình lớn hoạt động tốt, các nhà phát triển cũng cần chứng minh rằng công nghệ an toàn thông qua “xác nhận an toàn”, điều này cần được kiểm tra hàng năm.

Mặc dù những quy định này có vẻ hợp lý trên giấy tờ, nhưng trong thực tế, chúng có thể không hiệu quả. Kết quả ngoài ý muốn được gọi là “ngoài ý muốn” bởi vì chúng khó dự đoán và ngăn ngừa. Dù có áp dụng các biện pháp đánh giá và phòng ngừa an toàn nghiêm ngặt nhất, hệ thống AI vẫn có thể phát triển theo cách có hại.

Thêm vào đó, lạm dụng cố ý – việc vũ khí hóa AI để gây hại cho con người – là điều mà Dự luật 1047 hầu như không có bất kỳ biện pháp nào để giải quyết. Những người có ý đồ xấu không có khả năng tuân thủ các yêu cầu pháp luật, và họ có khả năng nằm ngoài phạm vi quản lý của California, làm cho việc thực thi Dự luật trở nên khó khăn.

Mike Knoop, đồng sáng lập và người phụ trách AI của công ty khởi nghiệp Zapier, nói rằng ông mong muốn thấy rằng chúng ta nên quản lý các trường hợp sử dụng xấu và người dùng xấu, thay vì các nhà phát triển và nhà nghiên cứu.

Trong quá khứ, con người thường tiếp cận sự tiến bộ công nghệ một cách thận trọng, ví dụ như hạn chế việc tiếp cận vật liệu phân hạch như urani để tránh khả năng tạo ra vũ khí hạt nhân. Điều này rất hợp lý cho những mối đe dọa dễ nhận biết, nhưng đối với AI, tình hình trở nên phức tạp hơn.

Các mối đe dọa tiềm ẩn của AI thường được đề cập, nhưng mối đe dọa sinh tồn của nó dường như không cấp bách, trong khi lợi ích của nó lại rõ ràng, từ dịch thuật ngôn ngữ đến nghiên cứu khoa học tiên tiến, lợi ích tiềm năng của AI là vô cùng lớn. Mặc dù vậy, rủi ro mà AI mang lại cũng là một thách thức kéo dài, và nó không thể được giải quyết chỉ bằng một đạo luật, mà cần một sự đồng thuận.

Fei-Fei Li, được mệnh danh là “người mẹ của AI”, trong cuốn hồi ký của mình “Tôi nhìn thấy thế giới”, đã nói rằng động lực thúc đẩy sự phát triển của AI trong lĩnh vực khoa học và công nghiệp là gì, điều này rất quan trọng. Theo bà, động lực này phải được xác định rõ ràng vì con người.

Hiện tại, AI chưa tạo ra mối đe dọa nào cho cuộc sống của chúng ta, nhưng Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ, Bộ An ninh Nội địa và Geoffrey Hinton, người được mệnh danh là “cha đẻ của AI”, đều đồng ý rằng mối đe dọa này sẽ sớm xuất hiện. Hơn 70% các nhà nghiên cứu đã bày tỏ sự lo ngại đáng kể về rủi ro tiềm ẩn của việc lạm dụng công nghệ này.

Không chỉ các chuyên gia kỹ thuật lo ngại. Theo một cuộc khảo sát, gần 40% người Mỹ lo lắng về việc sử dụng AI nhiều hơn là cảm thấy hứng thú, trong khi chỉ có 15% người cho biết ngược lại.

Đây là một khoảng cách hiểu biết lớn, các chuyên gia kỹ thuật không chỉ cần giải thích cho công chúng, mà còn cần thu hẹp khoảng cách hiểu biết giữa họ và các nhà nghiên cứu.

LeCun trong cuốn hồi ký “Con đường của Khoa học” đã viết rằng nỗi sợ hãi của chúng ta về việc AI muốn nắm quyền lực chủ yếu xuất phát từ việc chúng ta chiếu những đặc điểm nhân loại lên máy móc. Hầu hết mọi người dễ dàng nhầm lẫn giữa trí thông minh và nhân cách, và khát vọng thống trị không liên quan đến trí thông minh, mà nhiều hơn là do sự tiết hoocmon. Những người thông minh nhất trong chúng ta không luôn khao khát trở thành người lãnh đạo, và có nhiều ví dụ rõ ràng trong chính trị quốc tế. Nhiều công ty thương mại thường mời các nhà khoa học xuất sắc làm quản lý, nhưng nhiều người từ chối, họ muốn tham gia trực tiếp vào nghiên cứu thay vì quản lý.

Ví dụ về loài linh trưởng đỏ, chúng gần như thông minh như con người, não của chúng bằng một nửa kích thước của chúng ta. Linh trưởng đỏ là loài sống đơn độc, chúng tránh xâm nhập lãnh thổ của các nhóm khác, và mối quan hệ xã hội của chúng chỉ giới hạn trong mối quan hệ mẹ-con trong hai năm và xung đột lãnh thổ. Sự tiến hóa không khiến chúng sinh ra khát vọng thống trị hàng xóm của mình: không có cấu trúc xã hội, không có hệ thống thống trị.

Con người để sinh tồn, đã tiến hóa thành nhiều xung động và cảm xúc, bao gồm tò mò, khát vọng khám phá, cạnh tranh, khuất phục, khao khát tiếp xúc với đồng loại, tình yêu, căm ghét, săn mồi, và sự ưu ái đối với gia đình, bộ tộc, văn hóa và quốc gia của chúng ta. Chỉ khi chúng ta rõ ràng thiết lập khát vọng này trong các máy móc thông minh, chúng mới khao khát thống trị con người.

Con người có nhiều kinh nghiệm trong việc biên soạn hệ thống giá trị đạo đức vào luật pháp, những giá trị này được mã hóa để cho phép nhiều thực thể thông minh và mạnh mẽ vận hành tốt. Mặt khác, những giá trị này cũng được mã hóa trong giáo dục: hàng nghìn năm qua, chúng ta đã dạy con cái phân biệt đúng sai và cố gắng thể hiện tốt trong xã hội. Chúng ta cũng có lý do để tin rằng con người có thể mã hóa những giá trị này vào máy móc.

Người đoạt Giải Turing, một trong ba người sáng lập “Ba ông tổ của Học máy sâu” và “Cha đẻ của Mạng nơ-ron tích chập”, LeCun, đã viết cuốn sách “Con đường của Khoa học”, một tuyên bố về can đảm. Ông học vì tri thức, không phải bằng cấp, và trải nghiệm của ông đã chứng minh rằng việc thi đỗ vào đại học danh tiếng không phải là con đường duy nhất dẫn đến thành công trong khoa học. Ông đọc rộng rãi, tạo nền tảng lý thuyết vững chắc cho tư duy khoa học của mình. Ông độc lập, làm những gì mình thích, ngay cả khi điều đó không được đánh giá cao trong ngắn hạn. Trong thời kỳ suy thoái của nghiên cứu mạng nơ-ron, ông kiên trì một mình và cuối cùng đã đạt được thành tựu đáng kinh ngạc trên toàn thế giới.

AI đang làm thay đổi xã hội con người, liệu tương lai máy móc có thể suy nghĩ không? Cuốn sách của LeCun kể về câu chuyện về sự trỗi dậy của AI – một thời khắc lịch sử không thể tái hiện.

Tại sao một dự luật trí tuệ nhân tạo lại khiến Silicon Valley hoảng loạn?
Tại sao một dự luật trí tuệ nhân tạo lại khiến Silicon Valley hoảng loạn?

**Từ khóa:**
– Trí tuệ nhân tạo
– Dự luật 1047
– Quản lý
– Rủi ro
– Silicon Valley

© Thông báo bản quyền

Những bài viết liên quan:

Chưa có đánh giá nào

none
Không có đánh giá...