Một trợ lý lập trình nhỏ nhưng mạnh mẽ: Yi-Coder series mô hình chính thức được mở mã nguồn.

Những ngày gần đây, Alibaba đã tạo ra một cơn sốt mới trong lĩnh vực mô hình lớn tại hội nghị Cloud World. Công ty đã tung ra hơn 100 mô hình mã nguồn mở và giảm giá mạnh cho các mô hình chủ lực, mang đến một làn sóng ấn tượng cho cộng đồng công nghệ.
CTO của Alibaba Cloud, Zhou Jingren, đã giới thiệu phiên bản mới của mô hình ngôn ngữ lớn Qwen2.5, với tổng cộng hơn 100 mô hình khác nhau. Các mô hình này bao gồm nhiều kích thước của mô hình ngôn ngữ lớn, mô hình đa phương tiện, mô hình toán học và mô hình mã hóa, mỗi kích thước đều có phiên bản cơ bản, phiên bản theo lệnh và phiên bản lượng tử. Đây là một kỷ lục trong lịch sử phát triển mô hình ngôn ngữ lớn mã nguồn mở.
“Những mô hình này không phải để cạnh tranh, mà để đưa ra lựa chọn cho các nhà phát triển,” Zhou Jingren nói khi trả lời phỏng vấn báo chí. “Ngày nay, các nhà phát triển sẽ cân nhắc giữa tăng cường khả năng của mô hình và tối ưu hóa hiệu suất suy luận dựa trên ngữ cảnh cụ thể của họ.”
Zhou Jingren cũng chia sẻ rằng ban đầu Qwen2 chỉ có hai phiên bản là 7B và 70B. Tuy nhiên, sau đó, nhóm nghiên cứu đã nhận được phản hồi từ cộng đồng phát triển, yêu cầu Alibaba cung cấp thêm nhiều phiên bản khác như 14B, 32B và 3B. “Lần này, chúng tôi đã tung ra toàn bộ chuỗi mô hình, mang lại nhiều lựa chọn hơn cho các nhà phát triển,” ông nhấn mạnh.
Alibaba đã cam kết theo đuổi việc phát hành mã nguồn mở từ năm ngoái. Điều này không chỉ thúc đẩy sự phát triển của hệ sinh thái mà còn giúp phục vụ doanh nghiệp một cách hiệu quả hơn. Theo thống kê, đến tháng 9 năm 2024, tổng số lượt tải xuống của mô hình thông minh Qwen đã vượt quá 40 triệu, và tổng số mô hình phái sinh Qwen đã đạt hơn 50.000, trở thành một trong những nhóm mô hình lớn nhất thế giới, chỉ sau Llama.
Trong lĩnh vực mô hình lớn mã nguồn mở, Llama vẫn dẫn đầu. Theo dữ liệu mới nhất từ Meta, tổng số lượt tải xuống của mô hình Llama đã đạt gần 350 triệu (tăng gấp 10 lần so với cùng kỳ năm trước), trong đó chỉ trong tháng trước đã có hơn 20 triệu lượt tải xuống. Hơn 60.000 mô hình phái sinh của Llama đã được tạo ra trên Hugging Face, cho phép các nhà phát triển tùy chỉnh mô hình dựa trên nhu cầu cụ thể của họ.
“Thành công của Llama có được nhờ sức mạnh của việc phát hành mã nguồn mở. Bằng cách công bố mô hình của mình, chúng tôi đã chứng kiến sự phát triển của một hệ sinh thái AI đầy năng động và đa dạng, nơi các nhà phát triển có nhiều lựa chọn và khả năng hơn bao giờ hết,” Meta chính thức tuyên bố.
Trong khi đó, các mô hình lớn như GPT của OpenAI, mô hình lớn Claude của Anthropic, mô hình lớn Wenxin của Baidu và mô hình lớn PanGu của Huawei đều lựa chọn giữ bí mật. Điều này phản ánh sự khác biệt về đánh giá trong ngành về hướng phát triển của mô hình lớn, nhưng hiện chưa rõ con đường nào sẽ tiếp tục đi xa.
Trong hai năm qua, kích thước của các mô hình đã tăng lên hàng nghìn lần, nhưng chi phí tính toán đang giảm dần, khiến chi phí sử dụng mô hình của doanh nghiệp cũng giảm theo. Sau đợt giảm giá đầu tiên vào tháng 5, Alibaba Cloud đã thông báo giảm giá mạnh cho ba mô hình chủ lực của mình. Giá của Qwen-Turbo đã giảm 85%, xuống còn 0,3 nhân dân tệ cho 1 triệu token, trong khi Qwen-Plus và Qwen-Max giảm 80% và 50% tương ứng.
“Chúng tôi mong muốn mọi người và nhà phát triển có thể sử dụng AI với chi phí thấp nhất, để mọi người đều có thể sử dụng mô hình lớn tiên tiến nhất,” Zhou Jingren nhấn mạnh. “Chỉ bằng cách này, ngành công nghiệp mới có thể phát triển và tạo ra nhiều đổi mới hơn nữa. Hiện tại, việc sử dụng, cải tiến và sáng tạo trong lĩnh vực mô hình vẫn đang ở giai đoạn sơ khai, nếu chi phí suy luận mô hình cao, sẽ có rất nhiều nhà phát triển không thể sử dụng AI một cách hiệu quả.”
Zhou Jingren cũng cho biết rằng việc giảm giá chủ yếu được thực hiện thông qua việc tối ưu hóa kỹ thuật, không chỉ mô hình đang được cải tiến nhanh chóng, mà cấu trúc suy luận mô hình, tối ưu hóa hệ thống và cơ sở hạ tầng đám mây cũng đang được nâng cấp liên tục, điều này giúp giảm đáng kể chi phí tổng thể của mô hình.
Trong nửa đầu năm 2024, ngành công nghiệp mô hình lớn đã nhiều lần gây ra cuộc chiến giá cả. Ngoài Alibaba, Baidu, iFlytek, ByteDance và Zhipu đều đã giảm giá mạnh, thậm chí một số công ty đã giảm giá dưới mức hòa vốn. Khi được hỏi về mức giá tối thiểu cho mô hình lớn, Zhou Jingren thẳng thắn cho biết rằng hiện tại, giá của mô hình lớn vẫn còn quá cao so với tiềm năng ứng dụng trong tương lai.
“Đây là lợi ích kỹ thuật do sự cải cách toàn diện của hạ tầng AI mang lại. Chúng tôi sẽ tiếp tục đầu tư vào việc xây dựng hạ tầng AI tiên tiến, để thúc đẩy mô hình lớn đi vào mọi ngành nghề,” Zhou Jingren nhấn mạnh. Alibaba Cloud đang nỗ lực xây dựng một chuẩn mực mới cho hạ tầng AI trong thời đại AI, nâng cấp toàn diện từ máy chủ đến tính toán, lưu trữ, mạng, xử lý dữ liệu, huấn luyện mô hình và nền tảng suy luận, biến trung tâm dữ liệu thành một siêu máy tính, cung cấp dịch vụ tính toán hiệu quả và hiệu suất cao cho mỗi mô hình AI và ứng dụng.
Tại hội nghị, Zhou Jingren đã trình bày bộ sản phẩm mới nhất của Alibaba Cloud được thúc đẩy bởi AI. Máy chủ AI mới nhất, Panjiu, hỗ trợ đến 16 card và 1,5TB bộ nhớ, cung cấp dự đoán lỗi GPU với độ chính xác 92%; Alibaba Cloud ACS lần đầu tiên giới thiệu khả năng tính toán container GPU, thông qua điều phối cảm giác topology, cải thiện sự gắn kết và hiệu suất tính toán; Kiến trúc mạng hiệu suất cao HPN7.0 dành cho AI, có thể kết nối ổn định hơn 100.000 GPU, cải thiện hiệu suất huấn luyện mô hình từ đầu đến cuối hơn 10%; Hệ thống lưu trữ file CPFS của Alibaba Cloud, với tốc độ truyền dữ liệu lên tới 20TB/s, cung cấp khả năng mở rộng lưu trữ cấp số mũ cho AI; Nền tảng AI PAI của Alibaba Cloud đã đạt được khả năng điều phối linh hoạt với hàng nghìn card GPU, hiệu suất sử dụng AI hiệu quả hơn 90%.
Theo Zhang Qi, Phó tổng giám đốc và người quản lý bộ phận giao tiếp công cộng của Alibaba, “Hiện nay, Alibaba đang tập trung vào việc xây dựng cơ sở hạ tầng AI lớn, giảm giá để tạo điều kiện cho sự bùng nổ của ứng dụng trong tương lai.”
Ngày 18-19 tháng 8 năm 2024, Hội nghị Toàn cầu về Phát triển và Ứng dụng AI (AICon) tại Thượng Hải đã diễn ra thành công tốt đẹp, thu hút hơn 60 chuyên gia hàng đầu trong lĩnh vực mô hình lớn, phân tích toàn diện về cơ chế huấn luyện và suy luận mô hình, sự tích hợp đa phương tiện, tiến bộ hàng đầu của trí tuệ nhân tạo (Agent), chiến lược tạo ra nội dung bằng cách tăng cường tìm kiếm (RAG) và tối ưu hóa mô hình bên cạnh thiết bị. Thông qua sự cho phép của các diễn giả, “AI Frontline” đã tổng hợp và cung cấp bộ sưu tập PPT độc quyền, không thể bỏ lỡ. Hãy theo dõi “AI Frontline” và trả lời từ khóa “PPT” để nhận miễn phí bộ sưu tập này.
**Từ khóa:**
– Mô hình lớn
– Alibaba Cloud
– Qwen2.5
– Mã nguồn mở
– Giảm giá
© Thông báo bản quyền
Bản quyền bài viết thuộc về tác giả, vui lòng không sao chép khi chưa được phép.
Những bài viết liên quan:
Không có đánh giá...