Không cần phải giữ chặt cơ sở dữ liệu vector thuần túy! Phỏng vấn Phó Chủ tịch cơ sở dữ liệu và di chuyển của Amazon Web Services, Jeff Carter.

công nghệ số5tháng trướccập nhật AIANT
35 00





Thế giới của Cơ sở dữ liệu Vector và AI

Không cần phải giữ chặt cơ sở dữ liệu vector thuần túy! Phỏng vấn Phó Chủ tịch cơ sở dữ liệu và di chuyển của Amazon Web Services, Jeff Carter.

Nhu cầu ngày càng tăng đối với cơ sở dữ liệu vector đã được thúc đẩy bởi sự xuất hiện của thế hệ AI sản xuất. Amazon Web Services (AWS) cũng đã tích hợp tính năng tìm kiếm vector vào nhiều dịch vụ cơ sở dữ liệu của mình, và họ cho rằng đây là một chức năng cốt lõi mà mọi cơ sở dữ liệu nên có. Gần đây, tại sự kiện re:Invent, InfoQ đã phỏng vấn Jeff Carter, Phó Chủ tịch phụ trách Cơ sở dữ liệu và Di chuyển của AWS.

Jeff Carter chịu trách nhiệm về hơn mười dịch vụ liên quan đến cơ sở dữ liệu quan hệ và không quan hệ, cũng như các dịch vụ di chuyển. Trước khi gia nhập AWS, ông từng làm việc tại Amazon.com, nơi ông đã di chuyển môi trường phân tích Oracle gốc của Amazon lên AWS và chuyển tất cả các động cơ xử lý giao dịch từ nền tảng cũ lên AWS. Ông còn từng giữ chức Giám đốc An ninh Thông tin trong vài năm và trước khi gia nhập Amazon, ông đã làm việc tại Tera Data trong 30 năm.

Dưới đây là bản ghi cuộc phỏng vấn sau khi đã được chỉnh sửa để giữ nguyên ý nghĩa:

Câu hỏi của InfoQ:

Bạn có thể chia sẻ kế hoạch kỹ thuật của AWS trong lĩnh vực cơ sở dữ liệu, bao gồm cấu trúc và các sản phẩm quan trọng?

Jeff Carter: Trước tiên, chúng tôi có một bộ sưu tập đầy đủ các dịch vụ cơ sở dữ liệu ở tầng cơ bản nhất. Trong lĩnh vực cơ sở dữ liệu hoạt động, chúng tôi cung cấp 17 dịch vụ khác nhau. Khách hàng thường đặt câu hỏi vì sao lại có nhiều dịch vụ như vậy. Câu trả lời đơn giản là để đảm bảo khách hàng có nhiều lựa chọn phù hợp khi cân nhắc sử dụng AWS. Chúng tôi luôn nỗ lực đưa ra nhiều giải pháp hơn nữa. Ngoài ra, khách hàng cũng có những tầm nhìn cho hai đến ba năm tới. Một số tầm nhìn này có thể dựa trên công nghệ hiện tại, trong khi những tầm nhìn khác lại phụ thuộc vào công nghệ mới. Vì vậy, chúng tôi cũng cố gắng cung cấp các công nghệ mới có thể hỗ trợ nhu cầu tương lai. Tổng kết lại, điều quan trọng là phải theo dõi kỳ vọng của khách hàng, và đó là sự kết hợp giữa kỳ vọng hiện tại và tương lai.

Ví dụ, đến cuối tuần này, chúng tôi sẽ có 17 dịch vụ cơ sở dữ liệu khác nhau, một số trong số đó là cơ sở dữ liệu quan hệ, và một số khác là cơ sở dữ liệu không quan hệ. Với cơ sở dữ liệu không quan hệ, ví dụ, chúng tôi sẽ ra mắt một giải pháp mới mà tôi gọi là cơ sở dữ liệu hoạt động. Trên thực tế, nó được sử dụng chủ yếu cho mục đích phân tích. Còn có Neptune, cơ sở dữ liệu đồ thị của chúng tôi. Ngoài Neptune, bộ sưu tập cơ sở dữ liệu đồ thị của chúng tôi sẽ tiếp tục mở rộng. Đối với các cơ sở dữ liệu hiện tại, đặc biệt là khi tập trung vào các trường hợp sử dụng hoạt động, chúng tôi cũng nhấn mạnh hơn vào việc sử dụng phân tích. Ví dụ, trong lĩnh vực đồ thị, phân tích có thể bao gồm việc xem xét các mối quan hệ xã hội. Việc xem xét các mối quan hệ xã hội có thể hiển thị những người liên hệ hiện tại của một người dùng và liệt kê mười người đầu tiên, hoặc thậm chí hàng ngàn người. Facebook là một ví dụ về trường hợp sử dụng hoạt động. Tuy nhiên, đôi khi mọi người muốn biết ai có ảnh hưởng lớn nhất trên mạng, điều này thường đòi hỏi toàn bộ quét bảng. Tuy nhiên, chắc chắn chúng tôi không muốn coi toàn bộ quét bảng là tải hoạt động, và cơ sở dữ liệu giao dịch cũng không giỏi trong việc thực hiện loại tác vụ này. Vì vậy, phân tích nên được thực hiện trong bộ nhớ, điều này sẽ rất nhanh chóng. Đây là một thiết kế bền vững và có thể dựa trên cùng một công nghệ mà chúng tôi đã sử dụng, ví dụ như DynamoDB và MemoryDB, chỉ cần phân tích được thực hiện trong bộ nhớ.

Sau đó là tầng cốt lõi, sau cuối tuần này chúng tôi sẽ có 17 dịch vụ cơ sở dữ liệu khác nhau. Điều quan trọng tiếp theo là cách tích hợp dữ liệu, vì không phải ai cũng muốn đối mặt với nhiều tài sản khác nhau. Vì vậy, chúng tôi mong muốn tạo ra những điểm chung quan trọng giữa các tài sản, tức là không cần ETL. Mục tiêu cơ bản của chúng tôi là xây dựng các trường hợp sử dụng dựa trên điều này, và điều chúng tôi thực sự quan tâm là làm cho dữ liệu di chuyển một cách mượt mà từ động cơ giao dịch sang kho dữ liệu hoặc hồ dữ liệu. Không cần ETL, chính là chìa khóa để di chuyển một cách liền mạch.

Khi chúng tôi thực hiện các thao tác chèn, cập nhật, xóa và các thao tác cơ sở dữ liệu chuẩn khác, dữ liệu bắt đầu di chuyển và thay đổi. Dữ liệu có thể đi vào RedShift, hoặc di chuyển đến nơi sử dụng. Tiếp theo là quản lý tốt hồ dữ liệu. Vì vậy, gần đây chúng tôi đã công bố khu vực dữ liệu Data Zone. Bằng cách này, mọi người có thể tìm thấy dữ liệu trong môi trường của mình, chúng tôi cũng có thể tạo nhóm quyền cho dữ liệu. Người dùng có thể chỉ định thành viên cho nhóm quyền, sau đó phân phối nhóm quyền cho tập quyền. Và bất kể mọi người cụ thể sử dụng động cơ phân tích nào, những quyền này đều hoạt động đúng.

Cuối cùng là AI sản xuất, ở đây tôi muốn thảo luận về hai hình thức ứng dụng AI sản xuất. Thứ nhất, chúng ta cần thực hiện những gì để cải thiện trải nghiệm khách hàng? Thứ hai, chúng ta cần làm thế nào để giúp khách hàng xây dựng ứng dụng của riêng họ? Một ví dụ về việc cải thiện trải nghiệm khách hàng, đó là thông báo chúng tôi công bố tuần này: Q. Trước khi diễn ra sự kiện re:Invent, Amazon cũng có một sản phẩm gọi là Q, đó là QuickSight Q, chủ yếu xây dựng bảng điều khiển và báo cáo thông qua xử lý ngôn ngữ tự nhiên. Chức năng này vẫn tồn tại, nhưng Amazon Q mới thuộc thương hiệu độc lập, bao gồm tất cả các kết quả mà AWS nội bộ sử dụng AI sản xuất để tăng cường trải nghiệm khách hàng. Một ví dụ mà chúng tôi đang quảng bá là: chúng tôi kết hợp tất cả tài liệu người dùng với mô hình ngôn ngữ lớn, để người dùng có thể tự do đặt câu hỏi bằng ngôn ngữ tự nhiên, và Amazon Q sẽ đưa ra đề xuất và các bước chi tiết tương ứng dựa trên thông tin tài liệu.

Như vậy, tương tác với tài liệu trở nên tốt hơn. Không chỉ sử dụng AI sản xuất trong việc tìm kiếm, chúng tôi còn thử nghiệm tương tự với Aurora trong lĩnh vực RDS. Chúng tôi cũng phát triển DevOps Guru for RDS, bằng cách này có thể xem xét xem có sự cố nào trong cơ sở dữ liệu hay không và gửi cảnh báo sớm cho khách hàng. Chúng tôi còn hợp tác với đội an ninh chịu trách nhiệm cho GuardDuty, để theo dõi mọi hành vi đăng nhập hướng đến cơ sở dữ liệu của bạn.

Khi nó phát hiện ra sự cố, nó sẽ gửi cảnh báo chủ động. Cụ thể, có thể là ai đó đang thử mật khẩu nhiều lần, hoặc một hành vi đăng nhập từ địa chỉ IP hoặc mạng ẩn được biết bởi phòng an ninh. Ngay cả khi chỉ xảy ra một lần, nó cũng sẽ ghi nhớ. Đây là ba ví dụ đơn giản về cách chúng tôi sử dụng dịch vụ AI sản xuất để giúp khách hàng. Chúng tôi còn đầu tư rất nhiều để giúp khách hàng đạt được thành công lớn hơn, và kết quả đó là Bedrock. Dưới Bedrock, chúng tôi cũng đã ra mắt dịch vụ PartyRock. Nếu bạn chưa thử, tôi khuyên bạn nên trải nghiệm ngay lập tức. Nó rất đơn giản và thú vị, nói chung đó là một bộ sưu tập của nhiều mô hình ngôn ngữ lớn khác nhau. Chúng tôi tin rằng ít nhất là hiện tại, không có mô hình nào có thể chứng minh thế giới, mà cần phải sử dụng nhiều phương pháp và mô hình khác nhau, tận dụng chuyên môn riêng của chúng.

Ví dụ, một mô hình có thể giỏi trong việc chỉnh sửa hình ảnh, mô hình khác có thể giỏi trong việc sắp xếp âm nhạc, mô hình thứ ba có thể giỏi trong việc chỉnh sửa văn bản hoặc trau chuốt ngôn ngữ. Chúng có hướng chú ý riêng. Vì vậy, chúng tôi muốn đảm bảo khách hàng có thể dễ dàng tìm kiếm và chọn mô hình phù hợp nhất với nhu cầu của họ. Tất nhiên, chúng tôi hỗ trợ nhiều mô hình, nhưng mỗi người dùng có yêu cầu khác nhau đối với mô hình, vì tất cả các doanh nghiệp đều duy nhất. Bạn có thể cần thêm dữ liệu cục bộ, quá trình này được gọi là Retrieval-Augmented Generation, viết tắt là RAG.

Khi sử dụng, mọi người có thể chỉ định ổ đĩa chia sẻ, chỉ định mô hình lớn cần kích hoạt, chỉ định cơ sở dữ liệu hỗ trợ tìm kiếm tương đồng vector (VSS). Cơ sở dữ liệu có thể là cơ sở dữ liệu vector Pincone, hoặc Redis, hoặc bất kỳ cơ sở dữ liệu nào trong bảy cơ sở dữ liệu mà chúng tôi hỗ trợ. Chúng tôi đang mở rộng, hiện tại đã có bảy tùy chọn cơ sở dữ liệu khác nhau, bao gồm OpenSearch, RDS Postgres, Aurora Postgres, MemoryDB, v.v., và sẽ có nhiều hơn nữa. Hoàn tất chỉ định, nhấp vào Bắt đầu, nó sẽ đọc tài liệu, chia tài liệu thành các khối, chuyển đổi các khối này thành vector bằng mô hình ngôn ngữ lớn đã chọn, tạo các nhúng vector. Sau đó, nó sẽ lưu trữ các nhúng này trong cơ sở dữ liệu hỗ trợ VSS, và kết hợp mô hình lớn và cơ sở dữ liệu VSS, để trả lời câu hỏi của bạn.

Bây giờ, mô hình của chúng tôi đã nắm vững kiến thức kinh doanh cụ thể từ kho dữ liệu. Trong quá trình tương tác, tất cả kiến thức đều được kết nối một cách liền mạch, sẵn sàng cho bạn lựa chọn và giao cho khách hàng. Bây giờ chúng tôi có thể giao mô hình ngôn ngữ lớn và bộ lưu trữ vector này cho khách hàng. Nếu muốn, bạn cũng có thể chỉ cung cấp cho nhân viên nội bộ. Tóm lại, bạn có thể tùy ý chọn người dùng, chỉ định họ có thể tương tác với phần nào của tài liệu. Tài liệu có thể ở bất kỳ dạng nào, ví dụ như trang web hoặc tệp PDF. Tổng kết lại, chúng tôi cung cấp một tài liệu, chuyển đổi nó thành vector. Sau đó, mô hình lớn có thể nhận biết dữ liệu này, tránh việc xử lý thủ công. Chỉ với Bedrock, bạn có thể tự động hóa hoàn toàn.

Tất nhiên, tại sự kiện re:Invent năm nay, còn có nhiều trường hợp khác. Tổng kết lại, đội ngũ của chúng tôi đã làm việc chặt chẽ với đội ngũ Bedrock để triển khai tính năng tìm kiếm vector, và chúng tôi cũng cho rằng đây là một chức năng cốt lõi mà mọi cơ sở dữ liệu nên có.

Câu hỏi của InfoQ:

Làm sao để xác định loại cơ sở dữ liệu nào có hiệu suất tốt nhất về giá trị?

Jeff Carter: Chúng tôi có thể đặt nhiều thông số khác nhau trong mô hình, ví dụ như tỷ lệ thu hồi. Quá trình tìm kiếm tương đồng vector, trước hết là trích xuất dữ liệu, sau đó tạo ra các số học dựa trên nhiều chiều, nghĩa là mỗi tài liệu có thể có 20, 30 hoặc 40 chiều khác nhau. Trên 40 chiều này, vai trò của VSS là tìm kiếm các láng giềng gần nhất giữa các chiều. Đó là chức năng mà chúng tôi muốn thêm vào cơ sở dữ liệu cốt lõi, đó là khả năng thực hiện tìm kiếm VSS nhanh chóng. Đây là tỷ lệ thu hồi, một con số nằm trong khoảng từ 0 đến 1. Tỷ lệ thu hồi càng cao, chất lượng câu trả lời càng tốt, nhưng cũng sẽ tiêu tốn nhiều sức mạnh tính toán hơn. Bạn có thể chọn tỷ lệ thu hồi 90%, hoặc 99%. Tùy thuộc vào tỷ lệ thu hồi được chọn, hiệu suất và giá trị của các cơ sở dữ liệu khác nhau cũng sẽ khác nhau.

Tôi nghĩ đối với hầu hết các trường hợp sử dụng, Aurora Postgres đều tỏ ra xuất sắc, và OpenSearch cũng rất tốt. Nhưng nếu bạn muốn tỷ lệ thu hồi cực cao, thì MemoryDB dường như là lựa chọn tốt nhất, vì nó lưu trữ tất cả dữ liệu trong bộ nhớ, không cần truy cập đĩa nhiều lần.

Câu hỏi của InfoQ:

Chúng tôi đã công bố nhiều sản phẩm về không cần ETL hôm nay. Tôi rất tò mò, liệu điều này có nghĩa là với sự xuất hiện ngày càng nhiều các sản phẩm không cần ETL, ETL sẽ biến mất trong tương lai không? Bạn nghĩ sao về vấn đề này?

Jeff Carter: Theo kinh nghiệm cá nhân, tôi vẫn tập trung vào cảm nhận của người tiêu dùng. ETL thực sự chia thành hai lớp, một là lấy dữ liệu gốc từ động cơ giao dịch và đưa vào môi trường dữ liệu, và không cần ETL thực hiện tự động hóa cho lớp này. Phần chuyển đổi dữ liệu cơ bản để tạo ra các nhóm kinh doanh cấp cao hơn, tức là phần T, vẫn cần sử dụng Glue hoặc các công cụ bên thứ ba để tạo ra các nhóm kinh doanh cấp cao hơn. Từ góc độ Amazon.com, ví dụ về trường hợp sử dụng lớp trước đó là kho hàng trung tâm. Kiểm tra từng loại sản phẩm còn bao nhiêu trong kho hàng trung tâm của chúng tôi, sau đó chuyển dữ liệu này vào hồ dữ liệu, đây là phần không cần ETL phát huy tác dụng. Nhưng để kết hợp tất cả các kho hàng trung tâm, và hiển thị dữ liệu toàn cầu trên trang web, thì cần thêm nhiều lớp T, cần sử dụng các công cụ như Glue.

ETL thường được sử dụng để đọc và ghi dữ liệu vào kho dữ liệu và hồ dữ liệu, nhưng nếu muốn, bạn cũng có thể sử dụng Glue để truy cập các cơ sở dữ liệu khác nhau để lấy thông tin. Tại AWS, khi chúng tôi nói về kho dữ liệu, chúng tôi thường đề cập đến RedShift. Glue có thể giao tiếp liền mạch với RedShift. Về hồ dữ liệu, chúng tôi chủ yếu đề cập đến Lake Formation, cũng như các dự án khác như EMR và Athena. Redshift là một cơ sở dữ liệu cột song song dùng để làm kho dữ liệu.

Tương lai, liệu mọi người có gửi nhiều dữ liệu hơn vào hồ dữ liệu, thay vì sử dụng nhiều kho dữ liệu kiểu cột như Redshift? Tôi nghĩ rằng cả hai trường hợp này đều sẽ tồn tại, tùy thuộc vào kích thước, loại truy vấn và loại bảng, mỗi trường hợp sẽ có phương pháp phù hợp riêng. Nhưng tôi nghĩ từ góc độ dài hạn, chúng tôi đang nghiên cứu và phát triển nhiều công nghệ mới mà chưa được công bố, có thể thực sự kết nối hai môi trường này.

Câu hỏi của InfoQ:

Mọi người đều biết, lĩnh vực cơ sở dữ liệu vector đang cạnh tranh rất gay gắt. Trước khi đến đây, tôi đã trao đổi với cộng đồng kỹ thuật Trung Quốc, bao gồm các cuộc thảo luận trực tuyến liên quan đến cơ sở dữ liệu vector. Một số chuyên gia cho rằng, thành phần bộ nhớ lâu dài đi kèm với mô hình ngôn ngữ lớn không nên chỉ là cơ sở dữ liệu vector. Vậy, với tư cách là người phụ trách dịch vụ cơ sở dữ liệu và di chuyển của AWS, bạn nhìn nhận xu hướng phát triển của cơ sở dữ liệu vector như thế nào? Trong những năm tới, tiềm năng thách thức và cơ hội nào có thể xuất hiện?

Jeff Carter: Đầu tiên, chúng tôi muốn cung cấp cho khách hàng nhiều lựa chọn thông qua AWS. Tôi đã dẫn ví dụ về hai công ty, và còn nhiều ví dụ khác. Đầu tiên là Pincone, đại diện cho cơ sở dữ liệu vector thuần túy. Redis Labs cũng có phiên bản hỗ trợ VSS. Miễn là khách hàng muốn, chúng tôi rất sẵn lòng hỗ trợ các sản phẩm này để sử dụng miễn phí.

Họ chắc chắn có đánh giá riêng về các giải pháp này, và chúng tôi rất vui được hỗ trợ sự lựa chọn thực tế của họ. Nhưng tôi luôn cảm thấy, không nhất thiết phải tuân thủ hoàn toàn vào cơ sở dữ liệu vector thuần túy. Chính vì vậy, chúng tôi đã lấy công nghệ cốt lõi của nó và tích hợp vào các giải pháp khác, cố gắng cân nhắc giữa các công nghệ khác nhau. Bằng cách này, khách hàng có thể đưa ra quyết định sáng suốt nhất phù hợp với nhu cầu kinh doanh của họ.

Hiện tại, tình hình đang thay đổi nhanh chóng, câu trả lời mà chúng tôi đưa ra hôm nay có thể trở thành câu trả lời sai trong tương lai, ví dụ như 6 tháng sau tình hình có thể thay đổi rất nhiều. Thậm chí, trong vòng 3 tháng tới cũng có thể có thay đổi. Tôi tin rằng tất cả các doanh nghiệp đều muốn mở rộng thông tin kinh doanh của mình để nâng cấp mô hình cơ bản. Tôi cũng tin rằng có các doanh nghiệp sẵn lòng dành vài tháng để đào tạo riêng, mặc dù chi phí sẽ cao hơn rất nhiều.

Tôi cho rằng ranh giới giữa fine-tuning và Retrieval-Augmented Generation (RAG) khá mờ, và phạm vi áp dụng của chúng cũng có sự giao thoa. Tổng kết lại, mặc dù mô hình ngôn ngữ lớn đã thể hiện sự tuyệt vời, nhưng vẫn còn xa mới hoàn hảo.

Câu hỏi của InfoQ:

Mọi người đều biết rằng công nghệ cơ sở dữ liệu đã tồn tại được nửa thế kỷ rồi, việc đổi mới trên nền tảng này cũng trở nên khó khăn hơn. Vậy AWS đã làm gì để đổi mới trong lĩnh vực công nghệ cơ sở dữ liệu? Trong những năm gần đây, bạn cho rằng AWS đã đạt được tiến bộ kỹ thuật lớn nhất và rõ ràng nhất trong lĩnh vực cơ sở dữ liệu là gì?

Jeff Carter: Đây là một câu hỏi hay. Đầu tiên, chúng tôi đổi mới cho tất cả các sản phẩm của mình mỗi năm, và dành rất nhiều thời gian để giao tiếp với khách hàng và thành viên cộng đồng, tìm hiểu xem khách hàng gặp phải những vấn đề gì khi sử dụng sản phẩm hiện tại và cố gắng cải thiện.

Nhưng cũng có nhiều vấn đề mang tính dài hạn, ví dụ như làm thế nào để thích ứng với xu hướng có thể xuất hiện trong vài năm tới, và chuẩn bị trước. Chúng tôi đang phát triển các dự án có thể sẽ ra mắt sau một, hai hoặc ba năm, và hy vọng rằng khi ra mắt, chúng vẫn sẽ mang tính cách mạng. Xin lỗi, tôi không thể tiết lộ nội dung công việc hiện tại, nhưng tôi muốn nhấn mạnh rằng chúng tôi xem xét cả vấn đề ngắn hạn và dài hạn, và cách làm thế nào để làm tốt điều đó. Ví dụ, với công nghệ AI sản xuất, chúng tôi đã nhận ra đây là một công nghệ cách mạng, và loại công nghệ này có thể xuất hiện mỗi thập kỷ một lần. Chúng tôi đang nỗ lực chuyển đổi nội bộ, thảo luận về những thành tựu trước đây có thể kết nối với nó, và công bố rằng chúng tôi sẽ tích cực theo đuổi hướng đi này. Chúng tôi luôn duy trì động lực đổi mới mạnh mẽ và thực sự tập trung vào những lĩnh vực có tiềm năng.

Vì vậy, như Bedrock, Titan và PartyRock, đây là những kết quả thực tế mà chúng tôi có thể đưa ra trong một khoảng thời gian tương đối ngắn. Chúng tôi là một công ty chuyên về học máy và AI, tôi có thể dễ dàng đưa ra hàng chục ví dụ về việc áp dụng học máy trong lĩnh vực tiêu dùng, ví dụ như cải thiện chức năng tìm kiếm thông qua học máy, nhờ đó tạo ra hệ thống tái cung cấp thông minh trong tất cả các kho hàng trung tâm. Các ví dụ như vậy có thể đếm không đếm hết.

Nay, chúng tôi lại hướng đến AI sản xuất, và hy vọng mọi người đều có thể cảm nhận được sự nghiêm túc của chúng tôi. Về các ứng dụng của AI sản xuất, tôi nghĩ mọi người có thể có những cái nhìn khác nhau. Khả năng kỳ diệu nhất của AI sản xuất là khả năng xử lý ngôn ngữ tự nhiên. Đúng, như đã đề cập trước đó, nó có thể đọc tài liệu và trả lời câu hỏi dựa trên nội dung đã đọc, tương đương với việc đưa lịch sử ngôn ngữ đầy đủ vào mô hình. Điều này thật sự rất tuyệt. Tôi tin rằng sẽ có rất nhiều ứng dụng thú vị xuất hiện.

Câu hỏi của InfoQ:

Năm 2023 sắp qua đi, nếu bạn phải chọn ba từ khóa để mô tả lĩnh vực cơ sở dữ liệu trong năm nay, bạn sẽ chọn từ nào?

Jeff Carter: Từ đầu tiên đơn giản là Giảm chi phí. Thứ hai là AI sản xuất. Thứ ba là Tích hợp hoặc Kết hợp. Trong 18 tháng qua, mọi người đã nỗ lực tìm kiếm các phương pháp giảm chi phí và tăng hiệu quả, và AWS chỉ là một phần trong số đó. Điều này cũng đại diện cho xu hướng lớn trong thời gian qua. Mỗi cuộc trao đổi, đối tác đều nhấn mạnh đến việc giảm chi phí và AI, và mọi người cần các phương pháp đơn giản hơn. Để đạt được cả hai mục tiêu này, tích hợp là yếu tố then chốt.


### Từ khóa:
– Giảm chi phí
– AI sản xuất
– Tích hợp

© Thông báo bản quyền

Những bài viết liên quan:

Chưa có đánh giá nào

none
Không có đánh giá...