Đối mặt với những nghi ngờ, Ultraman cuối cùng đã công khai cấu trúc an ninh của mô hình lớn tiên tiến OpenAI.
Bảo mật Cơ sở hạ tầng Nghiên cứu cho AI Cao cấp

OpenAI vận hành một số máy tính siêu lớn để huấn luyện AI, giúp chúng tôi cung cấp các mô hình có khả năng hoạt động và an toàn hàng đầu ngành. Mục tiêu của chúng tôi là đảm bảo rằng AI tiên tiến sẽ mang lại lợi ích cho tất cả mọi người, và cơ sở hạ tầng nghiên cứu của chúng tôi đóng vai trò then chốt trong việc hỗ trợ nghiên cứu này.
Để hoàn thành nhiệm vụ này một cách an toàn, chúng tôi ưu tiên tính an toàn của hệ thống. Trong bài viết này, chúng tôi tóm tắt về kiến trúc và cơ sở hạ tầng hỗ trợ huấn luyện mô hình quy mô lớn một cách an toàn, bao gồm các biện pháp bảo vệ trọng lượng mô hình nhạy cảm trong môi trường đổi mới AI. Mặc dù các tính năng bảo mật này sẽ thay đổi theo thời gian, nhưng chúng tôi tin rằng việc chia sẻ quan điểm hiện tại của chúng tôi về tính an toàn của cơ sở hạ tầng nghiên cứu có giá trị.
Vì yêu cầu công việc nghiên cứu đa dạng và thay đổi nhanh chóng, cơ sở hạ tầng nghiên cứu phải đối mặt với những thách thức bảo mật độc đáo. Các tài sản quan trọng trong cơ sở hạ tầng nghiên cứu cần được bảo vệ tốt, trong đó trọng lượng mô hình chưa được công bố là quan trọng nhất, đại diện cho tài sản trí tuệ cốt lõi cần ngăn chặn việc phát tán hoặc rò rỉ không được phép.
Để đạt được điều này, OpenAI đã xây dựng một loạt các môi trường nghiên cứu cho việc phát triển và bảo mật mô hình quy mô lớn. Cơ sở hạ tầng nghiên cứu cần bảo vệ trọng lượng mô hình, thuật toán bí mật và các tài sản nhạy cảm khác liên quan đến việc phát triển mô hình quy mô lớn khỏi việc rò rỉ không được phép. Đồng thời, các nhà nghiên cứu cần có đủ tài nguyên và cơ sở hạ tầng tính toán dưới lòng đất để nâng cao năng suất và hiệu quả.
Cơ sở hạ tầng nghiên cứu của chúng tôi nằm trên Azure và sử dụng Kubernetes để sắp xếp. Chúng tôi sử dụng chúng để thực hiện một kiến trúc an toàn, đảm bảo tuân thủ mô hình đe dọa của chúng tôi đồng thời hỗ trợ nghiên cứu.
Xác thực của chúng tôi sử dụng Azure Entra ID (trước đây là Azure Active Directory). Azure Entra ID tích hợp khung xác thực và ủy quyền nội bộ. Azure Entra ID hỗ trợ xác thực phiên dựa trên rủi ro, token xác thực và phát hiện đăng nhập bất thường. Những chức năng này có thể bổ sung cho các công cụ phát hiện nội bộ của chúng tôi trong việc nhận biết và ngăn chặn mối đe dọa tiềm ẩn.
Chúng tôi sử dụng Kubernetes để sắp xếp và quản lý tải làm việc trong cơ sở hạ tầng. Đối với tải làm việc nghiên cứu, chúng tôi tuân thủ nguyên tắc tối thiểu đặc quyền, được bảo vệ bởi chính sách kiểm soát truy cập dựa trên vai trò (RBAC) của Kubernetes. Chính sách Admission Controller thiết lập chuẩn an ninh cho tải làm việc, giảm thiểu rủi ro bằng cách kiểm soát quyền hạn của container và truy cập mạng.
Tài liệu mật, khóa và tài khoản dịch vụ như vậy cần được bảo vệ thêm. Chúng tôi sử dụng dịch vụ quản lý khóa để lưu trữ và quản lý thông tin nhạy cảm trong cơ sở hạ tầng nghiên cứu, và sử dụng kiểm soát truy cập dựa trên vai trò để hạn chế truy cập vào khóa, chỉ cho phép tải làm việc và người dùng đã được ủy quyền truy xuất hoặc sửa đổi chúng.
IAM (Quản lý Truy cập Nhận dạng) rất quan trọng để quản lý quyền truy cập của nhà nghiên cứu và nhà phát triển vào các hệ thống trên. Mục tiêu an ninh của bất kỳ giải pháp IAM nào đều là thực hiện chiến lược truy cập “tối thiểu đặc quyền” có thời hạn, quản lý hiệu quả và khả năng kiểm toán trên tài nguyên.
Để đạt được điều này, chúng tôi đã xây dựng một dịch vụ gọi là AccessManager như một cơ chế mở rộng để quản lý ủy quyền nội bộ và thực hiện truy cập tối thiểu đặc quyền. Dịch vụ này kết hợp quyết định quản lý truy cập với người phê duyệt được định nghĩa bởi chính sách, đảm bảo rằng quyết định cấp quyền truy cập vào tài nguyên nhạy cảm, bao gồm trọng lượng mô hình, được đưa ra bởi người có sự giám sát thích hợp.
Chính sách AccessManager có thể tùy chỉnh nghiêm ngặt hoặc linh hoạt dựa trên nhu cầu tài nguyên. Yêu cầu và nhận quyền truy cập vào tài nguyên nhạy cảm, chẳng hạn như kho lưu trữ chứa trọng lượng mô hình trong môi trường nghiên cứu, cần nhiều bên phê duyệt. Đối với tài nguyên nhạy cảm, quyền truy cập của AccessManager hết hạn sau một khoảng thời gian chỉ định, và nếu không được gia hạn, quyền truy cập sẽ giảm xuống trạng thái không có đặc quyền. Bằng cách thực hiện các kiểm soát này, chúng tôi giảm thiểu rủi ro truy cập nội bộ không được ủy quyền và rò rỉ tài khoản nhân viên.
Chúng tôi tích hợp GPT4 vào AccessManager để đơn giản hóa phân phối vai trò tối thiểu đặc quyền. Người dùng có thể tìm kiếm tài nguyên trong AccessManager, nó sẽ đề xuất vai trò có thể được cấp để truy cập vào tài nguyên bằng mô hình của chúng tôi. Liên kết người dùng với vai trò cụ thể này tránh phụ thuộc vào các vai trò chung và quá mức ủy quyền. Giai đoạn can thiệp con người giảm thiểu rủi ro mô hình đề xuất sai vai trò khi yêu cầu vai trò ban đầu và trong quá trình phê duyệt đa bên.
Nhóm cơ sở hạ tầng của chúng tôi sử dụng ống dẫn tích hợp và giao hàng liên tục (CI/CD) để xây dựng và thử nghiệm cơ sở hạ tầng nghiên cứu. Chúng tôi đầu tư nhiều vào việc bảo vệ ống dẫn CI/CD, tăng khả năng chống chịu trước mối đe dọa tiềm ẩn, đồng thời duy trì tính toàn vẹn của quy trình phát triển và triển khai cũng như hỗ trợ tốc độ giao hàng cho các nhà nghiên cứu và kỹ sư của chúng tôi.
Chúng tôi hạn chế khả năng tạo, truy cập và kích hoạt các ống dẫn liên quan đến cơ sở hạ tầng, ngăn chặn truy cập vào các khóa có sẵn thông qua dịch vụ CI/CD. Truy cập vào CI/CD Worker cũng bị hạn chế. Hợp nhất mã vào nhánh triển khai yêu cầu phê duyệt từ nhiều bên, tăng thêm lớp giám sát và an ninh. Chúng tôi áp dụng nguyên tắc “Cơ sở hạ tầng như Mã” (IaC), cho phép cấu hình cơ sở hạ tầng nhất quán, lặp lại và an toàn trên quy mô lớn. Cấu hình mong đợi được thực hiện bởi CI khi thực hiện thay đổi đối với cơ sở hạ tầng, thường thực hiện nhiều lần mỗi ngày.
Mặt khác, công việc nghiên cứu đòi hỏi phải thúc đẩy sự phát triển tiên phong. Điều này có thể yêu cầu chúng tôi lặp lại cơ sở hạ tầng để hỗ trợ các yêu cầu và hạn chế chức năng thay đổi liên tục. Sự linh hoạt này rất quan trọng để đạt được mục tiêu về an ninh và chức năng, và trong một số trường hợp, cần thực hiện các kiểm soát bù trừ thích hợp để đạt được mục tiêu này.
Để bảo vệ trọng lượng mô hình khỏi việc rò rỉ ra khỏi môi trường nghiên cứu, chúng tôi sử dụng phương pháp phòng thủ sâu bao gồm nhiều lớp bảo mật. Các biện pháp kiểm soát tùy chỉnh này nhằm bảo vệ tài sản nghiên cứu của chúng tôi khỏi truy cập và đánh cắp không được ủy quyền, đồng thời đảm bảo chúng vẫn có thể được sử dụng cho mục đích nghiên cứu và phát triển. Các biện pháp này có thể bao gồm:
- Ủy quyền: Phê duyệt truy cập vào kho lưu trữ tài khoản lưu trữ chứa trọng lượng mô hình nhạy cảm trong môi trường nghiên cứu yêu cầu phê duyệt từ nhiều bên.
- Truy cập: Tài nguyên lưu trữ trọng lượng mô hình nghiên cứu được truy cập thông qua liên kết chuyên dụng vào môi trường của OpenAI, giảm sự tiếp xúc với internet và yêu cầu xác thực và ủy quyền qua Azure để truy cập.
- Điều khiển ra: Môi trường nghiên cứu của OpenAI sử dụng điều khiển mạng, chỉ cho phép lưu lượng ra hướng tới các mục tiêu internet được xác định trước. Lưu lượng mạng hướng tới các máy chủ không nằm trong danh sách trắng sẽ bị từ chối.
- Phát hiện: OpenAI duy trì một loạt các biện pháp kiểm soát phát hiện để hỗ trợ kiến trúc này.
OpenAI sử dụng đội ngũ đỏ nội bộ và bên thứ ba để mô phỏng kẻ tấn công và thử nghiệm các biện pháp kiểm soát an ninh của chúng tôi đối với môi trường nghiên cứu. Chúng tôi đã thuê một công ty tư vấn bảo mật hàng đầu thế giới để thực hiện cuộc tấn công vào môi trường nghiên cứu của chúng tôi và đội ngũ đỏ nội bộ của chúng tôi đã đánh giá sâu sắc các ưu tiên của chúng tôi.
Chúng tôi đang khám phá hệ thống tuân thủ cho môi trường nghiên cứu của chúng tôi. Do việc bảo vệ trọng lượng mô hình là một vấn đề bảo mật riêng biệt, việc xây dựng một khung tuân thủ để đối phó với thách thức này sẽ liên quan đến một số tùy chỉnh. Hiện tại, chúng tôi đang đánh giá các tiêu chuẩn bảo mật hiện có, cũng như các biện pháp kiểm soát tùy chỉnh bảo vệ công nghệ AI, có thể bao gồm các tiêu chuẩn an ninh và quản lý AI, để đối phó với thách thức bảo vệ hệ thống AI độc đáo, chẳng hạn như Sáng kiến An ninh AI của Liên đoàn Bảo mật Mây hoặc Cập nhật AI SP 800-218 của Viện Tiêu chuẩn và Công nghệ Quốc gia.
Bảo vệ hệ thống AI đang phát triển đòi hỏi sự đổi mới và điều chỉnh liên tục. Như đã nêu trong bài viết “Tái tưởng tượng cơ sở hạ tầng an ninh cho AI tiên tiến”, chúng tôi đang ở tuyến đầu trong việc phát triển các biện pháp kiểm soát an ninh mới. Cam kết của chúng tôi trong nghiên cứu và phát triển đảm bảo rằng chúng tôi có thể chạy nhanh hơn mối đe dọa mới nổi và tiếp tục tăng cường tính an ninh của cơ sở hạ tầng AI của chúng tôi.
**Từ khóa:**
– AI
– Bảo mật
– Cơ sở hạ tầng
– Nghiên cứu
– OpenAI
© Thông báo bản quyền
Bản quyền bài viết thuộc về tác giả, vui lòng không sao chép khi chưa được phép.
Những bài viết liên quan:
Không có đánh giá...