Sau cơn sốt “tạo chip”, việc sản xuất quy mô tích hợp phần cứng và phần mềm trở thành chìa khóa cạnh tranh trong lái xe thông minh: Xuất xưởng dưới 1 triệu sẽ đối mặt với mất cân bằng sản xuất.

công nghệ số5tháng trướccập nhật AIANT
44 00

AI làm thành viên của đội ngũ Scrum

Scrum.org mới đây đã công bố một bài viết do Giám đốc Điều hành Eric Naiburg viết, với tiêu đề “AI như một thành viên trong đội ngũ Scrum”. Trong bài viết này, Naiburg đã thảo luận về cách đưa AI vào đội ngũ Scrum để tăng cường năng suất cho Scrum Master, người chịu trách nhiệm sản phẩm và các nhà phát triển, đồng thời thách thức độc giả tưởng tượng về một cảnh quan mà AI được tích hợp một cách mượt mà vào đội ngũ.

Birgitta Böckeler, người đứng đầu toàn cầu về phát triển phần mềm hỗ trợ AI tại Thoughtworks, cũng gần đây đã công bố một bài viết có tựa đề “Khám phá AI Tạo ra”. Trong đó, cô chia sẻ những quan sát thí nghiệm về việc áp dụng các mô hình ngôn ngữ lớn trong lĩnh vực kỹ thuật, những mô hình này hứa hẹn sẽ mang lại lợi ích đáng kể cho các đội ngũ phát triển phần mềm.

Naiburg so sánh công cụ AI với một đối tác lập trình phối hợp. Ông phân tích cách ứng dụng AI thông qua công cụ tích hợp LLM để giải quyết gánh nặng nhận thức của các vai trò chính trong đội ngũ Scrum. Khi nói về vai trò của Scrum Master, ông nói rằng AI có thể đóng vai trò là một trợ lý, cung cấp lời khuyên quý giá về cách cải thiện đội ngũ, hiệu suất của đội ngũ và tối ưu hóa quy trình.

Ví dụ, nếu bạn gặp vấn đề khi các thành viên trong đội Scrum không tham gia tích cực trong giai đoạn đánh giá Sprint, bạn có thể hỏi AI: “Tôi gặp vấn đề khi các thành viên trong đội Scrum không tham gia tích cực trong giai đoạn đánh giá Sprint. Bạn có lời khuyên nào không?”

Naiburg cũng nhấn mạnh rằng AI có thể hỗ trợ các nhà phát triển bằng cách giúp họ phân tách và hiểu rõ hơn về các câu chuyện người dùng. Ngoài ra, ông còn nhấn mạnh lợi ích của việc sử dụng AI để đơn giản hóa quá trình thiết kế nguyên mẫu, kiểm thử, tạo mã, xem xét mã và tổng hợp dữ liệu kiểm thử.

Böckeler tập trung vào vai trò của các nhà phát triển trong bài viết của mình, chia sẻ về cách cô sử dụng LLM để tăng tốc độ áp dụng dự án nguồn mở và giao hàng câu chuyện người dùng cho các dự án phần mềm cũ. Để hiểu rõ khả năng và giới hạn của công cụ AI, cô đã sử dụng LLM để xử lý một vé công việc (Ticket) từ dự án nguồn mở Bhamni. Cô mô tả chi tiết cách mình sử dụng LLM để phân tích nội dung vé công việc, khám phá kho lưu trữ mã và tìm kiếm manh mối trong ngữ cảnh dự án hạn chế.

Công cụ mà Böckeler sử dụng bao gồm một mô hình LLM được tăng cường bởi RAG (Tăng cường tạo ra thông qua truy xuất), có khả năng cung cấp những hiểu biết sâu sắc dựa trên nội dung wiki của Bhamni. Cô cung cấp một gợi ý cho LLM bao gồm một câu chuyện người dùng và yêu cầu nó “giải thích thuật ngữ Bhamni và thuật ngữ y tế liên quan”. Böckeler viết:

Tôi đặt ra một câu hỏi rộng rãi hơn: “Xin hãy giải thích thuật ngữ Bhamni và thuật ngữ y tế liên quan trong vé công việc sau: …”. Mô hình LLM đã cung cấp một câu trả lời dù hơi dài dòng và lặp đi lặp lại nhưng nhìn chung vẫn hữu ích. Nó không chỉ đặt nội dung vé công việc vào bối cảnh mà còn giải thích lại. Hơn nữa, nó còn đề cập đến chức năng liên quan được thực hiện thông qua “đoạn mã Bhamni HIP Plugin Module”, điều này cung cấp cho chúng tôi manh mối về vị trí của đoạn mã liên quan.

Khi nói về việc hiểu rõ hơn về mã, Böckeler đã đưa văn bản từ vé công việc JIRA vào hai công cụ nhằm mục đích tạo ra và hiểu mã – Bloop và Github Copilot. Cô yêu cầu cả hai công cụ giúp cô tìm kiếm mã liên quan đến chức năng này. Cả hai mô hình đều cung cấp một loạt các manh mối về mã, và cô nói rằng những manh mối này “không hoàn toàn chính xác” nhưng “tổng thể vẫn hữu ích”. Khi khám phá tiềm năng của các công cụ tạo mã tự động, Böckeler đã thử sử dụng Autogen để xây dựng một đại diện thông minh dựa trên LLM để thực hiện việc chuyển đổi kiểm thử giữa các khung khác nhau. Cô giải thích:

Trong trường hợp này, đại diện thông minh là một ứng dụng sử dụng mô hình ngôn ngữ lớn, không chỉ giới hạn ở việc hiển thị phản hồi của mô hình cho người dùng, mà còn tự động thực hiện các hành động dựa trên thông tin được cung cấp bởi LLM.

Böckeler cho biết đại diện thông minh của cô “ít nhất đã hoạt động thành công một lần”, nhưng cũng “thất bại nhiều lần, thậm chí thất bại nhiều hơn thành công.” Thông tin gần đây từ InfoQ cho thấy một nghiên cứu gây tranh cãi của Học viện Upwork, dựa trên mẫu khảo sát, kết luận rằng các công cụ AI thực sự giảm năng suất, với 39% số người được hỏi nói rằng họ dành nhiều thời gian hơn để xem xét hoặc quản lý nội dung được tạo ra bởi AI.

Naiburg nhấn mạnh rằng điều quan trọng là phải đảm bảo rằng đội ngũ tập trung vào việc tạo ra giá trị, không chỉ tập trung vào đầu ra của các công cụ AI. Ông cảnh báo rằng:

Sử dụng các công cụ này có thể tăng lượng đầu ra. Ví dụ, một số bot phát triển phần mềm tạo ra quá nhiều mã và chứa mã không liên quan. Tương tự, khi bạn sử dụng AI để hoàn thiện câu chuyện người dùng, xây dựng kiểm thử, thậm chí tạo ra các ghi chú cuộc họp, cũng có thể xảy ra tình trạng tương tự. Lượng thông tin quá lớn cuối cùng có thể làm giảm giá trị mà các công cụ này mang lại.

Khi nhìn lại thí nghiệm của mình với Autogen, Böckeler đưa ra một lời nhắc quan trọng rằng công nghệ này vẫn có giá trị trong các lĩnh vực cụ thể. Cô nói:

Những đại diện thông minh này vẫn còn một chặng đường dài trước khi giải quyết được tất cả các vấn đề mã hóa mà chúng ta đặt ra cho chúng. Tuy nhiên, điều quan trọng nhất là phải nhận ra rằng những đại diện thông minh này có thể giúp chúng ta trong những lĩnh vực cụ thể nào, đừng phủ nhận hoàn toàn giá trị của chúng chỉ vì chúng không phải là công cụ giải quyết mọi vấn đề.

Sau cơn sốt

Để tìm hiểu thêm về nguồn gốc và ứng dụng của AI trong phát triển phần mềm, bạn có thể tham dự AICon Global Artificial Intelligence Development and Application Conference, diễn ra tại Thượng Hải từ ngày 18-19 tháng 8 năm 2024. Hội nghị này tập trung vào việc phân tích cơ chế huấn luyện và suy luận của mô hình lớn, sự tích hợp đa phương thức, tiến bộ của đại diện thông minh Agent và chiến lược tạo ra tăng cường truy xuất (RAG). Hãy liên hệ với Quản lý bán hàng để biết thêm chi tiết.

Ngày 18-19 tháng 10 năm 2024, QCon Global Software Development Conference sẽ diễn ra tại Thượng Hải. Từ các nội dung truyền thống như kỹ thuật cloud native, kiến trúc, độ tin cậy trực tuyến, phát triển phía trước, quản lý công nghệ, đến các chủ đề nóng như AI Agent, AI Infra, RAG, hơn 60 chuyên gia dày dặn kinh nghiệm sẽ cùng nhau thảo luận về các trường hợp thực tiễn và xu hướng công nghệ tiên tiến. Hãy đăng ký tham dự hội nghị này!

Từ khóa

  • AI
  • Scrum
  • Mô hình ngôn ngữ lớn
  • Thiết kế nguyên mẫu
  • Phát triển phần mềm
© Thông báo bản quyền

Những bài viết liên quan:

Chưa có đánh giá nào

none
Không có đánh giá...