Vào tháng 7 năm 2023, OpenAI đã công bố một nhóm mới chuyên đảm bảo rằng các hệ thống AI trong tương lai có thể thông minh hơn tất cả con người cộng lại có thể được kiểm soát một cách an toàn. Để báo hiệu mức độ nghiêm túc của công ty đối với mục tiêu này, họ đã công khai hứa sẽ dành 20% nguồn lực máy tính sẵn có vào thời điểm đó cho nỗ lực này.
Bây giờ, chưa đầy một năm sau, nhóm đó, được gọi là Superalignment, đã giải tán trong bối cảnh nhân viên từ chức và cáo buộc rằng OpenAI đang ưu tiên ra mắt sản phẩm hơn là an toàn AI. Theo sáu nguồn quen thuộc với công việc của nhóm OpenAI Superalignment, OpenAI chưa bao giờ thực hiện cam kết cung cấp cho nhóm 20% sức mạnh tính toán của mình.
Thay vào đó, theo các nguồn tin, nhóm liên tục nhận được yêu cầu truy cập vào các bộ xử lý đồ họa, chip máy tính chuyên dụng cần thiết để đào tạo và chạy các ứng dụng AI, nhưng bị lãnh đạo OpenAI từ chối, mặc dù ngân sách điện toán tổng thể của nhóm chưa bao giờ đạt đến mức được yêu cầu. Ngưỡng 20% đã được hứa hẹn.
Những phát hiện này đặt ra câu hỏi về mức độ nghiêm túc của OpenAI đối với cam kết công khai của mình và liệu các cam kết công khai khác mà công ty đưa ra có đáng tin cậy hay không. OpenAI đã không trả lời yêu cầu bình luận về câu chuyện này.
Công ty hiện đang phải đối mặt với phản ứng dữ dội về việc sử dụng giọng nói trong các tính năng tạo giọng nói dựa trên AI có nét giống với nữ diễn viên Scarlett Johansson. Trong trường hợp này, các câu hỏi đã được đặt ra về độ tin cậy của các tuyên bố công khai của OpenAI rằng sự giống nhau giữa giọng nói của AI mà nó gọi là “Sky” và của Johansson hoàn toàn là ngẫu nhiên. Johansson cho biết Sam Altman, đồng sáng lập và CEO của OpenAI, đã liên lạc với cô vào tháng 9 năm ngoái, khi giọng nói của Sky ra mắt và xin phép sử dụng giọng nói của cô. Tôi đã từ chối. Cô cho biết Altman đã xin phép một lần nữa để sử dụng giọng nói của cô vào tuần trước, ngay trước buổi trình diễn mẫu GPT-4o mới nhất sử dụng giọng nói của Sky. OpenAI đã phủ nhận việc sử dụng giọng nói của Johansson mà không có sự cho phép của cô, nói rằng họ đã trả tiền cho một nữ diễn viên chuyên nghiệp, người mà họ nói rằng họ không thể tiết lộ một cách hợp pháp, để tạo ra Sky. Nhưng những tuyên bố của Johansson hiện đã gây ra nghi ngờ về điều này, với một số suy đoán trên mạng xã hội rằng OpenAI thực sự đã sao chép giọng nói của Johansson hoặc có lẽ đã trộn giọng của một nữ diễn viên khác với giọng của Johansson theo cách nào đó để tạo ra Sky.
Nhóm Superalignment OpenAI được thành lập dưới sự lãnh đạo của Ilya Sutskever, người đồng sáng lập OpenAI và cựu nhà khoa học trưởng, người đã thông báo rời công ty vào tuần trước. Jan Laecke, nhà nghiên cứu lâu năm tại OpenAI, đồng lãnh đạo nhóm. Ông tuyên bố từ chức vào thứ Sáu, hai ngày sau sự ra đi của Sutskever. Sau đó, công ty đã thông báo cho những nhân viên còn lại của nhóm, khoảng 25 người, rằng nhóm sẽ bị giải tán và họ sẽ được phân công lại trong công ty.
Đó là một sự sụp đổ nghiêm trọng đối với một nhóm mà công việc chưa đầy một năm trước OpenAI được coi là quan trọng đối với công ty và quan trọng đối với tương lai của nền văn minh. Siêu trí tuệ là ý tưởng về một hệ thống trí tuệ nhân tạo giả định trong tương lai sẽ thông minh hơn tất cả con người cộng lại. Đó là một công nghệ vượt xa mục tiêu đã nêu của công ty là tạo ra trí tuệ nhân tạo tổng hợp, hay AGI – một hệ thống AI duy nhất thông minh như bất kỳ con người nào.
Siêu trí tuệ, Inc Anh ấy nói khi công bố độiNó có thể gây ra mối đe dọa hiện hữu cho nhân loại bằng cách tìm cách giết người hoặc bắt con người làm nô lệ. OpenAI cho biết trong thông báo của mình: “Chúng tôi không có giải pháp nào để hướng dẫn và kiểm soát AI có khả năng siêu thông minh cũng như ngăn chặn nó trở nên lừa đảo”. Nhóm Superalignment có nhiệm vụ nghiên cứu các giải pháp này.
Đó là một nhiệm vụ quan trọng đến mức công ty cho biết trong thông báo của mình rằng họ sẽ dành “20% lượng điện toán mà chúng tôi đã có được trong vòng 4 năm tới” cho nỗ lực này.
Nhưng sáu nguồn tin quen thuộc với công việc của nhóm Superalignment cho biết tính toán như vậy chưa bao giờ được giao cho nhóm. Thay vào đó, nó nhận được số tiền thấp hơn nhiều so với ngân sách phân bổ máy tính thông thường của công ty, vốn được đánh giá lại ba tháng một lần.
Một nguồn tin quen thuộc với công việc của nhóm Superalignment cho biết, chưa có bất kỳ số liệu rõ ràng nào về cách tính chính xác 20%, khiến nó có thể được giải thích rộng rãi. Ví dụ: nguồn tin cho biết nhóm chưa bao giờ được biết liệu lời hứa có nghĩa là “20% mỗi năm trong bốn năm”, “5% mỗi năm trong bốn năm” hay một số tiền thay đổi có thể là “1% hoặc 2%”. .”% trong bốn năm” trong ba năm đầu tiên, sau đó là phần lớn cam kết vào năm thứ tư. Dù sao thì tất cả các nguồn may mắn Câu chuyện này xác nhận rằng nhóm Superalignment chưa bao giờ đạt được gần 20% khả năng tính toán an toàn của OpenAI tính đến tháng 7 năm 2023.
Các nhà nghiên cứu OpenAI cũng có thể gửi yêu cầu về cái được gọi là điện toán “co giãn” – quyền truy cập vào dung lượng GPU bổ sung vượt quá mức đã được lập ngân sách – để xử lý các dự án mới giữa các cuộc họp ngân sách hàng quý. Nhưng những nguồn tin này cho biết những yêu cầu linh hoạt từ nhóm Superalignment thường xuyên bị các quan chức cấp cao từ chối.
Các nguồn tin cho biết, Bob McGraw, phó chủ tịch nghiên cứu của OpenAI, là giám đốc điều hành đã thông báo cho nhóm từ chối những yêu cầu này, nhưng những người khác tại công ty, bao gồm cả CTO Mira Moratti, đã tham gia vào việc đưa ra quyết định. Cả McGraw và Moratti đều không trả lời yêu cầu bình luận về câu chuyện này.
Trong khi nhóm thực hiện một số nghiên cứu, nó đã được phát hành giấy Nguồn tin cho biết chi tiết về trải nghiệm của họ khi đưa một mô hình AI kém mạnh hơn vào điều khiển một mô hình mạnh hơn vào tháng 12 năm 2023 thành công, việc thiếu tính toán đã cản trở những ý tưởng đầy tham vọng hơn của nhóm.
Sau khi từ chức, Laike hôm thứ Sáu đã đăng một loạt bài đăng trên X (trước đây là Twitter), trong đó ông chỉ trích người chủ cũ của mình, nói rằng: “Văn hóa và quy trình an toàn đã lùi bước đối với các sản phẩm sáng bóng”. Anh ấy cũng cho biết: “Trong vài tháng qua, đội của tôi đã đi ngược gió. Đôi khi chúng tôi gặp khó khăn trong việc tính toán và việc hoàn thành nghiên cứu quan trọng này ngày càng trở nên khó khăn.
Năm nguồn quen thuộc với công việc của nhóm Superalignment đã hỗ trợ tài khoản của Leike, nói rằng các vấn đề truy cập máy tính trở nên tồi tệ hơn sau sự bế tắc trước Lễ Tạ ơn giữa Altman và ban giám đốc của tổ chức phi lợi nhuận OpenAI.
Sutskever, thành viên hội đồng quản trị, đã bỏ phiếu sa thải Altman và là người được hội đồng quản trị chọn để thông báo tin này cho Altman. Khi các nhân viên của OpenAI phản đối quyết định này, Sutskever sau đó đã đăng trên X rằng anh ấy “vô cùng hối hận” vì đã tham gia vào vụ sa thải Altman. Cuối cùng, Altman đã được bổ nhiệm lại, còn Sutskever và một số thành viên hội đồng quản trị khác có liên quan đến việc loại bỏ ông đã rời khỏi hội đồng quản trị. Sutskever chưa bao giờ quay lại làm việc tại OpenAI sau khi Altman được tuyển dụng lại, nhưng anh ấy vẫn chưa chính thức rời công ty cho đến tuần trước.
Một nguồn không đồng ý với phương pháp của các nguồn khác may mắn Cô ấy nói về các vấn đề máy tính mà Superalignment phải đối mặt, nói rằng chúng có trước sự tham gia của Sutskever vào cuộc đảo chính thất bại, vốn đã gây khó khăn cho nhóm ngay từ đầu.
Mặc dù có một số báo cáo cho rằng Sutskever đang tiếp tục đồng lãnh đạo nhóm Superalignment từ xa, nhưng các nguồn tin quen thuộc với công việc của nhóm cho biết trường hợp đó không phải như vậy và Sutskever không có quyền truy cập vào công việc của nhóm và không đóng vai trò gì trong việc chỉ đạo nhóm sau đó . Lễ tạ ơn.
Các nguồn tin cho biết, với sự ra đi của Sutskever, nhóm Superalignment đã mất đi một người trong nhóm có đủ vốn chính trị trong tổ chức để tranh luận thành công về việc chiếm đoạt máy tính của mình.
Ngoài Leike và Sutskever, OpenAI đã mất ít nhất sáu nhà nghiên cứu an toàn AI khác từ nhiều nhóm khác nhau trong những tháng gần đây. Một trong những nhà nghiên cứu, Daniel Cocotaylo, nói với trang tin Vox rằng anh ấy “dần dần mất niềm tin vào khả năng lãnh đạo của OpenAI và khả năng xử lý AGI một cách có trách nhiệm của họ, vì vậy tôi đã từ chức”.
Đáp lại bình luận của Leike, Altman và đồng sáng lập Greg Brockman, chủ tịch của OpenAI, đã đăng trên [Leike] Vì tất cả những gì anh ấy đã làm cho OpenAI. Cả hai tiếp tục viết: “Chúng tôi cần tiếp tục nâng cao tiêu chuẩn an toàn của mình để phù hợp với rủi ro của từng mẫu xe mới”.
Sau đó, họ đưa ra quan điểm của mình về cách tiếp cận của công ty đối với sự an toàn AI trong tương lai, trong đó sẽ tập trung nhiều hơn vào việc thử nghiệm các mô hình hiện đang được phát triển thay vì cố gắng phát triển các phương pháp lý thuyết về cách làm cho các mô hình mạnh mẽ hơn trong tương lai trở nên an toàn hơn. Brockman và Altman viết: “Chúng tôi cần một vòng phản hồi rất chặt chẽ, kiểm tra nghiêm ngặt, cân nhắc cẩn thận ở mọi bước, bảo mật đẳng cấp thế giới và sự hài hòa giữa an toàn và khả năng”.
Những người họ đã nói chuyện may mắn Họ làm điều đó một cách ẩn danh, vì họ nói rằng họ sợ mất việc, hoặc vì họ sợ mất cổ phần được trao trong công ty, hoặc cả hai. Các nhân viên rời OpenAI bị buộc phải ký các thỏa thuận ly thân trong đó có điều khoản nghiêm ngặt không chê bai nói rằng công ty có thể mua lại cổ phần được giao của họ nếu họ công khai chỉ trích công ty hoặc thậm chí nếu họ thừa nhận điều khoản này tồn tại. Các nhân viên đã được thông báo rằng bất kỳ ai từ chối ký vào thỏa thuận ly thân cũng sẽ bị mất cổ phần.
Sau cáo được nhắc đến Về điều khoản ly thân này, Altman đăng trên X rằng anh không biết về điều khoản này và “thực sự xấu hổ” trước sự thật này. Ông cho biết OpenAI chưa bao giờ cố gắng thực thi điều khoản và thu hồi cổ phần được giao cho bất kỳ ai. Ông cho biết công ty đang trong quá trình cập nhật giấy xuất cảnh để “khắc phục” vấn đề và bất kỳ nhân viên cũ nào lo ngại về các điều khoản trong giấy xuất cảnh mà họ đã ký có thể liên hệ trực tiếp với họ về vấn đề này và chúng sẽ được thay đổi.