Không, AI của Google không có ý thức

dựa theo Câu chuyện mở mang tầm mắt Trên tờ Washington Post hôm thứ Bảy, một kỹ sư của Google nói rằng sau hàng trăm lần tương tác với một hệ thống trí tuệ nhân tạo phức tạp chưa được phát hành có tên lambdaChương trình được cho là đã đạt được mức độ nhận biết.

Trong các cuộc phỏng vấn và phát biểu trước công chúng, nhiều người trong cộng đồng AI đã bác bỏ tuyên bố của kỹ sư, trong khi một số chỉ ra rằng tài khoản của anh ấy nhấn mạnh cách công nghệ có thể khiến mọi người gán các đặc điểm của con người cho nó. Nhưng có thể lập luận rằng niềm tin rằng AI của Google có thể có ý thức làm nổi bật nỗi sợ hãi và kỳ vọng của chúng ta về những gì công nghệ này có thể làm được.

LaMDA, viết tắt của Language Model for Dialog Applications, là một trong số các hệ thống AI quy mô lớn đã được đào tạo trên nhiều luồng văn bản lớn từ Internet và có thể phản hồi các lời nhắc bằng văn bản. Về cơ bản, họ có nhiệm vụ tìm kiếm các mẫu và dự đoán từ hoặc từ nào sẽ xuất hiện tiếp theo. Hệ thống như vậy đã trở thành ngày càng tốt trả lời câu hỏi và viết theo những cách có vẻ thuyết phục con người – và chính Google LaMDA đã giới thiệu vào tháng 5 năm ngoái trong một bài đăng trên blog Là một người anh ấy có thể “tham gia vào phong cách tự do xoay quanh vô số chủ đề”. Nhưng kết quả cũng có thể vô lý, kỳ lạ, khó chịu và dễ bị phân tâm.

Kỹ sư Blake Lemoine nói với Washington Post rằng ông đã chia sẻ bằng chứng với Google rằng Lambda có ý thức, nhưng công ty không đồng ý. Trong một tuyên bố, Google cho biết hôm thứ Hai rằng nhóm của họ, bao gồm các nhà đạo đức và công nghệ, “đã xem xét các mối quan tâm của Blake theo các nguyên tắc AI của chúng tôi và thông báo cho anh ấy rằng bằng chứng không hỗ trợ cho tuyên bố của anh ấy.”

Vào ngày 6 tháng 6, Lemoine đăng trên Medium rằng Google đã cho anh ta nghỉ hành chính có lương “liên quan đến cuộc điều tra về những lo ngại đạo đức về trí tuệ nhân tạo mà tôi đang nuôi dưỡng trong công ty” và anh ta có thể bị sa thải “sớm”. (Anh ấy đề cập đến kinh nghiệm của Margaret Mitchell, người đứng đầu nhóm AI có đạo đức tại Google cho đến khi Google khởi động nó vào đầu năm 2021 Sau khi cô ấy thẳng thắn về Vào cuối năm 2020, Timnit Gebro, người đồng lãnh đạo khi đó, sẽ rời khỏi. Gebru đã bị lật đổ sau các cuộc tranh cãi nội bộ, bao gồm cả một cuộc tranh cãi liên quan đến một bài báo nghiên cứu yêu cầu ban lãnh đạo AI của công ty rút lại cân nhắc về lời đề nghị tại một hội nghị hoặc xóa tên của cô ấy.)

Người phát ngôn của Google xác nhận rằng Lemoine vẫn đang nghỉ hành chính. Theo The Washington Post, ông đã được cho nghỉ vì vi phạm chính sách bảo mật của công ty.

READ  Chuyển giao năng lượng là mua hàng

Lemoine không có bình luận gì vào thứ Hai.

Sự xuất hiện liên tục của các chương trình máy tính mạnh mẽ được đào tạo về dữ liệu lớn, sâu đã làm dấy lên lo ngại về đạo đức chi phối sự phát triển và sử dụng công nghệ này. Và đôi khi sự phát triển được nhìn từ góc độ của những gì có thể đến, hơn là những gì có thể xảy ra hiện tại.

Phản hồi từ những người trong cộng đồng AI đối với thử nghiệm của Lemoine đã vang lên khắp các phương tiện truyền thông xã hội vào cuối tuần và thường đi đến cùng một kết luận: AI của Google thậm chí còn không gần với ý thức. Abiba Birhani, Thành viên cao cấp đáng tin cậy về Trí tuệ nhân tạo tại Mozilla, tiếng kêu Vào Chủ nhật, “Chúng ta đã bước vào một kỷ nguyên mới của ‘mạng lưới thần kinh có ý thức này’ và lần này sẽ cần rất nhiều năng lượng để bác bỏ nó.”
Gary Marcus, người sáng lập kiêm Giám đốc điều hành của Geometric Intelligence do Uber bán, đồng thời là tác giả của cuốn sách bao gồm “Khởi động lại AI: Xây dựng trí tuệ nhân tạo mà chúng ta có thể tin tưởng” đã ra mắt LaMDA như một ý thức “Vớ vẩn trên cà kheo” trong một tweet. viết nhanh Bài viết trên blog Lưu ý rằng tất cả các hệ thống AI này đều thực hiện khớp mẫu bằng cách lấy từ cơ sở dữ liệu ngôn ngữ khổng lồ.

Trong một cuộc phỏng vấn hôm thứ Hai với CNN Business, Marcus cho biết cách tốt nhất để nghĩ về các hệ thống như LaMDA là như một “phiên bản tôn vinh” của chương trình tự động hoàn thành mà bạn có thể sử dụng để dự đoán từ tiếp theo trong tin nhắn văn bản. Nếu bạn viết “Tôi thực sự đói nên tôi muốn đi đến”, anh ấy có thể đề xuất “nhà hàng” làm từ tiếp theo cho bạn. Nhưng đây là một dự đoán được thực hiện bằng cách sử dụng số liệu thống kê.

READ  Morgan Stanley's Pick cho biết một sự thay đổi mô hình đã bắt đầu trên thị trường. bạn đang mong đợi điều gì

Ông nói: “Không ai nên nghĩ rằng quá trình tự động hoàn thành, ngay cả trên steroid, là có ý thức.

Trong một cuộc phỏng vấn với Gebru, người sáng lập và giám đốc điều hành của Viện nghiên cứu trí tuệ nhân tạo phân tánDAIR, hay DAIR, Lemoine cho biết anh là nạn nhân của nhiều công ty tuyên bố rằng trí tuệ nhân tạo có ý thức hoặc trí thông minh nhân tạo – một ý tưởng đề cập đến trí thông minh nhân tạo có thể thực hiện các nhiệm vụ giống như con người và tương tác với chúng ta theo những cách có ý nghĩa – không còn xa .
Google đề nghị giáo sư 60.000 đô la, nhưng ông từ chối.  Đây là lý do tại sao
Ví dụ: Ilya Sutskiver, đồng sáng lập và nhà khoa học chính tại OpenAI, lưu ý, tiếng kêu Vào tháng Hai, “Các mạng nơ-ron lớn ngày nay có thể có một chút ý thức.” Và tuần trước, Phó chủ tịch Google Research và đồng nghiệp Blaise Aguera y Arcas Được viết trong một bài báo cho The Economist rằng khi anh ấy bắt đầu sử dụng LaMDA vào năm ngoái, “Tôi ngày càng cảm thấy mình đang nói về một thứ gì đó thông minh.” (Bài báo này hiện bao gồm ghi chú của một biên tập viên lưu ý rằng Lemoine kể từ đó đã được “đưa vào danh sách” sau khi anh ta tuyên bố trong một cuộc phỏng vấn với Washington Post rằng LaMDA, chatbot của Google, đã trở nên “có ý thức”.)

“Điều gì sẽ xảy ra là có một cuộc chạy đua sử dụng nhiều dữ liệu hơn, nhiều máy tính hơn, có thể nói rằng bạn đã tạo ra thứ chung chung mà bạn đều biết, trả lời tất cả các câu hỏi của bạn hoặc bất cứ điều gì, và đó là chiếc trống mà bạn đang chơi,” Gebru nói. . “Vậy ngươi kinh ngạc như thế nào khi người này làm đến cực điểm?”

READ  Có ai mua ghế sofa và giường từ Wayfair nữa không?

Trong tuyên bố của mình, Google lưu ý rằng LaMDA đã trải qua 11 lần “đánh giá phân biệt các nguyên tắc AI”, cũng như “nghiên cứu và thử nghiệm nghiêm ngặt” về chất lượng, độ an toàn và khả năng đưa ra dữ liệu dựa trên thực tế. Công ty cho biết: “Tất nhiên, một số người trong cộng đồng AI rộng lớn đang nghiên cứu tiềm năng lâu dài của AI có ý thức hoặc nói chung, nhưng sẽ không hợp lý khi làm như vậy bằng cách đưa vào các mô hình hội thoại hiện tại mà không có ý thức”.

Google cho biết: “Hàng trăm nhà nghiên cứu và kỹ sư đã trò chuyện với lambda và chúng tôi không biết có ai khác cung cấp những khẳng định sâu rộng như vậy hoặc thể hiện lambda như Blake đã làm”.

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *