Google cho biết hôm thứ Năm rằng họ sẽ tạm thời ngừng sử dụng công cụ tạo hình ảnh chatbot Gemini sau khi bị chỉ trích rộng rãi vì tạo ra những hình ảnh “đa dạng” không chính xác về mặt lịch sử hoặc thực tế – chẳng hạn như Người Viking da đen, giáo hoàng và người Mỹ bản địa trong số những Người sáng lập.
Người dùng mạng xã hội đã chỉ trích Gemini là “bị đánh thức một cách lố bịch” và “không thể sử dụng được” sau khi yêu cầu tạo hình ảnh đại diện cho các đối tượng dẫn đến những hình ảnh được chỉnh sửa kỳ lạ.
“Chúng tôi đang nỗ lực giải quyết các vấn đề gần đây với tính năng tạo ảnh của Gemini”, Google cho biết trong một tuyên bố đăng trên X. “Trong khi thực hiện việc này, chúng tôi sẽ tạm dừng việc tạo hình ảnh cho mọi người và sẽ sớm phát hành lại phiên bản cải tiến.”
Các ví dụ bao gồm hình ảnh AI của một người đàn ông da đen dường như đại diện cho George Washington, với bộ tóc giả màu trắng và đồng phục của Quân đội Lục địa, và một phụ nữ Đông Nam Á mặc trang phục của giáo hoàng mặc dù tất cả 266 giáo hoàng trong suốt lịch sử đều là đàn ông da trắng.
Trong một ví dụ gây sốc khác Được phát hiện bởi cạnhGemini thậm chí còn tạo ra những hình ảnh đại diện “đa dạng” về lính Đức thời Đức Quốc xã, bao gồm một phụ nữ châu Á và một người đàn ông da đen mặc quân phục vào năm 1943.
Do Google chưa công bố các thông số chi phối hành vi của chatbot Gemini nên rất khó để có được lời giải thích rõ ràng về lý do tại sao chương trình này lại phát minh ra nhiều phiên bản khác nhau của các nhân vật và sự kiện lịch sử.
William A. đã nói: Jacobson, giáo sư luật tại Đại học Cornell và là người sáng lập Dự án Bảo vệ Bình đẳng, một nhóm giám sát, nói với The Washington Post: “Nhân danh đấu tranh chống thành kiến, thành kiến thực tế đang được xây dựng thành hệ thống.
“Đây là mối lo ngại không chỉ đối với kết quả nghiên cứu mà còn đối với các ứng dụng trong thế giới thực, nơi việc thử nghiệm thuật toán 'không sai lệch' thực sự tạo ra sự thiên vị trong hệ thống bằng cách nhắm mục tiêu vào kết quả cuối cùng đạt hạn ngạch.”
Theo Fabio Motocchi, giảng viên tại Đại học East Anglia ở Anh, đồng tác giả một bài báo năm ngoái, vấn đề có thể là do “quy trình đào tạo” của Google về “mô hình ngôn ngữ lớn” hỗ trợ công cụ hình ảnh của Gemini. một giải pháp.Đối với vấn đề hình ảnh. Độ lệch trái đáng chú ý trong ChatGPT.
Motoki nói với The Post: “Hãy nhớ rằng, học tăng cường từ phản hồi của con người (RLHF) là việc mọi người nói cho mô hình biết điều gì tốt hơn và điều gì tệ hơn, định hình một cách hiệu quả chức năng ‘phần thưởng’ của nó – về mặt kỹ thuật là chức năng thua lỗ”.
“Vì vậy, tùy thuộc vào người mà Google đang tuyển dụng hoặc những hướng dẫn mà Google đưa ra cho họ, điều đó có thể dẫn đến vấn đề này.”
Đây là một bước đi sai lầm lớn đối với gã khổng lồ tìm kiếm, hãng vừa đổi tên chatbot hàng đầu của mình từ Bard vào đầu tháng này và giới thiệu các tính năng mới được chào hàng nhiều – bao gồm cả tạo hình ảnh.
Sai lầm này cũng xảy ra vài ngày sau khi OpenAI, công ty hỗ trợ ChatGPT nổi tiếng, giới thiệu một công cụ AI mới có tên Sora, tạo video dựa trên lời nhắc bằng văn bản của người dùng.
Google trước đây đã thừa nhận rằng hành vi sai sót của chatbot cần phải được sửa chữa.
Jack Krawczyk, giám đốc quản lý sản phẩm cấp cao của Google về trải nghiệm Song Tử, nói với The Post: “Chúng tôi đang cải thiện những loại hình ảnh này ngay lập tức”.
“Việc tạo hình ảnh AI của Gemini tạo ra cho nhiều người. Đây nhìn chung là một điều tốt vì mọi người trên khắp thế giới đều sử dụng nó. Nhưng nó lại không đạt được mục tiêu ở đây.”
The Post đã liên hệ với Google để bình luận thêm.
Khi được The Post yêu cầu cung cấp các nguyên tắc về độ tin cậy và an toàn của mình, Gemini thừa nhận rằng chúng chưa được “tiết lộ công khai do sự phức tạp về kỹ thuật và các cân nhắc về sở hữu trí tuệ”.
Chatbot này cũng thừa nhận trong phản hồi của mình đối với các tuyên bố rằng họ nhận thức được “những lời chỉ trích rằng Gemini có thể đã ưu tiên sự đa dạng bắt buộc trong việc tạo ra hình ảnh, dẫn đến những mô tả không chính xác về mặt lịch sử”.
Gemini cho biết: “Các thuật toán đằng sau các mô hình tạo hình ảnh rất phức tạp và vẫn đang được phát triển. “Họ có thể gặp khó khăn trong việc hiểu các sắc thái của bối cảnh lịch sử và sự thể hiện văn hóa, dẫn đến kết quả đầu ra không chính xác.”