Trang chủ Tin tức Báo cáo mô hình AI mới nhất của Google thiếu các chi tiết an toàn quan trọng, các chuyên gia cho biết

Báo cáo mô hình AI mới nhất của Google thiếu các chi tiết an toàn quan trọng, các chuyên gia cho biết

Ngày 27 tháng 4 năm 2025
ChristopherThomas
0

Vào thứ năm, nhiều tuần sau khi ra mắt mô hình AI mới nhất và tiên tiến nhất của mình, Gemini 2.5 Pro, Google đã phát hành một báo cáo kỹ thuật chi tiết kết quả đánh giá an toàn nội bộ của mình. Tuy nhiên, các chuyên gia đã chỉ trích báo cáo vì thiếu chi tiết, khiến cho việc hiểu đầy đủ các rủi ro tiềm ẩn liên quan đến mô hình.

Các báo cáo kỹ thuật là rất quan trọng trong thế giới AI, cung cấp những hiểu biết sâu sắc ngay cả khi đôi khi họ không thể hiểu được các công ty mà các công ty thường không có thể chia sẻ công khai. Các báo cáo này thường được cộng đồng AI xem là những nỗ lực thực sự để thúc đẩy nghiên cứu độc lập và tăng cường đánh giá an toàn.

Cách tiếp cận của Google đối với báo cáo an toàn khác với một số đối thủ cạnh tranh. Công ty chỉ xuất bản các báo cáo kỹ thuật một khi một mô hình vượt ra ngoài giai đoạn "thử nghiệm". Hơn nữa, Google bỏ qua một số kết quả đánh giá "khả năng nguy hiểm" nhất định từ các báo cáo này, tiết kiệm chúng cho một cuộc kiểm toán riêng.

Mặc dù vậy, một số chuyên gia đã bày tỏ sự thất vọng với Báo cáo Gemini 2.5 Pro cho TechCrunch, chỉ ra phạm vi bảo hiểm ít ỏi của Google Frontier An toàn (FSF) của Google. Google đã tiết lộ FSF năm ngoái, nhằm xác định chính xác các khả năng AI trong tương lai có thể dẫn đến "tác hại nghiêm trọng".

"Báo cáo này rất thưa thớt, chứa thông tin tối thiểu và được phát hành vài tuần sau khi mô hình đã được công khai", Peter Wildeford, đồng sáng lập của Viện Chính sách và Chiến lược AI, nói với TechCrunch. "Không thể xác minh xem Google có sống theo các cam kết công khai hay không và do đó không thể đánh giá sự an toàn và bảo mật của các mô hình của họ."

Thomas Woodside, đồng sáng lập của Dự án AI ANCENT, đã thừa nhận việc phát hành báo cáo cho Gemini 2.5 Pro nhưng đã đặt câu hỏi về sự cống hiến của Google để cung cấp các đánh giá an toàn bổ sung kịp thời. Ông lưu ý rằng Google cuối cùng đã công bố kết quả kiểm tra khả năng nguy hiểm vào tháng 6 năm 2024, cho một mô hình được công bố vào tháng Hai năm đó.

Thêm vào các mối quan tâm, Google vẫn chưa công bố báo cáo cho Gemini 2.5 Flash, một mô hình nhỏ hơn, hiệu quả hơn được công bố vào tuần trước. Người phát ngôn đã thông báo cho TechCrunch rằng một báo cáo cho Flash sẽ "sắp ra mắt".

"Tôi hy vọng đây là một lời hứa từ Google để bắt đầu xuất bản các bản cập nhật thường xuyên hơn", Woodside nói với TechCrunch. "Những bản cập nhật đó nên bao gồm kết quả đánh giá cho các mô hình chưa được triển khai công khai, vì những mô hình đó cũng có thể gây ra rủi ro nghiêm trọng."

Mặc dù Google là một trong những phòng thí nghiệm AI đầu tiên đề xuất các báo cáo được tiêu chuẩn hóa cho các mô hình, nhưng nó không đơn độc khi phải đối mặt với những lời chỉ trích vì sự thiếu minh bạch. Meta đã phát hành một đánh giá an toàn ngắn gọn tương tự cho các mẫu xe mở Llama 4 mới của mình và Openai đã chọn không xuất bản bất kỳ báo cáo nào cho loạt GPT-4.1 của mình.

Đảm bảo của Google đối với các cơ quan quản lý về việc duy trì các tiêu chuẩn cao trong thử nghiệm an toàn AI và báo cáo thêm áp lực cho tình huống. Hai năm trước, Google đã hứa với chính phủ Hoa Kỳ sẽ công bố các báo cáo an toàn cho tất cả các mô hình "AI công khai" quan trọng trong phạm vi ", tiếp theo là các cam kết tương tự với các quốc gia khác, cam kết" tính minh bạch công khai "xung quanh các sản phẩm AI.

Kevin Bankston, một cố vấn cao cấp về quản trị AI tại Trung tâm Dân chủ và Công nghệ, đã mô tả xu hướng của các báo cáo lẻ tẻ và mơ hồ như là một "cuộc đua xuống đáy" về sự an toàn của AI.

"Kết hợp với các báo cáo rằng các phòng thí nghiệm cạnh tranh như Openai đã giảm thời gian thử nghiệm an toàn trước khi phát hành từ nhiều tháng xuống còn ngày, tài liệu ít ỏi này cho mô hình AI hàng đầu của Google kể về một câu chuyện rắc rối về một cuộc đua xuống đáy về sự an toàn và minh bạch của AI khi các công ty đưa các mô hình của họ ra thị trường", ông nói với TechCrunch.

Google đã tuyên bố rằng, mặc dù không chi tiết trong các báo cáo kỹ thuật của mình, nhưng nó tiến hành thử nghiệm an toàn và "hợp tác màu đỏ bất lợi" cho các mô hình trước khi phát hành.

Cập nhật 4/22 lúc 12:58 chiều Thái Bình Dương: Ngôn ngữ được sửa đổi xung quanh tài liệu tham khảo của Báo cáo kỹ thuật về FSF của Google.

Bài viết liên quan
Google’s latest AI model report lacks key safety details, experts say Google’s latest AI model report lacks key safety details, experts say On Thursday, weeks after launching its latest and most advanced AI model, Gemini 2.5 Pro, Google released a technical report detailing the results of its internal safety assessments. However, experts have criticized the report for its lack of detail, making it challenging to fully understand the pot
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
DeepMind CEO Demis Hassabis Announces Future Integration of Google's Gemini and Veo AI Models DeepMind CEO Demis Hassabis Announces Future Integration of Google's Gemini and Veo AI Models In a recent episode of the podcast Possible, co-hosted by LinkedIn co-founder Reid Hoffman, Google DeepMind CEO Demis Hassabis shared some exciting news about Google's plans. He revealed that Google is looking to merge its Gemini AI models with the Veo video-generating models. This fusion aims to en
Nhận xét (0)
0/200
Back to Top
OR