Nhân học âm thầm loại bỏ cam kết AI có trách nhiệm của Biden khỏi trang web
Ngày 26 tháng 4 năm 2025
HarryRoberts
0
Nhân học loại bỏ các cam kết an toàn AI thời Biden khỏi trang web
Trong một động thái đã làm tăng lông mày, nhân học, một người chơi nổi bật trong ngành AI, đã lặng lẽ loại bỏ các cam kết thời kỳ Biden để phát triển AI an toàn khỏi trung tâm minh bạch của nó vào tuần trước. Sự thay đổi này lần đầu tiên được phát hiện bởi Dự án Midas, một nhóm giám sát AI, lưu ý rằng sự vắng mặt của ngôn ngữ đã hứa sẽ chia sẻ thông tin và nghiên cứu về các rủi ro của AI, bao gồm cả sự thiên vị, với chính phủ.
Những cam kết này là một phần của một thỏa thuận tự nguyện nhân học được ký kết cùng với các đại gia công nghệ khác như Openai, Google và Meta vào tháng 7 năm 2023. Thỏa thuận này là một nền tảng của các nỗ lực của chính quyền Biden nhằm thúc đẩy sự phát triển AI có trách nhiệm, nhiều khía cạnh sau này đã được đưa ra trong Lệnh thực hiện AI của Biden. Các công ty tham gia đã cam kết tuân thủ các tiêu chuẩn nhất định, chẳng hạn như tiến hành các bài kiểm tra bảo mật trên các mô hình của họ trước khi phát hành, làm mờ nội dung do Waterated AI tạo ra và phát triển cơ sở hạ tầng bảo mật dữ liệu mạnh mẽ.
Hơn nữa, nhân học đã đồng ý hợp tác với Viện An toàn AI, được thành lập theo lệnh điều hành của Biden, để thúc đẩy các ưu tiên này. Tuy nhiên, với chính quyền Trump có khả năng giải thể viện, tương lai của những sáng kiến này bị treo trong sự cân bằng.
Thật thú vị, nhân học đã không đưa ra thông báo công khai về việc loại bỏ các cam kết này khỏi trang web của mình. Công ty khẳng định rằng các vị trí hiện tại của mình đối với AI có trách nhiệm hoặc không liên quan đến hoặc có trước các thỏa thuận thời Biden.
Ý nghĩa rộng hơn dưới chính quyền Trump
Sự phát triển này là một phần của sự thay đổi rộng hơn trong chính sách và quy định của AI dưới thời chính quyền Trump. Vào ngày đầu tiên tại văn phòng, Trump đã đảo ngược lệnh điều hành của Biden về AI, và ông đã bác bỏ một số chuyên gia AI khỏi các vị trí của chính phủ và cắt giảm tài trợ nghiên cứu. Những hành động này đã tạo tiền đề cho một sự thay đổi đáng chú ý trong giai điệu giữa các công ty AI lớn, một số trong đó hiện đang tìm cách mở rộng hợp đồng chính phủ của họ và ảnh hưởng đến bối cảnh chính sách AI vẫn đang phát triển theo Trump.
Chẳng hạn, các công ty như Google đang xác định lại những gì cấu thành AI có trách nhiệm, có khả năng nới lỏng các tiêu chuẩn đã không nghiêm ngặt. Với phần lớn quy định AI hạn chế được thiết lập trong chính quyền Biden có nguy cơ bị dỡ bỏ, các công ty có thể thấy mình thậm chí còn ít ưu đãi bên ngoài hơn để tự điều chỉnh hoặc nộp cho giám sát của bên thứ ba.
Đáng chú ý, các cuộc thảo luận về kiểm tra an toàn cho sự thiên vị và phân biệt đối xử trong các hệ thống AI đã vắng mặt một cách rõ rệt các tuyên bố công khai của Trump về AI, cho thấy sự thay đổi tiềm năng khỏi các ưu tiên này.

Bài viết liên quan
Khám phá vẻ đẹp lâu dài của Saree Ấn Độ
Saree Ấn Độ không chỉ là một bộ quần áo; Đó là một biểu tượng của ân sủng và một minh chứng cho các truyền thống hàng thế kỷ. Nó dệt nên một tấm thảm phong phú về lịch sử, nghệ thuật và bản chất của nữ tính. Cho dù đó là một màn hình bông đơn giản hay một kiệt tác lụa thêu phức tạp
Báo cáo mô hình AI mới nhất của Google thiếu các chi tiết an toàn quan trọng, các chuyên gia cho biết
Vào thứ năm, nhiều tuần sau khi ra mắt mô hình AI mới nhất và tiên tiến nhất của mình, Gemini 2.5 Pro, Google đã phát hành một báo cáo kỹ thuật chi tiết kết quả đánh giá an toàn nội bộ của mình. Tuy nhiên, các chuyên gia đã chỉ trích báo cáo vì thiếu chi tiết, khiến cho việc hiểu đầy đủ về nồi
Hướng dẫn toàn diện để làm chủ kích thước phông chữ trong Adobe Illustrator
Nếu bạn đang đi sâu vào thế giới thiết kế đồ họa và nghệ thuật, Adobe Illustrator là công cụ tiếp tục của bạn. Nó được đóng gói với các tính năng cho phép bạn tạo ra các thiết kế trực quan tuyệt đẹp và một trong những yếu tố chính bạn sẽ làm việc là kiểu chữ. Có được kích thước phông chữ vừa phải là rất quan trọng đối với cả hai khả năng đọc
Nhận xét (0)
0/200






Nhân học loại bỏ các cam kết an toàn AI thời Biden khỏi trang web
Trong một động thái đã làm tăng lông mày, nhân học, một người chơi nổi bật trong ngành AI, đã lặng lẽ loại bỏ các cam kết thời kỳ Biden để phát triển AI an toàn khỏi trung tâm minh bạch của nó vào tuần trước. Sự thay đổi này lần đầu tiên được phát hiện bởi Dự án Midas, một nhóm giám sát AI, lưu ý rằng sự vắng mặt của ngôn ngữ đã hứa sẽ chia sẻ thông tin và nghiên cứu về các rủi ro của AI, bao gồm cả sự thiên vị, với chính phủ.
Những cam kết này là một phần của một thỏa thuận tự nguyện nhân học được ký kết cùng với các đại gia công nghệ khác như Openai, Google và Meta vào tháng 7 năm 2023. Thỏa thuận này là một nền tảng của các nỗ lực của chính quyền Biden nhằm thúc đẩy sự phát triển AI có trách nhiệm, nhiều khía cạnh sau này đã được đưa ra trong Lệnh thực hiện AI của Biden. Các công ty tham gia đã cam kết tuân thủ các tiêu chuẩn nhất định, chẳng hạn như tiến hành các bài kiểm tra bảo mật trên các mô hình của họ trước khi phát hành, làm mờ nội dung do Waterated AI tạo ra và phát triển cơ sở hạ tầng bảo mật dữ liệu mạnh mẽ.
Hơn nữa, nhân học đã đồng ý hợp tác với Viện An toàn AI, được thành lập theo lệnh điều hành của Biden, để thúc đẩy các ưu tiên này. Tuy nhiên, với chính quyền Trump có khả năng giải thể viện, tương lai của những sáng kiến này bị treo trong sự cân bằng.
Thật thú vị, nhân học đã không đưa ra thông báo công khai về việc loại bỏ các cam kết này khỏi trang web của mình. Công ty khẳng định rằng các vị trí hiện tại của mình đối với AI có trách nhiệm hoặc không liên quan đến hoặc có trước các thỏa thuận thời Biden.
Ý nghĩa rộng hơn dưới chính quyền Trump
Sự phát triển này là một phần của sự thay đổi rộng hơn trong chính sách và quy định của AI dưới thời chính quyền Trump. Vào ngày đầu tiên tại văn phòng, Trump đã đảo ngược lệnh điều hành của Biden về AI, và ông đã bác bỏ một số chuyên gia AI khỏi các vị trí của chính phủ và cắt giảm tài trợ nghiên cứu. Những hành động này đã tạo tiền đề cho một sự thay đổi đáng chú ý trong giai điệu giữa các công ty AI lớn, một số trong đó hiện đang tìm cách mở rộng hợp đồng chính phủ của họ và ảnh hưởng đến bối cảnh chính sách AI vẫn đang phát triển theo Trump.
Chẳng hạn, các công ty như Google đang xác định lại những gì cấu thành AI có trách nhiệm, có khả năng nới lỏng các tiêu chuẩn đã không nghiêm ngặt. Với phần lớn quy định AI hạn chế được thiết lập trong chính quyền Biden có nguy cơ bị dỡ bỏ, các công ty có thể thấy mình thậm chí còn ít ưu đãi bên ngoài hơn để tự điều chỉnh hoặc nộp cho giám sát của bên thứ ba.
Đáng chú ý, các cuộc thảo luận về kiểm tra an toàn cho sự thiên vị và phân biệt đối xử trong các hệ thống AI đã vắng mặt một cách rõ rệt các tuyên bố công khai của Trump về AI, cho thấy sự thay đổi tiềm năng khỏi các ưu tiên này.











