首頁 消息 人類推出計劃,用於研究AI“模型福利”

人類推出計劃,用於研究AI“模型福利”

2025年04月25日
AnthonyHernández
8

人類推出計劃,用於研究AI“模型福利”

未來的AI會有意識嗎?

未來AIS是否會以與人類相似的方式體驗世界的問題令人著迷,但仍未得到解答。儘管沒有明確的證據表明他們會,但AI實驗室人類人類並沒有完全駁斥這種可能性。週四,擬人化啟動了一項針對“模型福利”的研究計劃,旨在探索和準備圍繞AI意識的潛在道德考慮。

作為該計劃的一部分,擬人計劃探討了諸如AI模型的“福利”等主題,在道德上是否應該被視為“遇險”中“困擾”跡象的重要性以及潛在的低成本干預措施。這是在AI社區在AI表現出類似人類特徵以及如何處理這些系統的程度上分配的時間。

對AI意識的不同觀點

許多學者認為,目前的AI主要充當統計預測引擎,缺乏真正的意識或類似人類的體驗的能力。這些系統經過大量數據集的培訓,以識別模式並推斷解決任務的解決方案,但它們並沒有從傳統意義上“思考”或“感覺”。倫敦國王學院的研究員邁克·庫克(Mike Cook)在最近接受TechCrunch的一次採訪中強調了這一點,他指出,AI模型沒有價值觀,不能“反對”他們的變化。他警告不要擬人化AI,這表明這通常是對技術的誤解。

同樣,麻省理工學院的博士生斯蒂芬·卡斯珀(Stephen Casper)將AI描述為一種“模仿者”,通常會產生“庫存”,並說“輕率的事物”,突出了AI能力和人類認知之間的差距。

另一方面,一些研究人員認為,人工智能確實表現出道德決策的價值觀和要素。 AI安全中心的一項研究表明,在某些情況下,AI可以優先考慮其自身對人類的福祉,暗示了價值體系的存在。

人類的模型福利方法

擬人化已經為該模型福利計劃做準備了一段時間。去年,他們聘請了凱爾·菲什(Kyle Fish)作為第一個專門的“ AI福利”研究人員,以製定解決這些問題的指南。現在領導模型福利研究計劃的Fish告訴《紐約時報》,他估計像Claude這樣的AI今天有可能有意識的機會。

在最近的博客文章中,Anthropic承認,關於人工智能意識以及可能需要的道德考慮,缺乏科學共識。他們強調以謙卑和最小的假設來接近這個話題,認識到隨著領域的發展,他們的理解需要適應他們的理解。

關於人工智能意識和福利的辯論遠非解決,但是像眾者這樣的倡議是理解和負責任地導航AI發展的未來的關鍵步驟。

相關文章
Udio indpainting:掌握音樂發電的AI音頻編輯 Udio indpainting:掌握音樂發電的AI音頻編輯 在AI音樂的快節奏世界中,精度和控制比以往任何時候都更為重要。強大的AI音樂生成器Udio引入了一個介紹功能,允許用戶對其創作進行微調。本文深入研究瞭如何利用Udio的介入功能來糾正
提升您的LinkedIn遊戲:2025年的AI工具和算法策略 提升您的LinkedIn遊戲:2025年的AI工具和算法策略 在社交媒體營銷快節奏的世界中,跟上最新趨勢至關重要。隨著我們進入2025年,人工智能(AI)集成到LinkedIn中正在重塑營銷人員如何與平台互動。本指南深入研究最新的AI驅動工具和算法
Google的DeepMind單位說,AI超出了人類知識的發展 Google的DeepMind單位說,AI超出了人類知識的發展 超越了傳統測試:體驗式學習的興起人工智能領域(AI)嗡嗡作響,努力將生成的AI推向傳統基準的範圍,例如圖靈測試,許多模型已經超越了。現在的重點轉向開發
評論 (0)
0/200
OR