Meredith Whittaker hebt die "tiefgreifende" Sicherheit, Datenschutzrisiken in der Agentic AI hervor

Auf der SXSW -Konferenz in Austin, Texas, äußerte Signal Präsident Meredith Whittaker ernsthafte Bedenken hinsichtlich der mit Agentic AI verbundenen Privatsphäre. Sie beschrieb den Einsatz von AI -Agenten lebhaft als "Ihr Gehirn in ein Glas" und hob die beunruhigende Natur dieser aufkommenden Technologie hervor. Whittaker wies darauf hin, dass AI -Agenten, die als Tools für die Verbesserung des täglichen Lebens beworben werden, indem sie Aufgaben wie das Finden von Konzerten, die Buchung von Tickets und die Planung von Veranstaltungen, die Herausforderungen für Privatsphäre und Sicherheit darstellen.
"Also können wir unser Gehirn einfach in ein Glas legen, weil das Ding das tut und wir es nicht berühren müssen, oder?" Whittaker überlegte und betonte den Hands-Off-Ansatz, den AI-Agenten ermutigen. Sie fuhr fort, den umfangreichen Zugang zu diesen Agenten zu beschreiben, einschließlich der Kontrolle über Webbrowser, Kreditkarteninformationen, Kalender und Messaging -Apps. "Es müsste in der Lage sein, diesen [Prozess] in unserem gesamten System mit etwas voranzutreiben, das wie die Root -Erlaubnis aussieht und auf alle einzelnen dieser Datenbanken zugreift - wahrscheinlich im Klar, weil es kein Modell gibt, um dies verschlüsselt zu machen", warnte sie.
Whittaker befasste sich auch mit der für diese KI -Agenten erforderlichen Verarbeitungsleistung und stellte fest, dass solche Vorgänge wahrscheinlich eher auf Cloud -Servern als auf dem Gerät des Benutzers auftreten würden. "Das wird mit ziemlicher Sicherheit an einen Cloud-Server gesendet, auf dem er verarbeitet und zurückgesandt wird. Es gibt also ein tiefes Problem mit Sicherheit und Privatsphäre, das diesen Hype um Agenten einhält, und letztendlich droht es, die Blut-Hirn-Barriere zwischen der Anwendungsschicht und der OS-Schicht zu brechen, indem sie alle diese getrennten Dienste [und] verwirrt hat, um ihre Daten zu begleiten", schließte sie.
Sie äußerte sich besondere Bedenken hinsichtlich der Auswirkungen auf die Privatsphäre, wenn eine Messaging -App wie Signal in KI -Agenten integrieren sollte. Eine solche Integration würde die Vertraulichkeit von Nachrichten beeinträchtigen, da der Agent auf die App zugreifen müsste, um Texte zu senden und Daten abzurufen, um diese Kommunikation zusammenzufassen.
Die Äußerungen von Whittaker wurden kamen, nachdem sie über das Vertrauen der KI -Branche in ein Überwachungsmodell diskutierte, das die Erfassung von Massendaten beinhaltet. Sie kritisierte das "Größere ist besseres AI -Paradigma", was die Datenakkumulation priorisiert und vor seinen potenziellen negativen Folgen warnt. Mit der Agentic AI warnte sie, wir riskieren, die Privatsphäre und Sicherheit weiter zu erodieren, um einen "magischen Genie -Bot zu verfolgen, der sich um die Erfordernisse des Lebens kümmert".
Verwandter Artikel
億萬富翁討論自動化取代工作在本週的AI更新中
大家好,歡迎回到TechCrunch的AI通訊!如果您尚未訂閱,可以在此訂閱,每週三直接送到您的收件箱。我們上週稍作休息,但理由充分——AI新聞週期火熱異常,很大程度上要歸功於中國AI公司DeepSeek的突然崛起。這段時間風起雲湧,但我們現在回來了,正好為您更新OpenAI的最新動態。週末,OpenAI執行長Sam Altman在東京停留,與SoftBank負責人孫正義會面。SoftBank是O
NotebookLM應用上線:AI驅動的知識工具
NotebookLM 行動版上線:你的AI研究助手現已登陸Android與iOS我們對 NotebookLM 的熱烈反響感到驚喜——數百萬用戶已將其視為理解複雜資訊的首選工具。但有一個請求不斷出現:「什麼時候才能帶著NotebookLM隨時使用?」等待結束了!🎉 NotebookLM行動應用程式現已登陸Android和iOS平台,將AI輔助學習的力量裝進你的
谷歌的人工智慧未來基金可能需要謹慎行事
Google 的新 AI 投資計劃:監管審查下的戰略轉變Google 最近宣布設立 AI 未來基金(AI Futures Fund),這標誌著這家科技巨頭在其塑造人工智慧未來的征程中邁出了大膽的一步。該計劃旨在為初創公司提供急需的資金、早期接觸仍在開發中的尖端人工智慧模型,以及來自 Google 內部專家的指導。儘管這不是 Google 第一次涉足初創企業生
Kommentare (50)
0/200
DavidCarter
10. April 2025 00:00:00 GMT
Meredith Whittaker's take on agentic AI at SXSW was eye-opening! Her analogy of putting your brain in a jar was chilling, really makes you think about privacy. I'm now more cautious about using AI agents. Definitely a must-watch for anyone concerned about digital security!
0
MatthewScott
11. April 2025 00:00:00 GMT
メレディス・ウィタカーのエージェンティックAIに関するSXSWでの発言は衝撃的だった!「脳を瓶に入れる」という比喩は恐ろしいほどリアルで、プライバシーについて深く考えさせられた。AIエージェントの使用には今後もっと注意が必要だと思う。デジタルセキュリティを気にする人は必見だよ!
0
JustinKing
10. April 2025 00:00:00 GMT
A fala de Meredith Whittaker sobre IA agente no SXSW foi reveladora! A analogia de colocar seu cérebro em um jarro foi arrepiante, realmente faz você pensar sobre a privacidade. Agora estou mais cauteloso ao usar agentes de IA. Imperdível para quem se preocupa com segurança digital!
0
AvaHill
11. April 2025 00:00:00 GMT
¡La charla de Meredith Whittaker sobre IA agente en SXSW fue reveladora! Su analogía de poner tu cerebro en un frasco fue escalofriante, realmente te hace pensar en la privacidad. Ahora estoy más cauteloso al usar agentes de IA. ¡Imperdible para quien se preocupe por la seguridad digital!
0
RobertGreen
11. April 2025 00:00:00 GMT
Выступление Мередит Уиттакер на SXSW о агентивном ИИ было поразительным! Её аналогия о том, что мозг в банке, была жуткой, заставляет задуматься о конфиденциальности. Теперь я более осторожен в использовании агентов ИИ. Обязательно к просмотру для всех, кто заботится о цифровой безопасности!
0
FrankMoore
12. April 2025 00:00:00 GMT
Meredith Whittaker's talk at SXSW was eye-opening. The idea of AI agents as 'putting your brain in a jar' is creepy but spot on. It makes me think twice about using these technologies. Privacy concerns are real, and we need more voices like hers to keep us on our toes. Keep it up, Meredith!
0
Auf der SXSW -Konferenz in Austin, Texas, äußerte Signal Präsident Meredith Whittaker ernsthafte Bedenken hinsichtlich der mit Agentic AI verbundenen Privatsphäre. Sie beschrieb den Einsatz von AI -Agenten lebhaft als "Ihr Gehirn in ein Glas" und hob die beunruhigende Natur dieser aufkommenden Technologie hervor. Whittaker wies darauf hin, dass AI -Agenten, die als Tools für die Verbesserung des täglichen Lebens beworben werden, indem sie Aufgaben wie das Finden von Konzerten, die Buchung von Tickets und die Planung von Veranstaltungen, die Herausforderungen für Privatsphäre und Sicherheit darstellen.
"Also können wir unser Gehirn einfach in ein Glas legen, weil das Ding das tut und wir es nicht berühren müssen, oder?" Whittaker überlegte und betonte den Hands-Off-Ansatz, den AI-Agenten ermutigen. Sie fuhr fort, den umfangreichen Zugang zu diesen Agenten zu beschreiben, einschließlich der Kontrolle über Webbrowser, Kreditkarteninformationen, Kalender und Messaging -Apps. "Es müsste in der Lage sein, diesen [Prozess] in unserem gesamten System mit etwas voranzutreiben, das wie die Root -Erlaubnis aussieht und auf alle einzelnen dieser Datenbanken zugreift - wahrscheinlich im Klar, weil es kein Modell gibt, um dies verschlüsselt zu machen", warnte sie.
Whittaker befasste sich auch mit der für diese KI -Agenten erforderlichen Verarbeitungsleistung und stellte fest, dass solche Vorgänge wahrscheinlich eher auf Cloud -Servern als auf dem Gerät des Benutzers auftreten würden. "Das wird mit ziemlicher Sicherheit an einen Cloud-Server gesendet, auf dem er verarbeitet und zurückgesandt wird. Es gibt also ein tiefes Problem mit Sicherheit und Privatsphäre, das diesen Hype um Agenten einhält, und letztendlich droht es, die Blut-Hirn-Barriere zwischen der Anwendungsschicht und der OS-Schicht zu brechen, indem sie alle diese getrennten Dienste [und] verwirrt hat, um ihre Daten zu begleiten", schließte sie.
Sie äußerte sich besondere Bedenken hinsichtlich der Auswirkungen auf die Privatsphäre, wenn eine Messaging -App wie Signal in KI -Agenten integrieren sollte. Eine solche Integration würde die Vertraulichkeit von Nachrichten beeinträchtigen, da der Agent auf die App zugreifen müsste, um Texte zu senden und Daten abzurufen, um diese Kommunikation zusammenzufassen.
Die Äußerungen von Whittaker wurden kamen, nachdem sie über das Vertrauen der KI -Branche in ein Überwachungsmodell diskutierte, das die Erfassung von Massendaten beinhaltet. Sie kritisierte das "Größere ist besseres AI -Paradigma", was die Datenakkumulation priorisiert und vor seinen potenziellen negativen Folgen warnt. Mit der Agentic AI warnte sie, wir riskieren, die Privatsphäre und Sicherheit weiter zu erodieren, um einen "magischen Genie -Bot zu verfolgen, der sich um die Erfordernisse des Lebens kümmert".



Meredith Whittaker's take on agentic AI at SXSW was eye-opening! Her analogy of putting your brain in a jar was chilling, really makes you think about privacy. I'm now more cautious about using AI agents. Definitely a must-watch for anyone concerned about digital security!




メレディス・ウィタカーのエージェンティックAIに関するSXSWでの発言は衝撃的だった!「脳を瓶に入れる」という比喩は恐ろしいほどリアルで、プライバシーについて深く考えさせられた。AIエージェントの使用には今後もっと注意が必要だと思う。デジタルセキュリティを気にする人は必見だよ!




A fala de Meredith Whittaker sobre IA agente no SXSW foi reveladora! A analogia de colocar seu cérebro em um jarro foi arrepiante, realmente faz você pensar sobre a privacidade. Agora estou mais cauteloso ao usar agentes de IA. Imperdível para quem se preocupa com segurança digital!




¡La charla de Meredith Whittaker sobre IA agente en SXSW fue reveladora! Su analogía de poner tu cerebro en un frasco fue escalofriante, realmente te hace pensar en la privacidad. Ahora estoy más cauteloso al usar agentes de IA. ¡Imperdible para quien se preocupe por la seguridad digital!




Выступление Мередит Уиттакер на SXSW о агентивном ИИ было поразительным! Её аналогия о том, что мозг в банке, была жуткой, заставляет задуматься о конфиденциальности. Теперь я более осторожен в использовании агентов ИИ. Обязательно к просмотру для всех, кто заботится о цифровой безопасности!




Meredith Whittaker's talk at SXSW was eye-opening. The idea of AI agents as 'putting your brain in a jar' is creepy but spot on. It makes me think twice about using these technologies. Privacy concerns are real, and we need more voices like hers to keep us on our toes. Keep it up, Meredith!












