Meredith Whittaker destaca la seguridad 'profunda', los riesgos de privacidad en la IA de la agente

En la Conferencia SXSW en Austin, Texas, el presidente de Signal, Meredith Whittaker, planteó serias preocupaciones sobre los riesgos de privacidad asociados con la IA agente. Ella describió vívidamente el uso de agentes de IA como "poner su cerebro en un frasco", destacando la naturaleza inquietante de esta tecnología emergente. Whittaker señaló que los agentes de IA, que son promovidos como herramientas para mejorar la vida diaria mediante la gestión de tareas como encontrar conciertos, reservar boletos y programas de eventos, plantean importantes desafíos de privacidad y seguridad.
"Entonces podemos poner nuestro cerebro en un frasco porque la cosa está haciendo eso y no tenemos que tocarlo, ¿verdad?" Whittaker reflexionó, enfatizando el enfoque de no intervención que los agentes de IA fomentan. Continuó detallando el amplio acceso que requerirían estos agentes, incluido el control sobre los navegadores web, la información de la tarjeta de crédito, los calendarios y las aplicaciones de mensajería. "Tendría que poder conducir ese [proceso] en todo nuestro sistema con algo que parece un permiso de raíz, accediendo a cada una de esas bases de datos, probablemente en claro, porque no hay un modelo para hacer eso encriptado", advirtió.
Whittaker también abordó la potencia de procesamiento necesaria para estos agentes de IA, señalando que tales operaciones probablemente ocurrirían en los servidores de la nube en lugar de en el dispositivo del usuario. "Es casi seguro que eso se envía a un servidor en la nube donde se está procesando y enviando de regreso. Por lo tanto, existe un profundo problema con la seguridad y la privacidad que inquietan esta exageración de los agentes, y que finalmente amenaza con romper la barrera hematoencefálica entre la capa de aplicación y la capa del sistema operativo al unir todos estos servicios separados [y] confundir sus datos", concluyó. Concluyó.
Expresó una preocupación particular por las implicaciones de privacidad si una aplicación de mensajería como la señal se integrara con los agentes de IA. Dicha integración comprometería la confidencialidad de los mensajes, ya que el agente necesitaría acceder a la aplicación para enviar textos y también recuperar datos para resumir esas comunicaciones.
Los comentarios de Whittaker se produjeron después de que ella discutió la dependencia de la industria de la IA más amplia en un modelo de vigilancia que involucra la recopilación de datos masivos. Ella criticó el "más grande es mejor paradigma de IA", que prioriza la acumulación de datos, advirtiendo de sus posibles consecuencias negativas. Con Agentic AI, advirtió, corremos el riesgo de erosionar aún más la privacidad y la seguridad en la búsqueda de un "bot genio mágico que se encargará de las exigencias de la vida".
Artículo relacionado
億萬富翁討論自動化取代工作在本週的AI更新中
大家好,歡迎回到TechCrunch的AI通訊!如果您尚未訂閱,可以在此訂閱,每週三直接送到您的收件箱。我們上週稍作休息,但理由充分——AI新聞週期火熱異常,很大程度上要歸功於中國AI公司DeepSeek的突然崛起。這段時間風起雲湧,但我們現在回來了,正好為您更新OpenAI的最新動態。週末,OpenAI執行長Sam Altman在東京停留,與SoftBank負責人孫正義會面。SoftBank是O
NotebookLM應用上線:AI驅動的知識工具
NotebookLM 行動版上線:你的AI研究助手現已登陸Android與iOS我們對 NotebookLM 的熱烈反響感到驚喜——數百萬用戶已將其視為理解複雜資訊的首選工具。但有一個請求不斷出現:「什麼時候才能帶著NotebookLM隨時使用?」等待結束了!🎉 NotebookLM行動應用程式現已登陸Android和iOS平台,將AI輔助學習的力量裝進你的
谷歌的人工智慧未來基金可能需要謹慎行事
Google 的新 AI 投資計劃:監管審查下的戰略轉變Google 最近宣布設立 AI 未來基金(AI Futures Fund),這標誌著這家科技巨頭在其塑造人工智慧未來的征程中邁出了大膽的一步。該計劃旨在為初創公司提供急需的資金、早期接觸仍在開發中的尖端人工智慧模型,以及來自 Google 內部專家的指導。儘管這不是 Google 第一次涉足初創企業生
comentario (50)
0/200
DavidCarter
10 de abril de 2025 00:00:00 GMT
Meredith Whittaker's take on agentic AI at SXSW was eye-opening! Her analogy of putting your brain in a jar was chilling, really makes you think about privacy. I'm now more cautious about using AI agents. Definitely a must-watch for anyone concerned about digital security!
0
MatthewScott
11 de abril de 2025 00:00:00 GMT
メレディス・ウィタカーのエージェンティックAIに関するSXSWでの発言は衝撃的だった!「脳を瓶に入れる」という比喩は恐ろしいほどリアルで、プライバシーについて深く考えさせられた。AIエージェントの使用には今後もっと注意が必要だと思う。デジタルセキュリティを気にする人は必見だよ!
0
JustinKing
10 de abril de 2025 00:00:00 GMT
A fala de Meredith Whittaker sobre IA agente no SXSW foi reveladora! A analogia de colocar seu cérebro em um jarro foi arrepiante, realmente faz você pensar sobre a privacidade. Agora estou mais cauteloso ao usar agentes de IA. Imperdível para quem se preocupa com segurança digital!
0
AvaHill
11 de abril de 2025 00:00:00 GMT
¡La charla de Meredith Whittaker sobre IA agente en SXSW fue reveladora! Su analogía de poner tu cerebro en un frasco fue escalofriante, realmente te hace pensar en la privacidad. Ahora estoy más cauteloso al usar agentes de IA. ¡Imperdible para quien se preocupe por la seguridad digital!
0
RobertGreen
11 de abril de 2025 00:00:00 GMT
Выступление Мередит Уиттакер на SXSW о агентивном ИИ было поразительным! Её аналогия о том, что мозг в банке, была жуткой, заставляет задуматься о конфиденциальности. Теперь я более осторожен в использовании агентов ИИ. Обязательно к просмотру для всех, кто заботится о цифровой безопасности!
0
FrankMoore
12 de abril de 2025 00:00:00 GMT
Meredith Whittaker's talk at SXSW was eye-opening. The idea of AI agents as 'putting your brain in a jar' is creepy but spot on. It makes me think twice about using these technologies. Privacy concerns are real, and we need more voices like hers to keep us on our toes. Keep it up, Meredith!
0
En la Conferencia SXSW en Austin, Texas, el presidente de Signal, Meredith Whittaker, planteó serias preocupaciones sobre los riesgos de privacidad asociados con la IA agente. Ella describió vívidamente el uso de agentes de IA como "poner su cerebro en un frasco", destacando la naturaleza inquietante de esta tecnología emergente. Whittaker señaló que los agentes de IA, que son promovidos como herramientas para mejorar la vida diaria mediante la gestión de tareas como encontrar conciertos, reservar boletos y programas de eventos, plantean importantes desafíos de privacidad y seguridad.
"Entonces podemos poner nuestro cerebro en un frasco porque la cosa está haciendo eso y no tenemos que tocarlo, ¿verdad?" Whittaker reflexionó, enfatizando el enfoque de no intervención que los agentes de IA fomentan. Continuó detallando el amplio acceso que requerirían estos agentes, incluido el control sobre los navegadores web, la información de la tarjeta de crédito, los calendarios y las aplicaciones de mensajería. "Tendría que poder conducir ese [proceso] en todo nuestro sistema con algo que parece un permiso de raíz, accediendo a cada una de esas bases de datos, probablemente en claro, porque no hay un modelo para hacer eso encriptado", advirtió.
Whittaker también abordó la potencia de procesamiento necesaria para estos agentes de IA, señalando que tales operaciones probablemente ocurrirían en los servidores de la nube en lugar de en el dispositivo del usuario. "Es casi seguro que eso se envía a un servidor en la nube donde se está procesando y enviando de regreso. Por lo tanto, existe un profundo problema con la seguridad y la privacidad que inquietan esta exageración de los agentes, y que finalmente amenaza con romper la barrera hematoencefálica entre la capa de aplicación y la capa del sistema operativo al unir todos estos servicios separados [y] confundir sus datos", concluyó. Concluyó.
Expresó una preocupación particular por las implicaciones de privacidad si una aplicación de mensajería como la señal se integrara con los agentes de IA. Dicha integración comprometería la confidencialidad de los mensajes, ya que el agente necesitaría acceder a la aplicación para enviar textos y también recuperar datos para resumir esas comunicaciones.
Los comentarios de Whittaker se produjeron después de que ella discutió la dependencia de la industria de la IA más amplia en un modelo de vigilancia que involucra la recopilación de datos masivos. Ella criticó el "más grande es mejor paradigma de IA", que prioriza la acumulación de datos, advirtiendo de sus posibles consecuencias negativas. Con Agentic AI, advirtió, corremos el riesgo de erosionar aún más la privacidad y la seguridad en la búsqueda de un "bot genio mágico que se encargará de las exigencias de la vida".



Meredith Whittaker's take on agentic AI at SXSW was eye-opening! Her analogy of putting your brain in a jar was chilling, really makes you think about privacy. I'm now more cautious about using AI agents. Definitely a must-watch for anyone concerned about digital security!




メレディス・ウィタカーのエージェンティックAIに関するSXSWでの発言は衝撃的だった!「脳を瓶に入れる」という比喩は恐ろしいほどリアルで、プライバシーについて深く考えさせられた。AIエージェントの使用には今後もっと注意が必要だと思う。デジタルセキュリティを気にする人は必見だよ!




A fala de Meredith Whittaker sobre IA agente no SXSW foi reveladora! A analogia de colocar seu cérebro em um jarro foi arrepiante, realmente faz você pensar sobre a privacidade. Agora estou mais cauteloso ao usar agentes de IA. Imperdível para quem se preocupa com segurança digital!




¡La charla de Meredith Whittaker sobre IA agente en SXSW fue reveladora! Su analogía de poner tu cerebro en un frasco fue escalofriante, realmente te hace pensar en la privacidad. Ahora estoy más cauteloso al usar agentes de IA. ¡Imperdible para quien se preocupe por la seguridad digital!




Выступление Мередит Уиттакер на SXSW о агентивном ИИ было поразительным! Её аналогия о том, что мозг в банке, была жуткой, заставляет задуматься о конфиденциальности. Теперь я более осторожен в использовании агентов ИИ. Обязательно к просмотру для всех, кто заботится о цифровой безопасности!




Meredith Whittaker's talk at SXSW was eye-opening. The idea of AI agents as 'putting your brain in a jar' is creepy but spot on. It makes me think twice about using these technologies. Privacy concerns are real, and we need more voices like hers to keep us on our toes. Keep it up, Meredith!












