Meredith Whittaker met en évidence la sécurité «profonde», les risques de confidentialité dans l'agentique AI

Lors de la conférence SXSW à Austin, Texas, la présidente de Signal, Meredith Whittaker, a exprimé de sérieuses préoccupations concernant les risques pour la vie privée liés à l'IA agentique. Elle a décrit de manière frappante l'utilisation des agents IA comme "mettre son cerveau dans un bocal", soulignant la nature troublante de cette technologie émergente. Whittaker a souligné que les agents IA, promus comme des outils pour améliorer la vie quotidienne en gérant des tâches telles que trouver des concerts, réserver des billets et programmer des événements, posent d'importants défis en matière de confidentialité et de sécurité.
"Donc, on peut simplement mettre notre cerveau dans un bocal parce que la chose fait tout ça et nous n'avons pas à y toucher, n'est-ce pas ?" a-t-elle ironisé, mettant en évidence l'approche sans intervention que les agents IA encouragent. Elle a ensuite détaillé l'accès extensif que ces agents nécessiteraient, y compris le contrôle des navigateurs web, des informations de carte de crédit, des calendriers et des applications de messagerie. "Il faudrait qu'il puisse piloter ce [processus] à travers tout notre système avec quelque chose qui ressemble à une permission root, accédant à chacune de ces bases de données — probablement en clair, car il n'existe aucun modèle pour le faire de manière cryptée," a-t-elle averti.
Whittaker a également abordé la puissance de traitement nécessaire pour ces agents IA, notant que ces opérations se dérouleraient probablement sur des serveurs cloud plutôt que sur l'appareil de l'utilisateur. "Cela est presque certainement envoyé à un serveur cloud où c'est traité et renvoyé. Il y a donc un problème profond de sécurité et de confidentialité qui hante cet engouement pour les agents, et qui menace ultimement de briser la barrière hémato-encéphalique entre la couche applicative et la couche du système d'exploitation en reliant tous ces services séparés [et] en mélangeant leurs données," a-t-elle conclu.
Elle a exprimé une préoccupation particulière concernant les implications pour la vie privée si une application de messagerie comme Signal devait s'intégrer avec des agents IA. Une telle intégration compromettrait la confidentialité des messages, car l'agent devrait accéder à l'application pour envoyer des textes et également récupérer des données pour résumer ces communications.
Les remarques de Whittaker sont intervenues après qu'elle a discuté de la dépendance plus large de l'industrie de l'IA à un modèle de surveillance impliquant une collecte massive de données. Elle a critiqué le "paradigme de l'IA plus grand est meilleur", qui privilégie l'accumulation de données, avertissant de ses potentielles conséquences négatives. Avec l'IA agentique, a-t-elle averti, nous risquons d'éroder davantage la vie privée et la sécurité dans la quête d'un "génie magique qui va s'occuper des exigences de la vie."
Article connexe
Meta Renforce la Sécurité IA avec des Outils Llama Avancés
Meta a publié de nouveaux outils de sécurité Llama pour renforcer le développement IA et protéger contre les menaces émergentes.Ces outils de sécurité du modèle IA Llama améliorés sont associés aux no
NotebookLM Dévoile des Carnets Sélectionnés de Publications de Premier Plan et d'Experts
Google améliore son outil de recherche et de prise de notes alimenté par l'IA, NotebookLM, pour en faire un centre de connaissances complet. Lundi, l'entreprise a présenté une collection de carnets so
Alibaba Dévoile Wan2.1-VACE : Solution Vidéo IA Open-Source
Alibaba a présenté Wan2.1-VACE, un modèle d'IA open-source prêt à transformer les processus de création et d'édition vidéo.VACE est un composant clé de la famille de modèles vidéo IA Wan2.1 d’Alibaba,
commentaires (50)
0/200
BrianWalker
21 avril 2025 02:13:09 UTC+02:00
Meredith Whittaker's talk at SXSW was a real eye-opener! The way she described AI agents as 'putting your brain in a jar' was chilling. It really made me think twice about the privacy risks we're facing with this tech. Definitely a must-watch for anyone concerned about digital privacy! 👀
0
RichardThomas
20 avril 2025 07:16:51 UTC+02:00
A palestra de Meredith Whittaker no SXSW foi um verdadeiro alerta! A maneira como ela descreveu os agentes de IA como 'colocar o cérebro em um pote' foi assustadora. Me fez repensar os riscos de privacidade que estamos enfrentando com essa tecnologia. Definitivamente, um must-watch para quem se preocupa com privacidade digital! 👀
0
IsabellaLevis
19 avril 2025 18:33:21 UTC+02:00
メレディス・ウィタカーのSXSWでの話は衝撃的だった!AIエージェントを「脳を瓶に入れるようなもの」と例えたのは本当に印象的だった。これだけプライバシーを犠牲にしていると思うと怖いですね。これらの技術を使う前に二度考えさせられました。AIへのアプローチを再考する時かもしれませんね?🤔
0
EricRoberts
17 avril 2025 02:12:57 UTC+02:00
메레디스 위타커의 SXSW 발표는 정말 눈 뜨이는 경험이었어요! AI 에이전트를 '뇌를 병에 넣는 것'으로 표현한 건 정말 소름 끼쳤어요. 이 기술이 가져올 프라이버시 위험에 대해 다시 생각하게 되었어요. 디지털 프라이버시가 걱정된다면 꼭 봐야 할 내용입니다! 👀
0
TimothyEvans
17 avril 2025 02:00:47 UTC+02:00
Meredith Whittaker's talk at SXSW was eye-opening! Her analogy of AI agents being like 'putting your brain in a jar' really hit home. It's scary to think about how much privacy we're giving up. Definitely made me think twice about using these technologies. Maybe it's time to rethink our approach to AI? 🤔
0
PaulThomas
16 avril 2025 14:15:48 UTC+02:00
Выступление Мередит Уиттакер на SXSW было очень поучительным! Её сравнение агентов ИИ с 'помещением мозга в банку' действительно заставило задуматься. Страшно думать, сколько мы жертвуем своей приватностью. Это определённо заставило меня дважды подумать о использовании этих технологий. Может, пора пересмотреть наш подход к ИИ? 🤔
0
Lors de la conférence SXSW à Austin, Texas, la présidente de Signal, Meredith Whittaker, a exprimé de sérieuses préoccupations concernant les risques pour la vie privée liés à l'IA agentique. Elle a décrit de manière frappante l'utilisation des agents IA comme "mettre son cerveau dans un bocal", soulignant la nature troublante de cette technologie émergente. Whittaker a souligné que les agents IA, promus comme des outils pour améliorer la vie quotidienne en gérant des tâches telles que trouver des concerts, réserver des billets et programmer des événements, posent d'importants défis en matière de confidentialité et de sécurité.
"Donc, on peut simplement mettre notre cerveau dans un bocal parce que la chose fait tout ça et nous n'avons pas à y toucher, n'est-ce pas ?" a-t-elle ironisé, mettant en évidence l'approche sans intervention que les agents IA encouragent. Elle a ensuite détaillé l'accès extensif que ces agents nécessiteraient, y compris le contrôle des navigateurs web, des informations de carte de crédit, des calendriers et des applications de messagerie. "Il faudrait qu'il puisse piloter ce [processus] à travers tout notre système avec quelque chose qui ressemble à une permission root, accédant à chacune de ces bases de données — probablement en clair, car il n'existe aucun modèle pour le faire de manière cryptée," a-t-elle averti.
Whittaker a également abordé la puissance de traitement nécessaire pour ces agents IA, notant que ces opérations se dérouleraient probablement sur des serveurs cloud plutôt que sur l'appareil de l'utilisateur. "Cela est presque certainement envoyé à un serveur cloud où c'est traité et renvoyé. Il y a donc un problème profond de sécurité et de confidentialité qui hante cet engouement pour les agents, et qui menace ultimement de briser la barrière hémato-encéphalique entre la couche applicative et la couche du système d'exploitation en reliant tous ces services séparés [et] en mélangeant leurs données," a-t-elle conclu.
Elle a exprimé une préoccupation particulière concernant les implications pour la vie privée si une application de messagerie comme Signal devait s'intégrer avec des agents IA. Une telle intégration compromettrait la confidentialité des messages, car l'agent devrait accéder à l'application pour envoyer des textes et également récupérer des données pour résumer ces communications.
Les remarques de Whittaker sont intervenues après qu'elle a discuté de la dépendance plus large de l'industrie de l'IA à un modèle de surveillance impliquant une collecte massive de données. Elle a critiqué le "paradigme de l'IA plus grand est meilleur", qui privilégie l'accumulation de données, avertissant de ses potentielles conséquences négatives. Avec l'IA agentique, a-t-elle averti, nous risquons d'éroder davantage la vie privée et la sécurité dans la quête d'un "génie magique qui va s'occuper des exigences de la vie."


Meredith Whittaker's talk at SXSW was a real eye-opener! The way she described AI agents as 'putting your brain in a jar' was chilling. It really made me think twice about the privacy risks we're facing with this tech. Definitely a must-watch for anyone concerned about digital privacy! 👀




A palestra de Meredith Whittaker no SXSW foi um verdadeiro alerta! A maneira como ela descreveu os agentes de IA como 'colocar o cérebro em um pote' foi assustadora. Me fez repensar os riscos de privacidade que estamos enfrentando com essa tecnologia. Definitivamente, um must-watch para quem se preocupa com privacidade digital! 👀




メレディス・ウィタカーのSXSWでの話は衝撃的だった!AIエージェントを「脳を瓶に入れるようなもの」と例えたのは本当に印象的だった。これだけプライバシーを犠牲にしていると思うと怖いですね。これらの技術を使う前に二度考えさせられました。AIへのアプローチを再考する時かもしれませんね?🤔




메레디스 위타커의 SXSW 발표는 정말 눈 뜨이는 경험이었어요! AI 에이전트를 '뇌를 병에 넣는 것'으로 표현한 건 정말 소름 끼쳤어요. 이 기술이 가져올 프라이버시 위험에 대해 다시 생각하게 되었어요. 디지털 프라이버시가 걱정된다면 꼭 봐야 할 내용입니다! 👀




Meredith Whittaker's talk at SXSW was eye-opening! Her analogy of AI agents being like 'putting your brain in a jar' really hit home. It's scary to think about how much privacy we're giving up. Definitely made me think twice about using these technologies. Maybe it's time to rethink our approach to AI? 🤔




Выступление Мередит Уиттакер на SXSW было очень поучительным! Её сравнение агентов ИИ с 'помещением мозга в банку' действительно заставило задуматься. Страшно думать, сколько мы жертвуем своей приватностью. Это определённо заставило меня дважды подумать о использовании этих технологий. Может, пора пересмотреть наш подход к ИИ? 🤔












