

Royaume-Uni Body renoms à l'Institut de sécurité, signe du protocole d'entente avec anthropique
10 avril 2025
GeorgeEvans
38

Le gouvernement britannique fait un changement significatif dans son approche de l'IA, visant à renforcer son économie et son industrie grâce à cette technologie. Dans le cadre de cette nouvelle direction, le Département des sciences, de l'industrie et de la technologie a annoncé un changement de marque de l'Institut de sécurité de l'IA, établi il y a un peu plus d'un an, au «IA Security Institute». Ce changement de nom reflète un changement de mise au point des risques et des préjugés existentiels dans l'IA vers les problèmes de cybersécurité, améliorant spécifiquement les garanties contre les menaces liées à l'IA pour la sécurité nationale et la criminalité. Parallèlement à ce changement de marque, le gouvernement a conclu un nouveau partenariat avec Anthropic. Bien que des services spécifiques n'aient pas été détaillés, le mémorandum de compréhension suggère d'explorer l'utilisation de l'assistant d'IA d'Anthropic, Claude, dans les services publics. Anthropic contribuera également à la recherche scientifique et à la modélisation économique, et à l'Institut de sécurité de l'IA, il fournira des outils pour évaluer les risques de sécurité de l'IA. «L'IA a le potentiel de transformer la façon dont les gouvernements servent leurs citoyens», a déclaré le co-fondateur et PDG d'Anthropic, Dario Amodei. «Nous sommes impatients d'explorer comment l'assistante AI d'Anthropic, Claude, pourrait aider les agences gouvernementales britanniques à améliorer les services publics, dans le but de découvrir de nouvelles façons de rendre les informations et services vitaux plus efficaces et accessibles aux résidents britanniques.» Anthropic est la seule entreprise soulignée dans l'annonce d'aujourd'hui, qui s'aligne sur une semaine d'événements liés à l'IA à Munich et à Paris. Cependant, le gouvernement britannique travaille également avec d'autres sociétés d'IA. En janvier, de nouveaux outils propulsés par OpenAI ont été introduits, et Peter Kyle, le secrétaire d'État à la technologie, a mentionné les plans pour collaborer avec diverses sociétés d'IA fondamentales, une stratégie illustrée par l'accord avec Anthropic. La réorientation de l'Institut de sécurité de l'IA à l'Institut de sécurité AI, peu de temps après son lancement, s'aligne sur le "plan de changement" centré sur l'IA du gouvernement travailliste annoncé en janvier. Ce plan a notamment omis des termes comme «sécurité», «préjudice», «existentiel» et «menace», signalant un accent sur le développement économique via l'IA plutôt que sur les problèmes de sécurité. Ce changement n'est pas surprenant, étant donné l'objectif du gouvernement de stimuler l'investissement dans une économie modernisée utilisant l'IA. La stratégie comprend une collaboration plus étroite avec Big Tech et favoriser la croissance des géants de la technologie locaux. Les fonctionnaires auront accès à un assistant d'IA nommé "Humphrey" et seront encouragés à utiliser l'IA pour améliorer l'efficacité. Les consommateurs bénéficieront de portefeuilles numériques pour les documents gouvernementaux et les chatbots. Bien que les problèmes de sécurité de l'IA n'aient pas été entièrement résolus, la position du gouvernement semble être que les progrès ne devraient pas être entravés par les seuls problèmes de sécurité. Malgré le changement de nom, le gouvernement insiste sur le fait que la mission principale reste inchangée. "Les changements que j'annonce aujourd'hui représentent la prochaine étape logique dans la façon dont nous abordons le développement responsable de l'IA - nous aidant à libérer l'IA et à développer l'économie dans le cadre de notre plan de changement", a déclaré Kyle. «Le travail de l'Institut de sécurité de l'IA ne changera pas, mais cette orientation renouvelée garantira que nos citoyens - et ceux de nos alliés - sont protégés de ceux qui chercheraient à utiliser l'IA contre nos institutions, nos valeurs démocratiques et notre mode de vie.» Ian Hogarth, qui continue de présider l'institut, a ajouté: «L'institut se concentre dès le départ sur la sécurité et nous avons constitué une équipe de scientifiques axés sur l'évaluation des risques graves pour le public. Notre nouvelle équipe de mauvaise utilisation criminelle et approfondissant le partenariat avec la communauté de la sécurité nationale marquent la prochaine étape de la lutte contre ces risques.» À l'échelle mondiale, l'accent mis sur la sécurité de l'IA semble changer. Aux États-Unis, l'Institut de sécurité de l'IA risque le risque d'être démantelé, une possibilité laissée en question par le vice-président JD Vance lors d'un discours à Paris.
Article connexe
Concevoir des graphiques à couper le souffle à l'aide de traits de gradient d'Adobe Illustrator
Si vous cherchez à prendre vos créations dans Adobe Illustrator de Flat à Fabulous et Mastering Gradient Strokes est la voie à suivre. Ce guide vous guidera à travers les tenants et les aboutissants de la création et de la modification des traits de gradient, donnant à votre illustration cette touche de profondeur et de flair visuel supplémentaire. Si vous êtes cr
Effets sonores de l'IA: boostez votre efficacité d'édition vidéo
En tant que rédacteur vidéo, vous êtes toujours à la recherche de cet effet sonore parfait pour donner vie à votre vision. Bien sûr, les bibliothèques Sound Sound peuvent vous faire partie du chemin, mais parfois vous avez besoin de quelque chose de plus personnalisé. Entrez l'intelligence artificielle, qui secoue le monde de la création audio B
Nvidia dévoile les outils logiciels NEMO pour les entreprises pour créer des agents d'IA personnalisés
Nvidia, le célèbre géant des puces, a annoncé mercredi la disponibilité générale d'une nouvelle suite d'outils conçus pour aider les entreprises à développer l'intelligence artificielle "agentique". Ces outils, surnommés NEMO Microservices, font partie du portefeuille de logiciels plus larges de NVIDIA. Ils sont fabriqués à C
Commentaires (30)
0/200
AndrewAllen
11 avril 2025 06:53:28 UTC
The UK's move to rebrand the AI Safety Institute to Security Institute is interesting, but I'm not sure how much it will actually change. The MOU with Anthropic sounds promising, though. Hopefully, it leads to more practical AI safety measures. Not too impressed yet, but keeping an eye on it!
0
PaulLopez
11 avril 2025 00:36:57 UTC
英国がAI安全研究所をセキュリティ研究所に改名する動きは興味深いですが、実際の変化がどれだけあるのかはわかりません。アントロピックとの覚書は有望に聞こえます。より実際的なAI安全対策につながることを期待しています。まだ感銘は受けていませんが、注目しています!
0
TimothySanchez
11 avril 2025 00:38:34 UTC
영국이 AI 안전 연구소를 보안 연구소로 개명하는 움직임은 흥미롭지만, 실제로 얼마나 변화가 있을지 모르겠어요. Anthropic과의 MOU는 promising해요. 더 실용적인 AI 안전 조치로 이어지길 바랍니다. 아직 감동은 받지 않았지만, 지켜보고 있어요!
0
RalphGonzález
10 avril 2025 22:21:35 UTC
A decisão do Reino Unido de renomear o Instituto de Segurança de IA para Instituto de Segurança é interessante, mas não tenho certeza de quanto isso realmente mudará. O MOU com a Anthropic parece promissor, no entanto. Espero que leve a medidas de segurança de IA mais práticas. Ainda não estou muito impressionado, mas estou de olho nisso!
0
ChristopherDavis
11 avril 2025 13:54:18 UTC
El movimiento del Reino Unido de renombrar el Instituto de Seguridad de IA a Instituto de Seguridad es interesante, pero no estoy seguro de cuánto cambiará realmente. El MOU con Anthropic suena prometedor, sin embargo. Espero que lleve a medidas de seguridad de IA más prácticas. Aún no estoy muy impresionado, pero lo mantengo en observación!
0
KennethWalker
12 avril 2025 08:04:25 UTC
The UK AI body renaming to Security Institute and partnering with Anthropic sounds promising, but I'm not sure how it'll actually help the economy. It's all very high-level talk, and I'm waiting to see real results. Maybe it's just me, but I need more than just announcements.
0










The UK's move to rebrand the AI Safety Institute to Security Institute is interesting, but I'm not sure how much it will actually change. The MOU with Anthropic sounds promising, though. Hopefully, it leads to more practical AI safety measures. Not too impressed yet, but keeping an eye on it!




英国がAI安全研究所をセキュリティ研究所に改名する動きは興味深いですが、実際の変化がどれだけあるのかはわかりません。アントロピックとの覚書は有望に聞こえます。より実際的なAI安全対策につながることを期待しています。まだ感銘は受けていませんが、注目しています!




영국이 AI 안전 연구소를 보안 연구소로 개명하는 움직임은 흥미롭지만, 실제로 얼마나 변화가 있을지 모르겠어요. Anthropic과의 MOU는 promising해요. 더 실용적인 AI 안전 조치로 이어지길 바랍니다. 아직 감동은 받지 않았지만, 지켜보고 있어요!




A decisão do Reino Unido de renomear o Instituto de Segurança de IA para Instituto de Segurança é interessante, mas não tenho certeza de quanto isso realmente mudará. O MOU com a Anthropic parece promissor, no entanto. Espero que leve a medidas de segurança de IA mais práticas. Ainda não estou muito impressionado, mas estou de olho nisso!




El movimiento del Reino Unido de renombrar el Instituto de Seguridad de IA a Instituto de Seguridad es interesante, pero no estoy seguro de cuánto cambiará realmente. El MOU con Anthropic suena prometedor, sin embargo. Espero que lleve a medidas de seguridad de IA más prácticas. Aún no estoy muy impresionado, pero lo mantengo en observación!




The UK AI body renaming to Security Institute and partnering with Anthropic sounds promising, but I'm not sure how it'll actually help the economy. It's all very high-level talk, and I'm waiting to see real results. Maybe it's just me, but I need more than just announcements.



5 étapes faciles pour récupérer votre confidentialité de données en ligne - Commencez dès aujourd'hui
Les ajustements aux centres de données américains pourraient débloquer 76 GW de nouvelle capacité d'énergie Transformez Chatgpt en votre outil d'alimentation de codage AI pour doubler votre sortie








