Google s'engage à respecter le code de pratique de l'IA de l'UE au milieu du débat industriel

Google s'est engagé à adopter le code de pratique volontaire de l'IA de l'Union européenne, un cadre conçu pour aider les développeurs d'IA à s'aligner sur la loi sur l'IA de l'UE en mettant en œuvre des processus et des systèmes conformes.
En revanche, Meta a récemment refusé de signer le code, critiquant les réglementations de l'UE sur l'IA comme excessives et avertissant que l'approche de l'Europe pourrait entraver les progrès de l'IA.
La décision de Google intervient juste avant l'entrée en vigueur de nouvelles réglementations pour les « modèles d'IA à usage général présentant un risque systémique » le 2 août. Les principaux acteurs comme Anthropic, Google, Meta et OpenAI, ainsi que d'autres modèles génératifs à grande échelle, auront deux ans pour se conformer pleinement à la loi sur l'IA.
Dans un article de blog publié mercredi, Kent Walker, président des affaires mondiales de Google, a reconnu des améliorations dans le code de pratique final par rapport aux propositions antérieures de l'UE, mais a exprimé des préoccupations quant au potentiel de la loi sur l'IA à entraver l'innovation.
« Nous craignons que la loi sur l'IA et son code ne ralentissent le développement et le déploiement de l'IA en Europe. Des écarts par rapport à la législation européenne sur le droit d'auteur, des retards dans les approbations ou des mandats exposant des secrets commerciaux pourraient compromettre la compétitivité de l'Europe en matière d'IA », a écrit Walker.
En approuvant le code de l'UE, les entreprises d'IA s'engagent à respecter des directives telles que fournir une documentation mise à jour pour leurs outils d'IA, éviter l'entraînement sur du contenu piraté et respecter les demandes des propriétaires de contenu d'exclure leurs œuvres des ensembles de données.
La loi sur l'IA de l'UE, une réglementation basée sur le risque, interdit les utilisations de l'IA à « risque inacceptable », comme la manipulation cognitive ou le scoring social, tout en imposant des règles strictes aux applications à « haut risque », y compris la biométrie, la reconnaissance faciale et l'IA dans l'éducation ou l'emploi. Les développeurs doivent également enregistrer les systèmes d'IA et répondre aux normes de gestion des risques et de la qualité.
Les leaders technologiques et de capital-risque à l'affiche de Disrupt 2025
Netflix, ElevenLabs, Wayve, Sequoia Capital — certains des grands noms qui façonnent l'agenda de Disrupt 2025. Rejoignez-les pour obtenir des idées qui favorisent le succès des startups et restez en avance. Célébrez le 20e anniversaire de TechCrunch Disrupt et apprenez des voix les plus influentes de la technologie — réservez votre billet maintenant et économisez jusqu'à 675 $ avant l'augmentation des prix.
Les leaders technologiques et de capital-risque à l'affiche de Disrupt 2025
Netflix, ElevenLabs, Wayve, Sequoia Capital — certains des grands noms qui façonnent l'agenda de Disrupt 2025. Rejoignez-les pour obtenir des idées qui favorisent le succès des startups et restez en avance. Célébrez le 20e anniversaire de TechCrunch Disrupt et apprenez des voix les plus influentes de la technologie — réservez votre billet maintenant et économisez jusqu'à 675 $ avant l'augmentation des prix.
San Francisco | 27-29 octobre 2025 RÉSERVEZ MAINTENANT
Article connexe
Google dévoile les modèles AI Gemini 2.5 prêts pour la production pour rivaliser avec OpenAI sur le marché des entreprises
Google a intensifié sa stratégie AI lundi, lançant ses modèles avancés Gemini 2.5 pour une utilisation en entreprise et introduisant une variante économique pour concurrencer sur le prix et la perform
Meta Offre des Salaires Élevés pour les Talents en IA, Dément les Bonus de Signature de 100M$
Meta attire des chercheurs en IA vers son nouveau laboratoire de superintelligence avec des packages de rémunération de plusieurs millions de dollars. Cependant, les allégations de "bonus de signature
Meta Renforce la Sécurité IA avec des Outils Llama Avancés
Meta a publié de nouveaux outils de sécurité Llama pour renforcer le développement IA et protéger contre les menaces émergentes.Ces outils de sécurité du modèle IA Llama améliorés sont associés aux no
commentaires (0)
0/200
Google s'est engagé à adopter le code de pratique volontaire de l'IA de l'Union européenne, un cadre conçu pour aider les développeurs d'IA à s'aligner sur la loi sur l'IA de l'UE en mettant en œuvre des processus et des systèmes conformes.
En revanche, Meta a récemment refusé de signer le code, critiquant les réglementations de l'UE sur l'IA comme excessives et avertissant que l'approche de l'Europe pourrait entraver les progrès de l'IA.
La décision de Google intervient juste avant l'entrée en vigueur de nouvelles réglementations pour les « modèles d'IA à usage général présentant un risque systémique » le 2 août. Les principaux acteurs comme Anthropic, Google, Meta et OpenAI, ainsi que d'autres modèles génératifs à grande échelle, auront deux ans pour se conformer pleinement à la loi sur l'IA.
Dans un article de blog publié mercredi, Kent Walker, président des affaires mondiales de Google, a reconnu des améliorations dans le code de pratique final par rapport aux propositions antérieures de l'UE, mais a exprimé des préoccupations quant au potentiel de la loi sur l'IA à entraver l'innovation.
« Nous craignons que la loi sur l'IA et son code ne ralentissent le développement et le déploiement de l'IA en Europe. Des écarts par rapport à la législation européenne sur le droit d'auteur, des retards dans les approbations ou des mandats exposant des secrets commerciaux pourraient compromettre la compétitivité de l'Europe en matière d'IA », a écrit Walker.
En approuvant le code de l'UE, les entreprises d'IA s'engagent à respecter des directives telles que fournir une documentation mise à jour pour leurs outils d'IA, éviter l'entraînement sur du contenu piraté et respecter les demandes des propriétaires de contenu d'exclure leurs œuvres des ensembles de données.
La loi sur l'IA de l'UE, une réglementation basée sur le risque, interdit les utilisations de l'IA à « risque inacceptable », comme la manipulation cognitive ou le scoring social, tout en imposant des règles strictes aux applications à « haut risque », y compris la biométrie, la reconnaissance faciale et l'IA dans l'éducation ou l'emploi. Les développeurs doivent également enregistrer les systèmes d'IA et répondre aux normes de gestion des risques et de la qualité.
Les leaders technologiques et de capital-risque à l'affiche de Disrupt 2025
Netflix, ElevenLabs, Wayve, Sequoia Capital — certains des grands noms qui façonnent l'agenda de Disrupt 2025. Rejoignez-les pour obtenir des idées qui favorisent le succès des startups et restez en avance. Célébrez le 20e anniversaire de TechCrunch Disrupt et apprenez des voix les plus influentes de la technologie — réservez votre billet maintenant et économisez jusqu'à 675 $ avant l'augmentation des prix.
Les leaders technologiques et de capital-risque à l'affiche de Disrupt 2025
Netflix, ElevenLabs, Wayve, Sequoia Capital — certains des grands noms qui façonnent l'agenda de Disrupt 2025. Rejoignez-les pour obtenir des idées qui favorisent le succès des startups et restez en avance. Célébrez le 20e anniversaire de TechCrunch Disrupt et apprenez des voix les plus influentes de la technologie — réservez votre billet maintenant et économisez jusqu'à 675 $ avant l'augmentation des prix.
San Francisco | 27-29 octobre 2025 RÉSERVEZ MAINTENANT










