Géants de la technologie divisés sur le code de l'IA de l'UE à l'approche de la date limite de conformité
Le Code de pratique général de l'IA de l'UE a révélé des différences marquées parmi les principales entreprises technologiques. Microsoft a exprimé son intention d'adopter le cadre volontaire de conformité à l'IA de l'Union européenne, tandis que Meta a fermement décliné, qualifiant les lignes directrices de réglementation excessive qui pourrait entraver l'innovation.
Le président de Microsoft, Brad Smith, a déclaré à Reuters vendredi : « Nous sommes susceptibles de signer après avoir examiné les documents. » Smith a souligné la position coopérative de son entreprise, notant : « Nous visons à soutenir l'initiative tout en appréciant l'engagement direct du Bureau de l'IA avec l'industrie. »
En revanche, le directeur des affaires globales de Meta, Joel Kaplan, a déclaré sur LinkedIn : « Meta ne signera pas. Le code crée des incertitudes juridiques pour les développeurs et inclut des mesures qui dépassent le cadre de la loi sur l'IA. »
Kaplan a averti que « l'approche de l'Europe en matière d'IA est malavisée » et a mis en garde que le code de l'IA de l'UE pourrait « ralentir le développement et le déploiement de modèles d'IA avancés en Europe, entravant les entreprises européennes qui s'appuient sur ces technologies. »
Adopteurs précoces contre résistants
La réponse divisée de l'industrie technologique souligne des approches variées en matière de conformité réglementaire européenne. OpenAI et Mistral ont adopté le Code, se positionnant comme des soutiens précoces du cadre volontaire.
OpenAI a affirmé son engagement, déclarant : « Adopter le Code reflète notre dévouement à fournir des modèles d'IA puissants, accessibles et sécurisés pour que les Européens puissent pleinement bénéficier de l'ère de l'intelligence. »
OpenAI est la deuxième grande entreprise d'IA à rejoindre le code de pratique de l'UE pour les modèles d'IA à usage général, après Mistral, selon les observateurs de l'industrie suivant les engagements volontaires.
Plus tôt ce mois-ci, plus de 40 des plus grandes entreprises européennes, y compris ASML Holding et Airbus, ont signé une lettre exhortant la Commission européenne à retarder de deux ans la mise en œuvre de la loi sur l'IA.
Exigences et calendrier du Code
Publié le 10 juillet par la Commission européenne, le code de pratique vise à fournir une clarté juridique aux entreprises développant des modèles d'IA à usage général avant que l'application obligatoire ne commence le 2 août 2025.
Développé par 13 experts indépendants avec les contributions de plus de 1 000 parties prenantes, y compris les fournisseurs de modèles, les petites et moyennes entreprises, les universitaires, les experts en sécurité de l'IA, les détenteurs de droits et les groupes de la société civile, le cadre volontaire établit des lignes directrices claires.
Le code de l'IA de l'UE définit des exigences dans trois domaines clés. Les obligations de transparence imposent aux fournisseurs de maintenir une documentation technique détaillée pour les modèles et les ensembles de données, tandis que la conformité au droit d'auteur exige des politiques claires sur la manière dont les données d'entraînement sont obtenues et utilisées conformément aux lois européennes sur le droit d'auteur.
Pour les modèles les plus avancés, classés comme « GPAI à risque systémique » (GPAISR), tels que l'o3 d'OpenAI, le Claude 4 Opus d'Anthropic et le Gemini 2.5 Pro de Google, des obligations supplémentaires de sécurité s'appliquent.
Les signataires doivent publier des résumés du contenu d'entraînement pour leurs modèles d'IA à usage général et établir des politiques pour se conformer à la loi européenne sur le droit d'auteur. Le cadre exige également de documenter les sources de données d'entraînement, de réaliser des évaluations approfondies des risques et de créer des structures de gouvernance pour traiter les risques potentiels des systèmes d'IA.
Application et sanctions
Le non-respect entraîne des amendes importantes, pouvant aller jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial, selon le montant le plus élevé. Pour les fournisseurs de modèles GPAI, la Commission européenne peut imposer des amendes allant jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial.
La Commission a indiqué que l'adhésion à un Code de pratique approuvé simplifiera la conformité, le Bureau de l'IA et les régulateurs nationaux se concentrant sur la vérification des engagements du Code plutôt que sur l'audit de chaque système d'IA. Cela encourage une adoption précoce pour les entreprises recherchant une stabilité réglementaire.
Le code de l'IA de l'UE fait partie du cadre plus large de la loi sur l'IA. Selon la loi sur l'IA, les obligations pour les modèles GPAI, décrites dans les articles 50 à 55, deviennent exécutoires douze mois après l'entrée en vigueur de la loi le 2 août 2025. Les fournisseurs de modèles GPAI déjà sur le marché doivent se conformer d'ici le 2 août 2027.
Impact sur l'industrie et implications mondiales
Les réponses variées signalent que les entreprises technologiques adoptent des stratégies distinctes pour naviguer dans les paysages réglementaires mondiaux. L'approche collaborative de Microsoft contraste fortement avec la position défiante de Meta, ce qui pourrait façonner la manière dont les principaux développeurs d'IA s'engagent avec les réglementations internationales.
Malgré l'opposition, la Commission européenne reste ferme. Le commissaire au marché intérieur de l'UE, Thierry Breton, a souligné que la loi sur l'IA est vitale pour la sécurité des consommateurs et la confiance dans les technologies émergentes, rejetant les appels à un retard.
La phase volontaire du code de l'IA de l'UE offre aux entreprises une chance de façonner le développement réglementaire par leur participation. Cependant, l'application obligatoire à partir d'août 2025 exigera une conformité, indépendamment de l'adoption volontaire.
Pour les entreprises opérant à l'échelle mondiale, le cadre de l'UE pourrait influencer les normes de gouvernance de l'IA à l'échelle mondiale, en s'alignant sur des initiatives comme le processus de l'IA de Hiroshima du G7 et diverses stratégies nationales en matière d'IA, positionnant potentiellement les normes européennes comme des références mondiales.
Perspectives d'avenir
À court terme, les autorités de l'UE, y compris la Commission européenne et les États membres, examineront l'adéquation du Code, avec une approbation finale attendue d'ici le 2 août 2025.
Le cadre réglementaire pose des implications significatives pour le développement mondial de l'IA, alors que les entreprises équilibrent l'innovation avec la conformité à travers les juridictions. Les réponses divergentes au code volontaire signalent des défis potentiels à mesure que les exigences obligatoires entreront en vigueur.
Voir aussi : Naviguer dans la loi sur l'IA de l'UE : Implications pour les entreprises britanniques
Vous souhaitez en savoir plus sur l'IA et le big data auprès des leaders de l'industrie ? Découvrez l'AI & Big Data Expo qui se tient à Amsterdam, en Californie et à Londres. Cet événement complet est co-organisé avec d'autres événements majeurs, y compris la Conférence sur l'automatisation intelligente, BlockX, la Semaine de la transformation numérique et l'Expo sur la cybersécurité et le cloud.
Découvrez d'autres événements et webinaires technologiques d'entreprise à venir, organisés par TechForge ici.
Article connexe
Meta Renforce la Sécurité IA avec des Outils Llama Avancés
Meta a publié de nouveaux outils de sécurité Llama pour renforcer le développement IA et protéger contre les menaces émergentes.Ces outils de sécurité du modèle IA Llama améliorés sont associés aux no
NotebookLM Dévoile des Carnets Sélectionnés de Publications de Premier Plan et d'Experts
Google améliore son outil de recherche et de prise de notes alimenté par l'IA, NotebookLM, pour en faire un centre de connaissances complet. Lundi, l'entreprise a présenté une collection de carnets so
Alibaba Dévoile Wan2.1-VACE : Solution Vidéo IA Open-Source
Alibaba a présenté Wan2.1-VACE, un modèle d'IA open-source prêt à transformer les processus de création et d'édition vidéo.VACE est un composant clé de la famille de modèles vidéo IA Wan2.1 d’Alibaba,
commentaires (0)
0/200
Le Code de pratique général de l'IA de l'UE a révélé des différences marquées parmi les principales entreprises technologiques. Microsoft a exprimé son intention d'adopter le cadre volontaire de conformité à l'IA de l'Union européenne, tandis que Meta a fermement décliné, qualifiant les lignes directrices de réglementation excessive qui pourrait entraver l'innovation.
Le président de Microsoft, Brad Smith, a déclaré à Reuters vendredi : « Nous sommes susceptibles de signer après avoir examiné les documents. » Smith a souligné la position coopérative de son entreprise, notant : « Nous visons à soutenir l'initiative tout en appréciant l'engagement direct du Bureau de l'IA avec l'industrie. »
En revanche, le directeur des affaires globales de Meta, Joel Kaplan, a déclaré sur LinkedIn : « Meta ne signera pas. Le code crée des incertitudes juridiques pour les développeurs et inclut des mesures qui dépassent le cadre de la loi sur l'IA. »
Kaplan a averti que « l'approche de l'Europe en matière d'IA est malavisée » et a mis en garde que le code de l'IA de l'UE pourrait « ralentir le développement et le déploiement de modèles d'IA avancés en Europe, entravant les entreprises européennes qui s'appuient sur ces technologies. »
Adopteurs précoces contre résistants
La réponse divisée de l'industrie technologique souligne des approches variées en matière de conformité réglementaire européenne. OpenAI et Mistral ont adopté le Code, se positionnant comme des soutiens précoces du cadre volontaire.
OpenAI a affirmé son engagement, déclarant : « Adopter le Code reflète notre dévouement à fournir des modèles d'IA puissants, accessibles et sécurisés pour que les Européens puissent pleinement bénéficier de l'ère de l'intelligence. »
OpenAI est la deuxième grande entreprise d'IA à rejoindre le code de pratique de l'UE pour les modèles d'IA à usage général, après Mistral, selon les observateurs de l'industrie suivant les engagements volontaires.
Plus tôt ce mois-ci, plus de 40 des plus grandes entreprises européennes, y compris ASML Holding et Airbus, ont signé une lettre exhortant la Commission européenne à retarder de deux ans la mise en œuvre de la loi sur l'IA.
Exigences et calendrier du Code
Publié le 10 juillet par la Commission européenne, le code de pratique vise à fournir une clarté juridique aux entreprises développant des modèles d'IA à usage général avant que l'application obligatoire ne commence le 2 août 2025.
Développé par 13 experts indépendants avec les contributions de plus de 1 000 parties prenantes, y compris les fournisseurs de modèles, les petites et moyennes entreprises, les universitaires, les experts en sécurité de l'IA, les détenteurs de droits et les groupes de la société civile, le cadre volontaire établit des lignes directrices claires.
Le code de l'IA de l'UE définit des exigences dans trois domaines clés. Les obligations de transparence imposent aux fournisseurs de maintenir une documentation technique détaillée pour les modèles et les ensembles de données, tandis que la conformité au droit d'auteur exige des politiques claires sur la manière dont les données d'entraînement sont obtenues et utilisées conformément aux lois européennes sur le droit d'auteur.
Pour les modèles les plus avancés, classés comme « GPAI à risque systémique » (GPAISR), tels que l'o3 d'OpenAI, le Claude 4 Opus d'Anthropic et le Gemini 2.5 Pro de Google, des obligations supplémentaires de sécurité s'appliquent.
Les signataires doivent publier des résumés du contenu d'entraînement pour leurs modèles d'IA à usage général et établir des politiques pour se conformer à la loi européenne sur le droit d'auteur. Le cadre exige également de documenter les sources de données d'entraînement, de réaliser des évaluations approfondies des risques et de créer des structures de gouvernance pour traiter les risques potentiels des systèmes d'IA.
Application et sanctions
Le non-respect entraîne des amendes importantes, pouvant aller jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial, selon le montant le plus élevé. Pour les fournisseurs de modèles GPAI, la Commission européenne peut imposer des amendes allant jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial.
La Commission a indiqué que l'adhésion à un Code de pratique approuvé simplifiera la conformité, le Bureau de l'IA et les régulateurs nationaux se concentrant sur la vérification des engagements du Code plutôt que sur l'audit de chaque système d'IA. Cela encourage une adoption précoce pour les entreprises recherchant une stabilité réglementaire.
Le code de l'IA de l'UE fait partie du cadre plus large de la loi sur l'IA. Selon la loi sur l'IA, les obligations pour les modèles GPAI, décrites dans les articles 50 à 55, deviennent exécutoires douze mois après l'entrée en vigueur de la loi le 2 août 2025. Les fournisseurs de modèles GPAI déjà sur le marché doivent se conformer d'ici le 2 août 2027.
Impact sur l'industrie et implications mondiales
Les réponses variées signalent que les entreprises technologiques adoptent des stratégies distinctes pour naviguer dans les paysages réglementaires mondiaux. L'approche collaborative de Microsoft contraste fortement avec la position défiante de Meta, ce qui pourrait façonner la manière dont les principaux développeurs d'IA s'engagent avec les réglementations internationales.
Malgré l'opposition, la Commission européenne reste ferme. Le commissaire au marché intérieur de l'UE, Thierry Breton, a souligné que la loi sur l'IA est vitale pour la sécurité des consommateurs et la confiance dans les technologies émergentes, rejetant les appels à un retard.
La phase volontaire du code de l'IA de l'UE offre aux entreprises une chance de façonner le développement réglementaire par leur participation. Cependant, l'application obligatoire à partir d'août 2025 exigera une conformité, indépendamment de l'adoption volontaire.
Pour les entreprises opérant à l'échelle mondiale, le cadre de l'UE pourrait influencer les normes de gouvernance de l'IA à l'échelle mondiale, en s'alignant sur des initiatives comme le processus de l'IA de Hiroshima du G7 et diverses stratégies nationales en matière d'IA, positionnant potentiellement les normes européennes comme des références mondiales.
Perspectives d'avenir
À court terme, les autorités de l'UE, y compris la Commission européenne et les États membres, examineront l'adéquation du Code, avec une approbation finale attendue d'ici le 2 août 2025.
Le cadre réglementaire pose des implications significatives pour le développement mondial de l'IA, alors que les entreprises équilibrent l'innovation avec la conformité à travers les juridictions. Les réponses divergentes au code volontaire signalent des défis potentiels à mesure que les exigences obligatoires entreront en vigueur.
Voir aussi : Naviguer dans la loi sur l'IA de l'UE : Implications pour les entreprises britanniques
Vous souhaitez en savoir plus sur l'IA et le big data auprès des leaders de l'industrie ? Découvrez l'AI & Big Data Expo qui se tient à Amsterdam, en Californie et à Londres. Cet événement complet est co-organisé avec d'autres événements majeurs, y compris la Conférence sur l'automatisation intelligente, BlockX, la Semaine de la transformation numérique et l'Expo sur la cybersécurité et le cloud.
Découvrez d'autres événements et webinaires technologiques d'entreprise à venir, organisés par TechForge ici.










