Quel devrait être le plan d’action américain pour l’IA ? Analyse des propositions d’Anthropic, Google et OpenAI

Quel devrait être le plan d’action américain pour l’IA ? Analyse des propositions d’Anthropic, Google et OpenAI

Anthropic, Google et OpenAI ont tous répondu à l’appel de la Maison Blanche pour partager leurs suggestions concernant ce que devrait être le plan d’action américain en matière d’intelligence artificielle. Bienvenue dans cette analyse approfondie où nous examinerons les dimensions politiques de l’IA, un domaine relativement peu exploré au cours de l’année écoulée, probablement éclipsé par le cycle électoral américain.

Alors que l’IA continue de gagner en importance, nous devons considérer non seulement ses dimensions géopolitiques, mais aussi comment les politiques et réglementations vont interagir avec l’industrie et façonner l’ensemble des options disponibles concernant ces outils et notre approche à leur égard.

Le contexte politique actuel de l’IA aux États-Unis

L’une des premières actions de la nouvelle administration Trump a été d’annuler la politique d’IA mise en place par Biden. Quelques jours après son investiture, le président Trump a signé son propre décret exécutif sur l’IA, abrogeant celui qui avait été signé par le président Biden. Comme c’est souvent le cas avec ces décrets, il était rempli de rhétorique mais dépourvu de politique concrète, laissant un vide à combler.

Fin février, l’administration a ouvert une période de commentaires de deux semaines pour recueillir des contributions à ce qu’ils appellent le « plan d’action pour l’IA ». Tout au long de cette semaine, les grands laboratoires américains d’IA ont donné leur avis sur les politiques qui devraient être mises en place.

La vision d’OpenAI : l’âge de l’intelligence et la liberté d’innover

Jeudi, OpenAI a publié sa proposition, donnant le ton. S’inspirant des écrits antérieurs de Sam Altman, ils déclarent : « Nous sommes au seuil du prochain bond vers la prospérité, l’âge de l’intelligence, mais nous devons garantir que les gens disposent de la liberté d’intelligence, c’est-à-dire la liberté d’accéder à l’IA et d’en bénéficier à mesure qu’elle progresse, protégés à la fois des pouvoirs autocratiques qui priveraient les gens de leurs libertés et des couches de lois et de bureaucratie qui nous empêcheraient de les réaliser. »

Tout au long du document, les recommandations politiques d’OpenAI abordent cinq grands thèmes :

1. Stratégie réglementaire et liberté d’innovation

Ils ont demandé une « stratégie réglementaire qui garantit la liberté d’innover ». Il s’agit principalement de s’assurer que le partenariat avec le gouvernement fédéral reste volontaire. OpenAI a répété son argument souvent avancé selon lequel les laboratoires d’IA américains devraient être libérés des « lois étatiques trop contraignantes ». En substance, OpenAI affirme que nous avons besoin d’une législation fédérale qui prime sur les lois des États, car les entreprises seraient considérablement ralenties si elles devaient faire face à 50 juridictions réglementaires différentes.

2. Contrôles à l’exportation et adoption mondiale

Concernant les contrôles à l’exportation, OpenAI souhaite se concentrer sur la disponibilité mondiale de l’IA américaine. Ils ont suggéré une « stratégie qui appliquerait une perspective de croissance commerciale (marchés adressables totaux et exploitables) pour promouvoir de manière proactive l’adoption mondiale des systèmes d’IA américains et, avec eux, les libertés qu’ils créent ».

Dans une lettre plus longue publiée simultanément, l’entreprise a également demandé deux modifications à la règle de diffusion de Biden qui divisait les pays en trois niveaux et imposait des limites aux pays de niveau intermédiaire, notamment l’Inde et Israël. Ils souhaitent que ces limites soient réduites pour ne couvrir que les pays ayant un historique d’échec dans la prévention de l’entrée de puces contrôlées en Chine.

3. Position ferme contre l’IA chinoise

La Chine est en effet un domaine d’intérêt majeur pour OpenAI. Ils incluent une proposition visant à interdire l’IA chinoise et à forcer les alliés proches à suivre cette voie, utilisant DeepSeek comme exemple principal. Ils ont écrit : « Comme avec Huawei, il existe un risque significatif à construire sur les modèles DeepSeek dans les infrastructures critiques et d’autres cas d’utilisation à haut risque, étant donné la possibilité que DeepSeek puisse être contraint par le PCC de manipuler ses modèles pour causer des dommages. Et parce que DeepSeek est simultanément subventionné par l’État, contrôlé par l’État et librement disponible, le coût pour ses utilisateurs est leur vie privée et leur sécurité. »

L’une des lignes les plus percutantes de leur rapport : « Le PCC considère les violations des droits de propriété intellectuelle américains comme une caractéristique, pas comme un défaut. »

Il y a, d’un côté, l’apparence d’une tension notable ici : OpenAI souhaite une réduction des contrôles à l’exportation pour permettre le déploiement mondial de l’IA américaine, mais propose en même temps d’imposer une interdiction de l’IA chinoise si les pays veulent maintenir leur statut de premier niveau. Je pense que c’est moins incohérent qu’il n’y paraît. Cela revient essentiellement à se concentrer beaucoup plus strictement sur la Chine comme pays problématique dans l’équation, et à mettre davantage l’accent sur la compétitivité américaine et sur l’accès des gens à des modèles non chinois comme force concurrentielle.

4. Exception au droit d’auteur pour l’entraînement de l’IA

L’une des suggestions les plus controversées d’OpenAI était une dérogation aux lois sur le droit d’auteur pour permettre l’entraînement de l’IA. OpenAI a tenté de présenter cela comme une approche équilibrée qui protège toujours les créateurs de contenu, mais a affirmé que « le gouvernement fédéral peut à la fois garantir la liberté d’apprentissage de l’Amérique grâce à l’IA et éviter de perdre notre avance en IA au profit de la République populaire de Chine en préservant la capacité des modèles d’IA américains à apprendre à partir de matériel protégé par le droit d’auteur ».

Ils ont commenté que si les développeurs chinois ont un accès sans entrave aux données et que les entreprises américaines sont laissées sans accès à l’usage équitable, « la course à l’IA est effectivement terminée ».

OpenAI a donné l’exemple du modèle de l’UE où l’exploration de données est autorisée, mais il existe de larges possibilités d’opt-out pour les titulaires de droits. Ils ont noté que le Royaume-Uni penche également dans cette direction avec des révisions de leur loi sur le droit d’auteur actuellement en débat.

L’un des grands points de discussion sur Twitter suite à cela était que les gens soulignaient qu’OpenAI avait invoqué des préoccupations de sécurité nationale pour justifier une exception au droit d’auteur. Mais que vous pensiez que cela justifie ou non une exception au droit d’auteur, sur quoi des personnes raisonnables peuvent être en désaccord, je pense que nous devons supposer que la Chine se souciera à 100% du droit d’auteur lorsqu’il s’agira de permettre à ses entreprises d’entraîner des modèles sur des matériaux protégés. Donc, si nous décidons d’y accorder de l’importance, si nous décidons que les droits des titulaires de droits d’auteur sont suffisamment importants pour arrêter l’entraînement sur leurs matériaux, c’est effectivement accepter que c’est un avantage que les États-Unis vont laisser à la Chine. Encore une fois, je ne porte pas de jugement dans un sens ou dans l’autre, je dis simplement que cela fait implicitement partie de cette conversation.

5. Investissements dans l’infrastructure et adoption gouvernementale

En matière d’infrastructure, OpenAI a proposé un large éventail d’investissements gouvernementaux, notamment l’ouverture des ensembles de données gouvernementales et une gamme d’autres mesures, grandes et petites. Leur plus grande demande était un développement massif de l’infrastructure de transmission d’énergie qui égale en envergure la construction des autoroutes nationales des années 1950.

Enfin, OpenAI a suggéré une forte impulsion pour stimuler l’adoption de l’IA au sein des départements gouvernementaux. Ils ont inclus une série de changements politiques qui faciliteraient le processus, mais l’essentiel était d’encourager les partenariats public-privé pour mettre à jour l’infrastructure technologique du gouvernement.

Leur vision globale de la stratégie était que « les États-Unis doivent poursuivre une politique économique internationale active pour défendre les valeurs américaines et soutenir l’innovation en IA à l’échelle internationale ». Ils ont déclaré que « pendant trop longtemps, l’élaboration des politiques en matière d’IA a accordé une attention disproportionnée aux risques, ignorant souvent les coûts qu’une réglementation mal orientée peut avoir sur l’innovation, la compétitivité nationale et le leadership scientifique, une dynamique qui commence à changer sous la nouvelle administration ».

La perspective de Google : équilibre entre accès au marché et sécurité

Google a demandé une exemption similaire d’usage équitable concernant la violation du droit d’auteur dans les données d’entraînement. Ils n’ont pas été jusqu’à qualifier l’application du droit d’auteur de risque pour la sécurité nationale, mais ont affirmé que l’usage équitable pourrait être autorisé « sans impact significatif sur les titulaires de droits ». Leur argument était largement commercial, soulignant que les négociations avec les détenteurs de droits sur les données sont longues et très imprévisibles.

L’entreprise a également appelé à un retour en arrière sur les contrôles à l’exportation de l’ère Biden, demandant que le remplacement soit « soigneusement élaboré pour soutenir un accès légitime au marché pour les entreprises américaines tout en ciblant les risques les plus pertinents ». Là encore, ils ont souligné que l’imposition de charges supplémentaires aux entreprises risque de les désavantager sur le marché mondial.

Étaient également présents des encouragements à l’adoption de l’IA par les agences gouvernementales, ainsi que des lois fédérales uniformes et des dépenses gouvernementales en infrastructure.

De manière intéressante, Google semblait contester la volonté de l’administration Trump de réduire le budget pour la R&D fondamentale. Ils ont affirmé que « l’investissement soutenu à long terme dans la recherche en IA » avait donné aux États-Unis un « avantage crucial dans la course au leadership mondial en IA ». Google a plutôt appelé le gouvernement à renforcer considérablement ces efforts.

Position sur la sécurité et la responsabilité

En matière de sécurité, Google semblait appeler à un bouclier de responsabilité similaire à celui accordé aux entreprises Internet dans les années 90. Ils ont appelé à une délimitation claire entre les responsabilités des fournisseurs de modèles et des utilisateurs, notant que « l’acteur ayant le plus de contrôle sur une étape spécifique du cycle de vie de l’IA devrait assumer la responsabilité et toute responsabilité associée pour cette étape ». Dans de nombreux cas, « le développeur original d’un modèle d’IA a peu ou pas de visibilité ou de contrôle sur la façon dont il est utilisé par un déployeur et peut ne pas interagir avec les utilisateurs finaux ».

Google a également critiqué les exigences de divulgation de sécurité dans l’UE comme étant trop larges. Ils se sont opposés à toutes les règles de transparence qui exigeraient « la divulgation de secrets commerciaux, permettant aux concurrents de dupliquer des produits ou compromettant la sécurité nationale en fournissant une feuille de route aux adversaires sur la façon de contourner les protections ou de pirater les modèles ».

La vision d’Anthropic : préparer l’avènement de l’AGI et renforcer la sécurité nationale

La proposition d’Anthropic présentait un ensemble de priorités très différent, comme il convient à une entreprise axée sur la sécurité. Leur prémisse centrale, que le PDG Dario Amodei a récemment défendue dans des interviews, est que l’AGI (Intelligence Artificielle Générale) arrive et que le gouvernement n’a que quelques années pour s’y préparer.

1. Tests de sécurité nationale pour les capacités des modèles

Leur recommandation numéro un était d’établir des tests de sécurité nationale pour les capacités des modèles. Anthropic a proposé des tests des modèles tant nationaux qu’étrangers pour leurs implications en matière de sécurité nationale.

2. Renforcement des contrôles à l’exportation

Leur proposition sur les contrôles à l’exportation était de les renforcer considérablement. En plus des contrôles sur les puces, ils ont appelé à exiger des accords de gouvernement à gouvernement pour les pays hébergeant de grands déploiements de puces et à réduire les seuils ne nécessitant pas de licence.

3. Intégration des laboratoires d’IA dans la structure du renseignement

Anthropic a également suggéré d’intégrer les laboratoires d’IA dans la structure du renseignement. Ils ont appelé à des canaux de communication classifiés avec les agences de renseignement, à l’accélération de l’habilitation de sécurité pour les professionnels de l’IA et au « développement de normes de sécurité de nouvelle génération pour l’infrastructure d’IA ».

4. Infrastructure énergétique et adoption gouvernementale

Rejoignant les autres laboratoires, Anthropic a appelé à l’expansion de l’infrastructure énergétique et à l’accélération de l’adoption de l’IA par le gouvernement.

5. Préparation aux impacts économiques de l’IA

Leur recommandation finale s’appuyait sur les discussions récentes d’Amodei suggérant que le gouvernement doit commencer à se préparer à l’impact économique de l’IA. Ils écrivent : « Pour garantir que les bénéfices de l’IA soient largement partagés dans toute la société, nous recommandons de moderniser les mécanismes de collecte de données économiques, comme les enquêtes du Bureau du recensement, et de se préparer à d’éventuels changements à grande échelle de l’économie. »

Si vous avez prêté attention à ce qu’Amodei a dit récemment, vous comprendrez exactement d’où vient cet ensemble de priorités. Dario a noté que la Chine est connue pour « l’espionnage industriel à grande échelle ». Il a commenté qu’Anthropic et toutes les entreprises d’IA sont « presque certainement ciblées », ajoutant : « Beaucoup de ces secrets algorithmiques, et il y a des secrets d’une valeur de 100 millions de dollars qui ne sont que quelques lignes de code, et je suis sûr qu’il y a des gens qui essaient de les voler et ils peuvent réussir. »

Ce n’est pas de la paranoïa sans fondement, car de nombreux responsables gouvernementaux ont mis en garde contre une forte augmentation des espions étrangers essayant d’infiltrer les entreprises technologiques au cours de l’année écoulée. Certains ont même fait remarquer que pendant l’ère de la science nucléaire, tout le domaine était classifié, mais à l’ère de l’IA, les méthodes de construction de technologies avancées sont ouvertement discutées lors de soirées dans la Silicon Valley.

Bilan et implications

Quel est donc le bilan de tout cela ? Voici quelques points qui se démarquent :

La tonalité générale des soumissions est très accélérationniste. Même la proposition plus alarmiste d’Anthropic ne demande pas que le progrès de l’IA soit ralenti. Au lieu de cela, elle demande essentiellement un engagement égal pour accélérer certains aspects de sécurité en même temps. Et il est très clair que toute l’industrie américaine veut aller plus vite pour battre la Chine dans le développement d’une IA puissante.

En termes d’approches, il y a un mélange de déréglementation, de mesures pro-business et de subventions gouvernementales proposées, mais le plus grand point de consensus est que tout le monde veut que les restrictions soient levées et qu’une structure politique bien définie permette aux laboratoires d’accélérer.

Si vous avez suivi les changements d’attitude, rien de tout cela n’est particulièrement surprenant. Il est juste très notable à quel point le ton a changé par rapport à il y a un an, et surtout deux ans. Il n’y avait pratiquement aucune concession ici aux préoccupations générales de sécurité, et dans la mesure où il y avait des propositions de sécurité, elles étaient clairement définies et accompagnées de recommandations spécifiques pour les atténuer.

En résumé : si vous pensez que les choses vont vite maintenant, vous n’avez encore rien vu.

Bien sûr, ce que l’administration Trump fera de tout cela reste à voir, mais nous couvrirons certainement cela au fur et à mesure que cela se produira.

Conclusion

Les propositions d’OpenAI, Google et Anthropic reflètent leurs priorités et visions respectives pour l’avenir de l’IA aux États-Unis. Alors que l’administration Trump élabore son plan d’action pour l’IA, ces recommandations joueront probablement un rôle important dans la définition de la politique américaine en matière d’IA pour les années à venir. La course mondiale à l’IA s’intensifie, et les enjeux n’ont jamais été aussi élevés.

Featured image by Steven Abraham on Unsplash