Face aux mastodontes de l’intelligence artificielle tels qu’OpenAI, Emmanuel Macron, accompagné des entreprises françaises, encourage la création d’IA accessibles et adaptables par le grand public. Cette approche vise à répartir plus équitablement les avantages et les dangers associés à ces avancées technologiques.
La grande annonce lors du Sommet pour l’Action sur l’Intelligence Artificielle (IA) qui s’est tenu à Paris les 10 et 11 février a été l’engagement de 109 milliards d’euros, essentiellement issus du secteur privé, pour soutenir le développement des infrastructures d’IA en France. Emmanuel Macron a révélé ce montant dimanche sur France 2, attirant ainsi l’attention et suscitant des avis divers. Cependant, une autre nouvelle, plus discrète mais tout aussi significative, a émergé : plusieurs nations, associations et leaders du secteur ont présenté « Current AI », un nouvel effort collaboratif visant à récolter 2,5 milliards de dollars pour créer une IA axée sur le bien commun.
Cette initiative s’inscrit dans une stratégie encouragée par la France qui a bousculé les marchés financiers suite à l’émergence de l’IA chinoise DeepSeek : promouvoir les IA open source qui sont libres d’usage et d’adaptation par tout un chacun, sans frais de licence ni obligations de cession de droits.
Bien que ce modèle semble écarter la recherche de profit, il reçoit le soutien de nombreuses entreprises françaises, internationales et d’Emmanuel Macron. Quelle est la raison de cet engouement de la part du président et de l’écosystème français pour ce modèle ? Quels atouts les experts lui trouvent-ils ? Et pourquoi soulève-t-il aussi des préoccupations ? Explorons ces questions.
Diffuser les avantages à un large public
Le domaine de l’IA n’est pas étranger au concept de partage libre du savoir. Prenons l’exemple de Google qui, en 2017, a rendu publique l’architecture IA « Transformer », cela a grandement contribué à la croissance actuelle du secteur. Cette technologie est aussi accessible sur Hugging Face, une plateforme qui regroupe plus d’un million de modules d’IA partagés par leurs créateurs.
Néanmoins, plusieurs acteurs majeurs de l’IA, dont OpenAI, ont progressivement fermé leurs modèles au grand public, avançant que ces technologies devenaient trop puissantes et potentiellement dangereuses. OpenAI avait ainsi justifié la décision de restreindre l’accès à GPT-2 en 2019, prédécesseur de ChatGPT.
Les partisans de l’open source soutiennent que la diffusion libre de ces connaissances est cruciale pour maximiser les bénéfices potentiels de l’IA pour tous. D’après le site du sommet, partager ces ressources peut réduire « la fracture numérique croissante et les inégalités entre ceux qui maîtrisent l’IA et ceux qui la consomment ». Cette approche est également promue dans les domaines de la santé, de l’agriculture, de l’industrie, et d’autres secteurs où l’IA promet des avancées.
Paris encourage depuis longtemps la recherche open source, comme en témoigne l’accès des scientifiques au supercalculateur Jean-Zay. « Nous avons la chance d’une forte tradition du logiciel libre en France, appuyée par l’État », soulignait Pierre-Carl Langlais, co-fondateur de la start-up Pleias, lors d’un entretien avec 42mag.fr avant le sommet. Cette idéologie est aujourd’hui au cœur des relations internationales de la France en IA.
Un levier pour booster la concurrence
Cette stratégie répond également à des considérations économiques. Le projet « Current AI » vise à « diversifier agressivement le marché de l’IA » et à « raviver la concurrence », comme l’expliquait l’Élysée avant le sommet. En rendant les IA plus accessibles et adaptables sans frais, il est possible pour les entreprises de les customiser selon leurs besoins, sans dépendre d’un petit nombre de titans qui domineraient le marché.
« Quand on n’a pas des ressources infinies pour développer un modèle de base, adopter une approche plus ouverte permet de mobiliser une vaste communauté pour contribuer au développement », expliquait Guillaume Avrin, responsable de la stratégie nationale sur l’IA, à 42mag.fr. « L’ouverture est une stratégie efficace pour ceux qui ne sont pas leaders », ajoutait Gaël Varoquaux, chercheur renommé à l’Inria et créateur du logiciel open source « scikit-learn ».
« Quand on n’est pas en tête, il faut s’associer avec ceux qui viennent après pour tenter de rattraper le leader. »
Gaël Varoquaux, directeur de recherche à l’Inriaà 42mag.fr
« Current AI » devrait ainsi soutenir le développement de composants d’IA (architectures, ensembles de données, bibliothèques…) qui seraient ensuite librement accessibles, à l’instar de briques de Lego. En outre, le partenariat doit encourager la recherche, l’évaluation des modèles d’IA, et l’élaboration de bonnes pratiques pour contenir les menaces.
Comme le partenariat vient à peine d’être dévoilé, les projets spécifiques qui en bénéficieront restent imprécis. « Le diable est dans les détails », note Stella Biderman, directrice exécutive d’Eleuther AI, un groupe de recherche à but non lucratif. Cependant, elle se déclare « très enthousiaste » face à l’initiative de la France d’ouvrir les rouages internes des programmes d’IA.
« On ne devrait pas permettre aux entreprises qui tirent profit de ces technologies de monopoliser la recherche associée. »
Stella Biderman, directrice exécutive d’Eleuther AIà 42mag.fr
« Les entreprises prenant le contrôle peuvent dissimuler les informations nuisant à leurs intérêts », affirme-t-elle, en se référant aux précédents dans l’industrie du tabac avec le cancer, ou des énergies fossiles et le changement climatique.
Plus de transparence (jusqu’à une certaine limite)
Quelle est la réaction des acteurs de l’IA ? Plusieurs experts français interrogés par 42mag.fr approuvent cette orientation. « Partager les recherches en IA catalyse son progrès et sa mise en pratique dans les entreprises », affirme Florian Douetteau, PDG de Dataiku, à 42mag.fr. Même Mistral AI, une industrie française de l’IA générative, dévoile le code de ses modèles.
Les défenseurs de l’éthique dans l’IA voient d’un bon œil l’open source. Plus la transparence d’un système est grande, plus il est aisé de détecter ses biais ou risques potentiels. Mais certaines voix mettent en garde contre une pratique d' »open washing » : des dirigeants prétendent que leurs modèles sont « ouverts » sans publier les données qui ont servi à leur développement, ce qui est pourtant crucial pour une véritable définition open source selon l’Open Source Initiative, note The Verge.
Les résultats d’un modèle d’IA peuvent sensiblement varier avec des données d’entraînement différentes même si le code est identique. Les entreprises se gardent souvent de divulguer leur « recette secrète » (une manière d’éviter des litiges pour violation de propriété intellectuelle). Ainsi, de nombreux modèles soi-disant open source ne sont que « open weights » : ils publient leurs « poids », des paramètres internes du système.
La possibilité de détournements malveillants
Certains estiment toutefois que le progrès des logiciels open source doit s’accompagner de règles. « Je soutiens l’open source depuis longtemps, mais l’IA est pour moi une catégorie à part », déclare David Evan Harris, professeur à l’Université de Berkeley et conseiller sur la régulation de l’IA et des réseaux sociaux, à 42mag.fr.
« L’IA n’est pas juste du code : elle combine des milliards de données. Si une partie de ce contenu est illicite, il faut le contrôler. »
David Evan Harris, professeur à l’Université de Berkeleyà 42mag.fr
Il reconnaît les atouts des IA (open source ou non), mais soulève les dangers des IA génératives et de leur capacité à produire « des contenus dangereux tels que la fabrication d’explosifs » ou « des deepfakes pornographiques nuisibles » ciblant surtout les femmes et les minorités. Si ces programmes échappent à tout contrôle, les protections en place pourraient être éliminées, alors qu’un modèle propriétaire en entreprise peut être rectifié si une faille est découverte.
« Beaucoup d’IA open source ne prévoient ni watermark [signature numérique] ni indication d’origine pour identifier le caractère artificiel d’une création et sa provenance », relève David Evan Harris. « Cela implique que ceux qui développent ces systèmes open source peuvent difficilement être tenus responsables de leur utilisation. »
Des risques écologiques… et pour l’humanité ?
Tandis que le partage des avancées open source incite à l’optimisation énergétique, il éveille aussi la crainte d’un essor massif de l’empreinte environnementale de l’IA. En rendant l’IA plus omniprésente, ce modèle pourrait engendrer un « effet rebond », où l’usage accru d’IA consommerait au total plus d’énergie, malgré des gains d’efficacité.
Plus préoccupant encore pour les intervenants anticipant que de futures IA extrêmement puissantes pourraient menacer la société, allant du chômage généralisé à l’extinction humaine, à la développement d’armes mortelles ou à la création d’IA capables d’auto-réplication. « Les décideurs sous-estiment ces dangers, écoutant davantage le lobby des big tech », déplore Maxime Fournes, fondateur de l’association Pause IA. Sa recommandation ? « Instaurer une coopération mondiale avec des normes infranchissables pour écarter les risques majeurs, et sensibiliser », explique-t-il à 42mag.fr, en tant qu’ancien « data scientist ».
L’open source présente-t-elle finalement plus d’enjeux ou d’opportunités ? « Impossible d’émettre un avis définitif », estime Stella Biderman. « Chaque cas doit être évalué individuellement. »