Les systèmes d’IA générative ne sont pas seulement des sources ouvertes ou fermées

Récemment, une fuite document, prétendument de Google, affirmait que l’IA open source surpasserait Google et OpenAI. La fuite a mis en évidence les conversations en cours dans la communauté de l’IA sur la manière dont un système d’IA et ses nombreux composants devraient être partagés avec les chercheurs et le public. Même avec la multitude de versions récentes du système d’IA générative, ce problème reste non résolu.

Beaucoup de gens pensent qu’il s’agit d’une question binaire : les systèmes peuvent être soit open source, soit fermés. Le développement ouvert décentralise le pouvoir afin que de nombreuses personnes puissent travailler collectivement sur les systèmes d’IA pour s’assurer qu’ils reflètent leurs besoins et leurs valeurs, comme on l’a vu avec BLOOM de BigScience. Alors que l’ouverture permet à davantage de personnes de contribuer à la recherche et au développement de l’IA, le potentiel de préjudice et d’utilisation abusive, en particulier de la part d’acteurs malveillants, augmente avec un accès plus large. Les systèmes à source fermée, comme la version originale de LaMDA de Google, sont protégés des acteurs extérieurs à l’organisation des développeurs, mais ne peuvent pas être audités ou évalués par des chercheurs externes.

J’ai dirigé et recherché des versions de systèmes d’IA génératives, y compris le GPT-2 d’OpenAI, depuis que ces systèmes ont commencé à être disponibles pour une utilisation généralisée, et je me concentre maintenant sur les considérations d’ouverture éthique chez Hugging Face. En faisant ce travail, j’en suis venu à penser à l’open source et à la source fermée comme les deux extrémités d’un gradient d’options pour la publication de systèmes d’IA générative, plutôt qu’une simple question soit/ou.

Illustration : Irène Solaiman

À une extrémité du gradient se trouvent des systèmes tellement fermés qu’ils ne sont pas connus du public. Il est difficile d’en citer des exemples concrets, pour des raisons évidentes. Mais juste un pas en avant sur le gradient, les systèmes fermés annoncés publiquement deviennent de plus en plus courants pour les nouvelles modalités, telles que la génération vidéo. Étant donné que la génération vidéo est un développement relativement récent, il existe moins de recherches et d’informations sur les risques qu’elle présente et sur la meilleure façon de les atténuer. Lorsque Meta a annoncé son modèle Make-a-Video en septembre 2022, il a cité des préoccupations telles que la facilité avec laquelle n’importe qui pourrait créer un contenu réaliste et trompeur comme raisons de ne pas partager le modèle. Au lieu de cela, Meta a déclaré qu’il permettra progressivement l’accès aux chercheurs.

Au milieu du gradient se trouvent les systèmes avec lesquels les utilisateurs occasionnels sont les plus familiers. ChatGPT et Midjourney, par exemple, sont des systèmes hébergés accessibles au public où l’organisation de développeurs, respectivement OpenAI et Midjourney, partage le modèle via une plate-forme afin que le public puisse demander et générer des sorties. Avec leur large portée et une interface sans code, ces systèmes se sont avérés à la fois utiles et risqués. Bien qu’ils puissent permettre plus de rétroaction qu’un système fermé, parce que des personnes extérieures à l’organisation hôte peuvent interagir avec le modèle, ces personnes extérieures disposent d’informations limitées et ne peuvent pas effectuer de recherches approfondies sur le système, par exemple en évaluant les données de formation ou le modèle lui-même.

À l’autre extrémité du gradient, un système est entièrement ouvert lorsque tous les composants, des données d’entraînement au code en passant par le modèle lui-même, sont entièrement ouverts et accessibles à tous. L’IA générative s’appuie sur la recherche ouverte et les leçons des premiers systèmes comme le BERT de Google, qui était entièrement ouvert. Aujourd’hui, les systèmes entièrement ouverts les plus utilisés sont mis au point par des organisations axées sur la démocratisation et la transparence. Les initiatives hébergées par Hugging Face (à laquelle je contribue) – comme BigScience et BigCode, co-dirigées avec ServiceNow – et par des collectifs décentralisés comme EleutherAI sont désormais des études de cas populaires pour la construction de systèmes ouverts pour inclure de nombreuses langues et peuples dans le monde.

Il n’existe pas de méthode de libération définitivement sûre ni d’ensemble normalisé de normes de libération. Il n’existe pas non plus d’organisme établi pour établir des normes. Les premiers systèmes d’IA générative comme ELMo et BERT étaient largement ouverts jusqu’à la sortie par étapes de GPT-2 en 2019, ce qui a déclenché de nouvelles discussions sur le déploiement responsable de systèmes de plus en plus puissants, comme ce que devraient être les obligations de publication ou de publication. Depuis lors, les systèmes à travers les modalités, en particulier ceux des grandes organisations, ont évolué vers la fermeture, ce qui soulève des inquiétudes quant à la concentration du pouvoir dans les organisations à ressources élevées capables de développer et de déployer ces systèmes.

François Zipponi
Je suis François Zipponi, éditorialiste pour le site 10-raisons.fr. J'ai commencé ma carrière de journaliste en 2004, et j'ai travaillé pour plusieurs médias français, dont le Monde et Libération. En 2016, j'ai rejoint 10-raisons.fr, un site innovant proposant des articles sous la forme « 10 raisons de... ». En tant qu'éditorialiste, je me suis engagé à fournir un contenu original et pertinent, abordant des sujets variés tels que la politique, l'économie, les sciences, l'histoire, etc. Je m'efforce de toujours traiter les sujets de façon objective et impartiale. Mes articles sont régulièrement partagés sur les réseaux sociaux et j'interviens dans des conférences et des tables rondes autour des thèmes abordés sur 10-raisons.fr.