Publié le 14 septembre 2023
Par Pierre Bourgeois, professeur de mathématiques
Les nouvelles possibilités qu’offre l’intelligence artificielle dite « générative » remettent profondément en question notre conception traditionnelle de la créativité et de l’originalité. Si une machine peut générer du contenu artistique ou littéraire de manière autonome, comme c’est déjà le cas actuellement, des interrogations sur le rôle de l’homme en tant que créateur et sur la nature même de la créativité apparaissent.
Tout au long de l’année, nous vous proposons une série d’articles sur l’IA générative, son impact dans nos vies et dans les métiers de l’éducation.
Quels changements dans nos vies ?
Une révolution ?
Les avancées actuelles de l’intelligence artificielle générative (IA) font penser à d’autres moments clés de l’histoire où l’humanité a connu des changements profonds. Peut-être vivons-nous un tel moment, une véritable révolution qui transforme de manière significative de nombreux domaines tels que la création artistique, la recherche scientifique, la conception de produits et plus généralement la façon d’utiliser l’ensemble des connaissances humaines accumulées au cours des siècles. L’arrivée d’internet a envoyé au pilon dictionnaires et encyclopédies, seuls outils de référence au siècle dernier pour obtenir des informations et des connaissances fiables. Google, les moteurs de recherche et Wikipédia ont balayé tout cela.
Le monde du travail va-t-il subir un changement de la même ampleur que celui vécu lors de la révolution industrielle, quand le passage de l’artisanat à la production à grande échelle a radicalement transformé la société ? Sans disparaître, des dizaines de métiers seront affectés. Pour les rédacteurs, journalistes, traducteurs, graphistes, designers, professionnels du droit et de la finance, l’automatisation des tâches répétitives et laborieuses et l’assistance apportée par les machines aux processus de production et de création vont modifier les compétences requises et la nature de leur travail. Leur nombre diminuera drastiquement. En 2000, 600 traders travaillaient au siège de la banque d’affaires de New York Goldman Sachs, ils ne sont plus que deux en 2023.
Va-t-on vers des mutations encore plus profondes, comparables à celles de la Renaissance puis des Lumières qui ont remis en question les croyances établies et ont ouvert de nouvelles voies de compréhension du monde ? Avec l’IA, notre rapport à la vérité évolue : peut-on croire ce que l’on lit, ce que l’on voit, ce que l’on entend ?
Que sait faire l’IA générative ?
Aujourd’hui, l’IA générative est capable de produire des textes, des images, de la musique, des vidéos et d’autres formes de contenus dont le niveau de qualité et de réalisme les rend indiscernables des productions humaines. Grâce à l’apprentissage profond (le fameux « deep learning »), les modèles d’IA générative peuvent imiter le style, la structure et même l’esthétique humaine dans des processus de création qui nécessitent l’utilisation d’immenses quantités de données.
Tous les formats de productions sont concernés. L’IA sait générer du texte : des modèles, dont le plus célèbre est le médiatique « ChatGPT » de la firme OpenAI, sont capables de produire des articles de presse, des résumés, des histoires fictives, voire des poèmes. À partir de descriptions textuelles, l’IA peut aussi créer une image qui peut paraître authentique mais qui n’existe pas réellement. L’IA compose aussi des mélodies, des harmonies et des rythmes originaux, dans un style particulier ou à partir d’un thème donné. Une IA générative peut même composer une chanson qui imite à la perfection le style d’un chanteur, à tel point qu’en avril dernier, le groupe Universal a demandé à la plateforme de musique en ligne Spotify de retirer des dizaines de milliers de morceaux générés par des IA qui utilisent les voix de leurs artistes.
Comme pour les images, des modèles d’IA peuvent prendre une description textuelle d’une scène ou d’une action et générer une séquence vidéo correspondante, même si cela requiert des ordinateurs très puissants et des quantités énormes de données. En fournissant une description comme « un chat jouant avec une balle dans un jardin ensoleillé » le programme d’IA génère une séquence vidéo réaliste respectant la demande.
Comment en est-on arrivé là ?
L’histoire des sciences montre que, très souvent, des raisonnements abstraits et des concepts théoriques précèdent les découvertes techniques. Voici deux exemples fascinants qui ont joué un rôle dans l’invention de l’informatique d’abord, puis dans l’apparition de l’intelligence artificielle.
Leibniz et le code binaire
Dans son livre Explication de l’arithmétique binaire (1703), le mathématicien Gottfried Wilhelm Leibniz expose en détail ses idées sur l’utilisation du système binaire pour les calculs mathématiques. Il simplifie, se débarrasse des encombrants chiffres 2, 3, 4, 5, 6, 7, 8 et 9 que nous utilisons tous les jours, pour ne garder que le 0 et le 1. Leibniz présente sa vision théorique d’une machine à calculer binaire, qu’il = essaiera même de construire en utilisant des sphères de métal qui peuvent occuper 2 positions, « haute » pour représenter le 1 et « basse » pour le 0. Il n’y parviendra pas. Il faudra attendre 240 ans pour que le premier ordinateur programmable voie le jour. Ne reprochons pas trop à Leibniz son échec. À son époque, l’électricité, base de l’électronique actuelle, n’était encore qu’un phénomène mystérieux ; Benjamin Franklin, qui allait domestiquer la foudre, n’est né qu’en 1706.
En 1943, avec l’invention de l’ordinateur, Leibniz aurait pu voir les conséquences extraordinaires de ses idées sur le système binaire, et serait fasciné par la numérisation actuelle de nos sociétés où tout, textes, images, vidéos, est codé sous la forme d’une suite de 1 et de 0. « Bonjour », c’est « 01000010 01101111 01101110 01101010 01101111 01110101 01110010 » dans la mémoire des ordinateurs. Un peu long pour nous, mais tellement pratique à utiliser pour nos programmes informatiques. On peut y appliquer des calculs mathématiques, on peut les transmettre d’un clic à l’autre bout du monde sans la moindre erreur.
Réseaux neuronaux
En 1943, Warren McCulloch, neurologue et psychiatre américain, et Walter Pitts, brillant étudiant en mathématiques, collaborent et proposent de modéliser le fonctionnement d’un neurone biologique. Ils créent le modèle « McCulloch-Pitts », une abstraction mathématique qui imite un vrai neurone. C’est un neurone abstrait hyper simplifié, pour des raisons de calculabilité, et ça marche : en connectant plusieurs de ces neurones artificiels, on peut réaliser n’importe quel calcul logique ou arithmétique. En 1957, Frank Rosenblatt invente le « Perceptron », premier neurone artificiel ayant des capacités d’apprentissage. Plus tard, dans les années 1980, Geoffrey Hinton, chercheur canadien, met au point son algorithme de « rétropropagation de l’erreur » : désormais les réseaux de neurones peuvent s’améliorer automatiquement et apprendre. Les bases théoriques de l’apprentissage automatique sont posées.
Tout est allé très vite. Trente ans plus tard, les applications pratiques des concepts théoriques de l’apprentissage automatique peuvent être utilisées par quiconque possède un ordinateur et une liaison internet. Geoffrey Hinton, qui a aujourd’hui 76 ans, peut écrire, si ce n’est déjà fait, ses mémoires en utilisant ChatGPT-4.
Que sait faire la machine ?
La question de la collaboration entre l’homme et la machine a suscité de nombreuses réflexions et interrogations. La réalité rattrape-t-elle la science-fiction ? Les futurologues trop sages vont-ils voir leurs prédictions dépassées en quelques années ?
Son inconcevable puissance
Il est difficile de réaliser à quel point les ordinateurs actuels peuvent atteindre des vitesses de calcul stupéfiantes. Imaginons un compteur aussi lent par rapport à nous que nous le sommes, pauvres humains, par rapport à un ordinateur. Si ce compteur hyper lent dit « un » aujourd’hui, il dira « deux » dans cent mille ans et « trois » dans deux cent mille ans…
Difficile aussi de se rendre compte des immenses capacités dans les traitements de données (les fameux « data ») : ChatGPT-2 a été entraîné sur un ensemble massif de données contenant des centaines de giga-octets de texte seulement. La taille exacte de l’ensemble de données n’a d’ailleurs pas été divulguée publiquement par OpenAI. Pour comparer, en septembre 2021, la version anglaise de Wikipedia occupait environ 21 giga-octets de données – images et vidéos comprises – compressées. Une IA générative est entrainée et apprend à partir de volumes énormes, et la course au gigantisme n’est pas finie. Le plus gros ordinateur actuel, le supercalculateur « Frontier », conçu par Hewlett Packard, vient d’être vendu à une entreprise qui compte le louer aux firmes qui créent des IA génératives.
Ses talents d’imitation
En 1950, Alan Turing, mathématicien, logicien et cryptographe britannique dont les travaux pionniers ont jeté les bases de l’informatique moderne (Turing est connu aussi pour son rôle crucial dans le décodage des codes allemands pendant la Seconde Guerre mondiale) a proposé un test pour évaluer la capacité d’une machine à produire un comportement intelligent indiscernable de celui d’un être humain. Un humain interrogateur engage une conversation écrite avec deux participants, dissimulés à sa vue ; l’un est un être humain, l’autre est une machine ou un programme d’intelligence artificielle. Si la machine parvient à tromper l’interrogateur en se faisant passer, dans un pourcentage significatif des interactions, pour un être humain, alors elle réussit le test de Turing.
Ce test, qui a marqué les débats sur la question « Une machine peut-elle penser ? » est aujourd’hui bien dépassé : en 2014 une machine appelée « Eugene Goostman » a réussi à convaincre plus de 30 % des juges qu’elle était un être humain. Pourtant, même si « Eugene » est parvenu à tromper son monde, on ne peut pas dire que cette machine pense. Elle imite seulement le comportement intelligent d’un être humain de manière extrêmement convaincante et efficace.
La machine ne pense pas, elle imite le fonctionnement du cerveau humain. Chaque époque a comparé le cerveau humain à l’objet technologique le plus avancé : une horloge complexe avec ses mécanismes d’engrenages, plus tard une machine à vapeur, avec ses leviers et ses processus mécaniques, dans l’Antiquité un système hydraulique. Comparer le cerveau à un ordinateur n’est qu’une étapde plus. Les transhumanistes, partisans de la « singularité technologique », qui croient que dans un futur proche l’intelligence artificielle deviendrait si avancée qu’elle atteindrait et dépasserait la conscience humaine vont peut-être devoir attendre encore un peu.