La machine intelligente : Révolution technologique et éthique
Chaque jour apporte son lot d’informations sur l’intelligence artificielle (IA), que ce soit les investissements des géants de l’Internet, de nouvelles offres de services, les dérives réelles ou supposées de cette technologie qui se profile comme un nouveau paradis économique et une révolution sociétale. Certains économistes se demandent même s’il y a une bulle de l’IA, similaire à celle de la bulle Internet à la fin des années 1990. La récente utilisation d’algorithmes de génération intelligente, tels que ChatGPT ou Midjourney, a considérablement changé la perception du grand public sur l’IA. Pourtant, l’idée d’une machine capable d’imiter le cerveau est presque aussi ancienne que l’informatique. Au-delà des rêves et des légitimes préoccupations concernant l’IA, de quoi parle-t-on réellement? Qu’est-ce qui est nouveau dans cette révolution actuelle? Les machines sont-elles devenues plus astucieuses que nous?
Qu’est-ce que l’intelligence artificielle? C’est un domaine scientifique pluridisciplinaire, à la convergence de l’informatique, des mathématiques, de la psychologie cognitive ou encore de la linguistique. Son objectif est de reproduire certaines capacités humaines telles que le raisonnement, la planification ou la résolution de problèmes, en utilisant des algorithmes informatiques. Le terme « intelligence artificielle » a été introduit en 1956, en référence aux travaux du philosophe positiviste français Hippolyte Taine. Dans son ouvrage « De l’intelligence » de 1870, il comparait l’intelligence humaine à une « machine », que les pionniers de l’IA espéraient modéliser et reproduire. Cependant, le terme a toujours été contesté pour sa polysémie et le fantasme de voir émerger une conscience artificielle.
« On ne devrait pas utiliser le terme d’intelligence, car tout a été programmé », souligne Karine Deschinkel, enseignante-chercheuse en informatique à l’université de Franche-Comté. Il s’agit d’un algorithme, presque comme une recette de cuisine, un ensemble de calculs mathématiques permettant d’enseigner à la machine à effectuer des tâches généralement dévolues aux humains. » Certains préfèrent parler d' »informatique avancée », d' »informatique algorithmique », d' »intelligence augmentée » ou d' »intelligence auxiliaire ».
Si l’idée de modéliser l’intelligence humaine de manière informatique est née dans les années 1950, l’optimisme débordant des débuts s’est vite heurté à la puissance et à la mémoire limitée des premiers ordinateurs, ainsi qu’à des différences philosophiques profondes. « Il y a eu de nombreuses surprises et échecs », rappelle Jean-Gabriel Ganascia, informaticien et professeur de philosophie à l’université Paris-Sorbonne.
Les avancées de l’informatique, la popularisation du Web, l’émergence de nouveaux langages de programmation et les progrès des mathématiques formelles ont toutefois permis à la discipline de progresser au fil du temps, jusqu’au grand essor des années 2010. Trois facteurs concomitants expliquent cette évolution: l’avènement des réseaux neuronaux convolutifs (CNN), un type de neurones artificiels excellant dans la détection de motifs récurrents dans les fichiers multimédias (images, musiques, etc.) et permettant d’identifier des similitudes (par exemple, une forme de trompe pour les éléphants) et de les classifier. Il s’agit du développement de l’apprentissage automatique, ou « machine learning ». L’évolution des cartes graphiques, un composant informatique très performant pour l’analyse et la classification des vastes bases de données textuelles et multimédias sur lesquelles l’IA s’entraîne. L’essor de l’IA profite d’ailleurs aux fabricants comme Nvidia, désormais valorisé à 2 000 milliards de dollars en Bourse, faisant de son
Leader et créateur Jensen Huang le récent chef le plus puissant de la technologie.
L’émergence du « gros volume de données », ou données massives : grâce aux bases de données immenses maintenant accessibles en ligne via les moteurs de recherche, les banques de données, les objets connectés ou encore et les plates-formes collaboratives, il est possible d’entraîner les algorithmes de classification sur des échantillons à grande échelle. C’est le deep learning, l’apprentissage à partir de vastes quantités d’exemples, souvent annotés par des individus pour « guider » la machine. Ces trois éléments ont favorisé le développement simultané de nombreuses solutions d’IA, certaines uniquement professionnelles, d’autres destinées au grand public, qui servent d’expositions à la discipline.
ChatGPT, Bard, Midjourney, Stable Diffusion… Les algorithmes qui font les gorges chaudes de la presse et captivent les internautes depuis 2022 ont un point commun : ce sont tous des IA génératives. Ce sous-type permet de produire du contenu original, souvent pour les secteurs de la création (cinéma, jeu vidéo, publicité, etc.) qui souhaitent explorer des concepts rapidement et à moindre coût.
En apparence, leur usage a quelque chose d’ensorcelant, comme une requête adressée au génie de la lampe. « Les individus s’imaginent que la machine invente des choses, mais c’est complètement erroné, démystifie Karine Deschinkel. C’est nous qui l’avons équipée des algorithmes et des méthodes. » Son atout est de pouvoir donner naissance à ce qui n’existe pas mais aurait pu exister. Par exemple, en 2021, sous la supervision d’ingénieurs et de musicologues, un algorithme d’IA nourri des partitions du compositeur a proposé une version complète de la symphonie incomplète de Beethoven, en calculant pour chaque série quelle enchaînement de notes était le plus probable, même si cela n’était pas le plus poétique, eu égard à l’œuvre déjà existante de l’artiste.
L’offre dans ce domaine a explosé depuis la fin de l’année 2022. Il ne s’agit pas d’une révolution technologique en soi, car ce type d’IA existe depuis une décennie dans les laboratoires des géants de la technologie, mais ces derniers ont préféré garder leurs recherches confidentielles, le temps de perfectionner ces outils. Ce n’est pas le cas des jeunes entreprises comme OpenAI. Grâce à elles, une révolution d’usage s’est produite : depuis que ces IA sont accessibles au grand public, n’importe quel internaute peut générer grâce à un programme informatique des poèmes, des chansons de rap, des affiches de film, etc., issus d’une imagination algorithmique.
Dans le domaine médical, des IA spécialisées dans l’analyse et l’interprétation des radiographies aident désormais les urgentistes à repérer certaines fractures qui auraient pu passer inaperçues, que ce soit en raison de la fatigue du praticien ou de leur subtilité. « C’est une sorte de signal, d’alerte, remarque Laure Abensur Vuillaume, spécialiste en médecine d’urgence au CHR Metz-Thionville. L’IA n’est pas meilleure que le médecin mais le duo IA-médecin est plus performant que le médecin seul. » L’IA peut également être « incorporée » : voitures autonomes, thermostats intelligents, objets connectés, robots industriels, etc. L’IA est-elle véritablement intelligente ? C’est le grand fantasme que véhicule son appellation, mais jusqu’à présent, pas vraiment.
L’IA est en mesure d’imiter plusieurs aspects fonctionnels de l’intelligence humaine (perception de l’environnement, mémorisation, langage, motricité, calcul, résolution de problèmes…), mais en se limitant essentiellement à une seule tâche à la fois. Elle ne peut pas ressentir d’émotions, éprouver de la curiosité, sortir du cadre pour lequel elle a été créée, ni avoir forme de conscience de soi. On peut distinguer trois grands niveaux théoriques d’IA : la superintelligence, qui surpasserait les capacités cognitives humaines, menant à la singularité technologique, soit un changement imprévisible du cours des évènements ; l’intelligence artificielle forte, capable de dépasser les humains dans toutes les activités intellectuelles, qui n’existe pas encore ; et l’IA faible, apte à résoudre des tâches spécifiques, comme les agents conversationnels ou les systèmes de recommandation.
En résumé, l’intelligence artificielle est un domaine en évolution constante, avec de multiples applications et des enjeux éthiques importants. Il est crucial de comprendre les rouages de cette technologie pour en évaluer les impacts sur notre quotidien et participer aux débats sur son utilisation et sa réglementation.
Source : www.lemonde.fr