Nos vies valent plus que leurs profits

De quoi parle-t-on ?

Le terme est né dans les années 1950, lorsque le mathématicien Alan Turing examina l’idée de machines intelligentes, c’est-à-dire, en gros, capables de réaliser par le calcul des tâches que nous, humains, faisons avec notre… intelligence.

Dès le début, plusieurs axes de recherche ont coexisté, dont l’IA « apprenante », la plus utilisée aujourd’hui. Celle-ci repose sur des réseaux de neurones artificiels, version très simplifiée des neurones biologiques. Ces « neurones » se transmettent des signaux plus ou moins forts, qui débouchent sur le résultat attendu. Une phase d’entraînement sur des données est nécessaire pour ajuster la force des signaux échangés, un peu comme sur une table de mixage avec divers boutons pour régler le son : c’est l’apprentissage machine (machine learning). Par exemple, si l’on donne une image de chien et que le programme dit « chat », chaque bouton est ajusté pour aboutir plutôt à « chien ». En s’y prenant bien, les réglages finiront par donner immédiatement le bon résultat pour des images que le programme n’a jamais vues. Dans les IA modernes, il y a des millions de neurones, donc des millions de boutons, et il faut des millions d’images pour les ajuster correctement.

Si les premiers algorithmes de ce type datent des années 1970, des techniques ont émergé depuis, comme l’apprentissage profond (deep learning), qui s’est imposé dans les années 2010 grâce à l’explosion des moyens de calcul informatique et l’exploitation d’immenses bases de données.

Un « chatbot », comme ChatGPT ou DeepSeek, fonctionne sur ce principe. Son objectif est d’écrire une réponse correcte à la fois dans sa syntaxe et (idéalement) sa signification à partir d’une question posée. Pour cela, l’IA essaie de deviner la réponse un mot après l’autre en choisissant à chaque fois parmi les plus probables, au vu des textes sur lesquels elle a été entraînée, sans toutefois avoir la capacité de distinguer le faux du vrai.

Comme les textes sur lesquels le chatbot est entraîné sont produits par des humains, avec tous leurs biais et approximations, les programmeurs doivent introduire certains correctifs à la main. Ainsi, l’IA Grok, produite sous l’égide d’Elon Musk, ne dira pas toujours la même chose qu’une IA soucieuse des intérêts des travailleurs. On est loin de la « neutralité mathématique », même si Grok a parfois contredit spectaculairement son maître, tellement ce qu’il disait était gros !

Marc Laverne

 

 


 

 

Intelligence artificielle, capitalisme bien réel — Sommaire du dossier