Il est très peu probable que vous n’ayez pas entendu parler de l’Intelligence Artificielle ChatGPT mise au point par OpenAI, entreprise américaine à but lucratif plafonné. Et pour cause, l’outil de dialogue lancé en novembre 2022 est arrivé assez brusquement, bouleversant les écosystèmes universitaires et économiques et laissant doutes et inquiétudes mais aussi extase et émerveillement sur son passage aussi bien dans la presse qu’au sein des entreprises et des milieux pédagogiques. Alors que faut-il penser de cet outil ? Est-ce vraiment une révolution ? Faut-il s’inquiéter ou bien s’en réjouir ? Quelle voie ouvre-t-il ? Et quels seront les potentiels impacts sur nos métiers ?
Chat GPT : Comprendre la technologie qui révolutionne le traitement de langage naturel
ChatGPT « GPT » acronyme signifiant « Generative Pre-trained Transformer » (« Transformateur génératif pré-entraîné ») est un prototype d’agent conversationnel utilisant l’intelligence artificielle, ou plutôt l’intelligence augmentée spécialisé dans le dialogue. L’agent conversationnel est ainsi un modèle de langage disponible en plusieurs langues affiné par apprentissage supervisé et par apprentissage par renforcement. Qu’est-ce que cela veut dire ? Cela signifie premièrement que l’IA sait classer ses données par étiquettes et que celle-ci se nourrit d’elle-même en améliorant son expérience utilisateur à chaque requête de l’user qui doit au préalable s’inscrire sur la plateforme. C’est le principe du machine Learning uniquement présent dans le prompt de l’outil, c’est-à-dire dans ce qu’on peut appeler la force de proposition de variables.
L’outil est également une boîte de mémoire à aspect humain qui se souvient des « discussions passées » avec l’utilisateur. La conséquence de ce fonctionnement technique pour l’utilisateur est la quasi-instantanéité de la réponse via des requêtes et réponses cibles et la promesse de fiabilité croissante de l’outil. En effet, cela entraînera ce qu’on appelle des effets de réseaux de données. Plus le nombre d’utilisateurs augmentera et plus cela incitera les utilisateurs à utiliser l’outil. L’exemple qu’on donne souvent pour représenter cette idée est l’écoute d’un album de Lana del Rey : plus le nombre d’utilisateurs, ici l’audience, augmente plus l’incitation pour les autres utilisateurs sera forte car ils considèreront la forte audience comme un gage de qualité. C’est le même principe pour ChatGPT, plus la base utilisateurs sera grande, plus la qualité de diffusion de l’information (l’écriture et la génération automatique de texte) sera bonne et plus la base augmentera. Car attention à la confusion souvent faite : c’est seulement dans le prompt que le Deep Learning est présent. Chat GPT est constitué de plusieurs briques : le prompt, que l’on a déjà vu, et qui est responsable de la génération de texte et le transformer, qui pour faire simple, est le système de données et modèle statistique qui est responsable de la connaissance de l’outil version 2021. Et dans ce transformer, pas question de parler d’apprentissage par renforcement. Un Deep Learning en connaissance et donc en données demanderait une trop forte puissance de calcul et donc une technologie au coût économique mais également énergétique démesuré. Le terme « Intelligence Artificielle » est donc, contre toute attente, peu adapté car l’outil n’est ni intelligent – l’outil ne dispose pas d’une capacité de raisonnement (pas de Deep Learning en data) et ni artificiel – l’outil se cache derrière un modèle statistique. Il serait ainsi plus judicieux de parler d’intelligence augmentée.
Il est important de garder en tête que la technologie de Chat GPT n’a pas éclos instantanément. Cette dernière ne constitue en rien une découverte fondamentale. Elle fait suite à de longues décennies de recherche théorique en matière de réseaux de neurones, et ce depuis les années 50. On appelle ces réseaux de neurones, en intelligence artificielle, des paramètres. Là où Chat GPT est innovant c’est que l’outil a réussi à appliquer et articuler techniquement et concrètement des connaissances scientifiques brutes et cela est dû au fait que des technologies ont été créées progressivement (carte graphique, processeur…). Car rappelons-le, la conception de ce qu’on appelle une intelligence artificielle repose sur un jeu de de données. Pour nourrir, une IA (AI training), il faut des quantités démentielles de data. Et c’est seulement depuis 2007, et l’invention de l’iPhone (premier smartphone) par Steve Jobs que cela est possible. Sans smartphone, peu de contenu ; sans contenu, pas de données ; sans données pas d’IA. Donc non ChatGPT n’est pas une création inventée du jour au lendemain par des érudits dans des garages comme le mythe de l’innovation laisse souvent supposer.
Notons que Chat GPT est la plateforme qui a atteint le plus rapidement 1 million d’utilisateurs en seulement quelques jours et son business model prévoit une croissance de près de 100 % à chaque cycle de l’IA c’est-à-dire chaque nouvelle version. En effet, la gratuité initiale de la plateforme puis sa transformation en un modèle prémium et la mise en place parallèle d’un modèle bas-de-gamme vont entraîner des effets de verrouillage.
Le paysage de l’IA : Comment Chat GPT s’intègre-t-elle dans l’écosystème de l’IA ?
Et c’est ce fonctionnement de l’IA qui inquiète en particulier les GAFAM. Google a ainsi déclenché son code rouge à son comité de direction stratégique en matière d’innovation et d’intelligence artificielle. Sundar Pichai, CEO d’Alphabet a demandé l’accélération des services R&D en IA et une levée de fonds à hauteur de quelques milliards de dollars afin de financer la sortie d’une vingtaine de produits IA, à usages divers, à l’horizon 2025 pour concurrencer ChatGPT mais sur d’autres segments stratégiques autour de l’image et du texte. C’est un moment de grande vulnérabilité pour le moteur de recherche Google qui voit sa proposition de valeur, à savoir son livre ouvert en open source et liens hypertexte qu’est Internet être inquiété par un concept de recherche innovant de l’outil novice. Le géant se sent, à juste titre, menacé par un algorithme qui, en interface et efficacité en principe dépasse largement celui de Google. Il faut, ici, rappeler que la force du moteur de recherche d’Alphabet n’est clairement pas dans son algorithme (d’autres existent et sont bien plus puissants) mais dans l’indexation massive de sources informationnelles et d’hypertextes colossaux. Le chiffre d’affaires d’Alphabet étant composé à plus de 80% des revenus dégagés par son moteur de recherche, on comprend aisément les craintes du géant du data web. Google a de toute façon développé un outil similaire à Chat GPT nommé LaMDA mais préfère adopter pour le moment une position stratégique de mise en retrait. Mais nouvelle rassurante pour la société dirigée par Sundar Pichai, Chat GPT est encore dépendant de Google à travers l’accessibilité de l’outil. Il faut encore passer en majorité par le moteur de recherche pour les utilisateurs pour arriver sur la boîte de dialogue. Mais c’est sans compter sur Microsoft, concurrent de Google, qui a investi plus de 10 milliards de dollars dans l’outil afin de créer un véritable partenariat entre Bing, son moteur de recherche et ChatGPT afin d’incorporer des réponses ciblées à la base de recherche. Mais l’idée novatrice du géant éditeur de logiciels c’est de faire de ChatGPT un outil du pack office pour le monde professionnel, en particulier avec Outlook, PowerPoint, Word, Excel et surtout Teams. Quoi qu’il en soit, il faut garder en tête qu’une course à l’innovation stratégique en IA est en train de s’opérer entre les GAFAM. Et les dirigeants des GAFAM le savent. Marc Zuckerberg a d’ailleurs déclaré récemment que les investissements de Facebook allaient désormais se concentrer sur l’IA, quelques mois après avoir renommé son groupe « Meta » en référence au Metaverse et au web 3. Était-ce prématuré ? Facebook veut-il entamer un repositionnement stratégique ? En tout cas, il se peut que les modèles d’affaires de Google et Facebook (respectivement Alphabet et Meta) basés sur le contenu, l’audience et la data s’essoufflent légèrement. A Apple, Amazon, Microsoft de profiter de cette situation.
Pour créer quelques ordres de grandeur et des représentation synthétiques, la société OpenAI, cocréée par Elon Musk et Sam Altman est valorisée à 29 milliards de dollars en 2023 contre 14 en 2021. L’entreprise adopte une position stratégique sur les marchés financiers de private equity et n’est pas (encore ?) cotée en bourse. Actuellement, l’outil dispose de 175 milliards de paramètres, les paramètres sont comme les liaisons neuronales du cerveau et assurent la liaison entre les briques d’une base de données. Ce sont ces paramètres qui permettent l’architecture informationnelle mais sa version 4 premium sortie récemment en prévoit à terme 100 000 milliard soit environ 600 fois plus (à titre de comparaison, le cerveau crée bien 100 000 milliards de synapses mais par secondes donc pas de panique, le robot n’est à priori pas près de remplacer l’homme). Même si le PDG de OpenAI, Sam Altman, a tenu à nuancer cette information, il est certain que la version 4 comportera à terme une base de données bien supérieure à celle de la version 3, qui contient le contenu data web de 2021. Cette version est payante car même si le modèle requête/réponse dispose d’un coût moyen très faible, les coûts futurs et énergétiques des mises à jour de bases de données (pour passer à la data web de 2023) seront bien supérieurs à ceux du modèle économique actuel. Et cela constitue une immense problématique contemporaine et environnementale quand on sait que la simple consommation énergétique d’un « AI training » c’est-à-dire l’alimentation d’une IA en data (par exemple les changements de cycle pour ChatGPT) peut correspondre, selon les chiffres de MIT Press et pour les IA les plus énergivores, à celle de 5 voitures cumulées durant leur durée de vie. Notons que les chiffres exacts de consommation énergétique de ChatGPT ne sont pas ou peu communiqués pour le moment et cela est probablement dû au fait que l’outil manque encore de maturité. Cela étant dit, ces revenus serviront probablement à financer la création d’un outil pro ChatGPT, d’autant plus avec le récent partenariat de l’outil avec Microsoft.
Chat GPT : Les inquiétudes liées à l’utilisation de l’IA
Mais alors, pourquoi une partie de la presse comme The Guardian, RTL et The Atlantic et les milieux universitaires ont-ils décrié l’outil qui à première approche a tout d’une véritable révolution tant technique qu’économique ? Certains reproches sont fondés sur des faits concrets et d’autres relèvent d’axes d’inquiétudes sur l’avenir de cette IA, mais il faut garder en tête que comme toute innovation diffusée dans la presse, la politique s’entremêle forcément à la science car des jeux d’intérêts économiques se cachent derrière le paysage médiatique français.
La première critique porte sur l’essence même de l’IA. Peut-on avoir réponse à tout ? C’est cette question philosophique à caractère épistémologique qui est au cœur du fonctionnement technique de l’IA. L’exactitude des réponses et le manque de nuance ont été mis en avant par des penseurs universitaires américains contemporains. L’algorithme renvoie une réponse à chaque question posée et ignore les problèmes d’interprétation des termes et de référencement. La force de Google et d’Internet en général et son livre ouvert est l’identification des sources qui éclaire forcément d’une lumière différente chaque information disponible sur le web. C’est pour cette raison que l’IA est très efficace et optimale pour renvoyer des réponses sur des sciences exactes comme les mathématiques et l’informatique et moins pour les sciences humaines et sociales car dans ces domaines il y a un véritable travail de recherche, de nuance et de bibliographie. Une excellente thèse humaine cristallise une question et répond à une interrogation en élargissant de plus en plus les différentes sphères impactées. ChatGPT ne peut remplacer le travail d’investigation et d’observation et surtout de reconnaissance des sources. Google le fait beaucoup mieux par essence en Openbook grâce au réseau de connaissances et l’heuristique.
La deuxième critique, et c’est celle qui a fait le plus de bruit, porte sur l’enseignement et la pédagogie. Nombreux scandales ont éclaté sur des plagiats d’étudiants car l’algorithme écrit très bien, d’une plume très scientifique et factuelle, mais très proche de celle d’un humain. Les universités comme Sciences Po ont alors interdit formellement l’usage de Chat GPT, accélérant le processus de création de logiciel anti-ChatGPT. Un comité de professeurs de l’université de Stanford ont mis au point un logiciel nommé DetectGPT déclarant que « les humains ont le droit de savoir si l’écriture est humaine ou non ». OpenAI a également développé en interne une signature informatique pour incorporer une reconnaissance visible du contenu généré par ChatGPT. Toutes ces mesures sont cependant de l’ordre de l’ajustement et à l’avenir, il est évident que les milieux universitaires devront s’adapter au développement des outils liés à l’IA. Les craintes se sont ensuite déplacées sur l’avenir de la pédagogie car ChatGPT est un excellent professeur sachant dialoguer, et cela parfois plus que de vrais enseignants… Mais il est très probable que la pédagogie utilise l’IA comme outil. Qu’on le veuille ou non, l’intelligence artificielle est déjà là et bouleversera forcément la société et donc l’éducation et le monde étudiant, il faudra de toute façon s’adapter et en tirer le meilleur.
Chat GPT génère des textes automatiquement, et un outil de la sorte serait très dangereux en termes de propagande avec des possibles effets délétères pour la démocratie. Nous pouvons penser notamment à la capacité d’un individu à écrire des quantités importantes de commentaires générés et automatisés par l’IA dans le but d’influencer le processus de décision politiques. Le scandale Facebook-Cambridge Analytica est ni plus ni moins une accusation contre la société Cambridge Analytica d’avoir aidé à influencer l’élection américaine et favoriser l’élection de Donald Trump ou le Brexit en permettant aux clients du gouvernement russe de connaître l’identité de l’électorat américain sur les réseaux sociaux grâce à un vol de données massif sur le réseau social Facebook. La manipulation de l’opinion publique va s’accroître de toute évidence et ChatGPT, et ce qu’il ouvre comme perspectives, ne fera rien pour ralentir ce processus, au contraire. La cybersécurité va donc prendre un rôle prépondérant partout, augmentant les budgets dédiés à toutes les échelles, et cristallisant les jeux d’intérêts autour de ces enjeux. Car si on peut influencer les décisions sur des élections politiques, toute base de données est touchable, et surtout celles des cabinets de conseil par le point d’accès aux clients et secteurs d’activité qu’ils constituent. C’est ce pourquoi, les cabinets du Big Four, par exemple, recrute des hackers.
Pour éviter une partie de ces dérives, Open AI a mis en place un filtrage de contenu en externalisant auprès de SAMA, une société californienne employant des travailleurs au Kenya, l’alimentation de la base de données de l’algorithme de contenu à caractère discriminant dans le but de créer un filtrage de contenu. Ce filtrage mis en place dans le but d’instaurer une pseudo-morale pose un véritable problème au niveau éthique sur les conditions de travail des employés qui sont sous-payés pour lire une quantité considérable de textes haineux. L’enquête révélée par Time Magazine très récemment met en lumière les côtés sous-jacents de l’IA. C’est donc juridiquement que l’IA va poser un problème car il existe un flou considérable tant en terme pénal qu’en gestion de droit d’auteur.
Enfin, et c’est le domaine qui nous intéresse particulièrement ici, l’algorithme prend en charge des tâches que l’on pensait réservées aux humains dont des activités qui demandent de la créativité. C’est en cela que Chat GPT constitue une véritable révolution. Comme le souligne l’économiste Daniel Susskind qui a beaucoup étudié le sens du travail, Chat GPT n’est qu’une illustration de cette tendance beaucoup plus générale. Les images récentes du pape en doudoune blanche font échos à cette créativité devenue artificielle. Irrémédiablement, notre rapport à la consommation du visuel changera. Des contre IA de détection d’images se développent et même si la panique est légitime, il faut analyser la situation avec discernement. Tout personne consciente du monde contemporain qui l’entoure vérifie ses sources. Cela sera d’autant plus vrai avec le contenu visuel. Il est cependant très juste que la viralité peut s’avérer bien plus malsaine sur des photos que sur du contenu textuel. Un cadre légal robuste doit absolument être mis en place.
La question se pose donc quant à la suppression des emplois ? Va-on devenir inutiles ? Nos systèmes et nos machines deviennent incroyablement capables et il y aura par conséquent une raréfaction du travail sur les tâches « automatisable », certes, mais l’idée n’est pas nouvelle. Schumpeter, déjà, au XXe siècle, théorisait la destruction créatrice imputable à toute innovation. Quand un emploi meurt, d’autres sont créés et c’est toujours vrai avec Chat GPT. Quand Wikipédia est né, beaucoup d’inquiétudes ont suivi sur l’avenir de l’éducation et de la pédagogie mais aujourd’hui qui décrit l’encyclopédie de toutes les connaissances ? Quand la radio naissait, un article de la Dépêche prédisait la folie progressive qui allait s’installer progressivement dans la société en raison de la voix sortant d’une boîte mécanique. Nous devons apprendre à nous servir de cette IA afin qu’elle devienne un véritable outil et soit applicable à nos domaines d’activités pour gagner en efficacité et performance.
La peur de l’IA n’est pas nouvelle. Combien de romans, de films de science-fiction ont mis en scène le renversement de l’humanité par des robots ? Mais gardons en tête que ce qui est prévu n’est jamais ce qui arrive. Combien de politiques ou d’écrivains dans les années 90/2000 ont mentionné des maladies et des contagions mondiales relativement à ceux qui prédisaient le remplacement des hommes par des machines. Inutile de rappeler ce qui est arrivé réellement. Il faut donc relativiser cette peur même si, oui, des risques très concrets existent. Il faut prendre au maximum le lead et anticiper l’adaptation pour apprendre à travailler différemment. Même si Elon Musk a déclaré ironiquement vouloir mettre en place une volonté de ralentissement de la course à l’IA – il serait désormais conscient des risques pour l’humanité – il y a fort à parier que cela soit un bluff stratégique voulu de la part de l’entrepreneur milliardaire afin d’anticiper le cadre légal en préparation pour potentiellement plus facilement le contourner et garder plus ou moins le monopole de l’outil et l’IA via Microsoft. La révolution est de toute manière en marche, il faut l’accompagner.
Un article rédigé par Jonathan LEVY-GUILLAIN, Consultant en innovation et management stratégique.