ChatGPT et les IA génératives: bulle ou pas bulle?

June 6, 2024

chatgpt

NVIDIA vient d'atteindre une capitalisation boursière de 3 000 milliards de dollars, devenant ainsi la deuxième entreprise la plus valorisée au monde, derrière Microsoft. Son chiffre d'affaires a atteint 26 milliards de dollars lors du premier trimestre 2024, en hausse de 18 % par rapport au trimestre précédent et de 262 % par rapport à la même période l'année dernière. NVIDIA bat les attentes des analystes depuis au moins quatre trimestres. Cette année, le prix de l'action a augmenté de 154 %, passant de 482 à 1 224 dollars. C'est une performance exceptionnelle. Mais est-ce justifié ?

Une chose est sûre et certaine : NVIDIA est probablement le plus grand bénéficiaire de l'enthousiasme autour des IA génératives, déclenché depuis le lancement de ChatGPT par OpenAI. Les IA génératives, capables de générer du texte, des images, de l'audio ou de la vidéo, sont utilisées pour créer de nouveaux contenus, générer des idées novatrices et résoudre des problèmes complexes. Actuellement très populaires, ces IA nécessitent des puces graphiques pour accélérer les calculs requis lors de l'entraînement des modèles. NVIDIA profite pleinement de cette demande accrue. Récemment, Musk a déclaré que sa société de véhicules électriques, Tesla, augmentera le nombre de H100 actifs, la puce d'intelligence artificielle phare de NVIDIA, de 35 000 à 85 000 d'ici la fin de l'année. La course aux modèles d'IA toujours plus performants et plus puissants est lancée, et NVIDIA est en pole position pour en profiter.

nvidia

Evolution du prix de l'action NVIDIA

Les applications des IA génératives

Vous l'aurez compris, l'enthousiasme autour des IA génératives est à son paroxisme. Mais prenons un peu de recul et analysons la situation. Les IA génératives représentent un saut qualitatif dans le domaine de l'intelligence artificielle. Nul ne peut le nier, et j'en suis personnellement convaincu pour avoir travaillé avec ces modèles et développé des applications web s'appuyant sur ces modèles, comme discute.co, par exemple. Prenons le cas de ChatGPT : c'est un outil puissant, comparable à une base de données de connaissances humaines accessible en langage naturel. Il peut être utilisé pour créer de nouveaux contenus, générer de nouvelles idées, résoudre des problèmes complexes, automatiser le service client, générer des descriptions de produits, ou même écrire du code. Les possibilités sont infinies.

Cependant, les modèles tels que GPT-3 ou GPT-4 ne sont pas parfaits. Ils peuvent générer des textes cohérents et grammaticalement corrects, mais ils peuvent aussi produire des textes biaisés, offensants, ou tout simplement erronés. C'est le problème de l'hallucination, et c'est pourquoi les modes d'utilisation qui intègrent des humains dans la boucle sont susceptibles d'être les plus réussis. À mon avis, ChatGPT, en tant qu'interface conversationnelle où un humain peut poser des questions, obtenir des réponses du modèle d'IA, et le corriger lorsqu'il fait des erreurs, représente le meilleur usage des modèles de langage. En substance, c'est un outil d'autocomplétion sophistiqué, un moteur de recherche sans publicités ennuyeuses, une base de données de connaissances humaines accessible en langage naturel.

Nombreux sont les 'travailleurs de la connaissance' qui utilisent déjà ChatGPT, Bard ou Le Chat pour rédiger plus rapidement leurs emails, rapports, articles, présentations, documents administratifs, techniques, juridiques, etc. Avec les modèles de langage, le problème de la page blanche est un vestige du passé, même si le corollaire c'est souvent des textes insipides et sans personnalité. Mais c'est un autre débat. Une grosse partie des communications formelles est bien souvent un ramassis de phrases toutes faites et sans saveur de toutes façons. L'impact négatif des modèles de langage sur la qualité des communications formelles est donc à relativiser, tant que le message de fond est clair et compréhensible.

J'ai ici pris le cas des modèles de langage, mais il en va de même pour les IA permettant de générer des images, des vidéos, ou de l'audio. Ma conviction est que ces modèles seront essentiellement des outils de productivité. Ils aideront les créatifs à générer des images plus rapidement, à itérer sur des concepts, à construire des démos plus rapidement. Prenez le cas des développeurs de jeux : ils doivent souvent générer de nombreuses images pour leurs jeux. Ils peuvent utiliser l'IA générative pour avancer plus rapidement. C'est un gain de temps énorme. Mais, comme avec ChatGPT, il est toujours nécessaire d'avoir un humain dans la boucle car, dans certains cas, le modèle échoue à générer des images cohérentes ou pertinentes pour la tâche à accomplir. Utiliser des modèles pour transformer les audios en texte peut par exemple faciliter la rédaction de comptes rendus de réunions, de procès-verbaux, ou de transcriptions d'interviews. Mais il est toujours nécessaire d'avoir un humain dans la boucle pour corriger les erreurs. J'ai d'ailleurs récemment travaillé sur un projet d'assistant audio pour les personnes malvoyantes, et j'ai pu constater que les modèles de transcription automatique sont encore loin d'être parfaits. (voir https://www.lycee.ai/blog/audio-ai-assistant-openai)

Les limites des IA génératives

Le problème, c'est que, vu l'enthousiasme ambiant, on a tendance à oublier les limites des modèles de langage. La tentation est grande de les utiliser à tous les égards, pour tout et n'importe quoi. Sur LinkedIn, il y a tellement d'experts en IA qui ne seraient même pas capables d'écrire un simple réseau de neurones en utilisant PyTorch, ou qui n'ont aucune idée de ce qu'est le calcul matriciel. C'est un signal d'alarme. 'IA' est un terme que tout le monde utilise maintenant à des fins marketing ou pour obtenir des financements. Mais je m'égare.

Les modèles de langage ne sont pas prêts pour tout. Ils ne sont pas conçus pour fonctionner de manière autonome. Ces modèles sont entraînés pour produire le prochain token le plus probable, pas pour raisonner. Ils sont entraînés à imiter les compétences humaines, mais ne possèdent aucune intelligence générale. Ils ne sont pas prêts à fonctionner sans un humain dans la boucle.

C'est une erreur de négliger les limites en matière de raisonnement et d'autres tâches, y compris la traduction. Il vaut mieux être transparent et honnête sur les limites de la technologie.

Voici mes convictions : les IA génératives sont utiles, et toutes les entreprises devraient réfléchir à comment les exploiter intelligemment. Cela passe par la connaissance de leurs capacités et limites. Ce sont avant tout des modèles qui permettent d'augmenter la productivité des travailleurs de la connaissance. Ils ne remplaceront pas les humains, mais les aideront à mieux travailler. C'est un peu comme les outils bureautiques. Les entreprises qui comprendront cela seront les gagnantes de demain.

Que faire donc ? D'abord, former ses équipes à l'utilisation de ces outils. C'est à l'échelle individuelle que la magie opère. Ensuite, identifier les cas d'utilisation les plus pertinents pour son entreprise. Enfin, mettre en place des processus pour intégrer ces outils dans le quotidien des équipes. C'est un travail de longue haleine, mais qui en vaut la peine. Une application très simple des langages de modèle peut par exemple être la mise en place d'une interface conversationnelle pour répondre aux questions RH ou administratives des employés. C'est assez simple à faire, si vous avez les compétences nécessaires. Il s'agit de faire du RAG (Retrieval Augmented Generation), c'est-à-dire, indexer une base de connaissance pour ensuite la rendre accessible au travers d'une interface conversationnelle. C'est un peu comme un moteur de recherche, mais en mieux. C'est un peu comme un assistant personnel, mais en mieux. J'ai créé un tel assistant récemment, sous la forme d'une application web (www.discute.co). Sur Discute, les utilisateurs peuvent uploader leurs documents, et poser des questions sur ces documents. L'assistant leur répond en utilisant les informations contenues dans les documents. Mais pour qu'une telle expérience soit réussie, il faut que le système soit bien conçu. Fournir aux employés un chatbot peu performant conduira à sa non-utilisation et réduira la propension des employés à voir le potentiel des IA génératives à améliorer leur productivité. Il faut donc bien réfléchir à la conception de l'interface, à la qualité des réponses, à la pertinence des informations fournies. C'est un travail minutieux, et il vaut mieux avoir à vos côtés un expert qui sait y faire.

Ma conviction est qu'il vaut mieux commencer par des cas d'utilisation interne à l'entreprise, gagner en expertise, prendre du recul, avant d'envisager des cas d'utilisation qui touchent des clients externes.

zoom

To Zoom or not to Zoom

Alors, bulle ou pas bulle ? Je laisserai chacun se faire sa propre opinion. Je veux juste rappeler le cas de Zoom. Pendant la période Covid, le prix de l'action Zoom a explosé. Tout le monde utilisait Zoom pour travailler à distance. Mais depuis que les gens retournent au bureau, le prix de l'action Zoom a chuté. Il est maintenant en dessous de son prix d'avant la pandémie. Les investisseurs ont réalisé que Zoom n'était pas une entreprise aussi solide qu'ils le pensaient. Il est possible que la même chose se produise avec les IA génératives. Il est possible que la valorisation de NVIDIA soit surévaluée. Mais une chose est sûre, les IA génératives sont là pour rester. Elles vont transformer notre manière de travailler, de communiquer, de créer. Il est temps de s'y mettre, avec prudence et discernement.