Une sommité française pour parler d’un des sujets tech les plus importants du moment. Co-fondateur de Siri, l’assistant vocal virtuel d’Apple, ex CTO et VP Innovation de Samsung et aujourd’hui Chief Scientific Officer de Renault, Luc Julia explique ce qu’est vraiment l’IA générative (ChatGPT, Midjourney, Bard…). Interview sans langue de bois.  

Bonjour Luc. Peux-tu déjà rappeler quelles sont les différences entre l’assistant vocal Siri, que tu as cocréé, et ChatGPT ?

Luc Julia : La première, ce sont les données. Dans les années 2000, on parlait de Big Data et Siri se basait sur quelques millions de données. Aujourd’hui, on peut parler de Huge Data : la version 3.5 de ChatGPT, sortie en novembre dernier, c’est près de 175 milliards de données utilisées, soit l’équivalent de tout Internet. C’est énorme !

Conséquence, le Siri original de 2011 pouvait répondre à des questions sur 7 ou 8 domaines sur lesquels il était entraîné : avoir des conseils d’hôtels ou de restaurants, écrire un SMS, gérer ton calendrier… Puis, progressivement, les intelligences artificielles sont devenues plus génériques, en apprenant Wikipédia, pour la faire courte.

L’autre différence, c’est que Siri, de par sa technologie (apprentissage machine et profond) est déterministe, tandis que ChatGPT, basé sur les larges modèles de langage (LLM), est probabiliste.

C’est-à-dire ?

L. J. : ChatGPT va essayer de prédire les résultats statistiques d’une réponse en fonction des questions similaires passées. On n’essaie plus de comprendre mais de retrouver les millions de réponses qu’il y a pu avoir sur une question particulière. C’est d’ailleurs pour cette raison que plus la question est restreinte, plus on a de chance que la réponse soit bonne, car ce sont des spécialistes qui y ont déjà répondu.

À l’inverse, plus la question sera générique et plus on a de chances d’avoir ce que l’on appelle des “hallucinations”. L’intelligence artificielle va inventer la réponse et dire n’importe quoi. Car, in fine, elle doit donner une réponse et n’a aucune notion de ce qui est vrai ou faux. Selon une étude de l’Université de Hong Kong menée sur quatre mois, ChatGPT répond dans 64 % des cas de façon pertinente. Dit autrement, il se trompe une fois sur trois.

Siri ne pouvait pas être victime d’hallucinations ?

L. J. : Non, quand il ne savait pas, il répondait “Je ne sais pas”. Ce qui lui arrivait souvent. D’ailleurs, dans ces cas-là, on avait fait en sorte qu’il puisse répondre par une petite blague, ce qui donnait un côté très anthropomorphique. Jamais ChatGPT répondra qu’il ne sait pas.

Quand tu travaillais sur Siri, est-ce que tu avais cette vision du futur de l’IA comme on le voit aujourd’hui avec l’IA générative ?

L. J. : Je dirais qu’on n’avait pas la vision technique de ce que cela pouvait être mais on avait la vision philosophique. Dès 1997 (Siri a mis 14 ans avant de pouvoir arriver chez Apple !), on savait qu’Internet serait la plus grosse base de données du monde. Sauf qu’à l’époque, on ne pensait pas que cette source pouvait être aussi biaisée, avec autant de cons qui mettraient de la merde dessus. On était peut-être des bisounours…

Après, je tiens à rappeler que l’IA générative existe depuis 2017. Ce n’est pas une révolution mais une évolution normale compte tenu du Huge Data qui permet d’aller chercher l’information n’importe où. La force de ChatGPT ou Midjourney, c’est d’avoir réussi à créer une interface ludique.

On sent dans tes propos et notamment dans ton ouvrage “L’intelligence artificielle n’existe pas”, une pointe de cynisme. On se trompe ?

L. J. : En fait, je veux juste que les gens comprennent ce qu’est l’IA et ce que ce n’est pas. Ce qui me fait de la peine, ce sont tous les gens qui racontent n’importe quoi. Ce qui n’existe pas, c’est l’IA d’Hollywood, toute la science-fiction qu’on nous fait croire.

Pour moi, la meilleure approche, c’est de comparer une IA à une boîte à outils. Quand je l’ouvre, j’ai de multiples outils qui sont très différents et utilisables dans des cas super différents. Je ne vais pas utiliser un marteau pour planter une vis.

C’est pourquoi il est très important de parler d’IA au pluriel. Les IA sont hyper spécifiques et, donc, hyper précises et puissantes. Ce sont des outils qui sont, par définition, meilleurs que nous. Un marteau sera toujours meilleur qu’un humain pour planter un clou. Mais c’est justement parce qu’elles sont hyper puissantes qu’elles sont aussi hyper dangereuses, non par elle-même mais par l’utilisation qu’on peut en faire.

D’où l’enjeu de s’éduquer pour les comprendre et apprendre à les utiliser à bon escient, afin, potentiellement, de les réguler. Un marteau, on a décidé collectivement qu’il ne fallait pas l’utiliser pour taper sur la tête des gens.

En résumé, le potentiel des IA est extraordinaire et tu peux les utiliser autant de manière fantastique (médecine, transport etc.) que pour faire de très grosses bêtises.

Parlons éthique justement. Comment, en tant que concepteur de produit numérique, tu peux faire en sorte de créer quelque chose de vertueux et non un monstre ?

L. J. : C’est hyper compliqué car, au début, tu es là pour inventer quelque chose qui va rendre service aux gens. Mais, à un moment donné, ton invention peut être détournée. 

Je ne vais pas prendre l’exemple de Siri mais du Cloud. J’en suis un fervent partisan depuis 2005. Mais, à partir de 2015, soit dix ans plus tard, je me suis aperçu d’un problème que je n’avais pas vu au début : son impact écologique énorme. J’ai ainsi été un des premiers à le dénoncer. Je ne dis pas qu’il faut tout mettre à la poubelle mais qu’il faut se modérer.

À partir du moment où l’on comprend les impacts, on peut faire un usage plus rationnel et éthique. Exemple : on prend 1 milliard de selfies par jour et, à raison de 160 Watts par selfie, ça fait 160 milliards de Watts utilisés. Pourquoi ? Pour l’égo ! Je ne dis pas qu’il faut devenir Amish, comme dirait l’autre, mais toujours essayer de comprendre la techno et son impact. 

Quel serait le conseil que tu donnerais à des Product Managers ?

L. J. : De ne pas être arrogant quand on crée un produit. Avec Siri, on a vraiment essayé d’être les anti-arrogants. Dans les années 90, soit le balbutiement d’Internet, c’était la course à celui qui ferait le meilleur reconnaisseur de paroles. C’était la bataille de chiffres : moi je suis pertinent à 98,5 %, moi à 98,8%… Mais on s’en fout ! 

La réalité, c’est qu’il suffit de faire un produit qui marche “seulement” à 95%, mais le dire. Aucun système n’a d’ailleurs marché avant nous car, nous, on disait la vérité : oui, ça ne marche pas à tous les coups. 

Au lieu de dire que la techno va tout résoudre, disons franchement que ça marche à 90% du temps. Et que parfois, cela suffit. Notamment si atteindre 95% fait dépenser dix fois plus d’énergie. Au lieu de réfléchir à la perfection de nos produits, qui n’existera jamais du reste, essayons plutôt de faire une soupape qui permettra aux utilisateurs de trouver une solution si ça ne marche pas bien. À l’image des petites blagues de Siri, ce que l’on a appelé la “stupidité artificielle”.

Selon toi, vers quoi va tendre l’IA générative d’ici les prochaines années ?

L. J. : Je vois deux grandes directions pour les IA génératives, de textes en particulier :

  • Soit elles continuent à incorporer de la merde et, à ce moment, elles vont mourrir de leur belle mort car elles seront de moins en moins pertinentes
  • Soit, on les régule, en faisant attention à marquer au fer rouge ce qu’elles ont généré et en utilisant de la donnée vraie et leur pertinence va augmenter

Pour moi, une fois la hype passée, le soufflet va redescendre à cause de ce problème de pertinence et cela remontera sur des IA génératives très spécialisées. Intégrer une IA générative dans Excel, cela a beaucoup de sens. Nous, chez Renault, faire apprendre le manuel de l’automobile pour savoir rapidement comment faire démarrer ses essuis-glace, c’est sympa. Dans Bing, cela n’a aucun sens.