Brainy Sunday #25 - ChatGPT et la raison
Création musicale, Super-calculateurs européens et Coca-IA
Bonjour ou bonsoir, c’est selon 👋
Nouvelle semaine, nouvelle édition de Brainy Sunday - avec comme chaque fois un paquet d'actus et de bons outils à découvrir.
Cette semaine je te partage aussi une réflexion qui fait suite à quelques articles que j'ai vus passer et qui tournent autour de la question de savoir si ChatGPT est doué de raison - ou du moins s'il peut raisonner 🤔
N'hésite pas à répondre à ce mail pour me donner ton avis sur la question.
Bonne lecture et bonne fin de dimanche !
🤔 ChatGPT peut-il raisonner ?
Nos intelligences artificielles, en particulier les modèles de langage, sont-elles capables de raisonner ?
Qu’on la pose en français ou en anglais, cette question a déjà l’énorme inconvénient de reposer sur des concepts plutôt vagues et finalement très subjectifs de "raison", "raisonnement" ou "rationalité".
Le raisonnement basique des machines
Du coup, si on se contente d’une définition minimale du raisonnement comme un enchainement de propositions logiques qui déduit de nouvelles propositions, on peut rapidement conclure que oui, l’IA générative applique un raisonnement, et donc qu’elle raisonne.
Mais ma calculatrice fait déjà preuve de la même capacité à appliquer un raisonnement lorsqu’elle calcule pour moi l’intégrale d’une fonction...
Cette réponse semble du coup très insatisfaisante et n’est probablement pas celle qu’on attend lorsqu’on se pose la question de savoir si ChatGPT raisonne ou non.
Raisonnement réflexif et auto-réflexion
En fait la question serait plutôt celle du raisonnement réflexif - c’est à dire la capacité à construire, examiner et évaluer ses propres raisonnements pour parvenir à former de nouvelles idées.
Et elle devient alors en réalité celle de savoir si ChatGPT est capable de penser sa propre pensée - autrement dit de se penser lui-même. (Pour rester simple, on va accepter ici que ChatGPT “pense”).
Une approche intéressante pour tenter de répondre cette question est celle de la Théorie de l’Esprit.
Cette expression désigne l’aptitude à attribuer des états mentaux à d'autres individus ou à soi-même. En d’autres termes, c’est la capacité à attribuer aux autres des pensées et des connaissances différentes que celle qu’on peut avoir. Ce qui sous-entend effectivement être capable de s’attribuer des pensées ou connaissances propres.
Théorie de l’Esprit et IA
Et il se trouve justement que des chercheurs ont cherché à savoir si les modèles de langage pourraient faire preuve de cette capacité. Cette étude se base sur l’utilisation des tests dit de fausses croyances - similaires à ceux utilisés pour déterminer vers quel âge un enfant développe la Théorie de l’Esprit - pour évaluer les capacités de l’IA. Et visiblement elle passe plutôt bien les tests.
Ils consistent essentiellement à vérifier si l’IA peut prévoir qu'une personne ignorant le déplacement d'un objet le cherchera là où elle croit qu'il se trouve et non là où il est en réalité. Wikipedia en donne un exemple classique :
“Max et sa maman sont dans la cuisine ; ils rangent le chocolat dans le réfrigérateur. Max part rejoindre ses amis pour jouer.
Pendant son absence, sa maman décide de préparer un gâteau. Elle prend le chocolat dans le réfrigérateur, en utilise une partie et range le reste du chocolat dans le placard.
Plus tard, Max revient ; il veut manger du chocolat. Où va-t-il le chercher ?”
L’idée est que pour répondre correctement que Max va chercher le chocolat dans le réfrigérateur, il faut pouvoir concevoir que Max a sa propre perception des choses (le chocolat est toujours dans le réfrigérateur) qui diffère de la réalité connue de l’observateur (le chocolat a été déplacé). C’est ce qu’on appelle la fausse croyance.
En écrivant cet article, je viens de refaire le test directement avec ChatGPT en copiant-collant l’exemple. De manière un peu troublante, la version GPT-4, disponible avec l’abonnement payant, répond correctement, alors que la version gratuite, GPT-3.5, se trompe et affirme que Max va ouvrir le placard. Par contre, en effectuant la demande en anglais, GPT-3.5 aussi donne la bonne réponse, c’est à dire que Max va aller chercher le chocolat dans le réfrigérateur.
De leur côté, les chercheurs ont fait une série de tests plus complexes avec différentes questions du même type et toujours basés sur le principe de fausse croyance. Et ils constatent donc que, dans la majorité des cas, les modèles de langage testés s’en sortent bien, voire très bien.
Peut-on en conclure que ChatGPT a développé une Théorie de l’Esprit et pourrait donc avoir des capacités réflexives ? Si certains chercheurs pensent que oui, je crois plutôt qu’ils se trompent sur toute la ligne.
Réussir le test sans la Théorie de l’Esprit
Il y a d’abord ce qui m’apparait comme une erreur méthodologique. Ce type de test a en fait été principalement conçu pour évaluer l’absence de Théorie de l’Esprit. Il se base en effet sur une causalité directe : si un individu a développé la Théorie de l’Esprit, il réussit d’office le test.
Un échec indique donc une absence - ou une défaillance - dans le développement de la Théorie de l’Esprit (et encore, même cette conclusion est remise en doute). Mais cela ne veut pas pour autant dire que réussir le test implique qu’on a développé la Théorie de l’Esprit. On peut tout au plus en conclure qu'on n'a pas démontré son absence.
Il y a donc déjà une certaine erreur logique à conclure que réussir le test équivaut à avoir développé la Théorie de l’Esprit.
Revenir au fonctionnement de ChatGPT
Mais surtout, il y a une autre explication bien plus simple à ces bonnes réponses. Une explication qui correspond à ce que l’on sait du fonctionnement des modèles de langage et qui évite de devoir supposer des capacités nouvelles du modèle.
Rappelle-toi : un modèle de langage (comme ChatGPT) n’est jamais qu’un calculateur de probabilité. Il se base sur les mots et les phrases qui forment un texte pour en calculer la suite la plus probable.
De base, quand je demande à ChatGPT où et quand est né Barack Obama, il ne cherche pas l’information dans sa mémoire. Il génère le texte le plus probable qui suivra cette question - texte qui se trouve être la bonne réponse.
Différentes méthodes sont utilisées pour influencer ce calcul et permettre que les réponses de ChatGPT soient le plus souvent correctes. Mais le résultat reste déterminé par les probabilités. Des probabilités qui dépendent très fortement des textes utilisés au départ pour entraîner le modèle.
Or il y a fort à parier que ces textes contiennent non seulement des exemples de tests de fausses croyances mais surtout d’innombrables textes décrivant des situations où des protagonistes doués de Théorie de l’Esprit agissent en conséquence.
Du coup la réponse la plus probable du modèle de langage à la question “où Max va-t’il aller chercher le chocolat ?” est effectivement celle qu’un humain doué de raison donnerait. Mais ChatGPT ne donne pas cette réponse parce qu’il serait soudainement capable d’attribuer à Max des états mentaux particuliers. Il fait ce pour quoi il a été conçu : calculer le texte le plus probable…
Répondre n'est pas comprendre
Non seulement les bonnes réponses aux tests de fausses croyances ne permettent pas de conclure qu’un modèle de langage ait développé une Théorie de l’Esprit. Mais en plus elles s’expliquent facilement par ce que nous savons déjà de leur conception et de leur fonctionnement.
En réalité, il faut faire la distinction entre la capacité à donner une réponse correcte à une question et la véritable compréhension de cette question (ou de sa réponse).
Un enfant qui a développé la Théorie de l'Esprit peut comprendre la fausse croyance de Max à propos du chocolat. Tandis qu'un modèle comme ChatGPT génère une réponse basée sur des motifs de langage récurrents qu'il a observés lors de sa formation. Les deux donneront une réponse correcte, mais pas pour les mêmes raisons.
Finalement, même si les modèles de langage comme ChatGPT peuvent donner des réponses qui semblent "intelligentes" et bien informées, il est essentiel de reconnaître leurs limitations. Ils ne "raisonnent" pas de la même manière que nous - et ne le ferons probablement jamais.
Ca n’empêche qu’ils restent de formidable outils que nous pouvons même utiliser pour compléter et perfectionner nos propres raisonnements.
🛠️ App, outils et autres bons liens
Le buzz de la semaine et l’outil IA à essayer absolument, c’est le doublage automatique des vidéos avec HeyGen (demo ici, ici et là).
Tu peux créer ta musique ou même des effets sonores avec l’IA de Stable Audio.
Wave est une nouvelle application de prise de notes audio : tu enregistres et l’IA note, synthétise et organise pour toi.
Trickle transforme tes captures d’écran (ou d’autres images) en notes complètes et organisées.
Second permet de migrer un programme d’un langage de programmation à un autre.
Transforme tes fichiers Excel ou Google Sheets en graphiques complets à l’aide de l’IA de ChartGen.
Les services de ‘photos’ par IA se multiplient : Aragon, HeadShotPro, PhotoAI, BetterPic,…
Storly, c’est l’IA qui t’interview pour ensuite raconter l’histoire de ta vie.
📰 L’actu en (très) bref
Stability AI lance son site de génération de musique par IA
Stable Audio est un nouvel outil en ligne capable de créer de la musique à partir d’une description textuelle.
Stable Audio peut non seulement générer des chansons, mais aussi reproduire des sons spécifiques, comme le bruit d'une voiture qui passe ou d'un solo de batterie.
Pour former le modèle, Stability AI s'est associé à la bibliothèque musicale commerciale AudioSparx, qui a fourni une collection de chansons d’artistes, principalement d'artistes indépendants.
A essayer : L’inscription gratuite permet de générer jusqu’à 20 morceaux de 45 secondes → stableaudio.com
L’UE donne accès à ses super-ordinateurs pour la formation d’IA
L'Union européenne prévoit d'élargir l'accès à ses supercalculateurs haute performance (HPC) en permettant aux startups de les utiliser pour former des modèles d'IA.
L’UE dispose de huit supercalculateurs situés dans différents pays membres. Trois d'entre eux figurent parmi les cinq supercalculateurs les plus puissants au monde.
Pour bénéficier de cet accès, les startups devront adhérer au programme de gouvernance de l'IA de l'UE.
Firefly sort de bêta et est disponible pour tous
176 jours après le lancement de ses modèles d'IA générative en version bêta, Adobe annonce que Firefly est désormais disponible commercialement et inclus dans différentes offres comme Creative Cloud et Adobe Express.
Adobe a annoncé comment il prévoit de facturer Firefly à l'avenir. L'entreprise utilisera ce qu'elle appelle des "crédits génératifs". Les utilisateurs des plans payants d'Adobe recevront un certain nombre de ces crédits par mois.
Adobe lance également Firefly en tant qu'application web autonome, donnant un statut officiel à ce qui était auparavant plus proche d'une démo.
Même si Adobe affirme détenir les licences sur les images utilisées pour former l’IA, ils s’engagent à indemniser les utilisateurs d'entreprise contre d'éventuelles poursuites lorsqu'ils utiliseront des images générées par Firefly.
C’est au tour du Japon de développer son propre ChatGPT
Certains chercheurs japonais estiment que les systèmes d'IA formés sur des langues étrangères ne peuvent pas saisir les subtilités de la langue et de la culture japonaises.
En japonais, ChatGPT génère parfois des caractères extrêmement rares que la plupart des gens n'ont jamais vus auparavant.
L’institut RIKEN travaille donc sur un modèle de langage japonais en utilisant Fugaku, l'un des superordinateurs les plus rapides du monde.
Des entreprises japonaises, comme NEC et SoftBank, prévoient également de commercialiser leurs propres technologies LLM.
La nouvelle IA de Google fait ses débuts en entreprise
Annoncée au mois de Mai, Google Gemini sera la prochaine IA conversationnelle de Google, conçue pour répondre à la concurrence d’OpenAI et Microsoft.
Gemini est une collection de modèles de langage destinés à diverses applications - il sera multimodal et capable d’utiliser des outils tiers.
Selon The Information, Google a donné accès à une première version de Gemini à un groupe restreint d'entreprises partenaires.
Cette nouvelle étape pourrait annoncer une sortie plus rapide de Gemini que n’était pas attendu avant 2024.
Microsoft partage une IA de génération de protéine
Microsoft a rendu open source EvoDiff, un logiciel d'intelligence artificielle pour la génération de protéines.
EvoDiff est un modèle de diffusion dont le fonctionnement est similaire aux modèles de génération d’images comme Midjourney : il apprend à soustraire progressivement le “bruit” d'une protéine initiale composée aléatoirement.
Il pourrait être utilisé pour créer des enzymes pour de nouveaux médicaments, des méthodes de distribution de certaines molécules et également de nouvelles enzymes pour des réactions chimiques industrielles.
Alibaba ouvre son chatbot IA au public
Alibaba a annoncé qu'il ouvrirait son modèle d'intelligence artificielle, Tongyi Qianwen, au public.
Cette décision indique que l'entreprise a obtenu l'approbation réglementaire chinoise pour commercialiser le modèle à grande échelle.
Alibaba avait présenté pour la première fois Tongyi Qianwen en avril, annonçant à l'époque que ce grand modèle de langage, similaire à ChatGPT, serait intégré à toutes les applications commerciales.
OpenAI fait face à une plainte collective d’auteurs américains
L'écrivain américain lauréat du prix Pulitzer, Michael Chabon, ainsi que plusieurs autres auteurs, ont déposé une action collective proposée accusant OpenAI de violation du droit d'auteur.
Le procès prétend que pour entrainer ses modèles, OpenAI a nécessairement du "capturer, télécharger et copier des œuvres écrites, des pièces de théâtre et des articles protégés par le droit d'auteur".
Les écrivains allèguent que lorsque ChatGPT est sollicité, il génère non seulement des résumés, mais aussi des analyses approfondies des thèmes présents dans les œuvres protégées par le droit d'auteur des plaignants.
Après 3 ans et 17 médecins, ChatGPT pose enfin le bon diagnostic
Un petit garçon nommé Alex a consulté 17 médecins différents en raison de douleurs chroniques et d'autres symptômes.
Après de nombreuses consultations infructueuses, la mère d’Alex s’est tournée vers ChatGPT en lui donnant toutes les informations et les différents résultats d’analyse.
ChatGPT a proposé un diagnostic de malformation génétique au niveau de la colonne vertébrale et de la moelle épinière - un médecin spécialiste a ensuite confirmé ce diagnostic.
L’IA qui peut détecter les maladies dans les yeux des patients
Des chercheurs ont développé un outil d'intelligence artificielle capable de diagnostiquer et de prédire le risque de plusieurs affections médicales à partir d'images rétiniennes.
Les rétines peuvent offrir un aperçu de la santé d'une personne car elles sont la seule partie du corps humain où le réseau capillaire peut être directement observé.
L’outil a été très performant dans la détection de maladies oculaires ainsi que la détection de risque de maladies systémiques comme la maladie de Parkinson ou le diabète.
Roblox dévoile son IA pour la création de jeux vidéos
Roblox a annoncé un nouvel assistant AI qui aidera les créateurs à concevoir plus facilement des expériences de jeu.
Avec le Roblox Assistant, les créateurs peuvent encoder des instructions pour générer des environnements virtuels. Par exemple, en demandant de créer un jeu dans des ruines anciennes, l'assistant peut ajouter des pierres, des colonnes recouvertes de mousse, etc.
L'assistant Roblox s'appuie sur des fonctionnalités précédemment annoncées qui permettent aux créateurs de construire des actifs virtuels et d'écrire du code avec l'aide de l'IA générative.
8 autres grandes entreprises s’engagent à créer des produits IA sûrs
Plusieurs entreprises, dont Adobe, IBM et Nvidia, se sont engagées auprès de la Maison Blanche à développer une IA sûre, sécurisée et digne de confiance.
Les engagements sont similaires à ceux précédemment signés par Meta, Google et OpenAI.
L'IA est un point central de l'administration Biden, qui cherche à équilibrer sécurité et innovation. Cette dernière a également publié une Charte des droits de l'IA et a chargé la National Science Foundation de créer de nouveaux instituts de recherche nationaux sur l'IA.
Coca-Cola lance un nouveau parfum mystérieux créé par IA
Coca-Cola crée régulièrement de nouveaux goûts “mystères” en éditions limitée pour ses boissons.
Le dernier en date, Coca-Cola Y3000, censé avoir le goût du futur, a été créé en utilisant l'IA pour déterminer la saveur et l'emballage de la boisson.
Ils ont d’abord effectué une enquête auprès de consommateurs pour connaitre les saveurs associées au futur et ont ensuite utilisé ces données pour créer le nouveau parfum à l’aide de l’IA.
Le lancement de Y3000 est également accompagné d’une expérience en ligne qui utilise l’IA pour imaginer l’an 3000 à l’aide d’une IA de génération d’image.
C’est ici que se termine cette 25ème édition de Brainy Sunday.
Comme toujours, si tu as apprécié la lecture et que tu as trouvé cette newsletter intéressante, pense à remonter en haut du mail et cliquer sur le coeur. Et tu peux évidemment partager cet email avec tes ami·e·s avec le bouton ci-dessous.
Il me reste à te souhaiter une bonne semaine. On se retrouve dimanche prochain pour continuer à découvrir l’IA et réfléchir au monde qui se dessine avec elle.
- Thomas