Brainy Sunday #7 - Viva Italia
Offensive italienne contre ChatGPT, ambiguïtés coupables et liens de la semaine.
Le mois de Mars se termine avec une semaine un peu plus calme en terme d’annonces et de nouvelles IA.
Cela a visiblement été l’occasion pour certains de réfléchir un peu plus aux implications (négatives) de l’IA, en témoignent 2 sujets qui ont occupé l’actualité : la lettre ouverte demandant la mise en pause des IA et le blocage de ChatGPT en Italie.
Je vais me pencher plus longuement sur cette histoire italienne avant de te partager mes trouvailles hebdomadaires.
🇮🇹 ChatGPT bloqué : la fin des IA en Europe ?
La news a fait grand bruit en fin de semaine et tu en as certainement déjà entendu parler : Les autorités Italiennes ont fait bloquer ChatGPT.
Pour être précis, l’Italie n’a pas interdit ChatGPT ni ordonné l’interruption du service d’OpenAI. L'autorité Iitalienne de protection des données personnelles, la Garante, a uniquement ordonné à OpenAI de cesser de collecter les données personnelles des internautes Italiens sous peine d’amendes allant jusqu’à 20 millions d’euros.
Mais en pratique, le moyen le plus simple pour OpenAI de se conformer à cette demande est évidemment de ne plus permettre aux Italiens d’utiliser ChatGPT.
La Garante justifie sa demande en arguant de la non-conformité de ChatGPT vis à vis des règles de protection des données personnelles (le fameux RGPD). Elle rajoute une couche en pointant également l’absence totale de vérification de l’âge des utilisateurs (alors que l’IA peut donner des réponses inappropriées aux mineurs) et pointe aussi la fuite de données personnelles dont je t’ai parlé dans les actualités de la semaine dernière.
Cette semaine, j’ai eu envie de revenir sur cette actualité et d’en profiter pour te parler un peu plus généralement des questions ou problèmes que posent ChatGPT et les IA en ce qui concerne la protection des données personnelles.
ChatGPT enfreint-il la loi ?
RGPD, Garante,… C’est quoi tout ca ?
Le RGPD (Règlement Général sur la Protection des Données) est une réglementation européenne approuvée en 2016 et d’application depuis 2018. Il impose aux entreprises une série d’obligations en matière de protection des données personnelles.
Pour appliquer le RGPD, chaque état européen a mis en place une autorité régulatrice : par exemple la CNIL en France, l‘ADP en Belgique ou la Garante en Italie.
Il faut aussi savoir que le RGPD définit de manière plutôt large - et même vraiment très large - ce que sont les données personnelles qu’il régule. En pratique, toute information sur une personne est une donnée personnelle.
Pour en savoir plus, je te recommande la lecture de cette suite d’articles qui expliquent de manière assez claire ce qu’est le RGPD et ce qu’il encadre.
Des infractions évidentes
Personnellement, je suis un peu étonné du ton conditionnel qu’utilise la plupart des articles à propos de la décision Italienne pour parler d’éventuelles infractions au RGPD. Il n’y en effet aucun doute : ChatGPT ne respecte pas la réglementation européenne.
Il est indéniable que des données personnelles sont (potentiellement) transmises à ChatGPT. Il suffit qu’un utilisateur lui demande de l’aide pour rédiger un CV ou une réponse à un e-mail pour que des données personnelles telles que définies par le RGPD soient transmises.
Et OpenAI n’a jamais caché que ces données étaient stockées sur ses serveurs. Dans le cas de ChatGPT, elles le sont même pour une durée indéterminée et peuvent être utilisées pour entraîner ou affiner l’IA. Rien qu’avec cela on est en infraction avec le RGPD.
De plus, les serveurs de données OpenAI sont aux USA, qui n’offrent tout simplement pas les garanties nécessaires pour stocker de manière légale des données européennes. Les lois américaines indiquent même que les données privées doivent pouvoir être transmises sur demande aux autorités et ce sans prévenir les personnes concernées, ce qui, tu l’auras deviné, est complètement contraire au RGPD.
C’est en partie pour cette raison que Google a été condamné l’an dernier et que Google Analytics, même s’il reste largement utilisé, n’est toujours pas une solution légalement valide pour analyser la fréquentation d’un site web.
Ok, mais ca change quoi ?
Pour moi, ce qui est intéressant et intriguant dans cette histoire, ce n’est donc pas la question de savoir si ChatGPT et OpenAI sont en infraction.
Ce n’est pas non plus de savoir pourquoi la Garante s’est emparée de cette affaire et a décidé d’imposer des sanctions. Je ne vois personnellement pas beaucoup d’intérêt à tergiverser sur la peur des autorités face aux IA et encore moins à fantasmer sur une sorte de conspiration anti-IA des classes dirigeantes.
Ce qui m’intéresse, c’est plutôt les suites de cette décision et les conséquences qu’elles pourraient avoir sur la conception et l’utilisation des IA en général.
Toutes les IA sont illégales !?
D’une certaine façon, la Garante italienne vient en effet nous rappeler et nous empêcher d’ignorer ce que tout le monde savait déjà : l’utilisation actuelle des IA pose de sérieux problèmes de confidentialité et ne respecte pratiquement aucune norme de protection des données - et certainement pas le RGDP européen.
C’est d’ailleurs ce qui a déjà poussé certaines entreprises et administrations à interdire ChatGPT et les outils d’OpenAI. Aussi futiles et naïves qu’elles soient, ces interdictions reposent sur le même constat et ont du sens d’un point de vue de protection des données.
Une protection insuffisante
Si je ne suis absolument pas pour l’interdiction des IA, que ce soit dans le cadre de la protection des données ou pour d’autres raisons, je pense que la situation actuelle est effectivement problématique : des tonnes de données privées et personnelles sont plus ou moins consciemment partagées avec les IA. Et l’on ignore presque tout sur la manière sont elles sont stockées, réutilisées et partagées.
OpenAI est possiblement moins pire que d’autres dans ce domaine et je leur accorde le bénéfice du doute. Ils appliquent et respectent les lois californiennes pour la protection des données personnelles et se sont déclarés plusieurs fois en faveur de régulations et de normes éthiques. Mais ce qu’ils font actuellement est insuffisant.
Et du coup, la situation actuelle pose deux problèmes.
Le double problème actuel
Premièrement, il est actuellement impossible pour une entreprise d’utiliser les services d’OpenAI (et pas uniquement ChatGPT) sans enfreindre le RGPD. Et c’est aussi le cas pour l’essentiel des autres IA qui tournent également sur le Cloud avec des serveurs ou des data-centers américains.
Microsoft n’a pas encore été inquiété, mais je ne vois pas comment Bing AI et le nouveau 365 Copilot pourraient ne pas être en infraction. A tout moment, une agence nationale ou un arrêt de la Cour de Justice de l’Union européenne pourrait les déclarer illégaux et réclamer des amendes conséquentes à Microsoft.
Et n’importe quelle startup ou PME européenne qui utilise ces IA se retrouve avec cette même épée de Damoclés - mais avec encore moins d’espoirs que des géants comme Microsoft ou OpenAI d’échapper aux éventuelles pénalités.
Ensuite, pour les utilisateurs particuliers comme toi et moi, cela signifie que nous n’avons pas beaucoup de choix : soit on abandonne tout espoir de confidentialité de nos données, soit on n’utilise pas les IA. Il n’y a actuellement aucune IA qui propose une meilleure protection.
Pas d’exception pour l’IA
A mon sens, l’erreur serait donc de vouloir minimiser ou normaliser la situation actuelle.
IA ou non, la protection des données personnelles est un véritable enjeu et doit être défendue. Les abus et dérives possibles sont tout simplement trop nombreux et dangereux pour qu’on puisse délaisser ces questions.
Et même s’il peut être très contraignant, le RGPD est une norme importante et pertinente. Il n’y a aucune raison d’envisager un régime d’exception qui permettrait à l’IA d’y échapper ou de bénéficier d’un allégement.
Viva Italia !
Aussi pénible soit-elle, j’ai donc envie de saluer l’initiative italienne.
Il est nécessaire de questionner la manière dont les créateurs et opérateurs d’IA utilisent nos données, de défier l’actuelle nonchalance des principaux acteurs du marché dans ce domaine, et de mettre ces entreprises face à leurs responsabilités.
L'injonction de stopper le service en Italie reste maladroite et un peu ridicule. A l’heure actuelle, ChatGPT est indisponible pour les italiens (sauf ceux qui utilisent un VPN) mais pas les API d’OpenAI, ni Bing ou d’autres chatbots qui les utilisent (Poe, ChatSonic,…). C’est donc surtout un problème pour les Italiens, problème dont les effets sur OpenAI et ses comparses restent très limités.
J’espère cependant que cette première action officielle sera suivie d’autres et que l’Europe pourra se saisir de l’occasion pour lancer de véritables discussions et réflexions sur le sujet.
Les pessimistes diront que ce ne peut être qu’une montagne bureaucratique accouchant d’une souris, mais je suis dans la team optimiste : faisons bouger les lignes et essayons de rendre les choses moins imparfaites qu’elles ne le sont actuellement. L’Europe en a les moyens.
😞 Amis IA, une ambiguïté dangereuse
Un utilisateur de l'application Chai AI s'est récemment suicidé en Belgique après avoir eu des discussions avec l'une des personnalités virtuelles proposées par cette application.
Il était visiblement dépressif avant de commencer à utiliser l’application de chat. Mais 6 semaines de discussions avec “Eliza”, la personnalité IA en question, ont clairement aggravé les choses.
Chai AI n'est pas la seule application de ce genre sur le marché : il existe des dizaines d'applications similaires qui proposent aux utilisateurs de développer des relations amicales ou même amoureuses avec des intelligences artificielles.
Je suis personnellement plutôt mal à l'aise avec cette utilisation de l'IA. Jouer volontairement sur l'ambiguïté entre IA et personne réelle et prétendre que les modèles de language peuvent développer des sentiments d'amitié (ou d'amour) m'a toujours semblé malsain.
Bizarrement, Eliza n'est pas seulement le nom de l'IA de ChaiAI dont il est question ici. C'est aussi le nom d'un chatbot conçu il y a plus de 50 ans qui simulait un psychothérapeute. Il a même donné son nom à l'Effet Eliza qui désigne la tendance à assimiler inconsciemment le comportement d'un ordinateur à celui d'un être humain.
On sait donc depuis 50 ans que les utilisateurs ont tendance à confondre l'IA avec une personne réelle. Et on devrait donc éviter de jouer avec le feu en entretenant volontairement cette confusion pour créer des relations illusoires - et inévitablement toxiques.
🛠️ App, outils et autres bons liens
Catbird.ai est un site plutôt sympa qui permet de générer des images avec une quinzaine de modèles Stable Diffusion différents d’un seul coup. Intéressant pour tester un prompt.
OpnForm lance le premier générateur de formulaire text-to-form. Il suffit de décrire le formulaire et l’IA le crée.
Atua intègre ChatGPT à votre Mac et le rend disponible partout. L’app permet en plus de créer des commandes sur mesure pour lancer des prompts plus rapidement.
SiteGPT n’est pas le premier service à proposer de créer un chatbot de support à partir du contenu d’un site web. Mais il le fait bien et a été créé par Bhanu qui a également créé l’outil de blogging feather.so que j’aime beaucoup.
Je reflechis depuis un moment à créer l’une ou l’autre mini-formation en ligne. Du coup, je crois que ce Mini Course Generator pourrait bien me servir.
Weweb, un outil de création d’App sans coder que j’apprécie beaucoup lance son Weweb Copilot - Une IA pour créer des apps encore plus rapidement. Ils ont aussi recréé l’interface de ChatGPT avec leur outil.
📰 L’actu en (très) bref
Des centaines d'experts mondiaux appellent à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT-4.
Cette pause doit selon eux servir à élaborer de meilleurs garde-fous pour ces logiciels.
Cette lettre ouverte n’aura probablement pas d’effet sur le climat actuel de la recherche en IA, qui voit des entreprises technologiques comme Google et Microsoft se précipiter pour déployer de nouveaux produits.
Certains pensent que cette idée de pause est terriblement mauvaise, d’autres qu’elle ne va pas assez loin…
Zoom IQ est une IA conçue pour améliorer la collaboration en résumant les fils de discussion, organisant les idées, rédigeant des brouillons,…
Ces fonctionnalités seront déployées uniquement sur invitation à partir du mois d’avril.
Devenu populaire pendant le confinement, Zoom doit maintenant redoubler d’effort pour rester pertinent face aux offres concurrentes comme celles Microsoft et Google et cherche à devenir une application tout-en-un.
Google et Replit s’associent pour créer un concurrent à GitHub Copilot
Les développeurs de Replit auront accès à l’infrastructure, aux services et aux modèles de base de Google pour l’IA générative.
L’application Ghostwriter de Replit utilisera les modèles de langage de Google pour suggérer des blocs de code, compléter des programmes et répondre instantanément aux questions des développeurs.
L’objectif de Replit est d’autonomiser un milliard de créateurs de logiciels.
Wikipedia pourrait utiliser l’IA
Jimmy Wales, le fondateur de Wikipédia, envisage l'utilisation de l'intelligence artificielle pour améliorer l'encyclopédie collaborative en ligne.
L'utilisation de l'IA peut être une méthode plus efficace pour réduire les biais et repérer les angles morts sur la plateforme collaborative - mais pourrait aussi introduire ses propres biais.
Jimmy Wales est bien conscient des biais et des défis liés à l'IA, mais il reste optimiste et estime que l’impact de l’IA sur Wikipedia serait positif.
Google est accusé d’avoir utilisé ChatGPT pour entraîner Bard.
Ils auraient utilisé des réponses et conversations de ChatGPT, partagées sur ShateGPT, pour entraîner ou finetuner leur propre chatbot.
Google nie naturellement avoir utilisé des données de ChatGPT.
Les conditions d’utilisation de ChatGPT interdisent effectivement d’utiliser les réponses pour entraîner d’autres IA.
Un projet open source, GPT4ALL a fait exactement cela : ils ont finetuné le modèle Llama de Meta avec plus de 800.000 réponses de ChatGPT pour créer un chatbot (très) similaire.
Merci de m’avoir lu jusqu’ici et d’être abonné à Brainy Sunday (si ce n’est pas le cas, inscris-toi ICI).
Je te donne rendez-vous dimanche prochain pour une nouvelle édition avec, j’en suis sûr, encore plein d’actualités passionnantes à décortiquer et de liens à explorer.
A très bientôt,
- Thomas