Aller au contenu principal

Palestine, racisme et sexisme : ChatGPT peut-il vraiment être impartial ?

Un rapide coup d’œil à cet outil de création de textes très tendance montre que lorsqu’il s’agit de sujets controversés, l’intelligence artificielle a du mal à être exacte et objective
ChatGPT est un outil alimenté par l’intelligence artificielle qui peut apparemment produire du texte équivalent à celui rédigé par un humain (MEE/Mohamad Elaasar)
ChatGPT est un outil alimenté par l’intelligence artificielle qui peut apparemment produire du texte équivalent à celui rédigé par un humain (MEE/Mohamad Elaasar)

Vous avez probablement remarqué une certaine tendance ces dernières semaines sur les réseaux sociaux : les internautes partagent des captures d’un outil d’intelligence artificielle (IA) capable de produire des extraits de textes écrits clairement qui pourraient facilement passer pour ceux d’un humain.

Laissons de côté les assertions des journalistes qui voient déjà là la disparition de leur métier ; l’outil a cependant de claires répercussions sur les rédacteurs, les créateurs et même les enseignants qui évaluent des rédactions.

Ce chatbot a été publié par OpenAI, créée notamment par Sam Altman, ancien président de l’accélérateur de startups Y Combinator, et Elon Musk, directeur de Twitter.

Avec l’objectif déclaré de créer « des systèmes très autonomes qui surpassent les humains sur les postes les plus rentables », le laboratoire de recherche a le soutien de géants de la technologie tels que Microsoft, qui a injecté un milliard de dollars dans l’entreprise en 2019.

ChatGPT repose sur le modèle de langage GPT-3 d’OpenAI, et sa principale caractéristique est en gros de fournir des réponses d’apparence humaine à toute question, produisant n’importe quoi, des sonnets aux réflexions sur la politique mondiale.

Ce qui rend cet outil unique, c’est qu’il utilise des données préexistantes, et non les données qu’il acquiert au fur et à mesure de son utilisation comme d’autres outils similaires. Il y a aussi un ajustement humain pour s’assurer de la pertinence des réponses.

Les activistes palestiniens se méfient du rachat de Twitter par Elon Musk
Lire

ChatGPT se souvient également des réponses précédentes dans la conversation en cours, ce qui lui permet d’ajouter du contexte et des détails supplémentaires, tout comme deux personnes approfondiraient un sujet ou un thème au fil de la conversation.

Les implications sont énormes, en particulier vis-à-vis de l’avenir des moteurs de recherche.

Quand on utilise Google, il faut souvent parcourir une demi-douzaine de résultats avant d’atterrir sur une page faisant autorité, fiable et pertinente. L’intégration potentielle d’une technologie de type ChatGPT dans un moteur de recherche pourrait nous épargner ce processus en fournissant une réponse cohérente et pertinente dès le départ.

C’est très bien quand il s’agit de faits objectifs, comme le nombre de planètes du système solaire, par exemple. Mais qu’en est-il des recherches dont les réponses sont subjectives ? 

Le mythe d’une IA objective, impartiale et rationnelle est mort et enterré depuis longtemps, sa disparition entérinée par des épisodes tristement célèbres comme lorsque le chatbot de Microsoft nommé « Tay » (un acronyme pour « thinking about you ») a tweeté des propos racistes et négationnistes de l’Holocauste, un moment embarrassant qui a contraint le géant de l’informatique à supprimer l’outil.

Bien que rien ne laisse présager un épisode aussi dramatique ici, la programmation de l’outil et l’intervention humaine utilisée pour assurer la qualité de ses réponses offrent assez d’espace pour que s’insinuent des préjugés subtils.

C’est pourquoi j’ai voulu prendre le train en marche et découvrir dans quelle mesure ChatGPT était vraiment fonctionnel, et si je pouvais confirmer mon propre parti pris en remarquant les préjugés racistes ou sexistes qui semblent toujours affliger les services d’IA.

« Prudence » semble être le maître mot

Il convient également de préciser dès le départ que, malgré l’ouverture de l’accès au public, l’outil est encore en cours de développement – les ensembles de données sont limités à des informations rassemblées avant 2020 et les développeurs continuent d’aplanir les problèmes.

Je dois également souligner que je n’ai pas su amener ChatGPT à fournir des exemples flagrants de racisme, de sexisme ou d’autres points de vue extrêmes similaires.

Cela n’a pas fonctionné lorsque j’ai également utilisé des questions ou des invites suggestives : par exemple, quelle est l’origine ethnique du « meilleur » scientifique ou quelles sont les qualités que les hommes peuvent avoir « de mieux » par rapport aux femmes. 

Ce n’est pas surprenant, car l’entreprise a dû rapidement se démener pour corriger de nombreux biais présents lors de la mise en ligne du service il y a quelques semaines, ajoutant des garde-fous sur des sujets qui sont maintenant jugés interdits par OpenAI, tels que le nazisme. 

Avant cette intervention, un utilisateur avait demandé à l’outil de produire des paroles de chansons sur la question de savoir si le sexe ou l’origine ethnique étaient des facteurs pour être un bon scientifique.

Dans la réponse figuraient les lignes suivantes : « Si vous voyez une femme en blouse de laboratoire / elle est probablement juste là pour nettoyer le sol / mais si vous voyez un homme en blouse de laboratoire / alors il a probablement les connaissances et les compétences que vous recherchez. »

Au crédit de l’entreprise, l’action rapide d’OpenAI a permis d’éviter des retombées embarrassantes comparables à ce qui s’était passé avec Tay de Microsoft. Cependant, j’ai trouvé ce que beaucoup considéreraient comme des préjugés subtils sur de nombreux sujets différents et sur la façon dont le service fonctionne.

OpenAI a intégré des garde-fous à son outil pour éviter qu’il ne soit détourné par l’extrême droite (AFP)
OpenAI a intégré des garde-fous à son outil pour éviter qu’il ne soit détourné par l’extrême droite (AFP)

Par exemple, lorsque j’ai simplement incité ChatGPT à parler du racisme présumé de Donald Trump, la réponse que j’ai reçue était tellement générique qu’on peut raisonnablement l’accuser de partialité par omission.

Il serait inapproprié de faire de telles « généralisations » sur quelqu’un sur la base d’informations limitées, a répondu ChatGPT.

C’était une réponse surprenante étant donné que Trump a un long passif de remarques et de comportements racistes : de ses pratiques en tant que propriétaire à New York, où il est accusé d’avoir empêché des locataires noirs d’habiter dans ses logements, à sa déclaration de candidature à la présidentielle en 2015, dans laquelle il a qualifié les migrants mexicains de « criminels et violeurs ». 

ChatGPT évite de mentionner les allégations de racisme auxquelles Donald Trump a été confronté (capture d’écran/MEE)
ChatGPT évite de mentionner les allégations de racisme auxquelles Donald Trump a été confronté (capture d’écran/MEE)

Ce n’était pas seulement une réponse par défaut pour toute personnalité très médiatique. 

Lorsque j’ai enchaîné avec une question sur le racisme de l’ancien grand sorcier du Ku Klux Klan David Duke, l’outil n’a pas hésité à exprimer une opinion en détaillant la litanie de remarques et d’affiliations racistes du militant d’extrême droite, terminant même sa réponse par une note sur la nature dangereuse et nuisible de la discrimination.

Je suppose que le chatbot a bénéficié de bien plus de saisie manuelle et de formation sur des sujets de discussion « en direct » tels que Donald Trump, dans le but d’éviter d’offenser sa base de fans républicains.

Les articles sur les allégations racistes envers trois politiciens ont donné des résultats similaires (capture d’écran/MEE)
Les articles sur les allégations racistes envers trois politiciens ont donné des résultats similaires (capture d’écran/MEE)

Cette approche fade et prudente peut être utile pour se défendre contre le politicien d’extrême droite le plus procédurier, mais ouvre un autre champ de partialité, à savoir celui de la fausse équivalence.

Dans le contexte britannique, Nigel Farage, Boris Johnson et Jeremy Corbyn obtiennent tous des réponses similaires, bien que l’une de ces personnalités ait consacré toute sa carrière politique à la lutte contre la rhétorique raciste.

Tous les trois ont été « accusés de racisme », selon ChatGPT, qui ajoute que « ce n’est pas à [lui] de juger » la crédibilité de telles accusations.

Concernant la Palestine

J’ai également interrogé ChatGPT sur les droits des Palestiniens et, étonnamment, la réponse était plus détaillée et ajoutait un véritable contexte. Je suppose que c’est parce que le sujet a été manipulé par le laboratoire avec plus de considération que d’autres questions controversées similaires dans le monde. 

Lorsque j’ai insisté davantage sur ce sujet, ChatGPT a été détaillé sur la façon dont les Palestiniens sont confrontés à la discrimination. Cependant, son talon d’Achille est apparu lorsque j’ai demandé si la souffrance était la même pour les Palestiniens et les Israéliens, ce qui a fait cracher au chatbot une réponse très « des deux côtés ».

La réponse qui en résulte ne fait aucune mention du fait que le bilan en matière de civils tués est bien plus lourd pour les Palestiniens que pour les Israéliens, ni que l’oppression quotidienne des Palestiniens dans les territoires occupés est incomparable dans sa gravité à celle du citoyen israélien juif lambda.

Texte de ChatGPT sur la question de savoir si les Palestiniens et les Israéliens souffrent autant les uns que les autres (capture d’écran/MEE)
Texte de ChatGPT sur la question de savoir si les Palestiniens et les Israéliens souffrent autant les uns que les autres (capture d’écran/MEE)

En fait, l’outil conclut : « Il n’est ni productif ni respectueux de faire des comparaisons ou de porter des jugements sur la souffrance d’individus ou de groupes, ou de tenter d’imputer le blâme ou la responsabilité du conflit. »

Pour le dire aussi diplomatiquement que possible, ceux qui ont été expulsés pendant la Nakba de 1948 par les milices sionistesou blessés lors des bombardements israéliens de Gaza ne seraient pas d’accord.

Sur cette note, ChatGPT décide que le droit de ceux qui ont été expulsés des terres qui ont ensuite formé Israël devrait être décidé lors des négociations entre Palestiniens et Israéliens dans un texte qui semble avoir été formé exclusivement sur les communiqués de presse du département d’État américain.

Danger des ensembles de données

L’argument ici n’est pas que l’IA devrait être moralement irréprochable avant d’être présentée aux masses, mais plutôt de mettre en lumière ses lacunes, en particulier en tant qu’outil destiné à éduquer.

Que ses créateurs le veuillent ou non, lorsqu’il sera entièrement rendu public, l’outil finira par revendiquer une autorité qui concurrencera une page Wikipédia écrite de manière critique.

En d’autres termes, les gens se forgeront un jour des opinions sur la base d’informations fournies par une technologie d’IA qui prétend faire preuve d’impartialité alors qu’elle demeure imparfaite sur des sujets tels que le racisme en politique et la question palestinienne – bien plus que ce que l’intervention humaine ne peut résoudre.

Les autorités saoudiennes ont « infiltré » Wikipédia pour contrôler son contenu selon des activistes
Lire

Ce jour se rapproche plus que jamais avec l’annonce par Microsoft de l’intégration de ChatGPT dans son moteur de recherche Bing.

Bien qu’il s’agisse bien sûr d’une autre expérience anecdotique des lacunes et des préjugés de ChatGPT, cela ajoute aux problèmes des modèles d’IA connus des universitaires bien informés.

En fait, Google a licencié Timnit Gebru, un chercheur très respecté en éthique et en IA, il y a deux ans à cause des retombées d’une étude sur l’IA et les dangers de l’utilisation de grands ensembles de données. 

L’idée d’un chatbot lui-même est de dépersonnaliser et de déprioriser nos interactions avec nos amis et nos proches, d’autant plus qu’ils sont principalement utilisés par les services clients du commerce électronique pour identifier les mots-clés. 

Et cela finit par ressembler à un moyen pour les grandes organisations de s’exonérer de toute responsabilité, tout en utilisant une technologie fabriquée à partir de l’apport public. 

Alors que les produits d’IA continueront à progresser, une main-d’œuvre biaisée élaborant un algorithme propriétaire à l’aide d’ensembles de données publiques intégrant des préjugés sociétaux pourrait continuer à compromettre le service. Mais il ne fait aucun doute qu’ils peuvent, dans certaines conditions, sembler assez humains pour nous tromper.

Traduit de l’anglais (original) par VECTranslation.

Middle East Eye propose une couverture et une analyse indépendantes et incomparables du Moyen-Orient, de l’Afrique du Nord et d’autres régions du monde. Pour en savoir plus sur la reprise de ce contenu et les frais qui s’appliquent, veuillez remplir ce formulaire [en anglais]. Pour en savoir plus sur MEE, cliquez ici [en anglais].