Je m'abonne

ChatGPT reproduit-elle les stéréotypes de nos sociétés ?


Tribune de Wilhelmine Dubuisson, Business & Account Manager chez Prodware. « Pour aller de l’avant, il faut prendre du recul. Car prendre du recul, c’est prendre de l’élan. » Dans Le bien, le mal, Mc Solaar abordait en ces termes la question du rapport entre le passé et l’avenir, celle de la...

Entreprendre - ChatGPT reproduit-elle les stéréotypes de nos sociétés ?

Tribune de Wilhelmine Dubuisson, Business & Account Manager chez Prodware.

« Pour aller de l’avant, il faut prendre du recul. Car prendre du recul, c’est prendre de l’élan. » Dans Le bien, le mal, Mc Solaar abordait en ces termes la question du rapport entre le passé et l’avenir, celle de la nécessité de la connaissance de l’Histoire pour aller vers le futur. L’Intelligence Artificielle illustre à sa manière cette logique. Elle imagine des solutions (au futur) sur la base de données préexistantes (au passé). Une fois le processus connu, des questions émergent naturellement. Est-il possible – et si oui comment – dans ce contexte d’identifier et de corriger les biais de représentation dans les solutions proposées par l’IA ?

Pour répondre à cette question, ChatGPT propose une réponse en 4 étapes : diversifier les sources de données, appliquer une surveillance et une évaluation continue des données, impliquer une diversité de contributeurs (et de contributrices, NDLR, biais de représentations, quand tu nous tiens) et sensibiliser les utilisateurs (et utilisatrices, NDLR, CQFD…). L’outil d’OpenAI décrit en outre qu’ « il peut être difficile d’éliminer complètement les biais de représentation. La correction de ces biais est un processus continu qui nécessite des efforts collectifs de la part des développeurs, des chercheurs et des utilisateurs de l’IA ». Toujours pas d’écriture inclusive, toujours pas de diversité, mais une conclusion en forme de précaution oratoire. ChatGPT propose donc à ses lecteurs et lectrices de relativiser ses propres réponses. Suffisant ? Rien n’est moins sûr…

Thèse, antithèse, synthèse… Doute ? Hypothèse ?

Toute analyse des outils d’Intelligence Artificielle, nécessite en premier lieu de rappeler que, quel que soit leur degré d’intervention dans un processus de création, ils n’en sont jamais à l’initiative. En effet, les outils d’AI n’inventent rien, ne créent rien. Ils interprètent, analysent, structurent, reproduisent, exécutent. Leur prêter une intentionnalité revient à ajouter un biais d’analyse supplémentaire. L’IA serait-elle alors plus victime que coupable d’un biais ? Derrière la pirouette linguistique se cache une vérité plus profonde.

Car les stéréotypes dont l’IA peut s’emparer pour les reproduire ne sont jamais liés à une intentionnalité. Au contraire, ils sont toujours le fruit d’une collecte de données elles-mêmes biaisées. La réponse de l’IA prend en compte la question qui lui est posée, et l’immense quantité de données auxquelles elle a accès pour y répondre. Cette réponse n’est ainsi que le résultat d’une computation froide et dépassionnée qui établit des corrélations sur des bases statistiques permises par les grands nombres. Ce n’est ni un raisonnement, ni une réponse absolue et péremptoire, plutôt une agrégation d’éléments pouvant nourrir le débat.

La réponse est dans la question ?

La société dans son ensemble présente de nombreux déséquilibres. Discriminations, inégalités femmes-hommes, manque de diversité et d’inclusion, les points sensibles sont aussi multiples que leur capacité à gagner du terrain dans le débat public. L’évolution est positive, prometteuse, mais le constat est bien là. Or, en se basant sur des données elles-mêmes biaisées, l’IA apporte des réponses qui, sur leur composante sociale au moins, posent plus de questions qu’elles n’apportent de solutions. Son action semble comme une paraphrase de la définition de Coluche du technocrate : « Quand on lui pose une question, et qu’il a fini de te répondre, tu ne comprends plus la question que tu as posée ». Alors l’IA serait une version 2.0, 3.0 ou 4.0 du technocrate de l’Enfoiré n°1 ? Pas tout à fait. Parce que là où le personnage décrit par Coluche n’apportait que confusion, une IA est capable de pointer les déséquilibres les plus flagrants, d’établir les calculs permettant de mieux les cerner, et de proposer des solutions pour mieux les corriger. C’est aussi cela la vertu d’un outil non intentionné : sa malléabilité. Souvent décrite dans ses travers les plus noirs (qui mèneraient à l’expérience désastreuse de Tay, l’IA devenue raciste suite à des interactions malveillantes en 2016), elle est aussi une source de progrès. Regarder honnêtement le passé, c’est le seul moyen de construire un avenir meilleur. L’élément pivot de cette articulation, c’est bien le présent.

Passé pour être présent dans ton futur

Le présent est un temps qui mêle résultat (le passé nous a menés jusqu’ici et maintenant) et construction (celle d’un avenir qui n’existe pas encore). L’IA s’inscrit dans cette tension. Elle construit, ou tout du moins aide l’humain à construire, mais ne se base pour le faire que sur des éléments passés, factuels. Lui prêter une intention, de la même façon que lui reprocher un biais, reviendrait à projeter sur elle des éléments qui ne la composent absolument pas. L’humain est le maître incontestable et – souhaitons-le – incontesté du raisonnement, la machine le serviteur de son processus de création. Elle compile des éléments passés, répond au temps présent, et l’humain peut (ou pas) s’en servir pour construire l’avenir.

C’est un autre élément de contexte parfois négligé au profit de seules considérations sur la puissance de calcul des machines : la temporalité de l’analyse de l’IA. Dans un monde qui va de plus en plus vite, la réponse de l’IA n’est jamais autre chose qu’une analyse du passé, même lorsqu’on lui demande d’imaginer l’avenir. Elle est en évolution constante, sans cesse alimentée par l’humain (par de nouvelles données, mais aussi par de nouveaux contextes, de nouveaux enjeux sociétaux) et par elle-même (via le machine learning). Décontextualiser ses réponses reproduit donc le même biais que de ne pas prendre en considération les données qui l’ont aidée à les formaliser. On ne dira jamais assez que, malgré l’attrait universel d’une belle solution toute faite, l’Intelligence Artificielle reste fondamentalement un outil au service d’une analyse humaine, plus nuancée, plus complexe, plus émotionnelle, plus complète en somme.

Finalement, l’Intelligence Artificielle a-t-elle raison ? Si on en croit toujours ChatGPT, elle-même (n’est-ce pas encore un biais de lui donner un genre féminin ?) semble douter de la pertinence de la question : « En tant qu’Intelligence Artificielle, je suis programmée pour fournir des réponses basées sur les informations et les modèles de langage qui m’ont été fournis lors de mon entraînement. Cependant, il est important de noter que je ne suis pas infaillible et que mes réponses peuvent parfois être sujettes à des erreurs ou à des imprécisions. Je m’efforce de fournir des réponses précises et fiables, mais il est toujours recommandé de vérifier les informations que je donne auprès de sources supplémentaires ou d’experts dans le domaine concerné ».

Pour mieux voir l’IA et comprendre ce qu’elle peut apporter, cessons de la regarder en biais, sans jamais perdre de vue qu’à la manière d’un miroir grossissant, elle est toujours porteuse de nos propres biais.

Wilhelmine Dubuisson

À voir aussi