Intelligence Artificielle (IA) : ChatGPT, le robot qui écrit et fait parler de lui (2)

15/02/2023

Au-delà des enjeux techniques et économiques, ChatGPT, le robot conversationnel, peut modifier en profondeur le quotidien et la vision des utilisateurs.

 

De nombreux secteurs impactés par l’IA

La phénoménale accélération de l’IA ces dernières années va modifier la vie quotidienne dans les secteurs de l’éducation, de la santé, de la défense, des transports, du management …

Ainsi, en Chine, un leader du jeu vidéo NetDragon Websoft a “nommé” un robot PDG d’une de ses filiales. Le personnage virtuel de Tang Yu travaille en continu. Pour la société mère, qui dans les faits garde le contrôle de la gestion de sa filiale, il s’agit aussi de montrer son savoir-faire en IA, comme l’analyse un article de Francetvinfo.  ​

  • Dans le secteur de la justice, l’apport d’une IA est à double tranchant. D’une part, une IA pourrait, en comparant des milliers de jugements, montrer des traitements différents pour des cas proches dans un territoire soumis aux mêmes lois. D’autre part une standardisation des jugements produite par une machine pose la question d’une norme déshumanisante.
  • Dans le secteur universitaire, l’utilisation de ChatGPT a été interdite par l’IEP (Institut d’Etudes Politiques) de Paris à ses étudiants “sous peine d’exclusion”, car le recours à ChatGPT ne respecte pas “les exigences académiques d’une formation dans l’enseignement supérieur”. Le journal Le Progrès a relaté la découverte par un enseignant de l’Université de Lyon de copies étrangement proches.
  • Enfin, le secteur des métiers créatifs est également concerné, Dall-E, autre logiciel produit par OpenAI, est capable de produire des images sur commande, « à la façon de ».

Selon les mots de Laurence Devillers, dans une tribune du Monde, il faut “saluer l’avancée technologique, mais comprendre les limites de ce type de système”.

 

Un changement de format dans l’interaction humain-machine

ChatGPT répond sous forme de dialogue aux questions posées par les utilisateurs tandis que dans les moteurs de recherche actuels, Google ou de Microsoft (Bing), l’utilisateur humain choisit parmi les centaines de liens proposés celui qu’il va consulter et il peut en connaitre la source (qui a écrit, quand…).

Puisque le robot ChatGPT rédige des textes (dissertation, poèmes, réflexions…), on peut se poser la question des sources, des méthodes, des critères de classement, d’acceptation ou de rejet des informations stockées dans la base qu’il utilise pour produire ses réponses.

Le robot va-t-il privilégier certaines informations ou visions du monde au détriment d’autres ? Va-t-il introduire des asymétries ou de la censure dans les informations qu’il propose ? Jusqu’à quel point le robot, même quand il répond en français, est influencé par la vision américaine du monde ?

Deux exemples tirés de l’actualité illustrent ce point. Un récent article du Figaro rapporte que le robot répond différemment quand on le sollicite pour écrire des scénarios de politique fiction sur les présidentielles américaines, selon qu’il s’agit d’Hillary Clinton en 2016 (le robot accepte d’écrire une fiction où elle gagne l’élection) ou de Donald Trump en 2020 (le robot refuse d’écrire une fiction à partir d’une victoire).

Dans un débat sur France Inter le 3 février, l’économiste Thomas Piketty, connu pour ses travaux sur les inégalités et classé à gauche politiquement, pointait que ChatGPT classait le journal les Echos comme un journal neutre et impartial sur la question des retraites débattues en France en ce moment.

Recevoir des réponses de la part d’un robot comporte le risque de penser que ce qu’il produit est neutre, alors que nous savons qu’un humain nous parle à partir de son histoire, de ses valeurs, de ses buts … En effet, les systèmes de langage en IA se nourrissent d’un corpus de documents existants avec des schémas de logiques préétablies.

 

Derrière la prise de parole par la machine, une prise de contrôle inacceptable ?

Dans une interview en format vidéo au Figaro, le philosophe Eric Sadin note que tous les produits utilisant l’IA tendent à effacer la distance humain/machine, à rendre flou la frontière entre les deux. Il pointe deux risques :

  • D’une part, quand la machine nous parle (sur un simple GPS ou via un robot plus sophistiqué), elle pourrait tendre à décider pour nous. Et la technique qui nous parle, ce sont les intérêts économiques et politiques qui parlent à notre place, qui s’imposent à nous. La rupture anthropologique dénoncée est ainsi que des systèmes nous privent de notre réponse en “je”. Responsabilité vient du verbe répondre, de qui la machine répond-elle quand elle nous parle ?
  • D’autre part, Eric Sadin souligne la misanthropie à l’œuvre dans certains milieux du numérique. Dans leur vision du monde, “l’homme est lacunaire et pétri de défauts”. Les liens entre Google et le mouvement trans-humaniste sont bien documentés (ici et ici, parmi des centaines d’articles). Dans cette situation, le philosophe estime que le franchissement de seuil dans la prise de pouvoir par l’IA est à surveiller. De plus, la notion d’encadrement se réduit souvent à un “vague pare-feu réglementaire”. Devons-nous, au niveau individuel et collectif, nous détourner de certaines technologies qui nous poussent à “évacuer, renier ou étouffer nos propres facultés à des fins marchandes” ?

 

Choisir le bien reste une compétence fondamentalement humaine

De nombreuses réflexions sont en cours pour classer les différents systèmes d’intelligence artificielle en fonction du niveau de risque qu’elles font courir à l’homme qui a besoin d’être éduqué et averti lors de son interaction homme-machine pour discerner et choisir le bien. Les réflexions développées en 2021 dans l’AI Act de l’Union Européenne  permettent de classer les systèmes d’IA :

  • les systèmes à risques minimaux (par exemple les filtres de spams),
  • les systèmes interdits en raison de risques inacceptables (tels que le scoring social ou les systèmes abusant de personnes porteuses de handicaps physiques ou mentaux),
  • les systèmes autorisés avec des risques limités incluant les chatbot dont les utilisateurs doivent être informés qu’ils interagissent avec un robot.

Au niveau français, La CNIL s’est emparée du sujet très récemment (23 Janvier 2023) en créant un service de l’intelligence artificielle pour renforcer son expertise sur ces systèmes et sa compréhension des risques pour la vie privée, tout en préparant l’entrée en application du règlement européen sur l’IA. Par ailleurs, elle proposera des premières recommandations sur le sujet des bases de données d’apprentissage dans les prochaines semaines. Face au progrès de la technologie, cet effort de régulation au niveau national et européen manifeste l’importance de mettre l’humain « dans la boucle », à tous les niveaux : personnel, collectif, national…

Contre la misanthropie de l’approche trans-humaniste, accepter notre propre vulnérabilité est un défi à relever. Lors de son intervention à l’Université de la Vie, Philippe Dewost rappelait qu’une machine ne remplacera jamais la présence humaine auprès d’une personne qui souffre. Et dans cette présence offerte, ce lien tissé dévoile notre compétence fondamentale d’humains, celle de choisir le bien.

NB: Cet article a été écrit par un humain.

Restez informé de nos dernières actualités

Articles récents