ChatGPT : commérages banals ou intelligents ?

La révolution définitive qui changera la face du Monde pour ce qui reste d’éternité est désormais le babillage avec un robot d’intelligence artificielle qui accède à des zillions d’informations et de connexions entre elles pour produire des textes à propos de tout et n’importe quoi. Les uns présentent cela comme le fin du fin de la puissance prométhéenne, les autres comme une finesse de plus dans l’anéantissement de la fantaisie humaine.

On peut jouer et perdre bien du temps avec ce robot de babillage. On ne peut qu’en admirer la performance. S’il s’agit de rédiger un discours bien commun à propos d’un sujet particulier cela peut même être une béquille très utile quoique boiteuse. Mais cela ne concerne que le babil, encore bien éloigné de la conduite des affaires humaines.

Le grand avantage de ce robot est qu’il n’élude aucune question, ce qui est le défaut principal de tout homo politicus ; vous voulez une réponse, vous l’obtenez. Cependant, lors d’un dialogue, on s’aperçoit qu’il peut produire des instructions très précises, par exemple pour de la programmation informatique, répondre très clairement à une question du type « comment enlever une tache de vin rouge sur une nappe en lin, » mais aussi générer des suites de banalités lorsque la conversation est menée à propos d’idées ou de concepts généraux, par exemple, de l’inclusivité ou de la décadence de l’Occident. Il semble aussi que des cautèles soient ajoutées afin d’éviter que l’on puisse croire et dire que ChatGPT émet des jugements. 

J’y ai ainsi soumis la phrase suivante :
Les réponses données par ChatGPT sont répétitives. Elles reproduisent beaucoup de banalités et ne sortent pas d’un cadre donné. Ce sont les stéréotypes actuels qui sont reproduits.

Et la réponse fut :
ChatGPT est un modèle de traitement du langage qui a été entraîné sur des données de textes disponibles sur internet. Il peut donc reproduire des stéréotypes et des idées répandues qui se trouvent dans ces données. Cependant, je suis capable de générer des réponses originales en utilisant les informations que vous me fournissez et en combinant différentes idées pour les adapter à vos besoins spécifiques. Si vous avez des questions spécifiques, n’hésitez pas à me les poser.

On en est donc à un modèle de traitement de langage qui n’a pas la prétention de sortir du corpus d’informations disponibles, ni donc de créer quoi que ce soit. Mais si l’on a oublié certains points d’un thème donné, le robot peut les rappeler, c’est donc aussi un pense-bête, un comble pour l’AI !

À une autre question portant sur les biais possibles des programmeurs des algorithmes, la réponse reste prudente :
« Il est important de noter que les développeurs d’OpenAI mettent en place des processus pour minimiser les biais et les préjugés dans les données et les modèles de traitement du langage, mais il est difficile d’éliminer complètement ces facteurs. Il est donc important de prendre en compte les limites des modèles de traitement du langage et d’utiliser des sources d’informations multiples pour se faire une idée plus complète. »

Cette phrase peut être rassurante pour les uns, mais aussi inquiétante pour d’autres, car tout repose finalement sur la probité des équipes de programmeurs et concepteurs de ce type de modèles. Comme il s’agit d’intelligence il sera extrêmement difficile de garantir cette probité. Le risque d’algorithmocratie, comme le décrit Jean-Paul Oury[1], se trouve autant chez les créateurs de ces systèmes que chez leurs utilisateurs qui leurs accorderaient un pouvoir et une confiance démesurés.

Babiller n’est bien sûr pas le but ultime de l’entreprise car il s’agit de s’équiper de tels moyens afin de rendre des services en lieu et place du travail humain. La conduite automobile ou les diagnostics médicaux sont encore trop défaillants mais des progrès rapides sont en cours. Cela impliquera des processus de décision complexes allant au-delà d’algorithmes prédéterminés. Après que le travail manuel s’est vu secondé puis remplacé par celui des machines, après que des masses de travaux répétitifs ont été repris par des ordinateurs, c’est maintenant le travail intellectuel et décisionnel qui devrait être confié à des systèmes d’une rare complexité.

Cela ouvre des perspectives abyssales, fantasmées ou réelles, l’avenir le révélera.


[1] Greta a ressuscité Einstein. La science entre les mains d’apprentis dictateurs. Jean-Paul Oury. VA Éditions. 2022,


Merci de compartir cet article
FacebooktwitterlinkedinmailFacebooktwitterlinkedinmail

1 thought on “ChatGPT : commérages banals ou intelligents ?”

  1. Da die sich die ICT-Mittel (hard und software) sowie insbesondere die Algorithmen nie ohne menschliche Intelligenz weiterentwickeln können, ist der Name « künstliche Intelligenz » zu hochgegriffen. Apps des Typs ChatGPT können nur das bereits vorhandene Wissen sehr effizient sammeln und auswerten. Sie werden wohl in erster Linie den Mainstream ausspucken. Wieso das ein Game-Changer sein sollte, will mir nicht einleuchten.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

This site uses Akismet to reduce spam. Learn how your comment data is processed.