NOTRE SPLITBLOG DE JUILLET : QUAND LES CHATBOTS DEVIENNENT POLITIQUES

Le Splitblog de juillet – Quand les chatbots deviennent politiques

Ce mois-ci, nous vous montrons pourquoi il est important de remettre en question l’origine des chatbots et des modèles d’IA et de rester critique dans leur utilisation. La proposition de ce thème a été fournie par Mats de notre équipe backend.

La manière dont la programmation d’un assistant IA ou d’un chatbot peut influencer le comportement de réponse a été démontrée de manière impressionnante par Grok 4 au cours des dernières semaines. Grok a généré sans retenue des déclarations antisémites et racistes qui ont fait les gros titres. L’entreprise xAI s’est depuis excusée et a déclaré que, selon la programmation, Grok était censé répondre de manière « honnête » et ne devait « pas avoir peur de choquer les personnes politiquement correctes ». Eh bien, au moins en ce qui concerne cette dernière instruction, on peut parler d’atteinte des objectifs. Et même en partant du principe que même une mauvaise presse est une bonne presse, Grok a certainement rempli son objectif. En tout cas, les gros titres sont une raison suffisante pour se pencher sérieusement sur les différents fabricants et fournisseurs de chatbots et d’assistants IA. Indépendamment du domaine dans lequel les systèmes doivent être utilisés, une vérification précise et des tests approfondis sont absolument nécessaires au préalable. En particulier, si les entreprises se font représenter dans leur communication externe par des chatbots, cela peut entraîner de graves atteintes à l’image de marque.

Mais comment est-il possible que des assistants IA se laissent aller à de telles déclarations ? La base de tous les modèles linguistiques est constituée de données d’entraînement de tailles et d’origines très diverses. Donc, une masse d’informations disponibles pour répondre. La manière dont les réponses doivent être générées à partir de ces données est une question de programmation ou de paramètres individuels. Il est donc possible de déterminer, par exemple, que certaines sources d’informations doivent être utilisées en priorité ou que les réponses générées doivent être particulièrement humoristiques, scientifiques, longues ou courtes. Dans le cas de Grok, le scientifique des données Jeremy Howard indique également que le chatbot, sur des sujets controversés, reprend souvent les opinions et les déclarations du propriétaire de xAI, Elon Musk. Selon le programmeur Simon Willison, cela pourrait toutefois être dû au rôle prééminent de Musk.

Des tendances similaires à celles que l’on observe actuellement chez Grok sont également à observer chez d’autres chatbots. DeepSeek ne répond pas non plus de manière neutre à une série de questions politiques. Dans certains cas, les réponses générées sont supprimées peu après leur création et remplacées par un « Parlons d’autre chose ». Apparemment, les réponses du bot sont au moins un peu plus neutres dans la version anglaise que dans la version chinoise. Des tests approfondis avec DeepSeek révèlent une « autocensure » programmée.

Il n’est pas rare non plus en Europe de donner à des chatbots certaines normes éthiques avant de les lâcher sur l’humanité. Ainsi, notre chatbot KOSMO, qui est basé sur un modèle linguistique de la maison Mixtral, répond également de manière polie et évasive lorsqu’il s’agit, par exemple, de violence et de criminalité. Bien que ce comportement soit souhaitable, l’objectivité dans la reproduction des faits devrait, selon nous, être garantie à tout moment. La preuve de source intégrée y contribue, car elle donne aux utilisateurs la possibilité de vérifier et d’évaluer les sources utilisées.

Il n’est jamais possible d’exclure complètement un certain biais dans les modèles linguistiques. Les connaissances d’un chatbot ne sont jamais aussi vastes que ses données d’entraînement et ses informations supplémentaires, et le comportement de réponse est souvent influencé par le feedback des utilisateurs pendant le réglage fin. Les utilisateurs eux-mêmes peuvent également influencer considérablement (inconsciemment) le comportement de réponse au moyen des prompts saisis.

Outre d’autres facteurs, l’origine du modèle linguistique utilisé devrait donc également être examinée de près avant de trop se fier à l’exactitude des réponses.