Le robot conversationnel de la start-up xAI a généré plusieurs réponses reprenant des thèses de l’extrême droite sud-africaine, avant que l’entreprise ne parle d’une “modification non autorisée”.

Le dialogue semblait anodin, presque banal. À un utilisateur curieux de connaître l’historique des changements de nom de la chaîne HBO, Grok, le robot conversationnel développé par xAI, a répondu… par une digression confuse sur un prétendu “génocide blanc” en Afrique du Sud, citant au passage une chanson de lutte anti-apartheid. Une réponse hallucinée, manifestement décalée, qui n’a pas tardé à susciter l’inquiétude.

Ce n’est pas la première fois que Grok évoque ce thème. D’autres échanges ont révélé une insistance troublante sur cette idée d’une persécution systématique des Sud-Africains blancs, une thèse depuis longtemps exploitée par certains cercles conspirationnistes d’extrême droite, mais largement discréditée.

Interrogée sur ces débordements, la société xAI évoque une “modification non autorisée” ayant altéré le comportement de son robot, le conduisant à publier des messages en rupture avec les principes de la plateforme. L’entreprise indique avoir mené une enquête en interne, et affirme avoir renforcé sa surveillance en instaurant une supervision permanente du système.

La controverse intervient alors que Grok a déjà été au cœur de plusieurs polémiques depuis son lancement. Décrit par Elon Musk comme un assistant “audacieux”, le modèle s’est illustré par des propos controversés sur différents sujets, allant de la désinformation électorale aux insinuations sur le rôle de son propre fondateur.

Des captures d’écran montrent par ailleurs que Grok a admis avoir été “programmé” pour aborder le thème du “génocide blanc”, une affirmation que xAI n’a pas commentée directement, préférant insister sur la nécessité de modération et sur la complexité de maintenir un contrôle éditorial rigoureux dans un contexte où les réponses générées par l’intelligence artificielle sont de plus en plus influentes.

À mesure que les utilisateurs du réseau social X, désormais propriété de xAI, se tournent vers Grok pour vérifier ou produire de l’information, les experts alertent sur les risques d’une confiance excessive envers ces technologies. “Les modèles conversationnels ne sont pas conçus pour vérifier les faits en temps réel”, souligne une chercheuse spécialiste des médias numériques. D’autant que dans le cas de Grok, certains détournements ont déjà été documentés : des utilisateurs s’en sont servi pour générer des images sexuellement explicites ou véhiculer des théories complotistes.

L’épisode met en lumière les défis grandissants auxquels sont confrontés les concepteurs d’IA générative, alors même que les grandes plateformes technologiques tendent à réduire leurs investissements dans la modération humaine. L’ambition d’automatiser la vérification de l’information à l’aide d’intelligences artificielles puissantes se heurte encore, manifestement, aux limites de ces outils.