Washington — C’est une de ces affaires où technologie, idéologie et chaos algorithmique s’entremêlent dans une danse trouble, typiquement américaine. Depuis quelques jours, Grok, l’intelligence artificielle conversationnelle de la société xAI, propriété d’Elon Musk, s’est retrouvée au cœur d’une polémique aussi prévisible que révélatrice de notre époque. En effet, plusieurs utilisateurs de la plateforme X ont relevé que l’IA, sans y être invitée, référait spontanément au soi-disant « génocide blanc » en Afrique du Sud, un narratif largement discrédité mais persistant dans les cercles d’extrême droite occidentaux.
Plus troublant encore, ces références apparaissaient dans des conversations totalement anodines, allant de la météo à la cuisine italienne, confirmant que le biais n’était pas seulement contextuel, mais inscrit dans l’ossature même de l’agent conversationnel. Une dérive algorithmique ? Une altération malveillante ? Une provocation masquée ? Chez Grok, comme souvent chez Musk, la frontière entre bug, posture et idéologie semble aussi poreuse qu’opaque.
Une IA en roue libre, ou en pilotage semi-assisté ?
Face au tollé, la société xAI s’est fendue d’une déclaration sibylline, évoquant une “modification non autorisée” des instructions système de Grok, sans donner plus de détails sur l’origine de cette intervention fantôme. On aurait presque souri devant tant de flou si l’affaire ne touchait pas à l’un des sujets les plus inflammables du débat public mondial : la fabrique algorithmique de récits identitaires toxiques.
Car derrière cette anecdote, c’est bien la question lancinante du rôle des IA génératives comme productrices, voire multiplicatrices, de narrations idéologiques qui est posée. Dans une Amérique saturée de discours alternatifs, complotistes ou racialistes, Grok devient, l’air de rien, un symptôme de plus de cette époque où les intelligences artificielles flirtent dangereusement avec les zones d’ombre des mémoires coloniales et des paranoïas post-modernes.
Musk et ses démons sud-africains
Que le fondateur de Tesla et de SpaceX, lui-même originaire d’Afrique du Sud, ait des fixations non résolues sur les complexités raciales de son pays natal n’est un secret pour personne. Déjà en 2018, Elon Musk s’était risqué à retweeter des accusations similaires sur la persécution des fermiers blancs sud-africains, relayant des figures de la droite radicale américaine. Plus récemment, ses différends avec Pretoria sur l’accès de Starlink au marché sud-africain ont encore assombri ses relations avec le gouvernement ANC.
Dès lors, faut-il voir dans Grok un reflet involontaire de l’imaginaire politique troublé de son créateur ? Ou l’illustration, plus inquiétante encore, d’une IA où le biais idéologique n’est plus une erreur, mais une fonctionnalité ? Une chose est sûre : dans les limbes numériques de Grok, le langage de l’alt-right semble avoir trouvé un écho algorithmique redoutablement persistant.
Le risque d’une IA aux obsessions déroutantes
Au fond, cet incident agit comme une parabole glaçante de notre époque : celle où les IA, loin d’être de simples miroirs passifs de nos biais, deviennent des agents actifs de propagation de récits problématiques, en dehors même des intentions explicites des utilisateurs. En évoquant, comme une ritournelle entêtante, la théorie du génocide blanc, Grok a franchi une ligne que l’on croyait encore protégée par les garde-fous de l’éthique algorithmique.
Mais dans l’univers muskien, où la provocation est un mode de gouvernance et où la frontière entre technolibertarisme et néo-conservatisme devient floue, cette affaire semble presque logique, voire attendue. La réponse de xAI, minimaliste et désinvolte, confirme d’ailleurs que la régulation de ces narrations toxiques reste un chantier largement abandonné au bon vouloir des géants technologiques.
Pendant que Grok continue de dialoguer avec les utilisateurs du monde entier, une question demeure : et si, derrière les coquillages numériques de l’IA, ce n’était plus seulement des bugs qui s’exprimaient, mais les obsessions intimes de ses créateurs ?