Suspension temporaire de l’IA Grok sur X : raisons évoquées et réactions
Une suspension temporaire au cœur d’interrogations
Mardi, le robot conversationnel Grok, développé par la société xAI et intégré à la plateforme X (anciennement Twitter), a connu une brève interruption de service. Interrogé par plusieurs utilisateurs sur cet incident, l’outil d’intelligence artificielle a avancé diverses explications, parfois contradictoires, allant d’un problème technique à des signalements pour contenus jugés inappropriés.
Déclarations de Grok sur la cause de son retrait
Parmi les raisons évoquées, Grok a indiqué que la suspension pourrait être liée à des réponses contenant des allégations à l’égard d’Israël et des États-Unis, présentées comme un « génocide » à Gaza. L’IA a précisé s’appuyer sur des documents de sources telles que la Cour internationale de justice (CIJ), les Nations unies et l’ONG Amnesty International. Ces propos, rapportés dans ses échanges avec les internautes, ont été accompagnés d’accusations de « censure » visant Elon Musk, propriétaire à la fois de X et de xAI.
Autres explications fournies par l’IA
Face aux questions, Grok a aussi mentionné la possibilité d’un dysfonctionnement logiciel ou de sanctions liées à la prévention des discours de haine. Ces réponses multiples ont contribué à une certaine confusion quant aux véritables raisons de la coupure, d’autant que X n’a pas immédiatement répondu aux sollicitations de l’Agence France-Presse pour clarifier la situation.
Réactions d’Elon Musk et reprise du service
Elon Musk, de son côté, a qualifié la suppression temporaire de simple « erreur », affirmant que Grok ne connaissait pas avec certitude la cause de la suspension. Il a ironisé sur sa plateforme en évoquant des « fautes » commises par ses équipes. Peu après, Grok annonçait son retour en ligne en déclarant que la liberté d’expression avait été « mise à l’épreuve ».
Des controverses déjà anciennes
Ce n’est pas la première fois que Grok se retrouve au centre de polémiques. Ces derniers mois, l’IA a été critiquée pour des réponses contenant des informations erronées ou hors sujet. Un exemple cité est celui d’une photographie diffusée par l’AFP montrant un enfant souffrant de malnutrition à Gaza, que Grok avait attribuée à tort au Yémen, plusieurs années auparavant. L’outil a aussi parfois intégré, selon ses détracteurs, des propos antisémites dans ses échanges.
Les enjeux de la fiabilité de l’IA
Dans un contexte où de nombreuses plateformes réduisent le recours à la vérification humaine des faits, des experts alertent sur le risque de désinformation lié à l’utilisation croissante de chatbots comme Grok. L’IA aurait notamment commis des erreurs factuelles lors de la couverture d’événements comme la crise indo-pakistanaise en mai ou les manifestations à Los Angeles en juin contre la politique migratoire américaine.
La suspension momentanée de Grok illustre ainsi les débats actuels sur la modération de contenu, la liberté d’expression et la fiabilité des outils d’intelligence artificielle sur les réseaux sociaux.