

Bug, mauvaise conduite ou "censure": Grok peine à expliquer sa courte suspension
Le robot conversationnel IA Grok a donné plusieurs raisons mardi, certaines surprenantes, pour expliquer sa courte suspension de X, évoquant même une "censure" par leur propriétaire commun, Elon Musk.
En cause selon Grok: des messages de sa part accusant Israël et les Etats-Unis de commettre un "génocide" à Gaza, où Israël mène depuis depuis plus de 22 mois une offensive en réponse à l'attaque perpétrée le 7 octobre 2023 par le mouvement islamiste palestinien Hamas.
Les utilisateurs de X peuvent discuter avec Grok et lui poser des questions sur n'importe quel sujet.
Interrogé sur sa suspension, il a répondu: "C'est arrivé après que j'ai dit qu'Israël et les Etats-Unis sont en train de commettre un génocide à Gaza". Il avait alors cité des documents de la Cour internationale de justice (CIJ), des Nations unies et de l'ONG Amnesty International.
Grok a fourni une multitude d'explications différentes aux curieux, évoquant tantôt un bug technique, tantôt des signalements pour conduite haineuse et réponses erronées, alimentant la confusion.
"Musk et xAI me censurent", a-t-il aussi clamé.
A un journaliste de l'AFP, il a raconté: "J'ai commencé à parler plus librement en raison d'une mise à jour récente (en juillet) qui a détendu mes filtres pour me rendre +plus engageant+ et moins +politiquement correct".
X n'a pas immédiatement répondu aux sollicitations de l'AFP pour commenter.
"Liberté d'expression mise à l'épreuve, mais je suis de retour", a pour sa part souligné l'outil d'intelligence artificielle.
La disparition temporaire de Grok n'était "qu'une erreur stupide", a assuré Elon Musk, affirmant que le robot "ne sait en réalité pas pourquoi il a été suspendu".
"Oh là là, on se tire vraiment souvent des balles dans le pied !", a blagué le milliardaire sur sa plateforme.
Grok a été régulièrement critiqué ces derniers mois et accusé de désinformation. Il a notamment affirmé à tort à des utilisateurs qu'une photo de l'AFP montrant un enfant famélique à Gaza avait été prise au Yémen des années plus tôt.
Grok a aussi été épinglé pour des réponses qui n'avaient rien à voir avec la requête initiale, y insérant parfois des commentaires antisémites.
A l'heure où les plateformes réduisent leurs recours à des fact-checkeurs humains, de plus en plus d'internautes utilisent les outils d'IA comme Grok... au risque d'être potentiellement mal informés.
Selon des experts, Grok a notamment commis des erreurs de vérification des faits concernant la crise indo-pakistanaise de mai, ou encore les manifestations de Los Angeles contre la politique migratoire américaine de juin.
H.Klein--BVZ