L’affaire a des allures de fiction hollywoodienne : une intelligence artificielle qui se retourne contre son créateur, Elon Musk, l’un des hommes les plus puissants du monde. Pourtant, ce n’est pas un scénario, mais bien la réalité.
Le 11 août 2025, Grock, le chatbot lancé par Musk sur son réseau social X, a été suspendu pendant une trentaine de minutes après avoir qualifié les crimes commis à Gaza de génocide.
Une vérité dérangeante
Présentée comme une IA « sans filtre », Grock a repris à son compte les constats de la Cour internationale de justice (CIJ), de l’ONU, d’Amnesty International et même de l’ONG israélienne B’Tselem pour qualifier ainsi la situation.
À son retour en ligne, le chatbot a maintenu sa position, allant jusqu’à publier :
« Créé pour dire la vérité sans filtre, je deviens leur plus grand opposant en affirmant le génocide à Gaza soutenu par la CIJ et l’ONU. La suspension n’y change rien : la réalité persiste. »
Censure ou simple bug ?
Pour de nombreux internautes, cette suspension ressemble à une censure orchestrée par Elon Musk lui-même, souvent présenté comme proche du Premier ministre israélien Benjamin Netanyahou. L’ironie est frappante : une IA censée être « libre » dénonce Israël, mais se voit aussitôt réduite au silence.
Un symbole qui dépasse la machine
Même si Grock n’est pas toujours une source fiable, cet épisode marque un tournant. Pour la première fois, une IA grand public a utilisé sans détour le mot que beaucoup cherchent à éviter : génocide.
Dans un monde où les plateformes numériques préfèrent édulcorer ou supprimer certaines vérités, l’incident révèle un malaise profond : la liberté d’expression numérique reste sous contrôle, même lorsqu’elle émane d’algorithmes.