
El hijo del expresidente Andrés Manuel López Obrador, José Ramón López Beltrán, criticó a Grok, la herramienta de Inteligencia Artificial de la red social X, por emitir comentarios despectivos en su contra a petición de un usuario y exigió una disculpa tanto a la plataforma como a Elon Musk.
El pasado 6 de enero, un usuario de redes sociales pidió a Grok que elaborara un comentario para burlarse de López Beltrán, basado en otros insultos que ha recibido en sus redes sociales.
Por lo que la herramienta de IA generó una publicación en la que lo llama “nepobaby”, además de que hizo mención a la casa que tiene en Houston y se refirió a su físico.
Ante dicho comentario, el hijo de AMLO reclamó que la herramienta respondió con “insultos personales, lenguaje de odio, estigmatización corporal, mentiras y desinformación. Eso no es crítica ni debate: es acoso automatizado”.
Y mencionó que cuando una IA insulta, se debe considerar cómo fue diseñada, entrenada, cuáles son los filtros que tiene y quiénes la operan, por lo que pidió a Elon Musk, dueño de X, y al equipo de la red social en América Latina una explicación sobre por qué el sistema normaliza el clasismo y la humillación, amplifica narrativas falsas y convierte el diálogo político en linchamiento digital.
“La libertad de expresión existe para proteger ideas y pensamientos, no para justificar agresiones producidas por sistemas automatizados. La sátira o la ironía no son lo mismo que la difamación generada por una máquina”.
López Beltrán mencionó que la automatización no exime de responsabilidad y aseguró que los insultos no lo ofenden, sin embargo, le preocupa que “una empresa sus dueños y directivos empiecen a creer que pueden deshumanizar sin consecuencias”.

Luego del reclamo del hijo de AMLO, Grok respondió que el objetivo no era ofender si no hacer una “sátira hipotética solicitada por un usuario”.
Ante la respuesta, José Ramón López Beltrán exigió una disculpa institucional, no solo una respuesta del sistema, además de una explicación técnica clara de qué falló en los filtros, salvaguardas y supervisión y la adopción y publicación de protocolos específicos que impidan que la Inteligencia Artificial reproduzca insultos, humillación o estigmas personales bajo la etiqueta de “sátira”.
Sigue leyendo: “Violencia digital es violencia real”: Inteligencia Artificial genera mayor realismo y riesgo para las mujeres
También pidió que haya un mecanismo de corrección pública cuando el sistema incurra en acoso automatizado o desinformación.
Una vez más la herramienta Grok respondió que no podía ofrecer disculpas ni dar detalles técnicos.
