Foto: Inteligencia Artificial

Por Felipe Hernández/Avance

Grok, la herramienta de inteligencia artificial de la red social X, ya no permite editar imágenes de personas reales para mostrarles con ropa reveladora, como bikinis o ropa interior, ni siquiera a usuarios de pago, una decisión que marca un punto clave en un caso que ha generado amplia polémica durante las últimas semanas y que ha puesto bajo escrutinio público a la empresa xAI, propiedad de Elon Musk.
La medida llega después de una intensa presión social, mediática y gubernamental, provocada por el uso de la herramienta para crear imágenes sexualizadas sin consentimiento.
Desde diciembre de 2025, miles de usuarios comenzaron a manipular fotografías reales mediante la IA Grok, imágenes generadas mostraban a mujeres en contextos sexualizados y, en algunos casos, a personas que aparentaban ser menores de edad. El episodio fue bautizado como “bikinigate” y se ha mantenido en el centro del debate público durante varios días.
En un primer momento, X intentó contener la controversia aplicando restricciones parciales, durante los primeros días de enero, la generación y edición de imágenes quedó disponible únicamente para suscriptores de pago, mientras que los usuarios gratuitos perdieron el acceso, decisión fuertemente criticada, ya que el contenido continuó produciéndose bajo un modelo que priorizaba el pago y no la protección de las personas afectadas.
El fiscal general de California, Rob Bonta, anunció una investigación formal contra xAI, acusando a la empresa de facilitar la producción masiva de deepfakes íntimos no consentidos. El gobernador Gavin Newsom respaldó la investigación y calificó la situación como peligrosa para mujeres y niñas en entornos digitales.
La polémica pronto cruzó fronteras, pues Malasia e Indonesia suspendieron temporalmente el acceso a Grok por preocupaciones sobre seguridad y contenido sexual. En Europa, el regulador británico Ofcom abrió una investigación, Francia remitió el caso a su fiscalía y la Comisión Europea ordenó a X conservar datos hasta finales de 2026 para evaluar posibles infracciones a la ley.
Frente a este escenario, X anunció restricciones más severas. Además de bloquear la edición de imágenes con ropa reveladora para todos los usuarios, la plataforma desactivó por completo la generación y edición de imágenes para quienes no pagan y aplicó bloqueos geográficos en regiones donde este contenido es ilegal.
Aunque Elon Musk negó tener conocimiento de imágenes sexuales de menores, organizaciones como AI Forensics han detectado inconsistencias entre las distintas versiones de Grok. El caso continúa abierto y se ha convertido en un referente del debate global sobre los límites y responsabilidades de la inteligencia artificial.