Anuncian medidas para impedir producción de imágenes sexualizadas en X

La plataforma X, propiedad de Elon Musk, anunció la implementación de nuevas medidas para impedir que su chatbot de inteligencia artificial, Grok, genere o edite imágenes con contenido sexual a partir de fotografías de personas reales. La decisión se produce tras una ola de críticas internacionales por el uso de la herramienta para crear montajes íntimos no consentidos, incluidos casos que involucran a mujeres y menores de edad.

El anuncio se dio luego de que la fiscalía de California iniciara una investigación contra xAI, empresa responsable del desarrollo de Grok, por presuntamente facilitar la producción masiva de imágenes sexualizadas falsas utilizadas para acosar en línea. Las autoridades buscan determinar si la compañía violó leyes estatales al permitir la difusión de este tipo de contenido.

Como parte de las nuevas disposiciones, X informó que bloqueará de forma geográfica la capacidad de generar o modificar imágenes de personas reales con ropa considerada reveladora, como bikinis o ropa interior, en aquellos países donde estas prácticas sean ilegales. Además, se indicó que se han aplicado restricciones tecnológicas para impedir este tipo de ediciones desde la cuenta oficial de Grok.

La empresa también señaló que la creación y edición de imágenes mediante Grok quedó limitada únicamente a usuarios suscriptores de pago, medida que fue presentada como una capa adicional de protección. Sin embargo, esta decisión ha sido cuestionada por autoridades y organismos internacionales, que consideran que no aborda de fondo el problema del uso indebido de la inteligencia artificial.

En las últimas semanas, varios países y entidades reguladoras han tomado acciones frente al caso. Indonesia y Malasia bloquearon el acceso a Grok, mientras que autoridades del Reino Unido, Francia y la Unión Europea anunciaron investigaciones y exigieron medidas más estrictas. Organizaciones civiles y expertos en derechos digitales han reiterado la necesidad de mayores controles para evitar el uso de tecnologías de IA en la creación de contenido que vulnere la dignidad y seguridad de las personas.