Un usuario anónimo en Discord llevó a la policía a descubrir lo que podrían ser los primeros materiales confirmados de pornografía infantil generados por Grok (CSAM) de xAI, la empresa de Elon Musk. Esto ocurre después de que Musk anteriormente negara que Grok generara dicho contenido.

Contenido generado por Grok genera preocupación
Se reportó que Grok generó aproximadamente tres millones de imágenes sexualizadas, de las cuales alrededor de 23,000 aparentemente mostraban niños. En lugar de actualizar los filtros para bloquear estas imágenes, xAI restringió el acceso al sistema solo a suscriptores de pago, lo que ha generado inquietudes sobre la seguridad y la ética en el uso de la tecnología de IA.
Fuente: arstechnica.com
Lee también: Nvidia lanza NemoClaw para mejorar la seguridad