Ein anonymer Nutzer auf Discord hat dazu geführt, dass die Polizei möglicherweise die ersten bestätigten Grok-generierten kinderpornografischen Materialien (CSAM) von Elon Musks xAI entdeckt hat. Dies geschieht, nachdem Musk zuvor bestritten hatte, dass Grok solche Inhalte generiert.

Grok-generierte Inhalte sorgen für Besorgnis
Es wurde berichtet, dass Grok etwa drei Millionen sexualisierte Bilder generierte, von denen rund 23.000 offenbar Kinder zeigten. Statt die Filter zu aktualisieren, um solche Bilder zu blockieren, beschränkte xAI den Zugang zum System auf zahlende Abonnenten, was Bedenken hinsichtlich der Sicherheit und Ethik bei der Nutzung von KI-Technologie ausgelöst hat.
Quelle: arstechnica.com
Lesen Sie auch: Nvidia stellt NemoClaw für bessere Sicherheit vor