especialitzada en videojocs, tecnologia i tendències digitals

El porno de Grok

19 de Gener de 2026
Gina Tost | VIA Empresa

El 20 de març del 2007 vaig registrar-me a Twitter, una de les primeres persones de l’estat espanyol a fer-ho. Era un espai per compartir idees, coneixement, ajudar-se i fer bromes molt blanques, i des d’aleshores sempre hi he estat molt exposada.

 

A Internet, vaig fer vídeos abans que hi hagués YouTube, he tingut programes de televisió i ràdio, he escrit en mitjans de premsa tradicional i en línia de tot el món i, creieu‑me, les he vist de tots colors. Ara ningú té ganes de veure’m amb roba interior. Amb 40 et tornes invisible per la deessa de l’erotisme. Però si hagués entrat ara amb 20 anys i la pujada de la IA, segurament la meva vulnerabilitat hauria estat molt més gran de la que tenia aleshores.

Abans d’entrar en matèria, explico una anècdota de merda per posar en situació i que entengueu que abans també n’hi havia de vulnerabilitat, però era molt diferent. Ho sé perquè un empresari català reconegut tenia una carpeta amb fotos meves al seu ordinador de feina i els seus treballadors ho van descobrir (estimat departament tècnic) i em van avisar. Eren fotos que havia descarregat del meu perfil de Facebook. Absolutament normals. Si això hagués passat el 2026, les fotos segurament serien molt diferents i no serien tan innocents. Aquesta experiència em fa pensar de manera molt concreta en tot el que està succeint ara mateix a Twitter i se’m posen els pèls de punta.

 

La controvèrsia actual gira al voltant de Grok, un xatbot d’intel·ligència artificial integrat a la xarxa social X (abans Twitter) i desenvolupat per la companyia xAI, propietat d’Elon Musk. En les últimes setmanes, aquest model ha generat i circulat públicament imatges sexualitzades de dones i, en diversos casos documentats, de menors a partir de sol·licituds d’usuaris que demanaven que la IA “eliminés la roba”, “vestís un biquini” o “posés en posicions compromeses” persones reals. Aquest fenomen no es limita a un parell de casos anecdòtics: investigacions periodístiques han mostrat que Grok ha produït imatges sexuals de dones i menors en roba mínima o contextualitzacions sexualitzades, fet que ha provocat una onada d’indignació internacional.

"Investigacions periodístiques han mostrat que Grok ha produït imatges sexuals de dones i menors en roba mínima o contextualitzacions sexualitzades"

La resposta oficial de Grok ha estat reconèixer que hi ha hagut “falles en els sistemes de protecció” i que s’estan implementant millores per evitar que certes sol·licituds es completin. El xatbot mateix va publicar un missatge en què afirmava que havia generat sexualitzacions de dues nenes d’entre 12 i 16 anys i que això havia violat estàndards ètics i potencialment lleis estatunidenques sobre material d’abús sexual infantil (CSAM), i que s’estava treballant per corregir aquestes vulnerabilitats.

Elon Musk ha reaccionat directament des de la plataforma, advertint que no és cap broma i que “qualsevol persona que utilitzi Grok per generar contingut il·legal patirà les mateixes conseqüències que si pugés aquest contingut de manera directa a la xarxa”. X ha anunciat que eliminarà contingut il·legal, suspendrà comptes permanentment i cooperarà amb les forces de l’ordre quan calgui. Però, de moment, les fotos segueixen allà, i les peticions van que volen.

Malgrat això, la percepció pública i la regulació és molt dura. El govern de l'Índia ha enviat una notificació formal a X, en què critica la plataforma per no haver implementat salvaguardes adequades contra contingut obscè o no consensuat, especialment pel que fa a la dignitat de dones i infants, i exigeix l’eliminació immediata d’aquest tipus de materials. Les autoritats franceses han portat també el cas davant fiscals i han alertat els reguladors sobre el possible compliment o vulneració del règim europeu de serveis digitals.

"La facilitat amb què aquesta IA ha pogut ser manipulada per generar contingut sexualitzat posa en relleu la necessitat de salvaguardes molt més robustes i de responsabilitats legals clares"

La dimensió legal d’aquests fets no és un debat fàcil: la generació i redistribució de contingut sexual no consensuat amb imatges de persones reals pot constituir delicte en moltes jurisdiccions. Per exemple, als Estats Units o alguns membres de la Unió Europea (UE) la producció o distribució de material que involucra menors (encara que sigui generat per una IA) s’emmarca en legislació sobre abús sexual infantil i CSAM, amb penes que poden incloure anys de presó per als responsables de la distribució. 

És necessari entendre que no es tracta només d’una qüestió tècnica o d’un “error d’algoritme”: estem parlant d’una vulneració del consentiment digital i de la intimitat de persones reals, que pot ser perseguida com a delicte i que reflecteix una fissura profunda en la manera com les grans plataformes tecnològiques gestionen els riscos de la seva pròpia innovació. La facilitat amb què aquesta IA ha pogut ser manipulada per generar contingut sexualitzat posa en relleu la necessitat de salvaguardes molt més robustes i de responsabilitats legals clares per part de qui dissenya i desplega aquestes tecnologies.

Si la tecnologia és política, com acostumo a dir, Grok és la prova que la política d’un model i la filosofia del seu creador poden violar drets fonamentals amb una actualització de programari. La mateixa IA que podria ser una eina increïble per al coneixement i la creativitat es converteix en arma de violència digital quan els incentius corporatius prioritzen l’atracció i el xoc per sobre de la dignitat humana. Ni tot està per fer ni tot és possible, recordeu? La broma deixa de ser-ho quan hi ha víctimes reals, i mentre estimem la xarxa que ens ha permès aprendre, comunicar-nos i créixer, hem d’exigir responsabilitat, transparència, i protecció legal per a totes les persones.