Jordi González, catedràtic d'IA a la UAB, desglossa la polèmica de Grok i la responsabilitat de les plataformes
La intel·ligència artificial generativa ha estat aquestes últimes setmanes de nou al centre de la polèmica amb Grok, el chatbot integrat a X que va generar unes 7.000 imatges sexualitzades cada hora durant les primeres 24 hores de l'any. El catedràtic d'Intel·ligència Artificial al Departament de Ciències de la Computació de la UAB, Jordi González Sabaté, analitza aquest cas i adverteix: "No és només pornografia, és violència digital basada en imatge".

La intel·ligència artificial generativa ha estat aquestes últimes setmanes de nou al centre de la polèmica amb Grok, el chatbot integrat a X. Aquesta eina ha estat assenyalada per permetre la generació d'imatges pornogràfiques de persones reals, sovint menors, sense el seu consentiment. Aquesta situació ha generat una onada de crítiques i ha tornat a situar en primera línia mediàtica el debat sobre els límits ètics de la IA i el paper que han de jugar, així com la responsabilitat legal, de les plataformes tecnològiques i dels organismes amb poder legislatiu.
Per tractar sobre aquest tema de rabiosa actualitat, parlem amb Jordi González Sabaté, catedràtic d'Intel·ligència Artificial al Departament de Ciències de la Computació de la Universitat Autònoma de Barcelona (UAB) i investigador del Centre de Visió per Computador. Vinculat al CVC i a la UAB des de fa anys, exerceix càrrecs de responsabilitat a l'Escola d'Enginyeria, on actualment és fedatari i subdirector d'ordenació acadèmica, i ha estat el coordinador del Programa de Doctorat en Informàtica.
Un cas d'abús previsible
1. Quina lectura fas de la recent polèmica de Grok i la generació d'imatges pornogràfiques?
"Crec que el cas Grok és rellevant perquè combina dues coses molt potents: generació d'imatges i distribució viral dins d'una xarxa social. Quan això falla, el dany escala ràpid, i el debat deixa de ser sobre la llibertat d'expressió per passar a ser sobre consentiment, seguretat i responsabilitat de plataforma", explica González.
El catedràtic és clar: "És un cas clar d'abús previsible: quan una eina permet sexualitzar persones a partir d'imatges, el risc de no-consentiment i humiliació és enorme. I dins d'una xarxa social, a més, es viralitza. No és només pornografia, és violència digital basada en imatge".
González subratlla una diferència clau: "Una cosa és permetre contingut adult consensuat en entorns controlats; una altra és facilitar la creació d'imatges sexualitzades de persones reals sense consentiment."
Llibertat d'expressió amb responsabilitat
2. El model de llibertat d'expressió que promou Musk per Grok és compatible amb les funcionalitats que ha mostrat la plataforma?
"La llibertat d'expressió no cobreix el dany. Les imatges íntimes no consentides són una vulneració de drets. Sí, calen barreres", afirma González, que matitza: "És compatible parlar de llibertat d'expressió si alhora hi ha un disseny responsable. El que no és compatible és una llibertat sense fricció quan el sistema facilita abusos previsibles."
El professor insisteix que "les barreres no són censura genèrica, són controls de risc", i posa exemples concrets: "Prohibir explícitament la sexualització de persones reals, bloquejar i tenir moderació consistent."
El paywall no és la solució
3. La mesura anunciada per Grok que només permetrà la generació d'imatges a usuaris de pagament, és suficient?
La resposta de González és contundent: "No. El pagament és una barrera econòmica, no una barrera de seguretat. Pot reduir volum, però no elimina l'abús. Qui vol fer mal pot pagar, i després redistribuir el contingut igualment."
A més, apunta una crítica reputacional: "Posar-ho darrere d'un paywall pot semblar monetitzar l'abús. Si l'objectiu és seguretat, el paywall és com posar un pany de plàstic."
Reptes tècnics: un joc adversarial
4. Quins són els principals reptes tècnics a l'hora de distingir contingut generat per IA de contingut real?
"És un joc adversarial. Els generadors milloren i els detectors es poden enganyar amb compressió, retalls o re-enregistrament", explica González, que proposa una estratègia múltiple: "Cal combinar detecció forense amb proveniència (marcatge/etiquetatge) i controls de plataforma."
El catedràtic destaca el paper de la normativa europea: "A la UE, l'AI Act estableix obligacions de transparència i etiquetatge per a certs continguts sintètics amb entrada en vigor d'algunes obligacions a partir del 2 d'agost de 2026."
Disseny responsable per capes
5. Com es poden dissenyar models d'IA responsables que minimitzin aquests riscos?
González explica que cal treballar "amb capes": "Política clara, filtres d'entrada i sortida, red-teaming, i resposta ràpida a incidents. Responsable vol dir segur per defecte, no segur si l'usuari es porta bé."
El professor detalla mesures concretes:
- Política explícita: prohibir sexualitzar persones reals i 'undressing'
- Classificadors d'intenció i filtres de prompt
- Moderació de sortida amb models especialitzats
- Controls contra prompt-injection i iteració massiva
- Canal prioritari per víctimes i retirada ràpida
"El problema del cas Grok és que s'ha reportat moderació inconsistent segons canal (X vs app/web), cosa que debilita qualsevol política", afegeix.
Normes existeixen, falta control
6. Les regulacions actuals sobre IA són suficients?
"Calen normes i sobretot aplicació efectiva. El marc existeix, però els casos ensenyen buits i lentitud", respon González. "Les lleis poden marcar obligacions, però si l'enforcement és lent, l'impacte per a víctimes és immediat."
El catedràtic posa dades sobre la taula: "Se generaven unes 7.000 imatges sexualitzades cada hora durant les primeres 24 hores de l'any. Per això cal reforçar mecanismes ràpids."
I conclou amb una frase contundent: "Norma sense enforcement és paper mullat quan el dany és real."
Responsabilitat proporcional al risc
7. Quina responsabilitat han d'assumir les companyies tecnològiques creadores de eines com Grok?
"La responsabilitat ha de ser proporcional al risc i a la capacitat de prevenir-lo. Si pots anticipar l'abús, has de posar controls. No val dir 'és culpa de l'usuari' quan tu has dissenyat una eina que escala abusos dins d'una plataforma amb viralitat."
González enumera les responsabilitats en termes pràctics:
- Prevenció (guardrails)
- Detecció (monitoratge i trusted flaggers)
- Resposta (retirada ràpida i transparència)
- Reparació (vies per víctimes)
"En el cas Grok, advocacy groups han demanat fins i tot mesures de plataforma (app stores) argumentant que el paywall no és suficient i que el problema és sistèmic. Qui desplega capacitat d'alt risc, assumeix deure de diligència."
IA ètica: impedir usos previsibles de dany
8. Quines mesures concretes es podrien implementar per a una "IA ètica"?
González resumeix els pilars d'una IA ètica en generació d'imatges:
- Política clara de no-consentiment
- Guardrails forts
- Transparència
- Resposta ràpida
"Ètica vol dir impedir usos previsibles de dany, etiquetar contingut sintètic quan pertoqui, i donar poder a víctimes per retirar."
Sobre Jordi González Sabaté
Jordi González Sabaté és catedràtic d'Intel·ligència Artificial al Departament de Ciències de la Computació de la Universitat Autònoma de Barcelona (UAB) i investigador del Centre de Visió per Computador. Vinculat al CVC i a la UAB des de fa anys, ha exercit càrrecs de responsabilitat a l'Escola d'Enginyeria, on actualment és fedatari i subdirector d'ordenació acadèmica, i ha estat el coordinador del Programa de Doctorat en Informàtica. La seva recerca se centra en visió per computador, aprenentatge automàtic i els aspectes ètics de la intel·ligència artificial.
La UAB, amb els Objectius de Desenvolupament Sostenible
-
Pau, justícia i institucions sòlides