PARADOJA: ilustración y la antinomia de regular la IA

Autor > Oscar Senonez / La ausencia de ilustraciones en este artículo es intencional.

Siguiendo el camino trazado en artículos anteriores, y habiendo comentado sobre el futuro de la ilustración en : "Futurismo: el futuro de la ilustración ante la IA", hoy me explayaré un poco sobre el tema de la regulación de la IA y dos problemas que observo. Dos paradojas y una de ellas la considero muy perjudicial.

El problema de la IA para el ilustrador es real y profundo. Ha irrumpido en el oficio con la promesa de "eficiencia" pero trae consigo otros problemas… y , sobre todo, ha ocasionado un robo masivo de estilos, ideas y obras. Los modelos generativos se entrenaron con millones de imágenes de artistas sin su consentimiento, sin compensación, violando derechos de autor en una escala que no tiene precedentes.

Ante esto, surgen pedidos de regulación que intentan poner límites. A grandes rasgos, esas propuestas buscan exigir consentimiento explícito para cualquier dato usado en entrenamiento (un modelo opt-in donde solo se incluyen obras autorizadas), la destrucción retroactiva de bases de datos existentes construidas sin permiso, marcas de agua obligatorias en todos los outputs generados por IA para identificar lo sintético, y prohibiciones directas a herramientas o empresas que operen sobre datos no éticos.

Un problema real, no teórico 

Apoyo una regulación para la IA, algún tipo de regulación debe haber que formule un criterio ético y un orden para evitar los abusos que puedan derivarse de la IA.

Suena justo en teoría proteger la autoría humana y frenar abusos futuros. Pero aquí entra la antinomia ( esa contradicción inherente) que hace que regular no sea tan sencillo ni tan inocuo como parece.

En principio creo que es honesto reconocer, por más lamentable que sea, que el daño ya está hecho. Ese "robo fundacional" es irreversible, y cualquier intento de borrón y cuenta nueva ignora que los datasets contaminados ya forman la base de la tecnología actual.

Las dos paradojas

La paradoja del robo legal

Buscamos y reclamamos que se aplique ética, lo cual es correcto, pero quejarse por una IA alimentada con datos robados y luego pretender regularla es, en esencia, una forma de legitimar el robo inicial. Es como poner reglas a un ladrón después del hurto. Se "civiliza" el comportamiento futuro, se hace "menos malo" con opt-in para nuevos datos, pero no se devuelve lo sustraído ni se compensa a las víctimas retroactivamente.

Es verdad que dentro de las propuestas de regulación se propone compensaciones retroactivas a los artistas afectados. Pero he aquí un dilema sobre eso… parece imposible en la práctica.

Los datasets de entrenamiento para IA generativa (como LAION-5B, Common Crawl o derivados usados por modelos como Stable Diffusion, DALL-E o Midjourney) contienen miles de millones de imágenes extraídas de internet ( incluyendo redes sociales como Instagram, Pinterest, Twitter/X, DeviantArt, etc., sitios web, blogs y foros ). Muchas de estas imágenes son subidas por usuarios anónimos, sin metadata clara (autor, fecha, derechos), o con atribuciones perdidas en el proceso de "scraping" (raspaje, el proceso automático de extraer datos).

Identificar a "algunos" artistas robados es posible en casos notorios (por ejemplo, artistas famosos como Greg Rutkowski o Alphonse Mucha han sido rastreados en datasets públicos vía herramientas como HaveIBeenTrained.com), pero para la mayoría es imposible por varias razones:

La escala del robo es abrumadora. Datasets como LAION contienen alrededor de 5.85 mil millones de imágenes, un número que ya de por sí hace imposible cualquier intento serio de rastreo. Ni manualmente ni con algoritmos avanzados se podría identificar a cada autor, porque la gran mayoría de esas imágenes carecen de firmas digitales claras, son capturas de pantalla, ediciones anónimas o simples reposteos sin crédito. El volumen es tan inmenso que la tarea se vuelve logística y técnicamente inviable.

El anonimato es inherente a todo el proceso. Si subiste una ilustración a Instagram hace años sin watermark, sin metadata explícita o sin firma visible, y esa imagen fue scrapeada, ¿cómo podrías probar que es tuya? Muchas obras circulan sin rastro de su origen, y el scraping no preserva ninguna cadena de atribución. Lo que queda es una foto suelta, flotando en un mar de datos sin dueño aparente.

Además, el uso no es traceable. Las empresas detrás de los modelos no revelan los datasets completos ( lo justifican con privacidad o secretos comerciales), y aunque algunos como LAION son públicos, la mayoría no lo son. Saber si tu obra específica fue utilizada requiere un acceso que simplemente no existe. No hay forma de verificarlo sin que te lo digan, y nadie te lo va a decir.

En resumen, sí se puede identificar a algunos artistas (los que tienen estilos muy únicos u obras virales), pero para la inmensa mayoría, incluyéndote a ti o a mí si alguna vez subimos algo casual a redes, es imposible. El robo es sistémico, invisible y retroactivo. No deja huellas claras que permitan reparación. Y eso es precisamente lo que hace tan frágil cualquier promesa de compensación retroactiva: suena bien en teoría, pero en la práctica se convierte en un espejismo. El daño ya está hecho, y nadie sabe exactamente quiénes fueron las víctimas. Supongo que podrán compensarse a algunos, sería bienvenido, pero ¿qué hay de todo el resto?.

La regulación no deshace el entrenamiento ya realizado con millones de ilustraciones vulneradas; solo lo congela como un status quo aceptable. El daño ético no se resuelve, solo se institucionaliza.

Guste o no, quienes reclamamos ética, debemos aceptar y reconocer ésta paradoja. Hay quienes la reconocen y por esto mismo abogan por una eliminación y destrucción total de la IA, algo que, también guste o no, suena poco realista dado los hechos y el avance de la IA.

 La paradoja del desarme

Si reconozco, me guste o no, que el daño ya está hecho y miro el escenario actual, puedo observar que la paradoja más preocupante es esta: pretender evitar abusos terminando por entregarle el poder de abusar a quien ya tiene mucho más capacidad para hacerlo.

Otro de los problemas con las regulaciones que se plantean es que suelen enfocarse casi exclusivamente en las grandes corporaciones, pasando por alto lo extraordinario ( y frágil ) del open source: que cualquier usuario común pueda acceder a modelos de IA de forma gratuita, ejecutarlos en su propia computadora, entrenarlos si quiere y, sobre todo, usarlos sin conexión a internet (dicho sea de paso, muchos de esos modelos gratuitos provienen de China que, dudo mucho, hagan caso a regulación alguna al respecto).

Si se regula como se propone (con restricciones estrictas, licencias complejas, auditorías obligatorias o prohibiciones de modelos abiertos), el impacto no caería solo en las empresas grandes. El usuario independiente que hoy descarga un modelo local y lo utiliza en privado, quedaría prácticamente fuera de juego.

Mientras tanto, gobiernos y megacorporaciones seguirían operando sin problemas reales: tienen recursos para cumplir cualquier requisito legal, auditar datasets, pagar licencias o desarrollar versiones internas que nadie pueda fiscalizar. El resultado sería previsible: un monopolio absoluto en manos de quienes ya concentran poder, con control total sobre la tecnología.

El ciudadano común quedaría desarmado: sin acceso a herramientas accesibles, sin capacidad de respuesta o defensa ante posibles abusos (censura, manipulación, vigilancia) que esos mismos poderes podrían ejercer con la IA. La paradoja está en que lo que se presenta como protección termina siendo desprotección para los que menos tienen. El control se concentra arriba, y la libertad (aunque caótica e imperfecta) desaparece abajo.

Lecciones de la historia 

La historia está llena de esta misma paradoja. Mencionaré dos ejemplos que, valga decirlo en este espacio, la ilustran a la perfección.

La primera analogía que me viene a la mente es la Reforma Protestante. Durante siglos, la Iglesia Católica mantuvo un monopolio absoluto sobre la Biblia: su lectura, su interpretación. El argumento oficial era evitar el caos (herejías, sectas, divisiones), pero esa centralización perpetuaba abusos de poder y control social.

En una época de analfabetismo generalizado, el libro sagrado era accesible solo para unos pocos: clérigos, nobles y poderosos. El texto que circulaba en las iglesias era en latín, y el sacerdote también lo leía en latín, una lengua que la inmensa mayoría del pueblo no comprendía. Las escasas traducciones a lenguas vernáculas eran raras y costosas, reservadas a quienes podían pagarlas.

Martín Lutero, con sus famosas 95 tesis, cuestionó ese monopolio interpretativo y, sobre todo, impulsó una traducción de la Biblia al idioma del pueblo. La imprenta de Gutenberg hizo posible su difusión masiva. El acceso se democratizó. Sí, surgió caos (guerras religiosas, fragmentación doctrinal, abusos en nombre de la nueva libertad), pero también apareció algo que antes no era posible: libertad para leer las fuentes puras sin intermediarios manipuladores. El costo del desorden valió la pena.

Y algo interesante ocurrió poco después. En la Ginebra protestante se creó una de las primeras escuelas públicas y gratuitas de la historia. ¿La razón? Si el pueblo podía (y debía) leer la Biblia en su propio idioma, primero tenía que aprender a leer y escribir. La democratización del conocimiento exigió educar a todos, no solo a una élite.

Un ejemplo contemporáneo de esta misma paradoja es la pretensión de regular las redes sociales con el argumento de combatir las "fake news" y otros males asociados.

Lo que se presenta como "regulación" a menudo se traduce en formas más o menos veladas de censura y control social. Antes, la información estaba monopolizada por los grandes medios ( a los que se llamaba "el cuarto poder"), quienes decidían qué era noticia legítima, qué se amplificaba y qué se silenciaba. En ese esquema también se producían manipulaciones, omisiones y versiones interesadas de la realidad: fake news institucionales, disfrazadas de periodismo serio.

La llegada de las redes sociales y la democratización de la comunicación rompió ese monopolio. Cualquiera pudo publicar, contrastar fuentes, difundir documentos primarios y cuestionar la narrativa oficial. Sí, trajo caos, mentiras virales, polarización, teorías conspirativas. Pero también trajo algo que antes no existía, la libertad real para verificar, confrontar y llegar a conclusiones propias sin intermediarios obligatorios.

A mi entender, las fake news no se combaten con censura ni con control centralizado, sino con más contenido real, verificable y accesible. Cuando se intenta "ordenar" el ecosistema bajo el pretexto de proteger al público, es muy probable que se termine recreando un monopolio ( ahora digital) en manos de gobiernos o plataformas grandes, con capacidad para decidir qué se ve y qué no.

Las buenas intenciones pueden acabar en el mismo abuso que pretendían evitar. A mi juicio, el caos imperfecto de la libertad suele ser preferible al orden asfixiante del control totalitario.

Con la IA open source pasa lo mismo, sus riesgos son reales, pero quitarla al ciudadano común deja el poder en manos de quien podría abusar de ella sin contrapeso.

Pedir y buscar regular la IA no está mal. El problema real está en qué tipo de regulación se defiende y qué consecuencias trae consigo. ¿Queremos proteger el oficio de la ilustración o, sin darnos cuenta, lo estamos entregando a un control mucho mayor y menos confiable?

El daño ya está hecho (el robo masivo de datos para entrenar modelos es irreversible, y ninguna ley retroactiva lo va a deshacer). Pero si ha de haber regulación, a mi juicio debería enfocarse en evitar el monopolio absoluto sobre la IA.

Al final, ¿debemos seguir luchando contra la IA?... ¿podemos los ilustradores sobrevivir a este escenario?. De eso hablaré en los próximos artículos.