El vertiginoso avance de los modelos de inteligencia artificial generativa (IAG) ha provocado un debate profundo sobre las implicaciones legales y éticas del uso de material protegido por derechos de autor para entrenar estos sistemas sin la autorización de sus creadores.
Esta tarde fue localizado el cuerpo sin vida de una mujer en la zona boscosa del poblado de Chamilpa; la Fiscalía investiga si se trata de Kimberly Ramos, desaparecida el 20 de febrero
Un mexicano murió en el Centro de Procesamiento de Adelanto, en California, custodiado por el ICE; la Secretaría de Relaciones Exteriores reclamó una investigación inmediata y exhaustiva
Guadalupe Acosta, presidente de la organización, afirma que cumplió con afiliaciones legales y que el retraso para otorgar el registro electoral los coloca en desventaja frente a otros partidos
Mario Delgado informó que los materiales de la Nueva Escuela Mexicana garantizarán que niñas y niños aprendan en su lengua materna; en Guerrero se distribuyeron ejemplares en náhuatl, amuzgo y mixteco, y en Hidalgo en hñähñu
¿Te quedas fuera de la conversación? Mandamos a tu correo el mejor resumen informativo.
Empresas como Meta, Google, Microsoft y OpenAI, entre otras muchas, enfrentan actualmente demandas importantes por presunta infracción, al quedar en evidencia que algunos de sus modelos de IAG fueron entrenados con enormes bases de datos —incluyendo libros pirateados, artículos periodísticos y otros contenidos protegidos— sin consentimiento ni compensación para sus autores. A mediados del año pasado, en diferentes eventos los más altos ejecutivos de algunas de estas corporaciones admitían que sin recurrir a material protegido por derechos de autor sería imposible entrenar los algoritmos (Sam Altman, OpenAI).
En otros casos, con cierto cinismo, como Mustafa Suleyman (CEO de IA de Microsoft), decían que el “contrato social” del contenido que está en la web supone su libre uso, y otros más, como Mark Zuckerberg (principal dueño de Meta) que, si las empresas debían pagar por los derechos, entonces Meta mejor se retiraría –lo cual, a la luz de lo que hoy sabemos con certeza, no hizo.
En el caso de esta última empresa, desde inicios de este año, gracias a otra demanda (caso Kadrey vs. Meta) ya se había filtrado a la prensa que empleados de la compañía supuestamente utilizaron 82 terabytes de libros con derechos de autor descargados desde plataformas piratas como LibGen y Z-Library para entrenar su modelo LLaMA. Con esto se eviataban los pagos correspondientes. Comunicaciones internas muestran que ejecutivos, incluido Mark Zuckerberg, habrían aprobado esta práctica a pesar de las preocupaciones éticas y de los posibles riesgos regulatorios. Estos procedimientos internos de Meta han vuelto a ser expuestos gracias a una investigación publicada apenas el 20 de marzo en The Atlantic, donde, además, el medio ha subido un link (www.theatlantic.com/technology/archive/2025/03/libgen-meta-openai/682093/), para que cualquier persona en cualquier parte del mundo, pueda checar si hay material suyo subido de forma ilegal y que, con toda certeza, ha sido utilizado por Meta. En mi caso, aparecieron nueve obras, entre artículos y libros, en este sitio.
La defensa legal de estas grandes corporaciones se ha centrado en el concepto de “uso justo” (fair use), una disposición del derecho estadounidense que permite el uso limitado de contenido protegido sin permiso para fines como crítica, educación o investigación (17 U.S. Code § 107). Los desarrolladores de IA han argumentado que el entrenamiento de sus modelos constituye un uso transformador que no compite ni sustituye a las obras originales. Por lo que no deben pagar por usar material protegido por derechos de autor. Sin embargo, los tribunales aún no han determinado si el uso masivo de textos protegidos para entrenar modelos que, a fin de cuentas, tienen fines claramente comerciales califica realmente como uso justo, especialmente cuando estos modelos pueden no sólo parafrasear, sino reproducir contenido original.
Los críticos sostienen que estas prácticas equivalen a una apropiación masiva del trabajo intelectual. Escritores, periodistas, académicos y otros creadores corren el riesgo de que su obra sea absorbida por sistemas de IA que la reempaquetan sin atribución ni retribución. Esto no sólo debilita los derechos de los titulares de propiedad intelectual, sino que también amenaza la base económica de las profesiones creativas.
El problema se agrava por la opacidad de los procesos de entrenamiento de IA. En diversas publicaciones de The Wire, Reuters y, ahora The Atlantic, se ha reportado que Meta –hoy en el ojo del huracán, pero no la única—ha configurado sus sistemas para evitar que los usuarios descubran el origen de los datos de entrenamiento o puedan generar respuestas que revelen contenido protegido. Aunque esto puede amparar a las empresas contra demandas, plantea serias dudas éticas sobre transparencia y rendición de cuentas.
Las implicaciones estructurales son profundas. Si la IAG se apoya sistemáticamente en datos no autorizados, se reduce el incentivo para la creación humana original. Y si se interpreta el “uso justo” de forma amplia a favor de las grandes tecnológicas, podría consolidarse un precedente que legitime la explotación del trabajo cultural sin compensación. Yestamos hablando de empresas que obtienen miles de millones de dólartes en utilidades anuales. A medida que la IA redefine el futuro de la creatividad, la regulación debe evolucionar con igual velocidad.
En Inglaterra, por ejemplo, el Partido Laborista (en el gobierno) propuso, a fines del año pasado, una iniciativa de ley que, bajo consideraciones muy semejantes a las de uso justo, iba a permitir que los modelos de IA utilizaran cualquier obra y contenido, protegido o no, para su entrenamiento al flexibilizar incluso los criterios de protección en la ley de derechos de autoría. Luego de un par de meses de consultas públicas, que concluyeron a fines de febrero, en medio de grandes protestas por parte de de autores, escritores, cinestas, artistas y creadores en general, el gobierno esta reconsiderando presentar otra iniciativa que equilibre los derechos de autoría con las necesidades de entrenamiento de los modelos de IA y que, al mismo tiempo, impulse la economía digital del país.
En México, en julio de 2024, la diputada Margarita García García propuso reformar disposiciones de la Ley Federal de Derechos de Autor, para regular el uso de la Inteligencia Artificial (IA) respecto a las obras protegidas, reconociendo el derecho de los titulares de los derechos patrimoniales de las obras a autorizar o prohibir su uso en sistemas de IA y como conducta sancionable en materia de comercio todo uso de las obras protegidas sin la autorización correspondiente. Y ahí sigue, como iniciativa.
Lo que es claro es que, sin normas claras y exigibles, el desarrollo de la IA corre el riesgo de convertirse no sólo en disruptivo, sino también en extractivo: alimentado por el trabajo no remunerado de escritores, investigadores y artistas que dotan de inteligencia a estos sistemas.