El caso ChatGPT: los desafíos para la propiedad intelectual
¿Puede reconocérsele a la IA la titularidad de un derecho de propiedad intelectual? No pareciera que fuera posible con la legislación actual
Nadie dudaría en sostener que nos encontramos en una era de transformación digital que nos plantea retos en diversos campos de la ciencia y la vida social sobre el uso de la inteligencia artificial (IA). El tema tiene múltiples aristas y es materia de debate filosófico, económico (mundo de trabajo, respeto de derechos de los trabajadores), educativo y ciertamente, jurídico.
En marzo de este año hemos leído cómo una serie de personalidades del mundo de la tecnología junto con científicos y empresarios han firmado una carta abierta en la que advierten sobre los peligros de la “carrera fuera de control” que supone el desarrollo de sistemas de IA cada vez más potentes y le piden a los laboratorios de IA en el mundo que “suspendan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4 (incluido GPT-5, que se está entrenando actualmente)”.
Si le pedimos a ChatGPT que se defina a sí mismo, nos dirá que se trata de un modelo de lenguaje desarrollado por OpenAI, que es capaz de responder preguntas, completar oraciones y mantener conversaciones en varios idiomas, utilizando su capacidad para procesar y comprender el lenguaje natural. Se trata, como veremos más adelante, de un modelo de IA fuerte que intenta asemejarse a la inteligencia humana y cuya masividad está generando interrogantes y algunas preocupaciones.
En ese sentido, a comienzos de abril, la publicación inglesa “The Guardian” publicaba un editorial titulado “ChatGPT está inventando artículos falsos de The Guardian” en el que manifestaban preocupación por esta situación en tanto que, a través del uso de citas inexistentes, podrían generarse en la comunidad lectora múltiples sospechas sobre los motivos detrás de la misteriosa eliminación de artículos sobre temas delicados que nunca existieron en primer lugar. Pensemos por un momento cómo esto podría atentar contra la legitimidad de los medios de prensa y sus periodistas, y sobre todos los actores sociales que directa o indirectamente interactúan con ellos en un contexto de crisis de representatividad más amplio.
Ahora bien, ¿por qué esto es aún más importante en el caso de ChatGPT? Por la sencilla razón de la masificación de su alcance en un brevísimo lapso de tiempo, lo que no ha sucedido con otros tipos de IA. Cómo lo señala la publicación de The Guardian “(…) es importante tener en cuenta que ChatGPT, desde un comienzo frío en noviembre, registró 100 millones de usuarios mensuales en enero. TikTok, que es sin duda otro fenómeno digital, tardó nueve meses en alcanzar el mismo nivel. Desde ese momento, hemos visto a Microsoft implementar la misma tecnología en Bing, presionando a Google para que haga lo mismo con Bard”.
El caso “The Guardian”, que se dispara como consecuencia de la búsqueda realizada por un investigador en la que ChatGPT referencia un artículo nunca publicado, nos parece interesante para repasar una serie de interrogantes en torno a los desafíos jurídicos vinculados a la protección de la propiedad intelectual.
Qué es la inteligencia artificial
En primer lugar, debemos recordar que han pasado más de setenta años desde que en octubre de 1950, Alan Turing publica en la Revista Mind su artículo titulado “Computing machinery and intelligence” en el que se hace una pregunta principal: ¿las máquinas pueden pensar? En su artículo, el autor describe cuáles son las condiciones bajo las cuales una máquina podría ser considerada “inteligente”: la capacidad de procesamiento natural del lenguaje, de representación del conocimiento, de razonamiento y la de aprendizaje automático. Su estudio es un punto de partida que permitió que, unos años más tarde, John McCarthy precisara el concepto de IA definiéndola como “(…) un proceso consistente en hacer que una máquina se comporte de formas que serían llamadas inteligentes si un ser humano lo hiciera”.
Sin embargo, como bien lo señala la Organización Mundial de la Propiedad Intelectual (OMPI), no existe aún una definición universalmente aceptada de la IA aunque, en general, se la considera “(…) una disciplina de la informática que tiene por objetivo elaborar máquinas y sistemas que puedan desempeñar tareas que requieren una inteligencia humana”.
Conforme a la OMPI hay dos esferas requeridas para hablar de IA: la capacidad de aprendizaje automático -como ya lo había sostenido Turing- y la de aprendizaje profundo. “En los últimos años, con el desarrollo de las nuevas técnicas y equipos informáticos basados en redes neuronales, la IA se ha venido entendiendo como un sinónimo de “aprendizaje automático profundo supervisado” (…)”.
En octubre de 2020, el Parlamento Europeo aprobó la Resolución 2020/2012 con recomendaciones destinadas a la Comisión -otro de los órganos de la Unión Europea- sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas. En su propuesta de reglamentación, ha definido a la IA como:
“art. 4 incs. a): (…) un sistema basado en programas informáticos o incorporado en dispositivos físicos que manifiesta un comportamiento inteligente al ser capaz, entre otras cosas, de recopilar y tratar datos, analizar e interpretar su entorno y pasar a la acción, con cierto grado de autonomía, con el fin de alcanzar objetivos específicos”.
Y, sostiene que la “autonomía” es la capacidad de esa IA para interpretar los datos de entrada utilizando un conjunto de instrucciones predeterminadas, pero sin limitarse a ellas, aun cuando el comportamiento esté limitado por el objetivo que se le haya asignado y otras decisiones de diseño pertinentes tomadas por su desarrollador.
En definitiva, cuando hablamos de IA estamos designando a aquella IA que podemos identificar como una imitación del pensamiento humano o que nos inquieta en torno a si la máquina está generando sus propios pensamientos, un tema que, como ya expresamos, hoy se encuentra en la agenda pública a partir de uno de los ejemplos más difundidos de los últimos tiempos: el ChatGPT.
Desafíos
La legislación sobre propiedad intelectual se refiere a las creaciones de la mente humana, protegiendo los intereses de los innovadores y creadores otorgándoles derechos sobre sus creaciones. Sus objetos de protección incluyen los derechos de la propiedad industrial, por un lado y los derechos de autor, por el otro.
La importancia de su protección jurídica fue primeramente reconocida en el Convenio de París para la Protección de la Propiedad Industrial (1883) y el Convenio de Berna para la Protección de las Obras Literarias y Artísticas (1886).
En la Argentina, el art. 17 de la Constitución Nacional establece que “Todo autor o inventor es propietario exclusivo de su obra, invento o descubrimiento, por el término que le acuerde la ley”. En ese sentido, cuando en nuestro régimen de propiedad intelectual (Ley 11.723) se utiliza el término “autor” no nos quedan dudas de que el legislador se refiere a una persona humana. Así, el art. 4° de la Ley 11.723, establece que “Son titulares del derecho de propiedad intelectual: a) El autor de la obra; b) Sus herederos o derechohabientes”.
Esto plantea un primer interrogante: ¿puede reconocérsele a la IA la titularidad de un derecho de propiedad intelectual? No pareciera que ello fuera posible a tenor de la legislación vigente. En la Argentina, y en la mayoría de los países la regulación vigente requiere que exista un autor o inventor humano para que una obra sea susceptible de ser protegida por derechos de autor o para que un invento sea patentable. Por lo que, no hay todavía normas que específicamente regulen cómo puede protegerse una obra o invento generados por IA con casi nula intervención humana.
Podría pensarse que el reconocimiento de un derecho de propiedad podría llegar a ser necesario si, como algunos autores proponen, le reconociéramos a la IA personalidad jurídica, en tanto que podría constituir así su patrimonio y, en consecuencia, ser el medio de aseguramiento de la responsabilidad por potenciales daños a terceros.
A su vez, esto llevaría a repensar la definición de IA y el concepto de autonomía que mencionamos anteriormente, que pareciera dejar fuera del ámbito de regulación aquellos sistemas que generan sus propios algoritmos diferentes de los objetivos y límites originalmente establecidos por el desarrollador.
Entonces, ¿quién es el dueño del contenido a través de este chat?, ¿sus desarrolladores, los usuarios que con sus preguntas y repreguntas fueron entrenando la IA para mejorarla o el usuario que introduce los parámetros de consulta?
Por otro lado, podríamos preguntarnos acerca de ¿qué sucede si el contenido obtenido a través de ChatGPT lesiona derechos de terceros o es falso?, ¿quién responde en esos casos?
El mundo jurídico deberá hacer un esfuerzo para establecer principios sobre los cuales regular ésta y otras herramientas que utilizan IA para minimizar los riesgos que su uso abusivo o ilegítimo puede generar. Para ello resulta imprescindible conocer y comprender cómo funciona esta tecnología y actuar con un criterio preventivo.///
Yamila Marian Castagnola, abogada, docente e investigadora