Jueves, 13 Enero 2022 05:29

Una inteligencia artificial no puede ser dueña de sus 'creaciones'

Escrito por Pablo Romero
Valora este artículo
(1 Voto)
Una inteligencia artificial no puede ser dueña de sus 'creaciones'

Un reciente caso planteado ante la Oficina Europea de Patentes deja claro que sólo un ser humano puede ser titular de una creación registrable. ¿Veremos algún día a la inteligencia artificial como sujeto de este tipo de derechos?

 

Imaginemos que un algoritmo basado en inteligencia artificial genera de forma 'autónoma' una solución para diseñar un envase o recomendar un producto. ¿Quién puede patentar eso? En diciembre, la Oficina Europea de Patentes (OEP) estableció que sólo un ser humano puede patentar una creación, en una interesante interpretación razonada de la normativa vigente.

En este caso, dicha oficina rechazó solicitudes de patentes al interpretar, en primer lugar, que "sólo un inventor humano podría ser inventor" en el sentido del Convenio Europeo de Patentes. Y en segundo lugar, determinó que "una máquina no puede transferir derecho alguno" al solicitante de la patente.

Hasta entonces, en la UE no se había prohibido expresamente conceder derechos sobre las obras generadas por la inteligencia artificial.

Así, según informaba la OEP en una nota del 21 de diciembre pasado, denegaba las solicitudes "EP 18 275 163" y "EP 18 275 174", en las que quien pedía ciertas patentes designaba como inventor a un sistema de inteligencia artificial denominado DABUS, supuesto "creador" de un recipiente para la conservación de alimentos y de un sistema de recomendaciones avanzado.

Esta interpretación de la OEP frena la pretensión de que una patente europea puede recoger como "inventor" una máquina de inteligencia artificial; el solicítate argumentaba que las invenciones habían sido creadas de forma autónoma por DABUS y, de hecho, presentó tal solicitud en varias jurisdicciones.

El abogado lucense e investigador en Derecho Miguel Vieito, que se confiesa un apasionado en temas de tecnología y ética, tuiteó recientemente esta resolución. En conversación telefónica con Público, Vieito razona en una línea similar a la OEP: "No se puede comparar cómo funcionan los comportamientos instantáneos de un ser humano al de una máquina, porque los primeros sencillamente no se pueden computar", afirma.

"El área de la inteligencia artificial me gusta, también las implicaciones jurídicas que puede tener, y me llama la atención el abordaje que hace la Unión Europea a la llamada 'personalidad electrónica', que trata de ajustar a las normas éticas sobre este asunto, cosa que existe desde hace unos años", afirma el letrado, quien, sin embargo, se muestra escéptico ante cualquier titular que ensalce la inteligencia artificial o el llamado 'machine learning' como algo comparable a la mente humana.

La cuestión profunda radica en que un sistema informático, como tal, no tiene capacidad legal ni es sujeto de derechos. Algunas jurisdicciones, como la británica, recogen algunos supuestos específicos. Por ejemplo, el artículo 9.3 de la Ley de Derecho de Autor, Diseños y Patentes, dispone lo siguiente: "En el caso de una obra literaria, dramática, musical o artística generada por computadora, se considerará que el autor es la persona que realiza los arreglos necesarios para la creación de la obra".

No existe una normativa vinculante sobre 'personalidad electrónica' en la UE, sino que hay orientaciones que se redactaron hace unos años sobre el asunto, especialmente en lo que toca a las posibles responsabilidades civiles.

En un artículo de 2017 publicado por la Organización Mundial de la Propiedad Intelectual (WIPO, por sus siglas en inglés) ya se abordaba este asunto, que concluía que los responsables del fruto de una inteligencia artificial determinada deberían ser quienes la manejasen como herramienta, y no tanto los desarrolladores de la misma.

"Es que ésa es una cuestión importante", comenta Vieito, "es decir, dónde ponemos la responsabilidad de una acción, si en el desarrollador de la herramienta, el propietario de la misma, el usuario, en el hardware o el software...".

Por tanto, ¿puede ser un robot 'dueño' de sus actos? "Mi postura es muy crítica con respecto a la inteligencia artificial, no comparto el entusiasmo exacerbado de algunos que ven un futuro inmediato en manos de máquinas, me parece una interpretación muy sesgada", comenta el experto, que plantea la posibilidad de que una máquina totalmente autónoma es un escenario muy poco improbable en el futuro.

"Para mí, el escollo de llevar el comportamiento ético a un programa informático es la comprensión humana de cómo se genera ese comportamiento, es decir, por qué algo es ético en realidad; y para poder programar (emular) eso tienes que entender primero cómo se genera ese comportamiento", sostiene el jurista, y añade: "El origen del pensamiento crítico, algo que aún desconocemos "¿Se desarrolla en la infancia? ¿Es ambiental o innato?...".

De momento, y tal y como dice la Oficina Europea de Patentes, un sistema de inteligencia artificial no puede ser dueño de una patente ni puede ceder esos derechos porque, para empezar, no es un sujeto de derechos como tal. 

No obstante, Vieito rompe una lanza en favor de incluir el comportamiento ético a cualquier desarrollo tecnológico desde el diseño, para intentar luchar contra los sesgos: "Hay técnicos a quienes la ética les parece un palo en las ruedas del avance de sus desarrollos, pero no se debe dejar de lado este aspecto: la tecnología no puede limitarse a solucionar un problema determinado abstrayéndose del resto de la realidad". 

Madrid

12/01/2022 23:43

 

Información adicional

  • Antetítulo:Ciberderechos
  • Autor:Pablo Romero
  • Región:Europa
  • Fuente:Público
Visto 283 veces

Deja un comentario

Asegúrate de llenar la información requerida marcada con (*). No está permitido el Código HTML. Tu dirección de correo NO será publicada.