Propiedad intelectual en tiempos de inteligencia artificial

Propiedad intelectual en tiempos de inteligencia artificial
Cuando se utilizan asistentes públicos, existe el riesgo de que la información confidencial ingresada en estos sistemas quede expuesta o reutilizada.Matias Salmeri, director de data en Endava
Los usos de la IA van tomando protagonismo en diferentes campos y uno de ellos es en el ámbito de lo cultural.

La tecnología avanza con demasiada velocidad haciendo muy complejo anticipar los retos que surgirán de esta innovación acelerada.

En los últimos años, la afluencia de contenido producido con ayuda de la Inteligencia Artificial ha sido notable, generando toda una paleta de opciones que van desde la producción de imágenes y canciones, hasta novelas completas. Esto plantea retos en la legalidad de la Propiedad Intelectual y debates sobre si la capacidad creativa que usan las máquinas puede gestar, y por consiguiente crear, contenido original.

Los usos de la IA van tomando protagonismo en diferentes campos y uno de ellos es en el ámbito de lo cultural. En la actualidad, existen obras generadas por Inteligencia Artificial así como, contenidos de las obras que han sido utilizados para entrenar modelos de Inteligencia Artificial Generativa.

Pero, ¿A qué nos referimos cuando hablamos de modelos de la Inteligencia Generativa? Al igual que ocurre con el machine learning, éstos son construidos y entrenados como modelos clásicos de Inteligencia Artificial (AGI). La herramienta utiliza múltiples bases de datos específicas relacionadas con el problema a resolver y, con la información recabada, el algoritmo trabaja para encontrar patrones en esos datos.

Los nuevos algoritmos de IA tienen una comprensión mucho más extensa del lenguaje que utilizan para entender y responder a preguntas complejas de forma más natural y precisa. En particular, la IA Generativa se entrena de tal manera que cuando se detectan nuevos datos similares a los originales, es posible hacer predicciones de todo tipo. Así es que, existen algoritmos de clasificación, de valores o, los más usuales, de palabras”, comentó Matias Salmeri, director de data en Endava..

Estos modelos de lenguaje tienen como fundamento para su entrenamiento amplias base de datos, algunos han sido alimentados directamente con Internet y, por tanto, dominan conocimientos en los que el usuario no es experto. Lo útil está en pedir ideas e inspiración a estos chats y usarlos como un componente más de apoyo para extender las habilidades creativas del propio usuario. En suma, la IA Generativa ayuda a mejorar el texto original de la persona, no a crear.

¿Pero qué sucede si hablamos de los límites de la propiedad intelectual?

Dado el camino de aprendizaje y complejización que ha alcanzado la Inteligencia Generativa, se vuelve cada vez más dificultosa la identificación de plagio y, en consecuencia, el respeto y la preservación de los derechos de autor. Sin embargo, aunque las Inteligencias se nutren en el proceso de entrenamiento de una base de conocimientos existente, es casi imposible que origine una obra exacta ya concebida.

Actualmente las demandas alrededor de la IA Generativa están enfocadas a contenidos con derechos de autor que fueron potencialmente usados, para entrenar los modelos como Chat GPT. Esto hace al escenario del plagio más complejo porque, aunque un algoritmo no reproducirá necesariamente el fragmento de una obra, su respuesta se basará en información existente protegida por derechos de autor en los cuales no existen aún mecanismos legales que permitan su uso en sistemas de inteligencia artificial”, comentó el ejecutivo.

Es perfectamente razonable que existan esos huecos legales ya que la tecnología avanza con demasiada velocidad y es imposible anticipar los retos que vienen de esta innovación acelerada”, agregó.

La solución está en que los usuarios de estas Inteligencias tengan cada vez más en cuenta la citación de los prompts usados como autores o ayudantes del resultado: “si el usuario se ha apoyado en alguna herramienta inteligente y ha generado contenido con la ayuda de la IA, parece primordial darlo a conocer en aras de la transparencia, así como también sería útil conocer las fuentes con las cuales ha sido entrenado el modelo que se utilizó”, añadió Salmeri.

La mejor recomendación para las empresas es que desmotiven el uso de aplicaciones públicas de Inteligencia Artificial con documentos privados y confidenciales y generen conciencia acerca de que significa información privada o de acceso restringido. Todo lo que se escribe dentro de estos modelos tiene posibilidades de ser usado por el propio entrenamiento de las IA para mejorar sus conocimientos.

Lo más aconsejable es que las compañías se suban a la tendencia de usar modelos abiertos que les permitan explotar los beneficios de la Inteligencia Artificial en sus propios ecosistemas internos. Sin dudas, cuando se utilizan asistentes públicos, existe el riesgo de que la información confidencial ingresada en estos sistemas quede expuesta o reutilizada. Este riesgo surge de la incertidumbre sobre dónde y cómo las herramientas de Inteligencia Artificial almacenan y procesan los datos, lo que podría dar lugar a una republicación o acceso no autorizados por parte de terceros”, concluyó Salmeri.

Ultimas Noticias

Dejar su comentario sobre esta nota

Su direccion de correo no se publica. Los datos obligatorios se encuentran identificados con un asterisco (*)