La temática relativa a la Inteligencia Artificial (IA) no deja que acaparar titulares en medios de comunicación y, desde hace ya un tiempo, ha venido a cambiar nuestra forma de aprender, comunicarnos y de desempeñar nuestro trabajo.
En particular, la IA generativa es aquella que utiliza un modelo de aprendizaje automático para aprender los patrones y las relaciones de un conjunto de datos, siendo capaz de crear nuevos resultados después de haber sido entrenada.
Un ejemplo de este tipo de herramientas es el ChatGPT que, por noviembre del año 2022, supuso un todo un revuelo al tratarse de una tecnología disruptiva que trajo consigo múltiples debates jurídicos, éticos, sociales, políticos, económicos, entre otros.
El uso de sistemas de IA generativa en entornos empresariales cada vez es más habitual y aporta innumerables beneficios, ya que permiten la automatización, control y optimización de procesos, ayuda a reducir errores humanos, aumenta de la productividad y calidad de los productos y/o servicios, mejora de la toma de decisiones, entre otros. No obstante, su uso también plantea una serie de riesgos y desafíos.
Recientemente, la Organización Mundial de la Propiedad Intelectual (WIPO) ha lanzado un manual sobre el empleo de la IA generativa, con el fin de ayudar a empresas y entidades a comprender los posibles riesgos asociados a su utilización, así como para establecer medidas de protección que permitan mitigarlos.
A continuación, a modo de resumen, mencionamos algunas de las medidas que establece la WIPO para fomentar un uso más responsable de la IA generativa:
- Evitar el uso de información confidencial y contenido protegido por derechos de propiedad intelectual;
- Implantación de políticas de uso responsable, así como formar al personal acerca del uso de este tipo de herramientas;
- Considerar la posibilidad de, únicamente, utilizar herramientas de IA que se hayan entrenado con derechos de los cuales se haya obtenido licencia, se encuentren en el dominio público o que utilice datos propios de entrenamiento del usuario;
- Elegir proveedores de herramientas de IA que ofrezcan indemnizaciones apropiadas en caso de infracción de derechos de terceros;
- Evitar herramientas que utilicen la imagen y voz de personas, sin haber obtenido el consentimiento o autorización necesario;
- Llevar a cabo revisiones de la normativa aplicable y jurisprudencia;
- Evaluar, antes de su uso, las herramientas de IA que se desean utilizar y determinar cuál es el impacto que tendría para la entidad;
- Establecer un listado de herramientas adecuadas o prohibidas por parte de la organización;
- Examinar el conjunto de datos a entrenar por la IA, siempre teniendo en cuenta la titularidad de la propiedad intelectual y la cobertura de las licencias;
- Documentar el papel del ser humano en el proceso de creación;
- Mantener registros que documenten cómo se entrenó el modelo de IA.
Las entidades deben asumir un rol proactivo y responsable si quieren estar a la vanguardia de la innovación, estableciendo políticas o protocolos internos para proteger sus activos intangibles, así como medidas para mitigar riesgos relacionados con la confidencialidad, propiedad intelectual e industrial y la privacidad de los datos.
Además, en todo caso, deben garantizar la transparencia, principios éticos y el cumplimiento de la normativa aplicable para evitar posibles responsabilidades por incumplimiento.
Para ello, resulta esencial contar con asesoramiento legal desde el inicio de cualquier tipo de proyecto que implique el uso y/o desarrollo de sistemas de IA con el objetivo de que la entidad puede operar con seguridad jurídica.