Riesgos legales y éticos en los sistemas de inteligencia artificial generativos

 

Noemí Brito Izquierdo. Directora Legal Operations and Transformation Services (LOTS) y IP&IT- KPMG Abogados. noemibrito@kpmg.es
Mónica Rodríguez Díez. Manager Legal Operations and Transformation Services (LOTS) KPMG Abogados. monicarodriguez2@kpmg.es

 

Sin lugar a duda, los sistemas de Inteligencia Artificial (IA) representan una gran oportunidad de avance social y económico, algo que no ha pasado desapercibido en DAVOS 2023. Sin embargo, los sistemas de IA generativos (IAG), como Chat GPT o BARD, plantean algunas cuestiones legales y éticas importantes sobre su uso y aplicación.
Desde el punto de vista legal, estos sistemas pueden entrar en conflicto con leyes sobre propiedad intelectual e industrial, tales como los derechos de autor y marcas comerciales, especialmente en la creación de contenido generado por la IA. En este sentido, surgen varias disyuntivas, como por ejemplo que la IA pueda ser empleada para resumir obras, o directamente plagiar información de textos sin incluir las citas correspondientes o, en general, sin atender los derechos de propiedad intelectual de terceros, lo que podría derivar en la emisión de acciones legales para proteger la propiedad intelectual de la información divulgada.
Asimismo, otro de los puntos clave será la privacidad y la protección de datos, especialmente cuando se trata de la información personal que se usa para entrenar modelos de IAG sin contar con las correspondientes bases legales para ello. En particular, se ha de valorar la posición del derecho al olvido en estas herramientas. El problema de estas soluciones radica en la imposibilidad de eliminar los datos recopilados, si bien se puede ponderar la red y enfocar la atención de la base de datos en la nueva información, los datos continuaran en la IA. Todo ello, requiere un análisis de cumplimiento y de adecuación a la normativa desde el que se garanticen los derechos fundamentales de los usuarios.

Desde una perspectiva ética, algunos de los principales riesgos que existen son la responsabilidad y la seguridad cuando se utilizan para generar contenido falso o engañoso, así como los riesgos asociados a posibles sesgos a partir de los datos utilizados para el entrenamiento del modelo (y en su caso, cómo controlarlos). Lo anterior explica que, en la actualidad, muchas de las principales organizaciones y compañías estén desarrollando “Políticas de IA Confiable y Responsable”, así como “Hojas de Ruta de Cumplimiento Proactivo”, poniendo el foco en el mejor control de los riesgos legales y éticos.
En resumen, mientras que el uso de IAG, en particular y la tecnología de IA en general, presenta cuestiones legales y éticas importantes, es crucial abordarlas de manera proactiva para garantizar que se utilice de manera responsable y se maximice su potencial. Es necesario un enfoque multidisciplinario que involucre a expertos en derecho, ética y tecnología para desarrollar regulaciones y estándares éticos sólidos que aborden estas cuestiones críticas.

Ver en la revista completa la parte II de este artículo: ChatGPT: así puede ayudar a las tareas de Auditoría Interna