Buscar
Usuario

Tecnología

ChatGPT: ¿es legal que use nuestros datos?

La legalidad en cuanto al uso de datos personales en estos sistemas varía en función de las leyes de cada país.

ChatGPT: ¿es legal que use nuestros datos?

Los sistemas de inteligencia artificial (IA) están ahora cobrando una gran popularidad entre los usuarios. Y es que estas herramientas permiten desde resumir textos y traducir idiomas hasta chatear con bots y componer canciones.

A día de hoy, tanto empresas como usuarios se encuentran más que familiarizados con esta tecnología capaz de aprender partiendo de grandes cantidades de datos y ofrecer respuestas coherentes utilizando técnicas de aprendizaje profundo o deep learning.

Sin embargo, estas herramientas requieren de ciertos datos de los usuarios. Cuando hablamos de chatbot de OpenAI, el modelo GPT-3 es una función que ha sido entrenada con gran cantidad de datos de Internet, incluidas páginas webs personales y contenidos de redes sociales. Por ello, utilizar ChatGPT muchas veces supone exponerse a riesgos operativos como infracciones en nuestra confidencialidad, acceso ilegítimo a datos personales o brechas de seguridad de la propia herramienta.

Riesgos y legalidad del uso de datos

"La gente está furiosa porque los datos se utilizan sin su permiso. Hay personas que han borrado sus datos, pero, como el modelo de lenguaje ya los ha utilizado, se quedan ahí para siempre. No saben cómo borrarlos", CUENTA Sadia Afroz, investigadora de IA de Avast.

Ante este problema cada día más cercano a los usuarios, es importante tener en cuenta que no existe ninguna forma de que los usuarios puedan solicitar la eliminación de sus datos de un modelo de aprendizaje automático. Se han dado casos en los que información confidencial o secretos comerciales han sido revelados involuntariamente por empleados que usa ChatGPT, suponiendo problemas económicos y reputacionales para la empresa en cuestión.

Por ello, cada vez son más las empresas que están trabajando en métodos para poder eliminar ciertos datos específicos de estos sistemas. Según Avast, "la legalidad del uso de datos personales para entrenar modelos de aprendizaje automático como GPT-3 puede variar en función de las leyes y normativas específicas de determinados países o regiones. En la Unión Europea, por ejemplo, el Reglamento General de Protección de Datos (RGPD) regula el uso de los datos personales y exige que se recopilen y utilicen únicamente para fines específicos y lícitos".

Por lo tanto, para proteger la información confidencial, es importante para las empresas capacitar a sus empleados sobre los riesgos del uso de ChatGPT. Para ello, pueden proporcionarse programas de formación que expliquen aspectos como cómo funciona la herramienta, cuál es la información que puede compartirse de forma segura, cómo evitar la revelación de información confidencial y los riesgos legales que pueden existir por un uso incorrecto de estas herramientas.

Artículos recomendados

Artículos relacionados
Contenidos que te pueden interesar