
Hace tiempo que la Inteligencia Artificial ha dejado de ser una herramienta meramente asistencial, para convertirse en un espacio de interacción humana en el que compartir experiencias, entablar conversaciones o socializar. Estas últimas semanas se ha hecho pública la noticia de que OpenAI posibilitará que ChatGPT participe en conversaciones con contenido erótico. La erotización de la IA ha venido siendo cuestión debatida desde hace un tiempo y ahora vuelve a generarse un debate social importante sobre dónde se sitúan los límites del uso de la Inteligencia Artificial. Son varios los puntos de debate, sobre los que, como sociedad, se debería reflexionar. Uno de los más importantes es, sin duda, cómo afectaría este posible uso de Chat GPT a la privacidad de las y los usuarios.
Desde la Autoridad Vasca de Protección de Datos (AVPD) se ha venido subrayando la importancia de proteger la privacidad de las personas en un momento en que la sociedad vasca se encuentra más digitalizada que nunca. No se debe olvidar que en el entorno digital no podemos desarrollar nuestra personalidad con libertad si no controlamos lo que sucede con nuestros datos. Pues bien, en el momento en que se abre la puerta al uso de este tipo de plataformas para tener conversaciones de contenido erótico, se genera el riesgo de aportar datos de carácter personal a la herramienta, que pueden utilizarse por terceras personas.
En primer lugar, porque para poder tener conversaciones de contenido erótico con el chatbot será necesario verificar que se es una persona adulta. Y lo más probable será que ese sistema de verificación exija la aportación de datos de carácter personal, que incluso podrían llegar a ser biométricos. A pesar de que existan sistemas de verificación de edad que ofrecen garantías y que, además, no recaban datos de carácter personal, es muy probable que en este caso la posibilidad de tener conversaciones de contenido íntimo con la IA pase porque las usuarias y los usuarios aportemos datos sobre nuestra persona a la herramienta. Si esto es así, la posibilidad de que se relacionen esos datos con conversaciones concretas de contenido íntimo abre la puerta a que ante una filtración terceros ajenos a dicha conversación accedan a información sensible y personal de las personas usuarias.
En segundo lugar, porque las huellas digitales no son anónimas cuando se utilizan este tipo de herramientas. La identidad de la persona usuaria, la dirección IP, el historial de interacciones, los metadatos, los patrones conversacionales, el contenido de las conversaciones… pueden recabarse y utilizarse para fines como el perfilado o para entrenar la tecnología. Esta circunstancia adquiere otra dimensión cuando las conversaciones tienen un contenido íntimo.
Desde la AVPD se ha puesto el foco en la necesidad de que el desarrollo de la tecnología se haga de manera ética y responsable, respetando en todo caso la dignidad humana. Para ello será necesario que las herramientas tecnológicas actúen con total transparencia, indicando qué datos van a tratar y para qué, y respetando los derechos de las personas. La construcción de una sociedad digitalizada en términos democráticos exige que la privacidad sea protegida en todo caso, más cuando se utilizan tecnologías disruptivas como la IA.
Unai Aberasturi Gorriño
Presidente de la Autoridad Vasca de Protección de Datos