Un equipo de científicos informáticos de UC Riverside ha desarrollado un método para borrar datos privados y protegidos por derechos de autor de los modelos de inteligencia artificial, sin necesidad de acceder a los datos de entrenamiento originales.
Este avance, detallado en un artículo presentado en julio en la Conferencia Internacional sobre Aprendizaje Automático en Vancouver, Canadá, aborda una creciente preocupación mundial sobre los materiales personales y protegidos por derechos de autor que permanecen en los modelos de IA indefinidamente (y, por lo tanto, son accesibles para los usuarios del modelo), a pesar de los esfuerzos de los creadores originales por eliminar o proteger su información con muros de pago y contraseñas.
La innovación de UCR obliga a los modelos de IA a “olvidar” información seleccionada, manteniendo su funcionalidad con los datos restantes. Se trata de un avance significativo que permite modificar los modelos sin tener que rehacerlos con los voluminosos datos de entrenamiento originales, lo cual es costoso y consume mucha energía. Este enfoque también permite eliminar información privada de los modelos de IA incluso cuando los datos de entrenamiento originales ya no están disponibles.
“En situaciones reales, no siempre es posible recuperar los datos originales”, afirmó Ümit Yiğit Başaran , estudiante de doctorado en ingeniería eléctrica e informática de la UCR y autor principal del estudio. “Hemos creado un marco certificado que funciona incluso cuando esos datos ya no están disponibles”.
La necesidad es apremiante. Las empresas tecnológicas se enfrentan a nuevas leyes de privacidad, como el Reglamento General de Protección de Datos de la Unión Europea y la Ley de Privacidad del Consumidor de California, que rigen la seguridad de los datos personales integrados en sistemas de aprendizaje automático a gran escala.
Además, The New York Times está demandando a OpenAI y Microsoft por el uso de sus numerosos artículos con derechos de autor para entrenar modelos Generative Pre-trained Transformer (GPT).
Los modelos de IA “aprenden” los patrones de palabras de una gran cantidad de textos extraídos de internet. Al ser consultados, los modelos predicen las combinaciones de palabras más probables, generando respuestas en lenguaje natural a las indicaciones del usuario. En ocasiones, generan reproducciones casi textuales de los textos de entrenamiento, lo que permite a los usuarios eludir los límites de pago de los creadores de contenido.
El equipo de investigación de UC Riverside, compuesto por Başaran, el profesor Amit Roy-Chowdhury y el profesor adjunto Başak Güler , desarrolló lo que denominan un método de “desaprendizaje certificado sin fuente”. Esta técnica permite a los desarrolladores de IA eliminar datos específicos mediante un conjunto de datos sustituto que se asemeja estadísticamente a los datos originales.
El sistema ajusta los parámetros del modelo y añade ruido aleatorio cuidadosamente calibrado para garantizar que la información específica se borre y no pueda reconstruirse.
Su marco se basa en un concepto de optimización de IA que aproxima eficazmente cómo cambiaría un modelo si se hubiera reentrenado desde cero. El equipo de la UCR mejoró este enfoque con un nuevo mecanismo de calibración de ruido que compensa las discrepancias entre los conjuntos de datos originales y los sustitutos.
Los investigadores validaron su método usando conjuntos de datos sintéticos y del mundo real y descubrieron que brindaba garantías de privacidad cercanas a las logradas con un reentrenamiento completo, pero requería mucho menos poder de cómputo.
El trabajo actual se aplica a modelos más simples (aún ampliamente utilizados), pero eventualmente podría escalar a sistemas complejos como ChatGPT, dijo Roy-Chowdhury, codirector del Instituto de Investigación y Educación en Inteligencia Artificial Riverside (RAISE) de la UCR y profesor en la Facultad de Ingeniería Marlan y Rosemary Bourns.
Más allá del cumplimiento normativo, la técnica es prometedora para medios de comunicación, instituciones médicas y otros que gestionan datos sensibles integrados en modelos de IA, según los investigadores. También podría permitir a las personas exigir la eliminación de contenido personal o protegido por derechos de autor de los sistemas de IA.
“La gente merece saber que sus datos pueden borrarse de los modelos de aprendizaje automático, no solo en teoría, sino de maneras prácticas y demostrables”, afirmó Güler.
Los próximos pasos del equipo implican perfeccionar el método para trabajar con tipos de modelos y conjuntos de datos más complejos y crear herramientas para que la tecnología sea accesible para los desarrolladores de IA de todo el mundo.
El artículo se titula «Un enfoque de desaprendizaje certificado sin acceso a los datos fuente». Se realizó en colaboración con Sk Miraj Ahmed, investigador asociado en ciencias computacionales del Laboratorio Nacional Brookhaven en Upton, Nueva York, quien obtuvo su doctorado en la UCR. Tanto Roy-Chowdary como Güler son profesores del Departamento de Ingeniería Eléctrica e Informática con nombramientos secundarios en el Departamento de Ciencias de la Computación e Ingeniería.
You must be logged in to post a comment Login