Google ha lanzado un reto para trabajar en el desaprendizaje de las máquinas, un enfoque que permitiría a una inteligencia artificial (IA) olvidar determinados conjunto de datos utilizados para su entrenamiento con el objetivo de mantener la privacidad o los derechos de los usuarios.
La extensión del uso de los modelos de inteligencia artificial requiere pensar también en los potenciales riesgos, como la propagación o amplificación de determinados sesgos o los peligros que plantean para la privacidad y seguridad de las personas.
En sus principios, Google afirma que trabajan por evitar el impacto injusto de los algoritmos en la gente y los resultados no intencionados que puedan crear un riesgo de daño, con el desarrollo de una IA responsable.
Los datos con los que se entrenan los modelos de IA tienen un impacto en su posterior desempeño, y por ello desde la compañía creen habría que una forma de mitigar los riesgos pasa por borrar los datos de entrenamiento, pero no solo de donde están almacenados, sino también borrar su influencia en la IA.
Pero “borrar por completo la influencia de los datos cuya eliminación se solicita es un desafío”, entre otras cosas porque puede perjudicar a la precisión y eficiencia que el modelo ha adquirido gracias a esos datos.
Por ello Google ha anunciado un reto con el que intentan abordar el denominado desaparendizaje de las máquinas (‘machine unlearning’), un subcampo emergente del aprendizaje automático que pretende “eliminar la influencia de un subconjunto específico de ejemplos de entrenamiento, el ‘conjunto de olvidos’, de un modelo entrenado”, como indica en su blog oficial. Este reto se realizará en Kaggle ente mediados de julio y mediados de septiembre.
Las aplicaciones de este enfoque van más allá de los derechos de las personas, ya que también puede resultar útil en el caso de los modelos entrenados con información errónea o desactualizada o para eliminar datos dañinos, manipulados o atípicos.
“El desaprendizaje automático es una herramienta poderosa que tiene el potencial de abordar varios problemas abiertos en el aprendizaje automático. A medida que continúa la investigación en esta área, esperamos ver nuevos métodos que sean más eficientes, efectivos y responsables”, concluyen.
You must be logged in to post a comment Login