Aprender a olvidar, el impensado desafío al que se enfrenta la Inteligencia Artificial
Brian Hood, alcalde de Hepburn Shire, en la provincia de australiana de Victoria, descubrió un día que ChatGPT le atribuía un pasado criminal. Para resolver el error, el político indagó en un problema que plantea también un desafío para los ingenieros: cómo enseñar a la Inteligencia Artificial (IA) a borrar la información errónea.
Hood intentó una solución convencional y amenazó con demandar por difamación a OpenAI, la empresa creadora de ChatGPT. Sin embargo, entrenar a este tipo de robot es un proceso lento y costoso, por lo que el inconveniente expone a la luz un desafío que será crucial en los próximos años, especialmente de cara a la reglamentación en la Unión Europea (UE) sobre protección de los datos personales.
Hood afirma que sus comunicaciones con OpenAI no fueron de gran ayuda, pero que sus quejas, que inundaron los medios, solucionaron el problema cuando la empresa actualizó la aplicación y el robot dejó de repetir las afirmaciones falsas sobre sus antecedentes penales. «Irónicamente, la gran cantidad de información en la prensa sobre mi historia corrigió los registros», relató Hood.
«La capacidad de eliminar información de las bases de datos de entrenamiento es un tema crítico de cara al futuro», señaló Lisa Given, de la Universidad RMIT de Melbourne, en Australia. En el caso de los buscadores de internet, es posible borrar entradas, pero este proceso no es tan simple con los modelos basados en la IA.
Para responder a este desafío, un grupo de científicos está estudiando un nuevo campo denominado el «desaprendizaje automático», que trata de entrenar algoritmos para que «olviden» los datos que sean erróneos o simplemente problemáticos.
Un experto en este campo, Meghdad Kurmanji de la Universidad de Warwick en el Reino Unido, explicó que este tema comenzó a cobrar relevancia en los últimos tres o cuatro años. Entre quienes se apuntaron a este desafío está Google DeepMind, la división de IA del gigante informático con sede en el estado de California.
Los expertos de Google redactaron junto a Kurmanji un artículo publicado el mes pasado en el que proponen un algoritmo para depurar los datos seleccionados de las bases que componen los algoritmos en los que se basan ChatGPT y el chatbot Bard de Google. Google, además, lanzó una competencia en junio para medir distintos métodos para «desaprender», que hasta ahora atrajo a más de 1.000 participantes.
Kurmanji afirma que «desaprender» puede ser una «herramienta muy interesante» para que los motores de búsqueda administren las peticiones para eliminar contenido, por ejemplo debido a asuntos relacionados con las leyes sobre la privacidad. El experto afirma además que el algoritmo también logró buenos resultados en pruebas de eliminación de material protegido por derechos de autor y en la corrección de sesgos.
Lisa Given señaló que todavía hay mucho desconocimiento sobre cómo funcionan estos sistemas, e incluso sobre cuáles son las bases de datos que sirven como entrenamiento para estas máquinas, por lo que encontrar una solución puede ser un proceso largo.
Michael Rovatsos, de la Universidad de Edimburgo, apuntó que quedan aristas técnicas por resolver; por ejemplo: qué hacer si una compañía recibe una ola de peticiones para eliminar contenido.
Rovatsos, añadió que el desaprendizaje no resuelve temas más amplios que enfrenta la industria de la IA, como la forma en que la que se recopilan los datos, quién se beneficia de su uso o quién asume la responsabilidad si un algoritmo causa un daño. «La solución técnica no es la panacea», afirmó.
En un momento en que la investigación sobre este campo está en pañales y la regulación es casi inexistente, Hood, que es un ferviente defensor de la IA, pese a su mala experiencia, señaló que todavía estamos en una era de soluciones anticuadas. «Cuando los chatbot generan basura, los usuarios simplemente necesitan revisar todo dos veces», afirmó.
(Con información de AFP)