Nacional

Tenga mucho cuidado porque la inteligencia artificial sufre de “alucinaciones”

Les vamos a explicar qué son las “alucinaciones” de la inteligencia artificial

EscucharEscuchar

Hace un par de semanas nuestros compañeros de sucesos ocupaban unos datos sobre un accidente en específico y se los pidieron a la inteligencia artificial (IA), específicamente, a ChatGPT. Cuando esta IA dio el dato, venía un accidente de tránsito que nunca sucedió.

Nos llamó mucho la atención que la IA lanzara un dato incorrecto en medio de datos correctos. Fue así como nos dimos cuenta que eso que les sucedió a nuestros compañeros se le conoce tecnológicamente como una “alucinación” de la inteligencia artificial.

Inteligencia artificial
Tenga mucho cuidado porque la inteligencia artificial sufre de “alucinaciones”.

En el universo de la tecnología ya conocen muy bien sobre esta realidad, sobre datos que da la IA los cuales están muy bien escritos, metidos entre datos ciertos, pero son incorrectos.

Recordemos que, por ejemplo, ChatGPT advierte que tiene datos mundiales hasta setiembre del 2021, por eso, puede ser posible que al buscar una respuesta para el usuario cometa este tipo de errores “alucinantes”.

Nosotros buscamos a un experto para que nos ayudara a entender este tema.

Aprovechamos que asistimos al taller de “Inteligencia Artificial para Periodistas” en el Colegio de Profesionales en Informática y Computación (CPIC), el cual dio el papá de los tomates de la comisión de Inteligencia Artificial del CPIC, don José Andrés Fernández Marmolejo, quien, incluso, trabaja el tema de la IA con el gobierno de Estados Unidos.

José Andrés Fernández Marmolejo, de la comisión de Inteligencia Artificial del Colegio de Profesionales en Informática y Computación (CPIC)
José Andrés Fernández es de la comisión de Inteligencia Artificial del Colegio de Profesionales en Informática y Computación (CPIC). (Cortesía/Cortesía)

“Las alucinaciones de la inteligencia artificial sí existen. Son sesgos que hemos identificado. Pasa cuando una de las inteligencias artificiales que existen se sobre entrena o tiene demasiada información que es muy global y, por ejemplo, no se aplica para un país en específico.

“Como cada país es diferente, a la hora de que la inteligencia artificial genera un resultado exacto, se puede alimentar de datos que no corresponden al país y por eso hay que tener cuidado”, explica el experto.

De inmediato, don José Andrés nos advierte que hoy por hoy no podemos creer a ojos cerrados en todo lo que nos dice la IA.

“Es una herramienta que nos puede ayudar mucho en nuestro trabajo, en nuestro día a día, no hay que tenerle miedo, pero sí hay que saber utilizarla, sí hay que explicarle muy bien los datos que se necesitan, sí hay que revisar muy bien los datos que nos da. El criterio humano sigue siendo muy importante”, reconoce el informático.

No se puede olvidar que la misma empresa OpenAI, responsable del ChatGPT, el cual estamos usando como ejemplo, dijo en marzo pasado que la versión GPT-4 tiene muchas limitaciones y que las están trabajando. Limitaciones como los prejuicios sociales, las alucinaciones y hasta respuestas contradictorias.

Solo para estar claros, estas “alucinaciones” también se han identificado en inteligencias artificiales como el chatbot de Google, Bard, entre otros.

“Lo que hace una inteligencia artificial es crear información a partir de otra, esa creación se puede considerar información nueva a partir de millones de datos que tiene el modelo y sí podría esa información nueva tener información mal inventada, se conoce como información que se sale de lo correcto.

José Andrés Fernández Marmolejo, de la comisión de Inteligencia Artificial del Colegio de Profesionales en Informática y Computación (CPIC)
En un taller para periodistas sobre inteligencia artificial, dado por el CPIC, nos confirmaron las "alucionaciones" de la inteligencia artificial. (Cortesía/Cortesía)

“En el CPIC siempre incentivamos a que la gente proteja su información y la inteligencia artificial no escapa de esto. Debemos tener mucho cuidado de lo que le preguntamos y lo que exponemos con la ayuda de la IA, así como debemos tenerlo con las redes sociales. No hay que tenerle miedo, pero sí ser muy cuidadosos”, asegura don José Andrés.

La última advertencia que nos hizo el experto, bueno, más que todo fue un recordatorio, pero sonó a una gran advertencia.

“Que no se nos olvide que Internet está plagado de datos falsos, de falsas noticias, de información inexacta o inventada.

“Bueno, de eso se alimenta la inteligencia artificial, de lo verdadero, pero también de lo falso, por eso es fundamental confirmar todo y así evitar esas “alucinaciones” que nos pueden crear un gran problema.

Eduardo Vega

Eduardo Vega

Periodista desde 1994. Bachiller en Análisis de Sistemas de la Universidad Federada y egresado del posgrado en Comunicación de la UCR. Periodista del Año de La Teja en el 2017. Cubrió la Copa del Mundo Sub-20 de la FIFA en el 2001 en Argentina; la Copa del Mundo Mayor de la FIFA del 2010 en Sudáfrica; Copa de Oro en el 2007.

En beneficio de la transparencia y para evitar distorsiones del debate público por medios informáticos o aprovechando el anonimato, la sección de comentarios está reservada para nuestros suscriptores para comentar sobre el contenido de los artículos, no sobre los autores. El nombre completo y número de cédula del suscriptor aparecerá automáticamente con el comentario.