Hace un par de semanas nuestros compañeros de sucesos ocupaban unos datos sobre un accidente en específico y se los pidieron a la inteligencia artificial (IA), específicamente, a ChatGPT. Cuando esta IA dio el dato, venía un accidente de tránsito que nunca sucedió.
Nos llamó mucho la atención que la IA lanzara un dato incorrecto en medio de datos correctos. Fue así como nos dimos cuenta que eso que les sucedió a nuestros compañeros se le conoce tecnológicamente como una “alucinación” de la inteligencia artificial.
En el universo de la tecnología ya conocen muy bien sobre esta realidad, sobre datos que da la IA los cuales están muy bien escritos, metidos entre datos ciertos, pero son incorrectos.
LEA MÁS: ¿Sus papás se van pollos con la IA? Con estas apps les pueden ayudar a identificarlas
Recordemos que, por ejemplo, ChatGPT advierte que tiene datos mundiales hasta setiembre del 2021, por eso, puede ser posible que al buscar una respuesta para el usuario cometa este tipo de errores “alucinantes”.
Nosotros buscamos a un experto para que nos ayudara a entender este tema.
Aprovechamos que asistimos al taller de “Inteligencia Artificial para Periodistas” en el Colegio de Profesionales en Informática y Computación (CPIC), el cual dio el papá de los tomates de la comisión de Inteligencia Artificial del CPIC, don José Andrés Fernández Marmolejo, quien, incluso, trabaja el tema de la IA con el gobierno de Estados Unidos.
“Las alucinaciones de la inteligencia artificial sí existen. Son sesgos que hemos identificado. Pasa cuando una de las inteligencias artificiales que existen se sobre entrena o tiene demasiada información que es muy global y, por ejemplo, no se aplica para un país en específico.
“Como cada país es diferente, a la hora de que la inteligencia artificial genera un resultado exacto, se puede alimentar de datos que no corresponden al país y por eso hay que tener cuidado”, explica el experto.
LEA MÁS: Con inteligencia artificial creamos la canción para nuestro reality show, Guerra de parrillas
De inmediato, don José Andrés nos advierte que hoy por hoy no podemos creer a ojos cerrados en todo lo que nos dice la IA.
“Es una herramienta que nos puede ayudar mucho en nuestro trabajo, en nuestro día a día, no hay que tenerle miedo, pero sí hay que saber utilizarla, sí hay que explicarle muy bien los datos que se necesitan, sí hay que revisar muy bien los datos que nos da. El criterio humano sigue siendo muy importante”, reconoce el informático.
No se puede olvidar que la misma empresa OpenAI, responsable del ChatGPT, el cual estamos usando como ejemplo, dijo en marzo pasado que la versión GPT-4 tiene muchas limitaciones y que las están trabajando. Limitaciones como los prejuicios sociales, las alucinaciones y hasta respuestas contradictorias.
Solo para estar claros, estas “alucinaciones” también se han identificado en inteligencias artificiales como el chatbot de Google, Bard, entre otros.
“Lo que hace una inteligencia artificial es crear información a partir de otra, esa creación se puede considerar información nueva a partir de millones de datos que tiene el modelo y sí podría esa información nueva tener información mal inventada, se conoce como información que se sale de lo correcto.
“En el CPIC siempre incentivamos a que la gente proteja su información y la inteligencia artificial no escapa de esto. Debemos tener mucho cuidado de lo que le preguntamos y lo que exponemos con la ayuda de la IA, así como debemos tenerlo con las redes sociales. No hay que tenerle miedo, pero sí ser muy cuidadosos”, asegura don José Andrés.
La última advertencia que nos hizo el experto, bueno, más que todo fue un recordatorio, pero sonó a una gran advertencia.
“Que no se nos olvide que Internet está plagado de datos falsos, de falsas noticias, de información inexacta o inventada.
“Bueno, de eso se alimenta la inteligencia artificial, de lo verdadero, pero también de lo falso, por eso es fundamental confirmar todo y así evitar esas “alucinaciones” que nos pueden crear un gran problema.