
Y es que todos estos modelos de Inteligencia Artificial pueden llegar a cometer errores y fallos que se conocen comúnmente como ‘alucinaciones’, por lo que podemos llegar a confirmar que la ‘Inteligencia Artificial alucina’. Pero es difícil darse cuenta, ya que estos bots te ofrecerán la información como si fuera real, por lo que es labor de las personas que lo están consultando verificar los datos.
Ha ocurrido recientemente con el accidente aéreo ocurrido en la India hace unos días, en el que se estrelló un Boeing 787 tras despegar, dejando como consecuencia directa más de 260 muertes. Como cada vez que ocurre una noticia con tanta trascendencia, fueron miles los usuarios que comenzaron a buscar información en la web, pero al hacerlo en modelos de Inteligencia Artificial las respuestas podían ser erróneas y dar lugar a equivocaciones. Es lo que ocurrió con AI Overviews, que aseguraba que el avión implicado era un Airbus A330, una información errónea que comenzó a propagarse de manera rápida.
Se debe a que estos lenguajes mezclan las informaciones que encuentran en la red de manera rápida y en muchas ocasiones cometen fallos, tal y como ha asegurado, por ejemplo, Google.
Lo primero que debemos hacer es introducir ‘prompts’ muy bien ejecutados, lo más resumidos y concisos posible, y, por supuesto, cerciorarnos posteriormente de que la información ofrecida por estos chats sea real. Si nos ha ofrecido datos falsos es importante comunicárselo de vuelta, consiguiendo así que la Inteligencia Artificial no alucine con otros usuarios que se cuestionen lo mismo que nosotros.
MÁS SOBRE: