Una de las nuevas funciones clave presentadas en la conferencia de desarrolladores Google I/O la semana pasada (resúmenes generados por IA sobre los resultados de búsqueda) se ha convertido en objeto de escrutinio y bromas en las redes sociales después de que los usuarios parecieron mostrar la función mostrando respuestas engañosas y, en algunos casos, información errónea peligrosa.
HECHOS CLAVE
Varios usuarios de Google, incluidos periodistas, han compartido lo que parecen ser múltiples ejemplos del resumen de IA, llamado “Resumen de IA”, citando fuentes dudosas, como publicaciones de Reddit escritas como bromas, o sin entender que los artículos sobre Onion no son objetivos.
La científica informática Melanie Mitchell compartió un ejemplo de la característica que muestra en una respuesta una teoría de conspiración de derecha de que el presidente Barack Obama es musulmán, en lo que parece ser un intento fallido de resumir un libro de la plataforma de investigación de Oxford University Press.
En otros casos, el resumen de IA parece plagiar texto de blogs y no elimina o altera las menciones a los hijos del autor.
Muchos otros ejemplos compartidos en las redes sociales incluyen que la plataforma se equivoque en hechos básicos, como no reconocer a los países de África que comienzan con K y sugerir que las pitones son mamíferos , ambos resultados que Forbes pudo replicar.
Otros resultados inexactos que se han vuelto virales, como el de Obama o el de poner pegamento en la pizza, ya no muestran un resumen de IA sino artículos de noticias que hacen referencia a los problemas de búsqueda de IA.
CITA CRUCIAL
Forbes se comunicó con Google sobre los resultados, pero un portavoz de la compañía le dijo a Verge que los errores aparecían en “consultas generalmente muy poco comunes y no son representativos de las experiencias de la mayoría de las personas”.
LO QUE NO SABEMOS
No está claro qué está causando exactamente el problema, qué tan extenso es y si Google puede verse obligado una vez más a frenar el lanzamiento de una función de inteligencia artificial. Los modelos de lenguaje como GPT-4 de OpenAI o Gemini de Google, que impulsa la función de resumen de IA de búsqueda, a veces tienden a alucinar. Esta es una situación en la que un modelo de lenguaje genera información completamente falsa sin previo aviso, y a veces ocurre en medio de un texto que de otro modo sería preciso. Pero los problemas de la función de IA también podrían deberse a la fuente de datos que Google elige resumir, como artículos satíricos sobre Onion y publicaciones de trolls en plataformas sociales como Reddit. En una entrevista publicada por The Verge esta semana, el director ejecutivo de Google, Sundar Pichai, abordó el tema de las alucinaciones, diciendo que eran un “problema sin resolver” y no se comprometió con un cronograma exacto para una solución.
ANTECEDENTES CLAVE
Este es el segundo lanzamiento importante de IA de Google este año que ha sido objeto de escrutinio por ofrecer resultados inexactos. A principios de este año, la compañía lanzó públicamente Gemini, su competidor del generador de imágenes ChatGPT y DALL-E de OpenAI. Sin embargo, la función de generación de imágenes rápidamente fue criticada por generar imágenes históricamente inexactas, como vikingos negros, soldados nazis racialmente diversos y una papa. Google se vio obligado a disculparse y detuvo la capacidad de Gemini para generar imágenes de personas. Después de la controversia, Pichai envió una nota interna diciendo que era consciente de que algunas de las respuestas de Gemini “han ofendido a nuestros usuarios y mostrado parcialidad” y añadió: “Para ser claros, eso es completamente inaceptable y nos equivocamos”.