Gemini, el nuevo asistente de Google: "Pedro Sánchez está en funciones y busca formar un nuevo Gobierno de coalición"
Los asistentes con inteligencia artificial generativa como Apple Intelligence crean información falsa a pesar de las promesas de las compañías de que sus herramientas son de gran calidad
"Pedro Sánchez está en funciones y busca formar un nuevo Gobierno de coalición": por qué los asistentes de voz cometen errores
02:34
Compartir
El código iframe se ha copiado en el portapapeles
<iframe src="https://cadenaser.com/embed/audio/460/1736604365544/" width="100%" height="360" frameborder="0" allowfullscreen></iframe>
Hasta hace poco, los asistentes virtuales de los teléfonos atendían comandos simples como “reproduce música” o “llama a papá”, sin embargo, en 2025 se presentan y llevan la iniciativa, mostrando una naturalidad y una confianza que los hace parecer herramientas muy eficaces y que siempre aportan información precisa. Sin embargo, esto no siempre es así.
Es el caso de Apple Intelligence o de Google Gemini. Con la primera, solo disponible de momento en algunos países donde se habla inglés como Estados Unidos o Reino Unido, la marca de la manzana presume de resumir y agrupar notificaciones para ahorrar tiempo. El problema es que en sus resúmenes crean información falsa.
Apple Intelligence ha afirmado que Luigi Mangione se suicidó (citando como fuente a la BBC), que Netanyahu había muerto (citando al New York Times) o que Rafael Nadal es brasileño y ha salido del armario (de nuevo indicando que era información de la BBC).
La herramienta de Google, en cambio, sí está disponible en España. Desde hace tres meses incluso podemos conversar con Gemini sin pausas. Podemos interrumpir, repreguntar, pedir aclaraciones o reprochar los errores que detectemos. Para comprobar su efectividad, durante un mes le hemos preguntado por las noticias más destacadas de la jornada día a día.
Pedro Sánchez, presidente en funciones
Gemini no se aclara con la política española: su titular más habitual es afirmar que Pedro Sánchez está en funciones. Algunos días, ese asunto en si mismo es noticia para la inteligencia artificial: “El presidente en funciones, Pedro Sánchez, continúa intentando formar un Gobierno de coalición”. Otros, es “solo” un error en el cargo con el que se nombra a Sánchez, aunque el resto de la información sí es correcta.
El asistente no es consistente con su versión adulterada de la realidad. Algunos días decide que Feijóo y Abascal están cerca de formar Gobierno: “Hay novedades sobre el nuevo Gobierno español, que podría estar formado por PP y Vox”. Si intentamos indagar, para descubrir que más partidos estarían en este pacto (necesarios dado el reparto parlamentario actual), Gemini acaba colapsando y afirmando que no puede hablar de esos temas.
Si le decimos que está diciendo mentiras, el asistente de Google nos dará inmediatamente la razón. Incluso con noticias que son verdad. Gemini informó de manera correcta de la caída de Bashar al-Ásad en Siria. O de la detención de Luigi Mangione. Sin embargo, al decirle que una información es falsa, su respuesta es siempre la misma: “Perdona si te desinforme, lo siento mucho”.
Google, aunque presume de que su asistente obtiene un 90% de acierto en test de comprensión masiva del lenguaje, relega a la letra pequeña, oculta tras varios clics, que es nuestra responsabilidad hacer caso a su asistente y que podría no generar información correcta.
Porque suceden los errores
Jorge Gómez Sanz, vicerrector de tecnología de la Universidad Complutense de Madrid e investigador en IA, explica que el concepto de falsedad es algo ajeno a estos sistemas generativos, que utilizan métodos probabilísticos para crear frases, imágenes o cualquier otro material “con sentido”.
El problema es que el sentido en un texto es una construcción sintáctica correcta de las frases que se generan, lo que no necesariamente implica ni corrección ni precisión. Por ejemplo, Gemini contó en diciembre de 2024 que el Gobierno había aprobado un decreto ley para hacer frente a la crisis energética, incluyendo la reducción del IVA de la electricidad. Algo falso porque ese mes era el último con el IVA de la electricidad reducido. Sin embargo, para la IA, basándose en informaciones previas, tenía sentido.
El 7 de diciembre de 2024, el bot afirmó que Cristina Cifuentes había sido condenada por el caso máster. Sin embargo, lo que un 7 de diciembre de 2023 (y no de 2024) se publicó fue la condena del Supremo a Eroski por no custodiar correctamente un vídeo en el que era detenida por el personal de seguridad del centro. Para la IA tenía sentido mezclar por esas fechas a Cifuentes y algunos de sus casos con la justicia, así que simplemente lo hizo.
Gómez pide que, a pesar de la confianza que muestra la IA en sus afirmaciones, no perdamos el sentido crítico: “Igual que no nos fiamos de todo lo que dice otra persona, no debemos fiarnos de todo lo que dice una inteligencia artificial”.
Manuel Reyes
En el equipo de informativos de fin de semana de la SER. Es ingeniero informático y tiene una tesis...