Logotipo de Google con Gemini

Logotipo de Google con Gemini Google El Androide Libre

Noticias y novedades

Google entra en pánico y reacciona por los resultados de su IA: recomienda comer piedras y tirar aceite al fuego

Google confirma que está borrando los resultados virales generados por su nueva IA, aún no disponible en España.

27 mayo, 2024 09:08

Ha ocurrido justo lo que las predicciones más pesimistas adelantaron: Google se ha vuelto inútil. Peor aún, se ha vuelto peligrosa, después de que la página de búsqueda se haya llenado de resultados generados por IA de dudosa utilidad. La llegada de Gemini a Google se promocionó como el futuro de la Web, pero por ahora, es la representación de todo lo que está mal con esta tecnología.

Los primeros usuarios que ya han probado la IA de Google están obteniendo resultados de calidad dudosa, tal vez fruto de las prisas que la compañía se ha dado para evitar que ChatGPT, con su nuevo GPT-4o, se le adelante otra vez. El problema no es simplemente que la IA se esté equivocando: es que lo está haciendo de manera brutal, con fallos tan obvios que resultan hasta cómicos.

La situación se ha vuelto tan grave, que directivos y representantes de Google han tenido que salir al paso para hacer 'control de daños'; aunque por ahora, no van a cerrar la IA como ya cerraron la creación de imágenes por una polémica racista. En declaraciones a la prensa, Google ha asegurado que los malos resultados son de “preguntas poco comunes” y defiende que, la mayoría de las veces, la IA ofrece “información de alta calidad”. El mismísimo Sundar Pichai, CEO de Alphabet y Google, ha arrimado el hombro para 'apagar el fuego', negando las prisas y afirmando que la función de IA de Google lleva un año siendo probada de manera interna, y que en menos de un mes ya ha servido más de mil millones de respuestas.

Al mismo tiempo, Google ha tenido que aceptar públicamente los errores que está cometiendo la IA. Y su solución es de ‘baja tecnología’: que los empleados de Google eliminen los malos resultados de manera manual. Aunque la compañía no ha especificado cómo, todo indica que cuando un mal resultado se hace viral en redes sociales, este es eliminado poco después por los empleados; por eso, los usuarios no consiguen los mismos resultados posteriormente.

De hecho, la IA de Google se ha convertido en un ‘meme’ en redes sociales como X (antigua Twitter), donde es habitual encontrarse capturas de pantalla de respuestas absurdas como una recomendación de añadir pegamento a la salsa de la pizza para espesarla, o que los geólogos recomiendan comer al menos una piedra pequeña al día.

En otros casos, hay poco de lo que reírse, como cuando Google afirmó que “siempre es seguro dejar a un perro en un coche caliente, especialmente en un día cálido”, o cuando aseguró que uno de los personajes de Bob Esponja murió de una sobredosis de drogas. También ha recomendado apagar fuegos de cocina tirando más aceite a la llama. La IA de Google tampoco se ha cortado con la política, afirmando que el ex-presidente de los EEUU, Barack Obama, es musulmán (una teoría conspiratoria muy común en su día en ciertos foros de Internet).

La respuesta que ha generado más polémica es a la frase “me siento deprimido”, a lo cual la IA habría sugerido “saltar del puente Golden Gate” de San Francisco; aunque la veracidad de este resultado está en duda, ya que la supuesta fuente de ese ‘consejo’, The New York Times, niega que sea real. La propia Google afirma que ha encontrado casos de ‘resultados falsos’ o que no ha podido replicar de manera interna, aunque no ha especificado cuáles son. Es evidente que algunos de los resultados que se publican en X han sido modificados por los usuarios en un intento de hacerse virales.

Pero ese es el problema. Cada minuto que pasa, y cada nuevo error que se descubre, la imagen de Google como una fuente fiable se deteriora más. Google ha pasado de ser la única referencia de Internet, a un ‘meme’, y como todos los ‘memes’, realmente no importa lo que sea real, lo que importa es la imagen que los internautas tienen.