La inteligencia artificial generativa ha irrumpido en la búsqueda de información. Y no solo está transformando la experiencia del usuario. Muchos acuden a “sus IAs” a “buscar”, o es ya el propio buscador de toda la vida el que sintetiza los resultados en texto generado por IA. Esto está redefiniendo la propia naturaleza del conocimiento digital.
La oferta de fuentes ya no es estática ni tan valiosa por sí misma. El conocimiento (y el resultado) se adapta, se transforma, se personaliza y se sintetiza. Y este proceso no lo hace un humano. ¿Cuál es su impacto en la ciberseguridad del usuario?
De forma simple, podríamos pararnos a pensar si las búsquedas a través de IA son “mejores” (sea lo que sea eso). ¿Más precisas? ¿Más seguras que las tradicionales? ¿Más comprensibles? ¿Estamos ante una herramienta que ayudará a combatir la desinformación o, por el contrario, corremos el riesgo de perpetuar bulos y alucinaciones? Un debate interesante con muchos matices y ramificaciones.
Estamos en plena fase de cambio (y no sabemos cuánto durará). Nos hallamos en el tránsito desde la búsqueda tradicional hacia la adquisición de conocimiento dinámico. El cambio fundamental entre los buscadores clásicos y la IA reside, no tanto en el comportamiento del usuario (que a fin de cuentas lanza la pregunta prácticamente de la misma forma), sino en la dinámica de la información obtenida.
La búsqueda tradicional se basa en palabras clave y devuelve listas de enlaces. Buena parte del éxito de la búsqueda recae en la pericia del propio usuario: escoger cuidadosamente las palabras clave e interpretar correctamente los enlaces y contenido de los muchos resultados encontrados.
Por el contrario, la IA responde con síntesis directas, integrando mayor contexto y lenguaje natural y permitiendo consultas más complejas (una conversación sobre el asunto en vez de nuevas búsquedas).
Esto ahorra tiempo, interacciones, favorece la inmediatez y la personalización… pero también implica que el resultado final ya no son los enlaces en sí, las fuentes originales, sino la interpretación que la IA hará de los datos. Y hay que admitir que la mayoría de las veces lo hace bien y parece sacar las conclusiones correctas.
Esta “dinamización” del conocimiento –la capacidad de analizar respuestas en tiempo real y adaptarse a contextos cambiantes– parece una ventaja para la ciberseguridad del usuario. Las IA suelen ser certeras a la hora de interpretar la intención del usuario en su búsqueda, además de adaptar la respuesta a su nivel.
Se dispone así de mayor capacidad de investigación, de leer más enlaces, de eludir contradicciones, de indagar en más fuentes con un simple clic. Ya no nos quedamos con el primer enlace del buscador, susceptible de ser el más popular, sin duda, pero no por ello el mejor.
En contrapartida, surgen dudas sobre la precisión, alucinaciones y el riesgo de la confianza ciega. ¿De verdad son más precisas las búsquedas por IA? Los estudios muestran que, en ciertos ámbitos, los modelos de IA superan a los buscadores tradicionales en porcentaje de respuestas correctas (con tasas de acierto superiores al 80%, frente al 60-70% de los motores clásicos).
Aunque esta precisión no está exenta de riesgos: las IA pueden incurrir en alucinaciones, es decir, respuestas falsas presentadas con total seguridad, lo que puede confundir tanto a usuarios como a profesionales de la ciberseguridad. Como siempre, depende de las fuentes originales. Y la ciberseguridad, por experiencia, es una rama de la informática tan compleja y llena de matices que se presta a la desinformación por simplificación.
De hecho, de un tiempo a esta parte, se está observando una tendencia creciente en el mundo profesional de la ciberseguridad, donde están apareciendo muchos supuestos expertos que acuden a medios, escriben libros y responden en foros con información cuando menos cuestionable (si no directamente errónea). En las redes no se les piden credenciales, sino un discurso atractivo del que nadie comprueba su coherencia.
Eso con respecto a las fuentes originales de las que se puede nutrir la IA. Pero a esto añadimos que, en el contexto de la ciberseguridad, una alucinación por parte de la IA puede tener consecuencias críticas: desde la invención de vulnerabilidades inexistentes hasta la recomendación de paquetes de software falsos, pasando por los consejos de cambios de configuración que rompan el sistema o lo dejen peor de lo que estaba. Sospecho que la verificación humana y la validación cruzada siguen siendo imprescindibles.
Podríamos acudir a la propia IA para saber si un dato es verdadero o falso. Pero me temo que aquí dependemos más de la voluntad del que busca que de la precisión del buscador. Esto es, si una persona se preocupa de investigar sobre la veracidad de una información, significa que no es precisamente la víctima ideal de esta desinformación. De nada sirve dotar de medios de comprobación de veracidad a quien no le interesa verificar las fuentes.
En resumen, la transición de la búsqueda tradicional a la búsqueda por IA es mucho más que un cambio tecnológico: es un giro cultural en la forma en que accedemos, interpretamos y fomentamos el conocimiento. La IA promete búsquedas más precisas y dinámicas, pero exige además estrategias de verificación, comprobación de fuentes y una vigilancia constante frente a los riesgos de alucinaciones y manipulación. Al final, quizás va a depender de nuevo de cómo se formulan las preguntas y de cómo se interpretan las respuestas. Volvemos, en cierto modo, a la casilla de salida: buena parte del éxito de la búsqueda con IA recae en la pericia del propio usuario.