Fotomontaje con Bard.

Fotomontaje con Bard. Manuel Fernández Omicrono

Tecnología

Google no se fía de su IA: recomienda a sus empleados que no utilicen Bard por no ser seguro

La compañía advierte a sus trabajadores que los modelos de lenguaje como ChatGPT o Bard, el suyo propio, también podrían provocar filtraciones.

16 junio, 2023 14:00
Marta Sanz Romero Nacho Castañón

Bard, el chatbot de Google que pretende rivalizar con ChatGPT, está tardando en dar el salto a España y otros países de la Unión Europea. El motivo de este retraso estaría en las dudas del gigante de internet sobre si su tecnología cumple con las políticas de privacidad y protección de datos europeas. Una incertidumbre que la compañía traslada a sus propios empleados, a quienes han pedido cautela a la hora de usar esta inteligencia artificial (IA).

Alphabet, empresa matriz de Google, está advirtiendo a sus empleados sobre cómo los chatbots, incluido Bard, no son totalmente seguros y podrían provocar filtraciones, como señala una fuente relacionada con el asunto a Reuters. De hecho, la compañía ha pedido a sus trabajadores que utilicen esta inteligencia artificial con cautela y que no ingresen sus datos internos y confidenciales.

Los modelos de lenguaje como ChatGPT o Bard son programas que utilizan la inteligencia artificial generativa para mantener conversaciones con los usuarios y responder a cualquier pregunta e indicación que se les haga. Incluso son ideales para recibir recomendaciones y realizar planes, como visitar el castillo más bonito de España. Pero no son totalmente seguros, según Alphabet.

Ni Bard ni ChatGPT

Alphabet no sólo pide a sus trabajadores que no metan sus datos personales en Bard, sino que también solicitan que tampoco introduzcan código directamente en el chatbot. Es más, la compañía les recomienda directamente que no utilicen ninguno de estos modelos de lenguaje.

De hecho, la empresa estadounidense ha modificado las políticas de privacidad de Bard y ahora se puede leer lo siguiente: "No incluyas información confidencial o sensibles en tus conversaciones con Bard".

Una inteligencia artificial.

Una inteligencia artificial. iStock Omicrono

La propia empresa ha hablado con el mismo medio y ha asegurado que Bard puede hacer sugerencias de código no deseadas, pero que, sin embargo, es de grana ayuda para los programadores. Y cabe señalar que Google ha dejado claro que su objetivo era ser transparente sobre las limitaciones de su tecnología.

Una recomendación que muestra cómo Google quiere evitar daños comerciales por su inteligencia artificial y la preocupación por mantener su chatbot libre de prejuicios; aunque Bard está llamado a ser el siguiente hito tecnológico de la compañía.

[¿En qué te afecta la primera ley en el mundo que regula la Inteligencia Artificial?]

La IA está entrenada por personales de las propias empresas, por lo que desde Google consideran que éstas podrían terminar filtrando información confidencial que podría dar pistas sobre el verdadero trabajo oculto y que los usuarios no ven cuando utilizan un chatbot.

También te puede interesar...