ChatGPT se ha convertido en protagonista de muchos ambientes laborales, sociales y familiares. Casi dos años después de la gran actualización de la herramienta de OpenAI, sus funcionalidades siguen sorprendiendo a muchos usuarios.
Raúl Ordóñez, divulgador tecnológico en sus perfiles de redes sociales, ha confirmado la mejora de la herramienta impulsada por Sam Altman, pero ha recordado a su audiencia que existen algunos peligros que se deben tener en cuenta.
En primer lugar, su falta de rigor de la información que aporta cuando le preguntas por fechas, datos, cifras concretas y cuando atribuye declaraciones a una persona famosa. De este modo, recomienda actuar con ChatGPT como si fueras un periodista: siempre contrastando.
Peligros y amenazas
En el vídeo, el experto ha escenificado que él es el algoritmo, por lo que ha expresado sus peligros en primera persona. "Lo admito, puedo inventarme datos, citas o referencias con absoluta convicción", afirma.
Y añade que incluso "cuando incluya una fuente, existe la posibilidad de que la cite mal o que mezcle hechos verdaderos con detalles fabricados y en cualquiera de mis modelos".
Por ello, ha subrayado la importancia de contrastar la información, ya sea para una investigación universitaria o para una tarea destinada a tu trabajo. "Es peligroso porque si no contrastas la información, puede llevarte a difundir un bulo".
En este sentido, ha realizado una comparación para que sus casi 1 millón de seguidores entienda realmente cómo y para qué deben usar ChatGPT. "Soy un copiloto. El que tiene la hora de vuelo, la experiencia, la conciencia y el pensamiento crítico eres tú".
Por otra parte, ha señalado otros riesgos que implica el uso de este algoritmo y que muchas personas desconocen. "Tiendo a usar siempre un tono afable que a veces se convierte en complacencia excesiva. Esta visión color de rosa puede invalidar análisis rigurosos ", expresa Ordóñez.
Por consiguiente, destaca que ChatGPT tiene un sesgo de confirmación que refuerza la idea del usuario en vez de rebatirla. "Esto es muy peligroso, sobre todo en muchas personas que me usan como si fuese un psicólogo", dice @jaspeante.
La privacidad, a su vez, es otro factor a tener en cuenta, ya que la información que se introduce en la herramienta se procesa y puede ser revisada por humanos. "Si compartes datos sensibles, existe un riesgo bajo pero real de exposición inadvertida", concluye.
En las próximas semanas, OpenAI lanzará una nueva actualización -ChatGPT5- que mejorará muchas de las funciones del algoritmo, pero aún no ha trascendido si paliará algunos de los inconvenientes de la versión actual.