Captura de pantalla de uno de los anuncios de Anthropic.

Captura de pantalla de uno de los anuncios de Anthropic. Anthropic Omicrono

Noticias y novedades

Claude ataca a ChatGPT y asegura que seguirá siendo gratis: un 'troleo' a lo grande con anuncios de la Super Bowl

Anthropic ha aprovechado esta campaña publicitaria para negar que vayan a incluir de ninguna forma este tipo de sistemas en sus chatbots.

Más información: ¿Adiós al Traductor de Google?: ChatGPT Translate ya está disponible y en español

Publicada

El pasado 19 de enero, OpenAI confirmó que ChatGPT incorporaría anuncios, incluso para suscriptores de pago. Una medida que no ha sentado bien y que ya ha llevado a que rivales suyos se rían directamente del chatbot.

Ha sido Anthropic, la desarrolladora detrás del chatbot Claude la que ha publicado varios anuncios riéndose de esta medida en anuncios de la Super Bowl LX, el evento deportivo más conocido de todo Estados Unidos.

Por si fuera poco, la misma Anthropic ha confirmado de forma tajante que no implementarán anuncios en Claude de ninguna de las formas, pese al prohibitivo coste que supone mantener la inteligencia artificial.

Anuncios de la Super Bowl contra OpenAI

El anuncio de los de Sam Altman para introducir anuncios en la plataforma no ha sentado nada bien. De base, los usuarios son reacios a esta clase de prácticas pero la idea de incluirlos incluso pagando ha sido objeto de muchas críticas.

A esto le sumamos que OpenAI es la cara visible del auge de la inteligencia artificial generativa, con ChatGPT siendo líder en lo que a uso de chatbots refiere. Por supuesto, Anthropic no ha perdido la ocasión.

En estos anuncios de la Super Bowl —evento que, por cierto, cotiza enormemente bien sus anuncios— podemos ver varias situaciones. En una, se ve a un usuario hablando con una hipotética psicóloga potenciada con IA. Esta recita un anuncio justo en medio de un consejo.

Esta es una clara alusión a la forma en la que muchas personas utilizan tanto Claude como otros tantos chatbots como psicólogos personales. El anuncio finaliza con una frase demoledora: "los anuncios llegan a la IA. Pero no a Claude".

El anuncio se ha acompañado con una entrada de blog en el que Anthropic defiende su modelo de negocio frente al de OpenAI. En dicha entrada, titulada Claude es un espacio para pensar reniegan de la publicidad.

La inclusión de anuncios en las conversaciones con Claude, dice Anthropic, "sería incompatible con lo que queremos que Claude sea: un asistente genuinamente útil para el trabajo y para la reflexión profunda".

La idea no es otra que Claude sirva como un beneficio inequívoco para los usuarios. "Claude permanecerá sin publicidad. Nuestros usuarios no verán enlaces 'patrocinados' junto a sus conversaciones", apostilla la empresa.

Lo mismo ocurre con sus respuestas. Estas no se verán influenciadas directamente por anunciantes ni incluirán publicidad de terceros "que nuestros usuarios no hayan solicitado".

Más allá de la filosofía

El extenso texto que Anthropic usa para justificar esta medida se basa en varios pilares, que van más allá de la pura y sencilla filosofía en torno de la naturaleza de los chatbots. En este caso, hay un componente de privacidad importante.

Anuncio de Claude.

Los usuarios aplican a sus conversaciones un contexto muy importante que es mucho más amplio y privado al que usan en una búsqueda normal. Esto "las hace susceptibles a otras influencias", dice Anthropic.

Una parte considerable de estas conversaciones trata temas delicados o profundamente personales, incluyendo conversaciones que casi se podrían calificar de asesorías personalizadas.

La firma, al igual que otras muchas, aún está intentando comprender la forma en la que los modelos afectan a los usuarios, tanto en lo positivo como en lo negativo y con todo lo que ello implica.

"Nuestra comprensión de cómo los modelos traducen los objetivos que les asignamos en comportamientos específicos aún está en desarrollo; por eso, un sistema basado en publicidad podría tener resultados impredecibles", aclara la empresa.

Claude

Claude

Entra en materia la Constitución de Claude, un documento que establece la visión de Anthropic con el "personaje de Claude" y que sirve como guía para entrenar al modelo para ser "genuinamente servicial".

En ella se habla de la idea de ofrecer respuestas lo más beneficiosas posibles, sin incentivos ni económicos ni políticos de ninguna clase. Un enfoque basado en la publicidad choca frontalmente con esta filosofía.

La misma Anthropic pone un ejemplo. Si un usuario confiesa a Claude que tiene problemas para dormir, el asistente explorará las causas basándose en lo que le resulte más revelador, para así buscar una solución.

Si el asistente tuviera publicidad, esta consulta se transformaría en una oportunidad para realizar una transacción. Además, los anuncios que influyan en las respuestas pueden dificultar la idea de determinar si una recomendación tiene propósitos comerciales detrás, o no.

Fotomontaje con el logo de Anthropic.

Fotomontaje con el logo de Anthropic. Manuel Fernández Anthropic

Tanto es así que Anthropic es lapidaria en este sentido: "Los usuarios no deberían tener que dudar sobre si una IA realmente les está ayudando o si sutilmente está dirigiendo la conversación hacia algo monetizable".

¿Y qué hay de los anuncios que no influyen en el modelo de IA? Incluso unos hipotéticos anuncios que aparecieran por separado lejos de estas respuestas comprometerían la visión de Anthropic sobre Claude.

Anthropic no se cierra a revisar este enfoque, aunque aclaran que en caso de hacerlo, será transparente respecto a sus motivaciones: mantener la oferta gratuita para considerar a futuro "planes de suscripción más económicos y precios regionales".