
Ilustración con los logos de DeepSeek y ChatGPT en un teléfono móvil. Reuters
Amazon Web Services frente a DeepSeek, ChatGPT y la adopción de la IA en la nube: "No hay un modelo para todo"
Ankur Mehrotra, director de SageMaker AI en AWS, reivindica la libertad de elección y una infraestructura solvente como parte de su propuesta de valor.
Más información: La conferencia re:Invent de AWS anuncia una catarata de actualizaciones y mejoras para usar la IA generativa
En 2022, ChatGPT irrumpió con la fuerza de un huracán para colocar la inteligencia artificial generativa como la gran tendencia tecnológica de nuestros días. No era una herramienta desconocida ni cuyo sustento (los modelos basados en transformers) no fuera bien conocido por la comunidad de desarrolladores. Sin embargo, su adopción extraordinariamente veloz la convirtió en la moda del momento y en el espejo en el que mirarse el resto de rivales.
Y no sólo competidores naturales de la inteligencia artificial: también los grandes proveedores de servicios en la nube se vieron obligados a adoptar un perfil u otro para ofrecer estas capacidades a sus clientes. En el caso del líder en estas lides, Amazon Web Services, la propuesta pasó y sigue basada en una visión holística, abierta a las distintas alternativas disponibles en el mercado. O lo que es lo mismo: combinar el desarrollo de sus propias tecnologías de IA con la disponibilidad de los grandes estándares de la industria, dejando que sea el usuario final el que decida qué modelo emplear para según qué caso de uso.
“Desde el principio, sabíamos que ningún modelo sería suficiente para cubrir todas las necesidades de los clientes. Cada modelo tiene sus propias fortalezas y también sus limitaciones. Por eso, nuestra estrategia ha sido ofrecer la mayor variedad posible”, explica Ankur Mehrotra, director de SageMaker AI en AWS, durante una conversación con DISRUPTORES - EL ESPAÑOL. “No se trata solo de agregar modelos, sino de crear el ecosistema adecuado para que las empresas puedan construir aplicaciones basadas en IA de forma eficiente y segura”.
En ese sentido, la llegada de DeepSeek no iba a suponer una excepción. Acontecida con la misma fuerza que ChatGPT, la inteligencia artificial china llegó rompiendo récords (tanto de descargas en Estados Unidos como de debacle bursátil para los grandes actores occidentales) y con un interés inusitado por parte del tejido empresarial, al menos en lo que atañe a tecnologías llegadas desde el Gigante Asiático.
“He probado personalmente DeepSeek R1 y me ha sorprendido su rendimiento”, comenta Mehrotra. “Todavía es pronto para determinar qué casos de uso serán los más populares, pero ya hemos visto que destaca en tareas de razonamiento, generación de código y matemáticas. Los clientes están interesados en evaluar su aplicación en distintos sectores”.
Así se entiende su llegada a Amazon Bedrock Marketplace y Amazon SageMaker JumpStart, en una respuesta natural a la creciente demanda de modelos de alto rendimiento y fácil implementación.
“DeepSeek explica paso a paso su razonamiento antes de ofrecer una respuesta, lo que puede ser útil en ciertos casos. En contraste, otros modelos que tenemos ofrecen respuestas más rápidas con menor latencia, algo esencial en aplicaciones que requieren inmediatez”, detalla. “Los clientes no deberían estar atados a un solo modelo. En el futuro, veremos una combinación de modelos especializados y generales, con empresas eligiendo la opción más adecuada para cada caso”.
AWS ha apostado por ofrecer tanto la versión completa del modelo como una variante limitada para reducir costes y mejorar la eficiencia. “Hemos puesto a disposición de nuestros clientes la versión completa y la destilada, permitiéndoles elegir la opción que mejor se adapte a sus necesidades”, explica el ejecutivo.
La infraestructura detrás de la IA
El movimiento de Amazon Web Services no es único en el mercado de los grandes hiperscalares de la nube. Sin ir más lejos, Microsoft (a la sazón, uno de los principales accionistas de OpenAI) ya anunció la disponibilidad de DeepSeek en Azure. Algo que ni sorprende ni preocupa a Ankur Mehrotra.

Ankur Mehrotra, director de SageMaker AI en AWS.
“Vemos que otros proveedores están pivotando hacia una estrategia similar a la nuestra, pero los clientes confían en AWS porque llevamos en este camino desde el inicio”, indica.
Un camino donde, añade el ejecutivo, la clave pasa por diferenciarse a través de su seguridad, flexibilidad e integración con otros servicios: “Nuestro mayor valor diferencial es la infraestructura que hemos construido alrededor de estos modelos, permitiendo que sean usados de forma segura, escalable y con las herramientas adecuadas”.
Uno de los aspectos clave en estos menesteres es la incorporación de Bedrock Guardrails, una herramienta diseñada para reducir las alucinaciones de la IA, filtrar contenido no deseado y mejorar la seguridad en la generación de texto. “Los clientes quieren asegurarse de que sus modelos no generen contenido inapropiado. Con Bedrock Guardrails, pueden configurar reglas para filtrar automáticamente determinados mensajes o para determinar cómo quieren que se generen los resultados”, detalla el director de SageMaker AI.
Otra ventaja es la integración total con otros servicios de AWS, como almacenamiento, análisis de datos y personalización de modelos: “DeepSeek, al igual que otros modelos en AWS, se integra de forma nativa con nuestros servicios, asegurando privacidad y seguridad en todo momento. Los datos de los clientes nunca se comparten fuera del entorno de AWS ni con terceros”. Este aspecto, hablando de un modelo originario de China, es extraordinariamente pertinente.
Flexibilidad y escalabilidad
Ya sea con DeepSeek o con cualquier otro modelo de inteligencia artificial, Ankur Mehrotra explica que el gran reto para su adopción pasa por lograr un equilibrio entre seguridad, escalabilidad y rendimiento: “Nuestros clientes buscan soluciones que les permitan implementar modelos de IA de forma segura y escalable. La flexibilidad que ofrecemos les permite ajustar sus implementaciones según sus necesidades”.
Todo ello mientras se garantiza la interoperabilidad entre modelos. Algunas compañías están explorando la idea de conectar múltiples modelos a través de API para mejorar la eficiencia, también es el caso de la multinacional estadounidense: “En AWS re:Invent, anunciamos el lanzamiento de Unified Studio, una plataforma que unifica todas nuestras herramientas de IA, desde SageMaker hasta Bedrock, facilitando el acceso a los distintos modelos a través de una única interfaz”, concluye el ejecutivo.
DeepSeek no será el último modelo
Aunque la integración de DeepSeek en el ecosistema de AWS haya atraído muchas miradas, no ha sido ni será la última expansión de su catálogo de modelos de IA: “Hace solo unos días anunciamos la integración de Segment Anything, un modelo de Meta que permite segmentar objetos en vídeos y extraer información de escenas de manera avanzada”, revela Ankur Mehrotra.