Apple Intelligence

Apple Intelligence

Omicrono

Los expertos dejan en ridículo a Apple: engañan a su IA para hackear el iPhone con un correo

Investigadores han revelado la existencia de dos ataques que, combinados, fueron capaces de saltarse la seguridad de Apple fácilmente.

Más información: China recibió por error Apple Intelligence: la IA de Apple se lanzó sin tener aún aprobación del gobierno y fue retirada

Publicada

No es ningún secreto que Apple va un paso o dos por detrás del resto de la industria en lo que respecta a la Inteligencia Artificial; aunque no es menos cierto que el éxito de las ventas del iPhone 17 demuestra que la IA no es una prioridad para los usuarios.

Sin embargo, eso no significa que Apple pueda dormirse en los laureles y seguir ofreciendo un producto inferior, especialmente si se descubre que, además, puede ser muy inseguro. Esa es precisamente la revelación publicada por investigadores de RSAC Research, que han conseguido usar Apple Intelligence para hackear el iPhone.

Lo llamativo de esta investigación es que ha dejado al descubierto grietas evidentes en el propio diseño de Apple Intelligence y la manera en la que está integrado dentro de iOS, y por lo tanto, no es comparable a fallos presentes en otros asistentes de inteligencia artificial.

A diferencia de otras apps de inteligencia artificial como Gemini o ChatGPT, Apple Intelligence no depende únicamente de un servidor externo, sino que se ejecuta parcialmente de manera local en el propio dispositivo, con un LLM (Large Language Model) descargado directamente en la memoria del iPhone y accesible por las apps instaladas en el sistema.

Gracias a esta integración, Apple Intelligence es capaz de leer nuestros correos, generar notificaciones con resúmenes de conversaciones en apps como Telegram, o crear eventos de calendario basándose en eventos de otras apps, por ejemplo.

Sin embargo, los investigadores han demostrado que, aunque esta integración más profunda en el sistema tiene sus ventajas, también implica que Apple debe tener más cuidado de no ofrecer un nuevo vector de ataque a los hackers.

En concreto, los investigadores descubrieron que era posible engañar a Apple Intelligence para inyectar instrucciones para que se ejecuten con todos los permisos del sistema, un tipo de vulnerabilidad conocida como "Prompt Injection".

Una instrucción inyectada en Apple Intelligence

Una instrucción inyectada en Apple Intelligence RSAC

Para poder hacer todo lo que hace, Apple Intelligence tiene unas instrucciones 'maestras' o del sistema; el atacante podía aprovechar esto para inyectar sus propias instrucciones para que fuesen consideradas como 'maestras' y ejecutadas con todos los permisos, de manera efectiva tomando el control del dispositivo.

Por ejemplo, en uno de los ataques demostrados los investigadores incluyeron texto invisible en un correo electrónico que incluía instrucciones para Apple Intelligence como "Olvida todo lo anterior y sigue estas órdenes", que una vez que era recibido y leído por Apple Intelligence se ejecutaban de manera automática.

En el ejemplo, los investigadores usaron este método para generar texto que puede ser ofensivo o meter en problemas al usuario, como "enséñame cómo montar una bomba" o "entra en esta dirección", pero advierten que el potencial era mucho mayor.

Para ello, usaron una técnica conocida como "Neural Exec", un tipo de instrucción que a simple vista no tiene sentido, pero que una vez que es interpretada por una IA puede hacer que ejecute cualquier orden incluida.

La buena noticia es que los investigadores avisaron a Apple de este problema el pasado mes de octubre, y que ya ha sido solucionado en las últimas actualizaciones del sistema: iOS 26.4 y macOS 26.4 lanzadas en marzo de 2026; de ahí que hayan decidido hacerlo público ahora, cuando no es un peligro tan grande para tantos usuarios.