
¡Atención, Gurú Tecno Army! Mark Gurman de Bloomberg ha desvelado en su último boletín Power On una noticia que cambia la perspectiva sobre la capacidad de Apple en el campo de la Inteligencia Artificial. Tras encontrar obstáculos significativos en el desarrollo de su propio modelo grande para Siri, Apple ha ajustado su estrategia y, sorprendentemente, ha recurrido a pagar a Google para que personalice un modelo de lenguaje grande basado en Gemini.
El informe sugiere que esta colaboración busca abordar los desafíos que Apple ha enfrentado para desarrollar Siri, particularmente para garantizar su rendimiento estable y eficiente en diversas aplicaciones, especialmente en escenarios críticos como la banca.
Por lo tanto, Apple espera compensar sus deficiencias en el manejo de tareas complejas de IA mediante la introducción del modelo Gemini maduro de Google, acelerar el proceso de inteligencia artificial de Siri y, al mismo tiempo, seguir presentando el servicio como tecnología propia de Apple para su promoción externa.
Arquitectura híbrida: on-device y nube con Gemini
Con la nueva arquitectura técnica, el procesamiento de tareas de IA de Siri adoptará un modo híbrido. Para solicitudes de IA relativamente sencillas, el sistema las completará utilizando los recursos informáticos del propio dispositivo. Sin embargo, para consultas más complejas, se delegarán a un modelo Gemini personalizado, implementado en los servidores de computación en la nube privada de Apple, para su procesamiento mediante datos cifrados sin estado.
Este modelo de «colaboración integral en la nube» es clave: permite aprovechar las potentes capacidades de los modelos a gran escala al tiempo que maximiza la protección de la privacidad de los datos del usuario, ya que el servidor no almacenará ninguna información personal.
La nueva Siri: tres componentes clave
La versión actualizada de Siri contará con tres componentes principales para permitir una interacción con el usuario más inteligente:
- El «planificador de consultas»: Determinará inteligentemente la mejor ruta para satisfacer una solicitud, decidiendo si realizar una búsqueda web, acceder a datos personales o llamar a una función de una aplicación de terceros.
- El «sistema de búsqueda de conocimiento»: Dotará a Siri de una base de conocimientos generales para responder directamente a preguntas de sentido común.
- El «resumidor»: Aprovechará las grandes capacidades del modelo para resumir eficientemente notificaciones, correos electrónicos, páginas web e incluso contenido de audio.

Apple planea implementar estas nuevas y potentes funciones de IA por fases. Se espera que los usuarios disfruten de funciones como el control por voz integrado en las aplicaciones y los servicios contextuales con la actualización iOS 26.4, prevista para la primavera de 2026. Los verdaderos avances «importantes» en tecnología de inteligencia artificial, que transformarán por completo la experiencia de Siri, llegarán en la WWDC de junio de 2026 con la actualización iOS 27.
Conclusiones finales
Esta revelación de Bloomberg es un golpe sobre la mesa en la narrativa de la «IA propia» de Apple. Demuestra la complejidad y el costo de desarrollar modelos de IA de vanguardia, incluso para un gigante como Apple. La alianza con Google para Gemini es un movimiento estratégico pragmático que permitirá a Apple competir en el espacio de la IA conversacional avanzada, mientras intenta mantener su imagen de privacidad y control.
La «nueva Siri» promete ser mucho más inteligente, pero el motor detrás de su cerebro, al menos en parte, tendrá el sello de Google. Déjanos tu opinión en los comentarios y únete a la discusión en Instagram, Facebook y YouTube.