Apple ha vuelto a sincronizar sus relojes. Lo ha hecho sin lanzar ningún dispositivo nuevo, sin presentar un chip más potente ni un producto inesperado que se lleve titulares. Pero sí ha rediseñado por completo la experiencia de sus sistemas operativos, desde el iPhone hasta el Mac, pasando por el iPad, el Apple Watch, el Apple TV y el Vision Pro. Y con una idea muy clara: unificar, simplificar y modernizar la relación que tenemos con sus pantallas.
El nuevo lenguaje visual, bautizado como Liquid Glass, marca el mayor rediseño en más de una década. Las superficies son ahora más translúcidas, los elementos flotan con más suavidad, los bordes se redondean y las transiciones se deslizan con una fluidez que recuerda inevitablemente a visionOS, el sistema del Vision Pro. No es casualidad. Apple quiere que todos sus productos hablen el mismo idioma, visual y funcionalmente.
Una estética compartida, una experiencia común
Desde iOS 26 hasta macOS 26 (bautizado como “Tahoe”), pasando por iPadOS, watchOS y tvOS, la estética se ha reescrito para acercarse a una lógica más espacial, más inmersiva. Las interfaces ya no son solo funcionales: ahora también respiran, cambian con el entorno y se adaptan al contenido. La pantalla de bloqueo del iPhone se vuelve dinámica. Las apps de Cámara, Música y Safari renuevan sus diseños. El Apple Watch muestra esferas flotantes. Incluso CarPlay recibe una dosis del nuevo lenguaje gráfico.
Esta apuesta por la cohesión tiene un efecto práctico. Para quienes utilizan varios dispositivos Apple, la curva de aprendizaje se reduce. El salto entre pantallas es más intuitivo. Todo parece formar parte de un mismo sistema, aunque se use en contextos distintos. Y esa sensación de continuidad es algo que Apple ha buscado durante años, pero que ahora refuerza con resultados tangibles.
Junto a los cambios estéticos, hay también novedades en lo relativo a funcionalidad. iOS 26, por ejemplo, incorpora mejoras en Mensajes —como encuestas y filtros inteligentes—, y una renovada app Teléfono con transcripción en tiempo real y una traducción simultánea que funciona incluso en llamadas con usuarios que no utilizan dispositivos Apple. Son detalles que afinan la experiencia diaria y que consolidan funciones útiles sin necesidad de reinventar nada, algo que la firma californiana ha llevado al extremo en esta iteración.
La inteligencia que no necesita nube
Uno de los anuncios más relevantes de la WWDC 2025 tiene menos que ver con lo que se ve y más con lo que ocurre por dentro. Apple refuerza su apuesta por Apple Intelligence, una arquitectura de inteligencia artificial integrada en el sistema y que no necesita apoyarse en el cloud. No es una app, ni un asistente separado. Es una arquitectura que añade contexto, autonomía y respuesta local a distintas funciones del sistema, de forma discreta pero estratégica.
Este enfoque tiene ventajas claras. Al ejecutarse en el dispositivo, los modelos de IA son más rápidos, consumen menos recursos y protegen mejor la privacidad. Visual Intelligence, por ejemplo, permite detectar objetos o fragmentos de texto en pantalla y actuar sobre ellos directamente: copiar, traducir, buscar información o compartir. Todo sin salir de la app y sin enviar datos fuera del terminal.
La apertura a desarrolladores también es significativa. Apple proporcionará herramientas para que aplicaciones de terceros puedan aprovechar estas capacidades. Esto supone una oportunidad para enriquecer las funciones de apps ya conocidas sin que tengan que recurrir a servicios externos. La inteligencia, por tanto, no es una app más: es una capa del sistema operativo que otros pueden utilizar.
Este apuesta, sin embargo, también tiene límites. Al depender casi exclusivamente del procesamiento en el dispositivo, Apple se ve obligada a priorizar modelos más ligeros y ajustados. Algunas funciones avanzadas podrán requerir hardware reciente, y otras podrían quedar por debajo del rendimiento y la versatilidad que ofrecen plataformas basadas íntegramente en la nube (ChatGPT, Gemini, Grok…). Es el coste de una privacidad garantizada y de un ecosistema donde el control es tan importante como la experiencia de usuario. En Cupertino parecen tener muy claro que su IA será diferente.
Apple Intelligence también está más presente en otros dispositivos. En macOS Tahoe, los atajos se vuelven más potentes y pueden activarse por condiciones específicas, como la ubicación, la hora del día o el uso de una aplicación. En Vision Pro, la IA facilita el control por mirada y mejora la representación de los avatares durante las llamadas colaborativas. Incluso el Apple TV y el Apple Watch integran mejoras sutiles, que ajustan la interfaz o adaptan funciones según el uso.
No todo lo que esperábamos ha llegado aún. Siri, el asistente de voz de Apple, no ha recibido el rediseño profundo que algunos rumores anunciaban. La compañía ha comunicado que la nueva versión llegará en 2026, tras un proceso de ajuste que prioriza la calidad de las respuestas y la integración contextual. Por ahora, el asistente sigue funcionando, pero queda muy atrás de lo que esperamos de Apple.
La apuesta por la continuidad
Con esta WWDC, Apple no ha buscado titulares espectaculares ni promesas complicadas de ejecutar en la práctica. Ha preferido mostrar una evolución sólida, centrada en la experiencia y en la consistencia. El diseño es más coherente, su IA avanza sin perder la filosofía que la caracteriza y el sistema se abre más a desarrolladores sin perder el control sobre la privacidad y la estabilidad.
Para muchos usuarios, los cambios serán sutiles pero significativos. No hay que aprender nada nuevo, pero todo funciona mejor. Las acciones se simplifican. La interacción se vuelve más fluida. Y aunque no haya un gran efecto “wow”, hay un trabajo minucioso detrás que refuerza la sensación de producto cuidado.
El despliegue comenzará este otoño, con versiones públicas de iOS 26, macOS Tahoe, iPadOS 26, watchOS 26, tvOS 26 y visionOS 2. Las betas para desarrolladores ya están disponibles. Y si algo ha quedado claro, es que Apple ha decidido construir sobre lo que ya tiene, no romperlo para empezar de nuevo. Si alguien no está obligado a arriesgar, son los californianos.
No es una revolución, pero sí un ajuste de rumbo importante. Uno que unifica, moderniza y prepara el ecosistema para lo que viene. Porque, aunque Apple no lo diga en voz alta, su futuro no pasa solo por la IA ni por el hardware. Pasa por cómo se conectan esas piezas, cómo se integran y cómo consiguen que todo funcione pidiendo muy poco al usuario final.
Apple ha confirmado que algunas de las funciones más avanzadas de Apple Intelligence requerirán chips A17 o M-series, por lo que no todos los dispositivos actuales serán compatibles con todo el conjunto de novedades. Y para desarrolladores y responsables de apps corporativas, la WWDC deja también un aviso: las nuevas APIs, los rediseños de interfaz y las capacidades contextuales abren oportunidades, pero también exigen adaptación.
La entrada Apple redibuja su ecosistema: nuevo diseño, inteligencia local y más IA en la WWDC 2025 se publicó primero en MuyComputer.