La misteriosa startup Q.ai ya es de Apple: por qué este acuerdo de $2,000 millones puede marcar el futuro de Apple
La compra de Q.ai podría ayudar a Apple a mejorar de forma importante la forma en la que operan los AirPods, Siri e incluso los Vision Pro
Apple parece estar interesada en integrar a su ecosistema la tecnología de Q.ai en interpretación de habla susurrada y de mejora de audio en ambientes ruidosos mediante machine learning Crédito: Shutterstock
Apple compró Q.ai, una startup israelí de IA enfocada en audio e “imaging”, por una cifra que varias fuentes sitúan cerca de los $2,000 millones de dólares, aunque Apple no confirmó el monto públicamente.
No se trata de una compra más en el mundo tech pues es una de las más grandes que ha hecho Apple en tiempos recientes. Esto abre la pregunta de cómo la compañía podría incorporarla a su ecosistema para ser más competitiva.
¿Qué es Q.ai y por qué Apple decidió comprarla?
Q.ai es una compañía relativamente nueva y ha trabajado en tecnologías para interpretar habla susurrada y mejorar el audio en ambientes ruidosos mediante machine learning y sistemas de captura/interpretación vinculados a señales faciales. En otras palabras: no es solo “mejor cancelación de ruido”, sino la idea de que tus dispositivos entiendan lo que dices (o intentas decir) incluso cuando no puedes hablar normal.
Parte de lo llamativo es el enfoque tipo “silent speech” es que hay reportes de que Q.ai puede inferir palabras analizando micro-movimientos de la piel/actividad muscular facial, una ruta que abre interacciones más discretas con asistentes y wearables. Esa dirección aparece reflejada en patentes asociadas a este tipo de enfoque: interpretar “facial skin micromovements” para extraer significado incluso sin vocalización perceptible.
Además, el propio Johny Srouji (SVP de hardware technologies en Apple) describió a Q.ai como “una compañía notable” que es “pionera en formas nuevas y creativas de usar imaging y machine learning”, lo cual es una señal bastante clara de que Apple la ve como tecnología base, no como una app puntual.
¿Por qué la compra es tan llamativa más allá del precio?
Si el acuerdo realmente rondó los $2,000 millones, se convertiría en la segunda mayor adquisición de Apple, solo detrás de Beats (2014). Para Apple —que suele comprar startups pequeñas y calladitas— eso es un volantazo, y suele implicar que la tecnología encaja con planes de hardware a gran escala.
El segundo punto que deja entrever la compra es el perfil “secreto”. Varias notas coinciden en que Q.ai operaba con bajo perfil/stealth, lo que normalmente significa dos cosas: o estaban desarrollando propiedad intelectual fuerte, o estaban evitando enseñar demasiado antes de integrarse a un jugador gigante.
Otro elemento llamativo es que se reporta que el fundador/CEO Aviad Maizels se une a Apple y que esta es la segunda vez que vende una empresa a la compañía (antes, PrimeSense en 2013).
Ese último detalle importa porque PrimeSense estuvo vinculada al salto de Apple hacia tecnologías de sensing 3D, y aquí el patrón es parecido: comprar una pieza “profunda” (sensores + ML + integración) para desbloquear productos que no se pueden copiar fácil.
¿Qué podría estar buscando Apple con esta operación?
- Un “Siri de verdad” en hardware que importa: Si puedes interpretar susurros, lectura labial o señales faciales, el asistente deja de depender tanto del micrófono perfecto y del entorno silencioso: gana confiabilidad en el mundo real. Y eso es clave cuando el asistente vive en tu oído (AirPods) o en tu cara (headset).
- Una experiencia más privada y discreta: consultas sin hablar en voz alta, respuestas “discretas”, y control manos libres sin parecer que estás grabando un podcast en el metro. Incluso sin prometer ciencia ficción, el solo hecho de mejorar comandos y captura de voz en ruido ya tiene valor inmediato en wearables.
- Refuerzo para AirPods y Vision Pro: Se ha señalado que la tecnología podría servir tanto para audio robusto como para capacidades relacionadas con detección facial sutil, lo que calza con auriculares inteligentes y computación espacial. Si el futuro de Apple pasa por wearables “always on”, necesitan interfaces que no dependan de sacar el iPhone cada 30 segundos.
- Más IA “en el dispositivo” y menos en la nube: En reportes sobre Q.ai se menciona que parte del stack estaría optimizado para correr en embedded/on-device, algo que Apple persigue por costo, latencia y privacidad. Para Google Discover, esto traduce en una lectura simple: Apple no solo quiere modelos, quiere IA integrada al silicio y al producto.
Esta compra suena resuena porque no es Apple “comprando una app”, sino apostando por una capa completa de tecnología para que la interacción con sus dispositivos sea más natural, más constante y mucho más discreta. Si Q.ai realmente ayuda a entender comandos en ruido, susurros o incluso señales faciales mínimas, Apple gana una ventaja difícil de replicar: una nueva interfaz que vive pegada al usuario (en los audífonos o en el headset) y que puede empujar a Siri y a sus wearables a la siguiente etapa.
Sigue leyendo:
• Apple rompe todos los récords: el iPhone acaba de tener su mejor trimestre de la historia
• Apple prueba un nuevo diseño en la App Store y la publicidad se vuelve casi invisible
• Apple recupera el primer puesto en ventas mundiales gracias al iPhone 17