Hace unas semanas estuve en Londres pasando unos días y tuve la oportunidad de probar las Apple Vision Pro. En España todavía no están disponibles, así que aproveché el viaje para quitarme la curiosidad.
La experiencia fue, sinceramente, espectacular. La sensación de inmersión, la precisión de los sensores, la calidad del entorno virtual… todo lo que esperarías de un producto de Apple, pero multiplicado por diez. A nivel técnico, es una maravilla. Pero salí de la tienda con una pregunta rondándome la cabeza:
👉🏻 ¿de verdad este es el futuro de la computación?
Una experiencia casi brillante… pero poco útil
Estuve unos 45 minutos probándolas. El tiempo suficiente para darme cuenta de que, aunque el producto es técnicamente impresionante, no aporta nada esencial que no tengamos ya con un móvil o un portátil.

Las Apple Vision Pro funcionan conectadas a una batería que debes llevar siempre contigo
Sí, puedes abrir varias pantallas, ver fotos en tamaño gigante, ver un partido de la NBA a pie de pista… pero en ningún momento sentí que estuviera haciendo algo mejor que con mis dispositivos actuales.
Y eso, creo, es el problema principal: no hay una cadena de valor clara. No mejora mi productividad, no me ofrece una experiencia más natural y, desde luego, no justifica su precio.
El precio no es el verdadero obstáculo
Mucha gente dice que el precio (3.500 $) es la barrera principal. Pero no lo creo. Si realmente fuera una tecnología de adopción masiva, los costes bajarían con el tiempo, habría economías de escala y más fabricantes competirían. El precio es un problema a día de hoy pero no lo sería en un futuro de convertirse en una tecnología de masas a la escala del smartphone.
El verdadero problema está en otra parte: la interacción, precisamente en el input: voz y teclado. Ahora te explico el porqué.
El cuello de botella está en la voz
En las Apple Vision Pro la interacción principal es visual y manual (mirada, gestos, y algo de voz), pero si miramos hacia el futuro de las gafas inteligentes como las Ray-Ban Meta o los prototipos que otras empresas están preparando, todo apunta a que la voz será el centro de la interacción.
Y ahí está el verdadero cuello de botella.
Hablar con una máquina puede ser cómodo en casa, pero es poco práctico en contextos sociales o profesionales. No vas a ir por la calle o en la oficina dictando comandos a tus gafas. Además, la voz es lenta, poco precisa en entornos ruidosos y plantea serios problemas de privacidad.
OpenAI, por ejemplo, está desarrollando un dispositivo que se lleva colgado al cuello con el que puedes hablar en cualquier momento, una especie de asistente de IA permanente. Pero la limitación es la misma: la interacción por voz no escala. No puedes construir un nuevo paradigma tecnológico sobre un método de entrada tan restrictivo que ya ha fallado tantas veces en el pasado.
El factor humano que no se puede simular
Hay otro punto que me resulta aún más inquietante: el contacto humano.
Imagina mantener una conversación con alguien que lleva unas gafas que pueden estar proyectando información en su campo de visión. Aunque no las esté usando, la percepción cambia.
Pierdes el contacto visual, la atención se difumina, la interacción se vuelve menos natural.
Es una experiencia poco humana. Y si algo nos enseña la historia de la tecnología, es que los productos que no se integran bien en nuestra conducta social tienden a fracasar.
Una tecnología que impresiona… pero no transforma
De todas las demos que probé, ninguna mejoraba mi flujo de trabajo.
El teclado virtual es incómodo, la escritura por tapping es torpe, y aunque puedes conectar un Mac, entonces las Vision Pro no son más que un monitor caro y pesado.
Sí, es divertido ver una película o explorar una app en 3D, pero… ¿para qué?
No me imagino pagando miles de euros para ver fotos o ver Netflix flotando en el aire.
Los ingenieros de Google ya lo vieron venir
En una conferencia de Android Central, un ingeniero que trabajó en Google Glass dijo algo que resume muy bien mi opinión:
“Once the novelty wore off, consumers had no real use for it.”
Y creo que esa frase lo resume perfectamente.
El producto puede ser impresionante, la tecnología puede funcionar… pero si la gente no encuentra un uso real, no hay categoría de consumo posible.
De hecho, un representante de Meta comentó que para que las gafas inteligentes se consoliden como una categoría de consumo “verdadera”, deberían vender decenas de millones de unidades antes de 2027. A día de hoy, están muy lejos de eso.
Apple, por ejemplo, apenas ha vendido medio millón de Vision Pro mientras que las Ray-Ban de Meta alrededor de un millón.
Por ponerlo en contexto: cada año vende más de 230 millones de iPhones de un mercado que vende 1.166 millones de unidades al año.
¿Cuándo podrían funcionar?
Creo que solo lo harán cuando la forma que tenemos de interacturar cambie radicalmente.
Ray Kurzweil lo describe muy bien en La singularidad está más cerca: un futuro donde la interfaz sea cerebro-máquina, donde no tengamos que hablar ni teclear, sino pensar la instrucción.
Ahí sí tendría sentido. Pero falta mucho para eso.
Hasta entonces, las gafas de realidad mixta seguirán siendo un juguete caro, una curiosidad tecnológica más que una herramienta de uso real.
En resumen: no creo que estas gafas sean el futuro de la computación personal.
Al menos no en su forma actual. Son impresionantes, sí, pero no útiles.
Y cuando la novedad se pasa, como ya ocurrió con las Google Glass, lo único que queda es un producto sin propósito.
Abrazo,
Álvaro

