Ir al contenido
  1. Blog/

La Era de la IA Barata Se Está Terminando

·8 mins· loading
Carles Abarca
Autor
Carles Abarca
Writing about AI, digital transformation, and the forces reshaping technology.

La IA parecía barata. No lo era. Estaba subsidiada.

Hace un par de años, si alguien te hubiera dicho que la inteligencia artificial más avanzada del mundo iba a estar disponible por 20 dólares al mes, te habrías reído. Y sin embargo, durante un tiempo, eso fue exactamente lo que parecía.

Suscripciones de tarifa plana. Modelos cada vez más capaces. Capacidad de uso que, en la práctica, parecía casi ilimitada. La percepción generalizada era clara: la IA avanzada se estaba convirtiendo en un recurso abundante y accesible.

Pero esa percepción empieza a romperse. Y no por un fallo técnico, sino por algo más fundamental: la economía.

Las señales ya están aquí
#

En las últimas semanas, hemos visto varias señales convergentes que apuntan en la misma dirección:

Anthropic, el creador de Claude, ha empezado a restringir activamente ciertos patrones de uso a través de sus suscripciones. En particular, ha bloqueado el uso de herramientas de automatización como OpenClaw que canalizan peticiones a través de cuentas de suscripción. La razón es simple: el coste de inferencia de esos patrones de uso intensivo no cuadra con el precio de la suscripción.

No es un caso aislado. OpenAI lleva meses ajustando los límites reales de uso de sus modelos en los planes de suscripción, reduciendo progresivamente la cantidad de interacciones con los modelos más potentes antes de degradar al usuario a un modelo inferior. Lo que antes eran límites generosos y difusos se están convirtiendo en caps explícitos y más duros.

Y hay algo más inquietante: incluso con estos ajustes, la mayoría de grandes operadores de IA siguen sin ser rentables. Anthropic, OpenAI, y prácticamente todos los laboratorios frontier están quemando capital a un ritmo que haría palidecer a cualquier CFO tradicional.

La pregunta obvia es: si los usuarios ya están empezando a notar restricciones, ¿cómo es posible que los proveedores sigan perdiendo dinero?

La respuesta revela algo importante sobre la estructura económica real de esta industria.

La IA nunca fue barata. Estaba subsidiada.
#

Lo que hemos vivido durante los últimos dos años no fue el coste real de la IA. Fue una estrategia de adopción.

Los grandes laboratorios necesitaban hacer tres cosas simultáneamente:

  1. Demostrar capacidad para justificar valoraciones de decenas (o cientos) de miles de millones.
  2. Generar adopción masiva para crear efectos de red, lock-in y datos de uso.
  3. Capturar desarrolladores y empresas antes de que lo hiciera la competencia.

Para conseguirlo, ofrecieron acceso a modelos frontier a precios que no reflejaban el coste real de operarlos. Las suscripciones de 20 dólares mensuales eran, en la práctica, una subvención financiada con capital riesgo.

Y funcionó. La adopción se disparó. Millones de personas empezaron a usar Claude, ChatGPT y otros modelos diariamente. Empresas de todos los tamaños comenzaron a integrar IA en sus flujos de trabajo.

Pero ahora estamos entrando en la siguiente fase. Y en esta fase, los números tienen que empezar a cuadrar.

Los modelos frontier no siguen la lógica del software tradicional
#

Hay un malentendido muy extendido que conviene abordar directamente: muchas personas asumen que la IA sigue la misma lógica económica que el software convencional. Es decir: se desarrolla una vez, se distribuye a coste marginal casi cero, y los márgenes mejoran con la escala.

Pero la IA generativa —especialmente los modelos frontier— no funciona así. En absoluto.

Cada interacción con un modelo grande implica:

  • Computación en tiempo real sobre hardware muy caro (GPUs de última generación).
  • Consumo de energía significativo por cada petición.
  • Costes de infraestructura que no desaparecen con la escala; en muchos casos, crecen con ella.
  • Latencia y disponibilidad que requieren capacidad reservada, no solo capacidad pico.

Y el problema se amplifica con las tendencias de uso más recientes. Los agentes de IA —que ejecutan múltiples llamadas encadenadas para completar tareas complejas— multiplican el coste de inferencia de forma dramática. Una sesión de agente que resuelve un problema de programación puede implicar docenas de llamadas al modelo, cada una con contextos largos y herramientas activas.

Más capacidad no implica automáticamente menor coste unitario. En muchos casos de la IA frontier, implica exactamente lo contrario.

La tarifa plana fue más estrategia comercial que realidad sostenible
#

Pensemos en lo que significaba, en la práctica, una suscripción de tarifa plana a un modelo frontier:

  • Un usuario pagaba 20 dólares al mes.
  • Tenía acceso a un modelo cuyo coste de inferencia, en uso intensivo, podía superar fácilmente los 100 o 200 dólares mensuales por usuario.
  • El proveedor absorbía la diferencia, confiando en que el usuario promedio no usaría el modelo de forma tan intensiva.

Ese modelo funciona razonablemente bien cuando la mayoría de usuarios son casuales: hacen unas cuantas preguntas al día, usan el modelo para tareas simples y no estresan la infraestructura. Es el mismo principio que hace funcionar los gimnasios: venden más membresías de las que el gimnasio puede atender simultáneamente, confiando en que la mayoría de la gente no irá todos los días.

Pero cuando aparecen herramientas que permiten canalizar uso intensivo y programático a través de esas suscripciones, el modelo se rompe. Es como si alguien encontrara la forma de hacer que todo el gimnasio se llenara las 24 horas. El precio ya no cubre el coste.

Por eso los proveedores están reaccionando:

  • Límites de uso más explícitos por modelo y por período.
  • Degradación automática a modelos menos costosos cuando se alcanzan ciertos umbrales.
  • Restricciones contractuales contra patrones de uso no previstos.
  • Separación más clara entre planes de consumidor, API y enterprise.

No es un capricho. Es supervivencia económica.

La gran paradoja: más restricciones, y aun así no es suficiente
#

Aquí está el dato que debería hacer reflexionar a cualquier líder empresarial que esté apostando fuerte por la IA:

Incluso después de introducir todas estas restricciones, la mayoría de operadores de IA frontier siguen perdiendo dinero.

Anthropic ha levantado más de 10.000 millones de dólares en financiación. OpenAI está en caminos similares. Y ninguno de los dos ha demostrado todavía un modelo económico sostenible a escala sin inyección continua de capital externo.

Esto no significa que el negocio sea inviable. Probablemente hay un equilibrio económico en algún punto, con la combinación correcta de pricing, eficiencia de inferencia, volumen enterprise y optimización de hardware. Pero ese equilibrio claramente no se ha alcanzado todavía.

Y mientras tanto, la industria sigue avanzando hacia modelos más grandes, más capaces, con ventanas de contexto más amplias, más herramientas integradas y más capacidades agénticas. Todas esas mejoras son fantásticas para los usuarios. Pero cada una de ellas incrementa el coste de inferencia, no lo reduce.

Qué significa esto para las empresas
#

Si eres un líder de transformación digital o un CTO que está diseñando la estrategia de IA de tu organización, el mensaje es claro:

No construyas tu arquitectura de IA asumiendo que el coste actual es el coste futuro. Y mucho menos asumiendo que bajará.

En la práctica, esto implica varias cosas:

1. Diseña para múltiples niveles de modelo
#

No todo necesita un modelo frontier. Muchas tareas —clasificación, extracción de datos, resúmenes rutinarios, asistencia básica— pueden resolverse con modelos más pequeños y significativamente más baratos. Reserva los modelos más potentes para las tareas que realmente los requieren.

2. Implementa routing inteligente
#

Las arquitecturas de IA maduras no envían todo al mismo modelo. Enrutan cada petición al modelo más eficiente que pueda resolverla con la calidad necesaria. Esto puede reducir costes de inferencia en un 60-80% sin degradar la experiencia del usuario final.

3. Mide el coste por caso de uso
#

Si no sabes cuánto te cuesta cada interacción de IA desglosada por tipo de tarea, modelo utilizado y resultado obtenido, estás volando a ciegas. La observabilidad de costes en IA debería ser tan estándar como lo es en infraestructura cloud.

4. Piensa en IA como infraestructura, no solo como software
#

La IA generativa tiene un componente de coste variable que se parece más a la electricidad o al compute cloud que a una licencia de software. Planifica en consecuencia: con reservas de capacidad, con presupuestos variables y con gobernanza de consumo.

5. No dependas de un solo proveedor
#

La concentración en un único proveedor de modelos te expone directamente a sus decisiones de pricing, sus cambios de política y sus restricciones de uso. Una arquitectura multi-modelo te da flexibilidad para adaptarte cuando —no si— cambien las condiciones.

El fin de una etapa, no el fin de la IA
#

Quiero ser claro en algo: nada de lo que describo aquí es negativo para el futuro de la IA. Es, simplemente, el fin de una etapa.

La etapa que se acaba es la de la ilusión de abundancia: modelos frontier a precios promocionales, uso aparentemente ilimitado y una sensación generalizada de que la IA avanzada se estaba convirtiendo en commodity.

La etapa que empieza es más honesta. Es la etapa donde:

  • Los precios reflejan más fielmente los costes reales.
  • Los proveedores encuentran modelos de negocio sostenibles.
  • Las empresas aprenden a usar la IA con disciplina económica.
  • Y el mercado madura, como ha madurado antes el cloud, el SaaS y toda infraestructura tecnológica que empezó con precios promocionales.

En cierto modo, es una buena noticia. Porque un mercado subsidiado indefinidamente es un mercado frágil. Y un mercado que encuentra su equilibrio económico es un mercado que puede durar.

Conclusión
#

La IA no se está encareciendo de repente. Simplemente estamos dejando de fingir que era barata.

Y la pregunta que debería estar en la mesa de cualquier comité de dirección ya no es solo “¿qué puede hacer la IA por nosotros?”, sino algo más incómodo y más necesario:

¿Cuánto nos va a costar realmente, y estamos diseñando para que sea sostenible?

Quien tenga una buena respuesta a esa pregunta tendrá una ventaja competitiva real. Quien no, descubrirá que la IA más cara no es la que tiene el mejor modelo, sino la que se implementó sin pensar en la economía.


Carles Abarca es VP de Transformación Digital en el Tecnológico de Monterrey. Escribe sobre IA, estrategia digital y el futuro de la tecnología en las organizaciones.