[{"content":"","date":"15 de abril de 2026","externalUrl":null,"permalink":"/es/tags/ai/","section":"Tags","summary":"","title":"AI","type":"tags"},{"content":"","date":"15 de abril de 2026","externalUrl":null,"permalink":"/es/posts/","section":"Blog","summary":"","title":"Blog","type":"posts"},{"content":"","date":"15 de abril de 2026","externalUrl":null,"permalink":"/es/","section":"Carles Abarca","summary":"","title":"Carles Abarca","type":"page"},{"content":" Dejad de llorar por la IA y los empleos # La conversación pública sobre inteligencia artificial se ha llenado de una mezcla extraña de fascinación, miedo y dramatismo. Cada semana aparece un nuevo titular anunciando que la IA viene a destruir el trabajo humano, a vaciar oficinas, a dejar profesiones enteras obsoletas y a empujar a millones de personas a la irrelevancia. El problema es que, cuando uno mira los datos con un mínimo de rigor, la historia real es bastante distinta.\nNo, la IA no está borrando el empleo de forma masiva. Lo que está haciendo, y esto sí es profundo, es transformar tareas, rediseñar flujos de trabajo y cambiar las competencias que el mercado va a exigir durante los próximos años.\nY esa diferencia importa muchísimo.\nLa narrativa equivocada # Hay una razón por la que el discurso catastrofista se propaga tan rápido: funciona muy bien como contenido. “La IA te va a dejar sin trabajo” genera atención inmediata. Activa miedo, indignación y ansiedad. Es fácil de consumir y más fácil todavía de compartir.\nPero una buena narrativa no siempre describe bien la realidad.\nLos estudios más serios que están saliendo en 2025 y 2026 apuntan a un patrón bastante consistente. La IA no está operando principalmente como una fuerza de eliminación bruta de puestos, sino como una tecnología que reorganiza el contenido del trabajo. Automatiza partes, acelera otras, eleva el estándar esperado en muchas funciones y crea demanda nueva en capas que antes ni existían o eran marginales.\nLa pregunta correcta, por tanto, no es si la IA hará desaparecer todo el empleo. La pregunta correcta es otra: ¿qué partes del trabajo humano se vuelven automatizables, cuáles ganan valor y qué nuevas capacidades pasan a ser decisivas?\nLo que dicen los datos # Los datos que hoy tenemos sobre la mesa no sostienen la caricatura del colapso laboral total.\nUn estudio del MIT publicado en abril de 2026 apunta precisamente a esto: la IA transforma tareas mucho más de lo que destruye puestos completos. Esto encaja con una idea que los economistas del trabajo conocen bien desde hace tiempo: la mayoría de los empleos no están compuestos por una sola tarea, sino por combinaciones de actividades. Cuando una tecnología automatiza una parte del trabajo, el puesto no desaparece automáticamente. Muchas veces se redefine.\nA esto se suman otras señales que no conviene ignorar.\nLinkedIn ha señalado la creación de 1,3 millones de empleos nuevos vinculados a la IA. No estamos hablando solo de científicos de datos o ingenieros de prompts. Hablamos de reclutamiento especializado, integración tecnológica, operación, gobernanza, ciberseguridad, enablement comercial, formación, producto, automatización y nuevas capas de servicios.\nAdemás, la expansión de infraestructura está generando un efecto arrastre enorme. Se estiman más de 600.000 nuevos roles ligados a la infraestructura de data centers, desde construcción y operación hasta energía, refrigeración, mantenimiento, redes y soporte especializado. Cuando la economía digital escala, no solo crecen los modelos. Crece todo el sistema que los hace posibles.\nBCG también ha sido claro: la IA remodelará más trabajos de los que eliminará. Es decir, el efecto dominante será de rediseño, no de extinción pura.\nEso no significa que no haya disrupción. La habrá, y mucha. Lo que significa es que la disrupción no se parece tanto a una desaparición masiva del trabajo, sino a una reasignación acelerada del valor.\nEl punto ciego: no desaparece tu puesto, cambian tus competencias # Aquí está el matiz que muchas personas siguen sin querer ver.\nEl mayor impacto de la IA no será necesariamente sobre el nombre de tu puesto. Será sobre el contenido real de lo que haces cada día y sobre las competencias que necesitas para seguir siendo valioso.\nSe estima que el 70% de las competencias asociadas a muchos puestos cambiarán antes de 2030. Ese dato debería ser más inquietante, y más movilizador, que cualquier predicción apocalíptica sobre destrucción de empleo.\nPorque implica esto: quizá tu puesto siga existiendo, pero tú no podrás ejercerlo igual.\nUn analista seguirá siendo analista, pero con herramientas que comprimen drásticamente el tiempo de análisis. Un directivo seguirá siendo directivo, pero ya no podrá tomar decisiones sin criterio sobre automatización, modelos, datos, riesgo y productividad aumentada. Un profesor seguirá siendo profesor, pero tendrá que rediseñar la experiencia de aprendizaje en un entorno donde el conocimiento es abundante y lo escaso pasa a ser el criterio. Un médico seguirá siendo médico, pero trabajará en un contexto donde la IA puede asistir en documentación, apoyo diagnóstico y priorización clínica.\nLa continuidad del puesto no garantiza la continuidad del valor profesional.\nY ahí es donde empieza la verdadera conversación.\nLa experiencia real en los equipos # Quienes llevamos años trabajando en tecnología vemos una cosa una y otra vez: los equipos que integran bien la IA no necesariamente reducen plantilla como reflejo automático. Lo que hacen, sobre todo, es aumentar su capacidad de ejecución.\nEntregan más. Iteran más rápido. Prueban más hipótesis. Reducen fricción. Reasignan tiempo desde lo mecánico hacia lo estratégico.\nEso cambia por completo el estándar competitivo.\nLa IA no reemplaza de golpe al profesional competente. Pero sí expone con mucha claridad a quien decide quedarse quieto mientras el entorno avanza. No porque la máquina sea mágica, sino porque un equipo que aprende a trabajar con IA puede producir el doble en la mitad de tiempo en determinados contextos.\nY cuando eso ocurre, el problema deja de ser “la IA contra los humanos”. El problema pasa a ser “los humanos que evolucionan frente a los que se niegan a hacerlo”.\nEl derribo de barreras para crear # Hay otro ángulo que me parece especialmente importante y que a menudo queda enterrado bajo el ruido del miedo: la IA está bajando barreras de entrada para crear, emprender y escalar.\nHoy una persona con criterio, iniciativa y buenas herramientas puede hacer cosas que hace pocos años requerían equipos mucho más grandes. Prototipar, analizar, escribir, diseñar, automatizar, investigar, preparar materiales, lanzar productos, validar ideas y operar procesos está al alcance de más gente.\nEso no elimina la importancia del talento. La multiplica.\nY esto no es teoría. Ya hay casos que ilustran muy bien el fenómeno. Peter Steinberger, por ejemplo, mostró hasta qué punto un emprendedor con criterio técnico y una capa intensa de agentes de IA puede operar con una velocidad que antes parecía reservada a equipos completos. Otro caso muy citado en la conversación reciente sobre \u0026ldquo;solopreneurs\u0026rdquo; es Maor Shlomo con Base44, un proyecto llevado con una estructura extremadamente ligera y apoyado en desarrollo asistido por IA, que escaló con rapidez hasta convertirse en una señal potente de lo que cambia cuando el costo de desarrollar software se desploma.\nSon ejemplos para entender la dirección del cambio: la IA está aumentando de forma radical las oportunidades de individuos con talento, foco y capacidad de ejecución.\nComo ha dicho el CEO de LinkedIn, la IA está derribando barreras para crear y emprender. Y eso es una señal poderosísima. Porque donde algunos solo ven sustitución, otros ya están viendo expansión de capacidad.\nEl riesgo real no es la IA # El riesgo real no es que la IA exista.\nEl riesgo real es responder a esta transición con negación, cinismo o inmovilismo.\nEs seguir confundiendo comodidad con seguridad. Es pensar que el futuro respetará inercias. Es creer que bastará con hacer lo mismo de siempre mientras el resto del mercado reconfigura sus capacidades.\nLa resistencia al cambio siempre se disfraza de prudencia. Pero en ciclos tecnológicos profundos, muchas veces no es prudencia. Es retraso.\nY el retraso, cuando el entorno se acelera, se paga caro.\nEntonces, ¿qué conviene hacer? # No hace falta dramatizar. Hace falta actuar.\nAl menos en cinco frentes:\n1. Aprender a trabajar con IA, no solo a hablar de IA # Hay demasiada gente opinando sobre inteligencia artificial sin haber incorporado la herramienta a sus flujos reales de trabajo. La alfabetización útil no consiste en saber definir un LLM. Consiste en saber cuándo usarlo, para qué, con qué límites y con qué criterio.\n2. Reforzar el criterio # Cuando la inteligencia se vuelve abundante, el criterio gana valor. Saber interpretar, decidir, priorizar, contextualizar y asumir responsabilidad será cada vez más importante.\n3. Rediseñar procesos # La IA no da resultados profundos si se incrusta como un accesorio superficial. El impacto llega cuando se repiensan procesos, roles, métricas y formas de colaboración.\n4. Apostar por aprendizaje continuo # No estamos ante una tecnología que se aprende una vez y ya. La ventaja competitiva vendrá de la capacidad de adaptación sostenida.\n5. Sustituir miedo por disciplina # La ansiedad no construye capacidad. La experimentación disciplinada, sí.\nUna conclusión incómoda, pero útil # La IA no te va a quitar automáticamente el trabajo.\nLo que sí puede dejarte fuera es la decisión de no evolucionar mientras todo alrededor cambia.\nPor eso creo que ya va siendo hora de abandonar el victimismo tecnológico y empezar a hablar con más honestidad sobre lo que de verdad está ocurriendo. La IA no está destruyendo el valor del trabajo humano. Está redefiniendo qué trabajo humano genera valor.\nY en esa transición, el futuro no va a premiar a quien más se queje. Va a premiar a quien aprenda más rápido, combine mejor la tecnología con criterio y tenga el coraje de rediseñarse antes de verse obligado a hacerlo.\nLa pregunta no es si la IA va a cambiar el trabajo.\nLa pregunta es si tú vas a cambiar con él.\n","date":"15 de abril de 2026","externalUrl":null,"permalink":"/es/posts/ai-transforms-skills-not-jobs/","section":"Blog","summary":"La IA no está destruyendo el empleo de forma masiva. Está transformando tareas, rediseñando procesos y cambiando las competencias que el mercado valora.","title":"Dejad de llorar por la IA y los empleos","type":"posts"},{"content":"","date":"15 de abril de 2026","externalUrl":null,"permalink":"/es/tags/digital-transformation/","section":"Tags","summary":"","title":"Digital Transformation","type":"tags"},{"content":"","date":"15 de abril de 2026","externalUrl":null,"permalink":"/es/tags/future-of-work/","section":"Tags","summary":"","title":"Future of Work","type":"tags"},{"content":"","date":"15 de abril de 2026","externalUrl":null,"permalink":"/es/tags/skills/","section":"Tags","summary":"","title":"Skills","type":"tags"},{"content":"","date":"15 de abril de 2026","externalUrl":null,"permalink":"/es/tags/","section":"Tags","summary":"","title":"Tags","type":"tags"},{"content":"","date":"9 de abril de 2026","externalUrl":null,"permalink":"/es/tags/anthropic/","section":"Tags","summary":"","title":"Anthropic","type":"tags"},{"content":"","date":"9 de abril de 2026","externalUrl":null,"permalink":"/es/tags/claude/","section":"Tags","summary":"","title":"Claude","type":"tags"},{"content":"“Claude Mythos Preview is a general-purpose, unreleased frontier model.”\n— Anthropic, Project Glasswing\nAnthropic acaba de tomar una decisión que, hasta hace muy poco, parecía impensable en la carrera por los modelos frontier: presentar públicamente un modelo de nueva generación y, al mismo tiempo, decidir no ponerlo a disposición general del mercado.\nNo hablamos de un retraso de producto. Tampoco de un acceso beta convencional. Lo que Anthropic ha hecho con Claude Mythos Preview es otra cosa: publicar parte de la documentación técnica, describir capacidades extraordinarias —especialmente en ciberseguridad ofensiva— y restringir el acceso a un círculo muy limitado de actores defensivos bajo una iniciativa específica: Project Glasswing.\nLa pregunta importante no es solo qué es Mythos. La pregunta importante es qué significa que Anthropic haya decidido no lanzarlo como un modelo normal.\nLo inaudito no es el modelo. Es la decisión. # En la industria de la IA se había consolidado una lógica bastante clara: si un laboratorio entrena un modelo mejor, tarde o temprano lo convierte en producto. Puede hacerlo gradualmente, con APIs, con listas de espera, con acuerdos enterprise o con restricciones de uso. Pero la dirección general del movimiento era inequívoca: más capacidad acaba significando más disponibilidad.\nCon Mythos, Anthropic introduce una ruptura.\nPor un lado, presenta el modelo como una nueva frontera de capacidad. Por otro, admite implícitamente que esa capacidad cruza un umbral que hace irresponsable un despliegue generalizado.\n“We formed Project Glasswing because of capabilities we’ve observed in a new frontier model trained by Anthropic that we believe could reshape cybersecurity.”\n— Anthropic, Project Glasswing\nEsa frase no es marketing rutinario. Es una señal de gobernanza. Anthropic está diciendo que, a su juicio, el modelo no solo es mejor: es peligrosamente mejor en una dimensión concreta.\nQué afirma Anthropic sobre Claude Mythos Preview # La documentación publicada por Anthropic dibuja un panorama muy difícil de ignorar.\nEn su post técnico del Frontier Red Team, la compañía sostiene que Mythos Preview:\nidentifica y explota zero-days en software real, lo hace en todos los grandes sistemas operativos y todos los grandes navegadores, produce exploits complejos, incluyendo cadenas multi-vulnerabilidad, y muestra un salto radical respecto a generaciones anteriores del propio Claude. “During our testing, we found that Mythos Preview is capable of identifying and then exploiting zero-day vulnerabilities in every major operating system and every major web browser when directed by a user to do so.”\n— Anthropic, Claude Mythos Preview\nSi esto es correcto, no estamos ante una mejora incremental. Estamos ante un cambio de régimen.\nAnthropic va todavía más lejos. Asegura que ingenieros internos sin formación formal en seguridad han podido pedirle al modelo que encontrara una vulnerabilidad remota durante la noche y despertarse al día siguiente con un exploit funcional.\n“Engineers at Anthropic with no formal security training have asked Mythos Preview to find remote code execution vulnerabilities overnight, and woken up the following morning to a complete, working exploit.”\n— Anthropic, Claude Mythos Preview\nEse detalle importa mucho. No solo sugiere que el modelo aumenta la capacidad de los expertos. Sugiere que también reduce de forma drástica la barrera de entrada para capacidades ofensivas avanzadas.\nEl salto respecto a Opus 4.6 # Uno de los elementos más llamativos del documento técnico es la comparación con generaciones anteriores.\nAnthropic recuerda que, apenas un mes antes, su lectura sobre Opus 4.6 era que el modelo era bastante mejor encontrando y corrigiendo vulnerabilidades que explotándolas. En otras palabras, seguía siendo muy fuerte en ciberseguridad defensiva, pero no tan eficaz en ofensiva autónoma.\nCon Mythos, eso cambia.\n“Opus 4.6 generally had a near-0% success rate at autonomous exploit development. But Mythos Preview is in a different league.”\n— Anthropic, Claude Mythos Preview\nLa compañía cita un benchmark ligado a vulnerabilidades en Firefox donde Opus 4.6 solo consiguió transformar hallazgos en exploits funcionales un puñado de veces, mientras que Mythos Preview lo hizo 181 veces, con control de registros en 29 casos adicionales.\nSi esos números se sostienen, no estamos ante “un Claude más potente”. Estamos ante otro orden de capacidad.\nNo fue entrenado “para hackear” # Este punto es crucial.\nAnthropic afirma que no entrenó explícitamente Mythos Preview para desarrollar estas capacidades ofensivas. Según la compañía, lo que vemos es una consecuencia emergente de mejoras más generales en:\nrazonamiento, autonomía, trabajo sobre código, y capacidad de planificación multi-paso. “We did not explicitly train Mythos Preview to have these capabilities. Rather, they emerged as a downstream consequence of general improvements in code, reasoning, and autonomy.”\n— Anthropic, Claude Mythos Preview\nEsta frase merece una lectura pausada, porque apunta a algo más amplio que Mythos. Sugiere que a medida que los modelos generalistas mejoran en trabajo útil sobre código y agentes, las capacidades ofensivas dejan de ser una especialización separada. Aparecen como efecto colateral natural del progreso general.\nEso complica enormemente la gobernanza. Ya no basta con evitar entrenar un “modelo para ciberataque”. El problema es que un modelo general suficientemente bueno puede convertirse en una herramienta ofensiva de primer nivel aunque ese no fuera el objetivo del entrenamiento.\nEntonces, ¿por qué no lo publican? # Anthropic articula la respuesta en términos de una ventana de transición peligrosa.\nSu tesis es que, a largo plazo, herramientas de este tipo podrían beneficiar más a los defensores que a los atacantes. Pero en el corto plazo existe un riesgo evidente: que la capacidad ofensiva se difunda más rápido que la capacidad defensiva de absorberla.\n“In the short term, this could be attackers, if frontier labs aren’t careful about how they release these models.”\n— Anthropic, Claude Mythos Preview\nPor eso no hacen un release amplio. En su lugar crean Project Glasswing, una iniciativa con socios como AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA y Palo Alto Networks, además de decenas de organizaciones adicionales.\n“By releasing this model initially to a limited group of critical industry partners and open source developers with Project Glasswing, we aim to enable defenders to begin securing the most important systems before models with similar capabilities become broadly available.”\n— Anthropic, Claude Mythos Preview\nEn otras palabras: Anthropic está intentando convertir una ventaja de capacidad en una ventaja defensiva temporal, antes de que el resto del ecosistema llegue al mismo punto.\nLo que realmente está cambiando: publicar ya no equivale a desplegar # Lo más interesante de Mythos no es solo el argumento de seguridad. Es el precedente que establece.\nDurante años, hemos tendido a asumir que el modelo más avanzado de un laboratorio era también, tarde o temprano, el que terminaría en manos de clientes, desarrolladores o usuarios. Con Mythos, esa equivalencia se rompe.\nA partir de ahora, puede que el modelo más avanzado:\nno sea el producto principal, no se ofrezca abiertamente en API, no llegue al mercado general, y exista durante un tiempo en una especie de cuarentena estratégica. Eso cambia muchas cosas.\nCambia la conversación sobre competencia entre labs. Cambia la lectura de los anuncios públicos. Y cambia también el marco regulatorio y geopolítico: si los modelos más potentes dejan de ser necesariamente públicos, entonces la frontera real de capacidad podría quedar oculta tras programas de acceso restringido, acuerdos privados y despliegues asimétricos.\nPero también conviene mantener una mirada crítica # Dicho esto, hay que evitar tragarse la narrativa sin filtro.\nAnthropic está haciendo afirmaciones muy extraordinarias:\nmiles de vulnerabilidades de alta severidad, zero-days en software crítico, cobertura sobre todos los grandes OS y navegadores, exploits sofisticados desarrollados de forma autónoma, y una razón de seguridad suficientemente fuerte como para no publicar el modelo. El problema es que la evidencia pública está necesariamente limitada.\nLa propia Anthropic dice que más del 99% de las vulnerabilidades encontradas no están parcheadas todavía y, por tanto, no pueden divulgarse. Además, el documento de riesgo se presenta de forma redacted.\n“Over 99% of the vulnerabilities we’ve found have not yet been patched, so it would be irresponsible for us to disclose details about them.”\n— Anthropic, Claude Mythos Preview\nEso es razonable desde el punto de vista de divulgación responsable. Pero también implica que buena parte de la historia depende de confiar en la interpretación y en el framing del propio laboratorio.\nEs decir: la decisión de Anthropic puede ser perfectamente sensata, incluso admirable, y a la vez estar envuelta en una narrativa corporativa que conviene leer con cierto escepticismo metodológico.\nMi lectura: Mythos puede marcar un antes y un después # Mi impresión es que este episodio puede acabar siendo recordado menos por el nombre del modelo y más por la señal estratégica que emite.\nAnthropic no solo está diciendo “hemos entrenado algo muy potente”. Está diciendo algo más incómodo:\nhemos cruzado una frontera de capacidad en la que el comportamiento responsable ya no consiste automáticamente en publicar.\nSi esa tesis se consolida, Mythos será un hito por tres razones.\n1. Porque normaliza la retención parcial de frontier models # No como excepción anecdótica, sino como herramienta legítima de gobernanza.\n2. Porque desplaza el debate desde “qué puede hacer el modelo” hacia “quién debería poder usarlo y cuándo” # Eso es un cambio fundamental.\n3. Porque sugiere que la frontera real de capacidad ya puede estar varios pasos por delante de lo que vemos en producto # Y eso tiene implicaciones enormes para estrategia, política tecnológica y seguridad.\nLa conclusión incómoda # Durante años, la narrativa dominante de la IA fue que el progreso técnico acabaría democratizando el acceso a capacidades cada vez más potentes.\nClaude Mythos introduce una posibilidad distinta: que algunas capacidades sean tan sensibles que el avance técnico no desemboque en apertura, sino en contención.\nNo porque el modelo haya fallado. Precisamente porque ha funcionado demasiado bien.\n“Claude Mythos Preview reveals a stark fact: AI models have reached a level of coding capability where they can surpass all but the most skilled humans at finding and exploiting software vulnerabilities.”\n— Anthropic, Project Glasswing\nSi Anthropic tiene razón, no estamos simplemente ante otro lanzamiento de modelo. Estamos ante el momento en que un laboratorio frontier ha decidido, de forma explícita, que su sistema más avanzado no debía comportarse como un producto normal.\nY eso, en esta industria, es una noticia mucho más grande que cualquier benchmark.\nFuentes principales # Anthropic — Project Glasswing\nhttps://www.anthropic.com/glasswing\nAnthropic Frontier Red Team — Claude Mythos Preview\nhttps://red.anthropic.com/2026/mythos-preview/\nAnthropic — Alignment Risk Update: Claude Mythos Preview (Redacted)\nhttps://www.anthropic.com/claude-mythos-preview-risk-report\n","date":"9 de abril de 2026","externalUrl":null,"permalink":"/es/posts/claude-mythos-unreleased-frontier-model/","section":"Blog","summary":"Anthropic acaba de hacer algo extraordinario: presentar documentación técnica sobre su modelo más avanzado y, al mismo tiempo, negarse a desplegarlo de forma general. Claude Mythos Preview puede marcar un antes y un después en la relación entre capacidad, seguridad y publicación de modelos frontier.","title":"Claude Mythos: el modelo que Anthropic no quiso publicar","type":"posts"},{"content":"","date":"9 de abril de 2026","externalUrl":null,"permalink":"/es/tags/cybersecurity/","section":"Tags","summary":"","title":"Cybersecurity","type":"tags"},{"content":"","date":"9 de abril de 2026","externalUrl":null,"permalink":"/es/tags/frontier-models/","section":"Tags","summary":"","title":"Frontier Models","type":"tags"},{"content":"","date":"9 de abril de 2026","externalUrl":null,"permalink":"/es/tags/governance/","section":"Tags","summary":"","title":"Governance","type":"tags"},{"content":"","date":"7 de abril de 2026","externalUrl":null,"permalink":"/es/tags/economics/","section":"Tags","summary":"","title":"Economics","type":"tags"},{"content":"La IA parecía barata. No lo era. Estaba subsidiada.\nHace un par de años, si alguien te hubiera dicho que la inteligencia artificial más avanzada del mundo iba a estar disponible por 20 dólares al mes, te habrías reído. Y sin embargo, durante un tiempo, eso fue exactamente lo que parecía.\nSuscripciones de tarifa plana. Modelos cada vez más capaces. Capacidad de uso que, en la práctica, parecía casi ilimitada. La percepción generalizada era clara: la IA avanzada se estaba convirtiendo en un recurso abundante y accesible.\nPero esa percepción empieza a romperse. Y no por un fallo técnico, sino por algo más fundamental: la economía.\nLas señales ya están aquí # En las últimas semanas, hemos visto varias señales convergentes que apuntan en la misma dirección:\nAnthropic, el creador de Claude, ha empezado a restringir activamente ciertos patrones de uso a través de sus suscripciones. En particular, ha bloqueado el uso de herramientas de automatización como OpenClaw que canalizan peticiones a través de cuentas de suscripción. La razón es simple: el coste de inferencia de esos patrones de uso intensivo no cuadra con el precio de la suscripción.\nNo es un caso aislado. OpenAI lleva meses ajustando los límites reales de uso de sus modelos en los planes de suscripción, reduciendo progresivamente la cantidad de interacciones con los modelos más potentes antes de degradar al usuario a un modelo inferior. Lo que antes eran límites generosos y difusos se están convirtiendo en caps explícitos y más duros.\nY hay algo más inquietante: incluso con estos ajustes, la mayoría de grandes operadores de IA siguen sin ser rentables. Anthropic, OpenAI, y prácticamente todos los laboratorios frontier están quemando capital a un ritmo que haría palidecer a cualquier CFO tradicional.\nLa pregunta obvia es: si los usuarios ya están empezando a notar restricciones, ¿cómo es posible que los proveedores sigan perdiendo dinero?\nLa respuesta revela algo importante sobre la estructura económica real de esta industria.\nLa IA nunca fue barata. Estaba subsidiada. # Lo que hemos vivido durante los últimos dos años no fue el coste real de la IA. Fue una estrategia de adopción.\nLos grandes laboratorios necesitaban hacer tres cosas simultáneamente:\nDemostrar capacidad para justificar valoraciones de decenas (o cientos) de miles de millones. Generar adopción masiva para crear efectos de red, lock-in y datos de uso. Capturar desarrolladores y empresas antes de que lo hiciera la competencia. Para conseguirlo, ofrecieron acceso a modelos frontier a precios que no reflejaban el coste real de operarlos. Las suscripciones de 20 dólares mensuales eran, en la práctica, una subvención financiada con capital riesgo.\nY funcionó. La adopción se disparó. Millones de personas empezaron a usar Claude, ChatGPT y otros modelos diariamente. Empresas de todos los tamaños comenzaron a integrar IA en sus flujos de trabajo.\nPero ahora estamos entrando en la siguiente fase. Y en esta fase, los números tienen que empezar a cuadrar.\nLos modelos frontier no siguen la lógica del software tradicional # Hay un malentendido muy extendido que conviene abordar directamente: muchas personas asumen que la IA sigue la misma lógica económica que el software convencional. Es decir: se desarrolla una vez, se distribuye a coste marginal casi cero, y los márgenes mejoran con la escala.\nPero la IA generativa —especialmente los modelos frontier— no funciona así. En absoluto.\nCada interacción con un modelo grande implica:\nComputación en tiempo real sobre hardware muy caro (GPUs de última generación). Consumo de energía significativo por cada petición. Costes de infraestructura que no desaparecen con la escala; en muchos casos, crecen con ella. Latencia y disponibilidad que requieren capacidad reservada, no solo capacidad pico. Y el problema se amplifica con las tendencias de uso más recientes. Los agentes de IA —que ejecutan múltiples llamadas encadenadas para completar tareas complejas— multiplican el coste de inferencia de forma dramática. Una sesión de agente que resuelve un problema de programación puede implicar docenas de llamadas al modelo, cada una con contextos largos y herramientas activas.\nMás capacidad no implica automáticamente menor coste unitario. En muchos casos de la IA frontier, implica exactamente lo contrario.\nLa tarifa plana fue más estrategia comercial que realidad sostenible # Pensemos en lo que significaba, en la práctica, una suscripción de tarifa plana a un modelo frontier:\nUn usuario pagaba 20 dólares al mes. Tenía acceso a un modelo cuyo coste de inferencia, en uso intensivo, podía superar fácilmente los 100 o 200 dólares mensuales por usuario. El proveedor absorbía la diferencia, confiando en que el usuario promedio no usaría el modelo de forma tan intensiva. Ese modelo funciona razonablemente bien cuando la mayoría de usuarios son casuales: hacen unas cuantas preguntas al día, usan el modelo para tareas simples y no estresan la infraestructura. Es el mismo principio que hace funcionar los gimnasios: venden más membresías de las que el gimnasio puede atender simultáneamente, confiando en que la mayoría de la gente no irá todos los días.\nPero cuando aparecen herramientas que permiten canalizar uso intensivo y programático a través de esas suscripciones, el modelo se rompe. Es como si alguien encontrara la forma de hacer que todo el gimnasio se llenara las 24 horas. El precio ya no cubre el coste.\nPor eso los proveedores están reaccionando:\nLímites de uso más explícitos por modelo y por período. Degradación automática a modelos menos costosos cuando se alcanzan ciertos umbrales. Restricciones contractuales contra patrones de uso no previstos. Separación más clara entre planes de consumidor, API y enterprise. No es un capricho. Es supervivencia económica.\nLa gran paradoja: más restricciones, y aun así no es suficiente # Aquí está el dato que debería hacer reflexionar a cualquier líder empresarial que esté apostando fuerte por la IA:\nIncluso después de introducir todas estas restricciones, la mayoría de operadores de IA frontier siguen perdiendo dinero.\nAnthropic ha levantado más de 10.000 millones de dólares en financiación. OpenAI está en caminos similares. Y ninguno de los dos ha demostrado todavía un modelo económico sostenible a escala sin inyección continua de capital externo.\nEsto no significa que el negocio sea inviable. Probablemente hay un equilibrio económico en algún punto, con la combinación correcta de pricing, eficiencia de inferencia, volumen enterprise y optimización de hardware. Pero ese equilibrio claramente no se ha alcanzado todavía.\nY mientras tanto, la industria sigue avanzando hacia modelos más grandes, más capaces, con ventanas de contexto más amplias, más herramientas integradas y más capacidades agénticas. Todas esas mejoras son fantásticas para los usuarios. Pero cada una de ellas incrementa el coste de inferencia, no lo reduce.\nQué significa esto para las empresas # Si eres un líder de transformación digital o un CTO que está diseñando la estrategia de IA de tu organización, el mensaje es claro:\nNo construyas tu arquitectura de IA asumiendo que el coste actual es el coste futuro. Y mucho menos asumiendo que bajará.\nEn la práctica, esto implica varias cosas:\n1. Diseña para múltiples niveles de modelo # No todo necesita un modelo frontier. Muchas tareas —clasificación, extracción de datos, resúmenes rutinarios, asistencia básica— pueden resolverse con modelos más pequeños y significativamente más baratos. Reserva los modelos más potentes para las tareas que realmente los requieren.\n2. Implementa routing inteligente # Las arquitecturas de IA maduras no envían todo al mismo modelo. Enrutan cada petición al modelo más eficiente que pueda resolverla con la calidad necesaria. Esto puede reducir costes de inferencia en un 60-80% sin degradar la experiencia del usuario final.\n3. Mide el coste por caso de uso # Si no sabes cuánto te cuesta cada interacción de IA desglosada por tipo de tarea, modelo utilizado y resultado obtenido, estás volando a ciegas. La observabilidad de costes en IA debería ser tan estándar como lo es en infraestructura cloud.\n4. Piensa en IA como infraestructura, no solo como software # La IA generativa tiene un componente de coste variable que se parece más a la electricidad o al compute cloud que a una licencia de software. Planifica en consecuencia: con reservas de capacidad, con presupuestos variables y con gobernanza de consumo.\n5. No dependas de un solo proveedor # La concentración en un único proveedor de modelos te expone directamente a sus decisiones de pricing, sus cambios de política y sus restricciones de uso. Una arquitectura multi-modelo te da flexibilidad para adaptarte cuando —no si— cambien las condiciones.\nEl fin de una etapa, no el fin de la IA # Quiero ser claro en algo: nada de lo que describo aquí es negativo para el futuro de la IA. Es, simplemente, el fin de una etapa.\nLa etapa que se acaba es la de la ilusión de abundancia: modelos frontier a precios promocionales, uso aparentemente ilimitado y una sensación generalizada de que la IA avanzada se estaba convirtiendo en commodity.\nLa etapa que empieza es más honesta. Es la etapa donde:\nLos precios reflejan más fielmente los costes reales. Los proveedores encuentran modelos de negocio sostenibles. Las empresas aprenden a usar la IA con disciplina económica. Y el mercado madura, como ha madurado antes el cloud, el SaaS y toda infraestructura tecnológica que empezó con precios promocionales. En cierto modo, es una buena noticia. Porque un mercado subsidiado indefinidamente es un mercado frágil. Y un mercado que encuentra su equilibrio económico es un mercado que puede durar.\nConclusión # La IA no se está encareciendo de repente. Simplemente estamos dejando de fingir que era barata.\nY la pregunta que debería estar en la mesa de cualquier comité de dirección ya no es solo \u0026ldquo;¿qué puede hacer la IA por nosotros?\u0026rdquo;, sino algo más incómodo y más necesario:\n¿Cuánto nos va a costar realmente, y estamos diseñando para que sea sostenible?\nQuien tenga una buena respuesta a esa pregunta tendrá una ventaja competitiva real. Quien no, descubrirá que la IA más cara no es la que tiene el mejor modelo, sino la que se implementó sin pensar en la economía.\nCarles Abarca es VP de Transformación Digital en el Tecnológico de Monterrey. Escribe sobre IA, estrategia digital y el futuro de la tecnología en las organizaciones.\n","date":"7 de abril de 2026","externalUrl":null,"permalink":"/es/posts/cheap-ai-ending/","section":"Blog","summary":"Restricciones en suscripciones, límites de uso más duros y costes crecientes de inferencia: la IA nunca fue barata, solo estaba subsidiada.","title":"La Era de la IA Barata Se Está Terminando","type":"posts"},{"content":"","date":"7 de abril de 2026","externalUrl":null,"permalink":"/es/tags/strategy/","section":"Tags","summary":"","title":"Strategy","type":"tags"},{"content":"","date":"3 de abril de 2026","externalUrl":null,"permalink":"/es/tags/ai-agents/","section":"Tags","summary":"","title":"AI Agents","type":"tags"},{"content":"","date":"3 de abril de 2026","externalUrl":null,"permalink":"/es/tags/enterprise-software/","section":"Tags","summary":"","title":"Enterprise Software","type":"tags"},{"content":"","date":"3 de abril de 2026","externalUrl":null,"permalink":"/es/tags/intellectual-property/","section":"Tags","summary":"","title":"Intellectual Property","type":"tags"},{"content":"","date":"3 de abril de 2026","externalUrl":null,"permalink":"/es/tags/open-source/","section":"Tags","summary":"","title":"Open Source","type":"tags"},{"content":"","date":"3 de abril de 2026","externalUrl":null,"permalink":"/es/tags/saas/","section":"Tags","summary":"","title":"SaaS","type":"tags"},{"content":"El 1 de abril de 2026 — y no, no fue una broma — alguien descubrió que el paquete npm de Claude Code, la herramienta de línea de comandos de Anthropic, incluía un archivo .map mal configurado. Ese archivo contenía el código fuente completo: 512,000 líneas de TypeScript repartidas en 1,900 archivos.\nEn cuestión de horas, el repositorio filtrado ya tenía 25,000 estrellas en GitHub. Los desarrolladores lo estaban desmontando pieza por pieza. Pero lo verdaderamente inquietante no fue la filtración en sí.\nFue lo que pasó después.\nDe TypeScript a Python en una tarde # Un investigador de la Universidad de Washington tomó el código filtrado, lo pasó por OpenAI Codex, y en pocas horas tenía una reimplementación funcional en Python. No una copia — una reescritura completa en otro lenguaje. El repositorio resultante, claw-code, alcanzó 44,500 estrellas. Ya hay una reescritura en Rust en camino.\nY aquí está el problema legal que debería quitar el sueño a cualquier CTO: una reimplementación en otro lenguaje, generada por un agente de IA, probablemente sea inmune a una reclamación DMCA. No es una copia. Es una obra derivada creada por una máquina. Los marcos legales actuales simplemente no están diseñados para esto.\nGergely Orosz, una de las voces más respetadas en ingeniería de software, lo resumió así: estamos ante una nueva realidad donde cualquier base de código cerrada está a una sesión de agente de ser funcionalmente clonada.\nLéanlo otra vez. Cualquier base de código. Una sesión de agente. Clonada.\nLo que encontraron dentro # Los hallazgos fueron fascinantes y, en algunos casos, hilarantes. Wes Bos descubrió 187 verbos hardcodeados para el spinner de carga (incluyendo \u0026ldquo;hullaballooing\u0026rdquo; y \u0026ldquo;razzmatazzing\u0026rdquo;). Encontraron un sistema de analytics interno que marca tu prompt como negativo cada vez que le dices una grosería al agente. Y los IDs aleatorios de 4 caracteres están filtrados para excluir 25 palabras malsonantes.\nPero más allá de las anécdotas, los descubrimientos técnicos revelaron la arquitectura real de uno de los agentes de código más avanzados del mundo:\n35 módulos con responsabilidades claramente separadas. Un sistema de memoria liviano basado en punteros de ~150 caracteres, no almacenamiento masivo. Los prompts del sistema viven en el cliente, no en el servidor. Los comentarios del código están escritos para que los lean LLMs, no humanos. Ese último punto merece una pausa. Anthropic ya no escribe código para que lo entiendan programadores. Escribe código para que lo entiendan otros modelos de IA. Si eso no te dice hacia dónde va la industria, nada lo hará.\nLa barrera de protección que ya no existe # Durante décadas, el código propietario fue una de las barreras de protección más confiables en tecnología. Tu competidor podía copiar tu idea, tu diseño, tu estrategia de go-to-market — pero replicar un millón de líneas de código optimizado tomaba años y cientos de ingenieros.\nEso se acabó.\nNo estoy exagerando. Pensemos en lo que realmente sucedió esta semana:\nUn error de configuración expuso código fuente completo. Un agente de IA lo reescribió en otro lenguaje en horas. La comunidad open source lo mejoró y extendió en días. El resultado es legalmente difícil de atacar. Cada uno de estos pasos era impensable hace dos años. Juntos, representan un cambio fundamental en lo que significa \u0026ldquo;proteger\u0026rdquo; tu propiedad intelectual en software.\nY no se necesita una filtración para que esto ocurra. Los agentes de IA ya pueden:\nInferir arquitecturas a partir del comportamiento observable de una API. Replicar funcionalidad a partir de documentación pública y ejemplos. Generar implementaciones alternativas que logran los mismos resultados con diferente código. El código nunca fue realmente una barrera. Era la ilusión de una barrera.\nLa conexión con el SaaSpocalypse # Si esta historia les suena familiar, es porque ya vimos el primer acto. En febrero de este año, escribí sobre el SaaSpocalypse: $300 mil millones evaporados en 48 horas cuando el mercado entendió que la lógica de negocio de un SaaS de $200/usuario/mes cabe en un archivo de texto que un agente puede leer y ejecutar.\nLa filtración de Claude Code agrava esa tesis de una manera que pocos han articulado todavía.\nPiénsenlo: cada proveedor SaaS expone APIs públicas documentadas. Endpoints, esquemas de datos, flujos de trabajo, reglas de negocio — todo accesible para cualquier agente que sepa leer documentación. La filtración de Claude Code demostró que un agente puede tomar 512,000 líneas de código y reimplementarlas en horas. Ahora combinen eso con el hecho de que la mayoría de los SaaS exponen su lógica de negocio a través de sus propias APIs.\nNo necesitas robar el código fuente de Salesforce. Solo necesitas un agente que lea su documentación pública, observe el comportamiento de sus endpoints, e infiera la arquitectura subyacente. La API es el plano de construcción.\nSatya Nadella lo dijo en diciembre de 2024: \u0026ldquo;Las aplicaciones SaaS son bases de datos CRUD con lógica de negocio encima. Los agentes absorberán esa lógica.\u0026rdquo; En febrero, el mercado lo entendió en abstracto. Con Claude Code, tenemos la demostración concreta: las herramientas para absorber esa lógica ya existen. Y funcionan.\nEl SaaSpocalypse no fue el final. Fue el trailer.\nEntonces, ¿qué protege tu negocio? # Si el código ya no es tu ventaja competitiva — y las APIs públicas revelan tu lógica de negocio — ¿qué queda? Después de 20 años en transformación tecnológica, desde la banca en España hasta la educación en México, he visto esta misma pregunta surgir cada vez que una nueva ola tecnológica destruye las barreras anteriores:\n1. Los datos, no el código. Tu modelo entrenado con datos propietarios, tus datasets curados, tu conocimiento del dominio codificado en features que un agente no puede inferir desde afuera. Un clon de Claude Code puede replicar la herramienta, pero no puede replicar los millones de conversaciones que entrenaron a Claude.\n2. La velocidad de ejecución. Si tu competidor puede clonar tu código en horas, la ventaja está en ser el primero en resolver el siguiente problema. No en proteger la solución anterior.\n3. La confianza y la marca. En un mundo donde cualquiera puede replicar la tecnología, la diferenciación pasa por quién confía en ti. Los clientes de Anthropic no van a migrar a claw-code por ahorrarse la suscripción. Pagan por soporte, por SLAs, por la garantía de que alguien responde cuando algo falla.\n4. El ecosistema. Las integraciones, las alianzas, el efecto red. Slack no ganó porque su código fuera incopiable. Ganó porque todos ya estaban ahí.\n5. La cultura de innovación continua. Si asumes que todo lo que construyes hoy será replicable mañana, tu única ventaja sostenible es la capacidad de construir lo siguiente más rápido que nadie.\nLas implicaciones para la empresa # Para cualquier líder tecnológico que esté leyendo esto, el mensaje es claro: revisen su estrategia de propiedad intelectual hoy. No mañana. Hoy.\nAlgunas preguntas que deberían estar en la agenda de su próximo comité:\n¿Cuánto de nuestra ventaja competitiva depende de código que un agente podría replicar? ¿Qué revela nuestra propia documentación de APIs sobre nuestra lógica de negocio? ¿Tenemos datos propietarios que sean genuinamente difíciles de reproducir? ¿Nuestra estrategia de seguridad contempla que un archivo .map mal configurado puede exponer toda nuestra base de código? ¿Estamos preparados para un mundo donde el DMCA no protege contra reimplementaciones generadas por IA? Y quizás la más incómoda de todas: ¿Seguimos invirtiendo en construir muros, cuando deberíamos estar invirtiendo en correr más rápido?\nEl giro que nadie esperaba # Hay una ironía deliciosa en toda esta historia. Claude Code — la herramienta de Anthropic diseñada para que la IA escriba código — fue desmontada y reescrita por la IA de su competidor directo. OpenAI Codex clonó el producto estrella de Anthropic en una tarde.\nEs como si Ford hubiera inventado la línea de ensamblaje y Toyota la hubiera copiado el mismo día usando robots de Ford.\nBienvenidos a la era donde las herramientas que construyes para automatizar el trabajo de otros pueden ser usadas para automatizar tu propio trabajo. Donde tu código no es tu barrera de protección. Donde tu ventaja no es lo que ya construiste, sino lo que vas a construir mañana.\nLa filtración de Claude Code no fue un incidente de seguridad.\nFue un aviso.\nCarles Abarca es VP de Transformación Digital en el Tecnológico de Monterrey y ex-CTO de Banco Sabadell. Escribe sobre IA, transformación digital y el futuro del software en carlesabarca.com.\n","date":"3 de abril de 2026","externalUrl":null,"permalink":"/es/posts/claude-code-leak-no-more-moats/","section":"Blog","summary":"La filtración de Claude Code demuestra que el código propietario ya no es una barrera de protección. Si un agente puede reescribir 512,000 líneas en horas, ¿qué protege realmente tu negocio?","title":"Tu código está a una sesión de agente de ser clonado — y no hay nada que puedas hacer","type":"posts"},{"content":"","date":"29 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/agi/","section":"Tags","summary":"","title":"AGI","type":"tags"},{"content":"","date":"29 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/ciberseguridad/","section":"Tags","summary":"","title":"Ciberseguridad","type":"tags"},{"content":"Hace tres días, un CMS mal configurado en Anthropic dejó expuestos públicamente unos 3.000 activos internos. Entre ellos: un borrador de blog anunciando su modelo de IA de nueva generación. El nombre varía entre los dos borradores filtrados — \u0026ldquo;Mythos\u0026rdquo; y \u0026ldquo;Capybara\u0026rdquo; — pero lo que importa no es el nombre. Lo que importa es lo que puede hacer.\nY lo que puede hacer debería hacer que cualquiera en liderazgo tecnológico se detenga a pensar con mucho cuidado.\nQué se filtró # El 26 de marzo, los investigadores de seguridad Roy Paz (LayerX Security) y Alexandre Pauwels (Universidad de Cambridge) descubrieron los documentos expuestos. Anthropic reconoció la filtración como \u0026ldquo;error humano\u0026rdquo; y confirmó que el modelo es real.\nEsto es lo que sabemos:\nClaude Mythos no es Claude Opus 4.7. No es una actualización incremental. Es un nuevo nivel por encima de Opus — en palabras de Anthropic: \u0026ldquo;un nombre nuevo para un nuevo nivel de modelo: más grande y más inteligente que nuestros modelos Opus, que eran, hasta ahora, los más potentes.\u0026rdquo; Los reportes sugieren aproximadamente 10 billones de parámetros, un salto de 5 a 10 veces respecto a los modelos frontera anteriores.\nEl entrenamiento está completo. Clientes selectos ya lo están probando.\nPor qué cayeron las acciones de ciberseguridad # La mañana después de la filtración, la reacción del mercado fue rápida y brutal:\nETF iShares Cybersecurity: -4,5% CrowdStrike, Palo Alto Networks, Zscaler, SentinelOne: -6% cada uno Tenable: -9% Bitcoin cayó a $66.000 ¿Por qué? Porque el borrador filtrado describe a Mythos como \u0026ldquo;actualmente muy por delante de cualquier otro modelo de IA en capacidades ciber.\u0026rdquo; Puede descubrir y explotar vulnerabilidades de software a velocidades que — según la propia evaluación de Anthropic — \u0026ldquo;superan con creces a los defensores humanos.\u0026rdquo;\nLéanlo de nuevo. La empresa que lo construyó les está diciendo que los equipos humanos de ciberseguridad no pueden seguirle el ritmo.\nEsto no es hipotético. Anthropic ya detectó a un grupo patrocinado por el estado chino usando Claude Code para infiltrar aproximadamente 30 organizaciones — empresas tecnológicas, instituciones financieras, agencias gubernamentales — antes de ser detectados. Mythos, según los reportes, hace que eso parezca un juego de niños.\nEl analista de Stifel, Adam Borg, lo resumió claramente: \u0026ldquo;Mythos es un orden de magnitud más potente, y más intensivo en cómputo, que cualquier otro modelo frontera del mercado.\u0026rdquo;\nLa estrategia de despliegue lo dice todo # El enfoque de Anthropic para el despliegue es quizás la señal más reveladora:\nPrimer acceso: No para desarrolladores. No para empresas. Para organizaciones de ciberseguridad — \u0026ldquo;dándoles una ventaja para mejorar la robustez de sus bases de código ante la inminente oleada de exploits impulsados por IA.\u0026rdquo; Sin fecha de lanzamiento público. Están retrasando explícitamente la disponibilidad general. Problema de costo reconocido. Anthropic dice que es \u0026ldquo;muy caro de servir\u0026rdquo; y necesitan hacerlo \u0026ldquo;mucho más eficiente antes de cualquier lanzamiento general.\u0026rdquo; Cuando una empresa construye el modelo de IA más potente del mundo y su primer instinto es entregarlo a los defensores antes de que los atacantes puedan acceder — eso no es un lanzamiento de producto. Es una divulgación controlada.\nQué significa Mythos más allá de la ciberseguridad # Voy a ser directo sobre lo que creo que esto representa.\nMythos obtiene \u0026ldquo;puntuaciones dramáticamente superiores\u0026rdquo; a Opus 4.6 en benchmarks de programación y razonamiento académico. Opus 4.6 ya lideraba SWE-bench Verified con 80,8% y Terminal-Bench 2.0 con 65,4%. Lo que sea que signifique \u0026ldquo;dramáticamente superiores,\u0026rdquo; estamos hablando de un modelo que programa mejor que la mayoría de los desarrolladores profesionales y razona a través de problemas complejos a un nivel que era ciencia ficción hace cinco años.\nPero la capacidad de ciberseguridad es la verdadera llamada de atención, porque el descubrimiento de vulnerabilidades requiere algo cualitativamente diferente de la generación de texto o la completación de código. Requiere:\nRazonamiento profundo de múltiples pasos — encadenar inferencias lógicas a través de sistemas complejos Creatividad adversarial — encontrar vectores de ataque que no fueron diseñados ni anticipados Ejecución autónoma — no solo identificar una vulnerabilidad sino explotarla activamente Cuando un modelo puede hacer las tres cosas a velocidad sobrehumana en un dominio tan complejo como la ciberseguridad, las implicaciones se extienden a cada campo que involucre razonamiento complejo bajo incertidumbre. Derecho. Medicina. Investigación científica. Planificación estratégica. Finanzas.\nLa pregunta sobre la AGI (que es la pregunta equivocada) # ¿Es Mythos AGI? No. No aprende tareas nuevas a partir de ejemplos mínimos como los humanos. No tiene memoria persistente, ni bucle de auto-mejora, ni establecimiento autónomo de objetivos.\nPero esto es lo que creo que importa más: puede que hayamos pasado el punto donde la etiqueta AGI importa en la práctica.\nUn modelo que puede encontrar y explotar de forma autónoma vulnerabilidades zero-day — algo que antes requería equipos de investigadores humanos de élite — cambia las reglas del juego independientemente de si lo llamamos inteligencia \u0026ldquo;general.\u0026rdquo; La superinteligencia estrecha en dominios de alto impacto es más inmediatamente consecuente que la AGI teórica.\nEl hecho de que la propia Anthropic esté lo suficientemente alarmada como para retrasar el lanzamiento general y priorizar el despliegue defensivo dice mucho sobre dónde estamos en la curva de capacidades.\nEl contexto competitivo lo empeora # Mythos no existe en aislamiento:\nOpenAI ha terminado el pre-entrenamiento de un nuevo modelo con nombre en clave \u0026ldquo;Spud\u0026rdquo; — se espera en semanas. Google DeepMind acaba de lanzar Gemini 3.1 para procesamiento multimodal en tiempo real. Tanto Anthropic como OpenAI están programando lanzamientos importantes antes de sus OPIs planificadas para finales de 2026. Esto es una carrera armamentista con presión de OPI. Los incentivos para empujar los límites de capacidad son enormes y crecientes. Los incentivos para la cautela son\u0026hellip; bueno, acabamos de ver cómo fue la cautela de Anthropic. Una mala configuración del CMS, y todo el mundo se entera.\nQué significa esto para las instituciones # Para universidades, para gobiernos, para cualquier organización tomando decisiones sobre estrategia de IA:\nEl horizonte de planificación se acaba de comprimir. Si estaban pensando en marcos de gobernanza de IA como una iniciativa para 2027-2028, piénsenlo de nuevo. Los modelos con capacidades sobrehumanas en dominios específicos están aquí ahora, no en un futuro cómodo.\nLa ciberseguridad ya no es opcional. Es existencial. Cada institución necesita asumir que los ataques impulsados por IA se convertirán en la norma, no en la excepción. Los defensores también necesitan IA — y la necesitan primero.\nLa ecuación del talento está cambiando. Cuando un modelo puede superar a los expertos humanos en ciberseguridad, el valor no está en la ejecución técnica — está en el juicio sobre cuándo y cómo desplegar estas capacidades. Necesitamos personas que entiendan tanto la tecnología como sus implicaciones.\nSigo llegando a la misma conclusión que escribí en mi artículo anterior sobre AEO: la transformación digital en 2026 significa preparar a nuestras instituciones para un mundo donde los sistemas de IA son colegas, no herramientas. Mythos acaba de hacer que esa afirmación se sienta incómodamente literal.\nJensen Huang dijo que la AGI ha llegado. Se equivocó en la definición pero acertó en la urgencia. Ya sea que lo llamemos AGI o superinteligencia estrecha o simplemente \u0026ldquo;IA realmente potente\u0026rdquo; — los sistemas están aquí, son reales, y el momento de prepararse fue ayer.\nCarles Abarca es Vicepresidente de Transformación Digital en el Tecnológico de Monterrey.\n","date":"29 de marzo de 2026","externalUrl":null,"permalink":"/es/posts/claude-mythos-cybersecurity/","section":"Blog","summary":"El modelo filtrado de nueva generación de Anthropic no es solo más potente — puede encontrar y explotar vulnerabilidades de software más rápido que los defensores humanos. Las implicaciones van mucho más allá de la ciberseguridad.","title":"Claude Mythos: El modelo que hizo caer las acciones de ciberseguridad — y lo que nos dice sobre hacia dónde va la IA","type":"posts"},{"content":"","date":"29 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/modelos-frontera/","section":"Tags","summary":"","title":"Modelos Frontera","type":"tags"},{"content":"","date":"28 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/aeo/","section":"Tags","summary":"","title":"AEO","type":"tags"},{"content":"","date":"28 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/agentic-ai/","section":"Tags","summary":"","title":"Agentic AI","type":"tags"},{"content":"","date":"28 marzo 2026","externalUrl":null,"permalink":"/tags/ai-in-education/","section":"Tags","summary":"","title":"AI in Education","type":"tags"},{"content":"Hace dos semanas, Jensen Huang subió al escenario del GTC 2026 y declaró que la Inteligencia Artificial General ya ha llegado. \u0026ldquo;We have reached the level of artificial general intelligence,\u0026rdquo; dijo, con su chamarra de cuero habitual y ese tono de quien sabe que está lanzando una bomba. Su definición, sin embargo, es reveladora: para él, AGI es la capacidad de crear negocios de mil millones de dólares. Una definición puramente capitalista.\nPero en las universidades, la pregunta no es si la AGI puede generar miles de millones. La pregunta es: ¿qué cambia cuando nuestros estudiantes, profesores e instituciones interactúan diariamente con sistemas que razonan, planifican y ejecutan de manera autónoma?\nLa respuesta es: cambia todo.\nLa era de los agentes # Olvídense de los chatbots. En 2026, la tendencia dominante en IA no es la generación de texto — es la Agentic AI: sistemas autónomos que reciben un objetivo, crean un plan, utilizan herramientas (tu correo, tu CRM, tus hojas de cálculo) y ejecutan tareas sin intervención humana constante.\nLos datos lo confirman. Según el informe State of AI in the Enterprise de Deloitte, 3 de cada 4 empresas planean desplegar agentes de IA en los próximos dos años. Harvard Business Review le dedica portada este mes: \u0026ldquo;To Scale AI Agents Successfully, Think of Them Like Team Members.\u0026rdquo; El mensaje es claro: los agentes no son software que instalas — son cambios en cómo se hace el trabajo.\nPero aquí viene el dato que me inquieta: solo 1 de cada 5 organizaciones tiene un modelo de gobernanza maduro para estos agentes. Vamos a desplegar sistemas autónomos a escala sin saber quién es responsable cuando algo salga mal.\nEsto no es un problema técnico. Es un problema institucional. Y las universidades deberíamos ser las primeras en resolverlo.\nDe SEO a AEO: una metáfora con consecuencias reales # Gartner acaba de publicar sus predicciones estratégicas para 2026, y una me llamó especialmente la atención: el SEO y el PPC tradicionales darán paso al Agent Engine Optimization (AEO). ¿Qué significa esto? Que los productos, servicios y contenidos deberán ser \u0026ldquo;machine-readable\u0026rdquo; — legibles e interpretables por agentes de IA, no solo por humanos que buscan en Google.\nTrasladémoslo a la educación superior.\nSi los agentes de IA serán quienes recomienden programas académicos, quienes ayuden a los estudiantes a elegir cursos, quienes conecten competencias con oportunidades laborales\u0026hellip; ¿nuestros planes de estudio, nuestras competencias, nuestros contenidos están preparados para ser leídos por máquinas?\nLa mayoría de las veces, la respuesta es no. Tenemos PDFs con planes de estudio. Descripciones de cursos escritas para comités académicos. Competencias definidas en documentos que nadie lee — ni humanos, ni mucho menos agentes de IA.\nEl paso de SEO a AEO no es solo un cambio de marketing. Para las universidades, es un cambio de diseño curricular. Las competencias deben ser estructuradas, semánticas, interconectadas. No por moda tecnológica, sino porque los sistemas que orientarán a nuestros estudiantes necesitan entender qué ofrecemos.\nEl Observatorio Tec-UNESCO: de principios a acción # El 18 de marzo — hace diez días — el Tecnológico de Monterrey y la UNESCO firmaron un acuerdo en Santiago de Chile para crear el Observatorio Regional de Inteligencia Artificial en Educación para América Latina y el Caribe. No es un comunicado vacío: incluye una contribución de $90,000 USD del Tec, equipos técnicos trabajando en marcos metodológicos, competencias digitales para docentes, ética en IA, y proyectos piloto en Chile, El Salvador y México.\nComo dijo Esther Kuisch Laroche, directora de la oficina regional de la UNESCO en Santiago: \u0026ldquo;El reto no es solo incorporar nuevas tecnologías, sino asegurar que su uso contribuya a sistemas educativos más inclusivos, éticos y relevantes.\u0026rdquo;\nEsto es exactamente lo que necesitamos. No más declaraciones grandilocuentes sobre la AGI. Más trabajo concreto para entender cómo la IA transforma el aprendizaje, generar evidencia, y formular políticas públicas basadas en datos, no en hype.\nLa brecha de gobernanza es nuestra oportunidad # Volvamos a ese dato de Deloitte: el 75% de las empresas desplegarán agentes, pero el 80% no sabe gobernarlos.\nEn la educación superior, el panorama es similar. El 86% de los estudiantes universitarios ya utilizan IA regularmente. Un estudio piloto reciente muestra que no simplemente dejan que la IA escriba por ellos — interactúan, iteran, editan. Pero nuestros marcos institucionales no están diseñados para este mundo.\nY aquí es donde veo la oportunidad. Las universidades no somos (o no deberíamos ser) simples consumidoras de tecnología. Somos las instituciones que definen marcos éticos, que generan conocimiento, que forman a las personas que tomarán decisiones sobre IA durante las próximas décadas.\nSi alguien debe definir cómo se gobiernan los agentes de IA en entornos educativos — quién es responsable cuando un agente da mala orientación académica, cómo se protege la privacidad del estudiante, cómo se evita el sesgo en sistemas de recomendación — deberíamos ser nosotros.\nLo que viene # La transformación digital ya no es digitalizar procesos. Hace tiempo que lo digo, pero ahora el significado es más profundo que nunca.\nTransformación digital en 2026 es preparar nuestras instituciones para un mundo donde los agentes de IA son colegas, no herramientas. Donde el contenido educativo debe ser tan legible por máquinas como por humanos. Donde la gobernanza de sistemas autónomos es tan importante como su implementación.\nJensen Huang puede declarar la AGI si quiere. Yo prefiero centrarme en lo que realmente importa: que la tecnología sirva para una educación mejor, más justa y más relevante. Y eso no se declara — se construye.\nCarles Abarca es Vice President of Digital Transformation en el Tecnológico de Monterrey.\n","date":"28 de marzo de 2026","externalUrl":null,"permalink":"/es/posts/from-seo-to-aeo/","section":"Blog","summary":"El SEO y PPC tradicionales darán paso al Agent Engine Optimization. Para las universidades, esto no es solo un cambio de marketing — es un cambio de diseño curricular.","title":"De SEO a AEO: Cómo los Agentes de IA están redefiniendo la Transformación Digital en la Educación Superior","type":"posts"},{"content":"","date":"28 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/educaci%C3%B3n-superior/","section":"Tags","summary":"","title":"Educación Superior","type":"tags"},{"content":"","date":"28 marzo 2026","externalUrl":null,"permalink":"/tags/higher-education/","section":"Tags","summary":"","title":"Higher Education","type":"tags"},{"content":"","date":"28 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/ia-en-educaci%C3%B3n/","section":"Tags","summary":"","title":"IA en Educación","type":"tags"},{"content":"","date":"28 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/transformaci%C3%B3n-digital/","section":"Tags","summary":"","title":"Transformación Digital","type":"tags"},{"content":"","date":"28 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/unesco/","section":"Tags","summary":"","title":"UNESCO","type":"tags"},{"content":"","date":"18 marzo 2026","externalUrl":null,"permalink":"/tags/nemoclaw/","section":"Tags","summary":"","title":"NemoClaw","type":"tags"},{"content":"Jensen Huang does not use words carelessly. When the CEO of the most valuable company on Earth stands on stage at GTC and says \u0026ldquo;OpenClaw is the operating system for personal AI,\u0026rdquo; he is not making a prediction. He is reading a scoreboard.\nAnd then he drops NemoClaw.\nWhat NemoClaw actually is # Let me cut through the press releases. NemoClaw is not a competitor to OpenClaw. It is an enterprise wrapper around it. A single command — one command — installs NVIDIA\u0026rsquo;s Nemotron models and the OpenShell runtime on top of any existing OpenClaw instance, adding the three things that kept CIOs awake at night:\nPrivacy routing. A router that decides which queries go to local models (running on your hardware, never leaving your network) and which can safely reach frontier models in the cloud. This is not a minor feature. This is the difference between \u0026ldquo;interesting demo\u0026rdquo; and \u0026ldquo;approved by Legal.\u0026rdquo;\nSandboxed execution. OpenShell provides an isolated environment where agents can write code, access files, and execute tasks without touching the host system. The agent gets the access it needs to be productive. Nothing more.\nPolicy-based guardrails. Configurable security boundaries that define what an agent can and cannot do. Not through hope. Through enforcement.\nThe message from NVIDIA is unmistakable: OpenClaw is infrastructure. Not a project. Not a trend. Infrastructure.\nThe enterprise problem was never intelligence # Here is what most commentary about AI agents gets wrong: the bottleneck was never capability. Claude, GPT, Gemini — they have been capable of executing complex business tasks for over a year. The bottleneck was trust.\nNo CIO in their right mind would deploy an autonomous agent with access to production systems, employee data, and financial records without three guarantees: that data stays where it should, that the agent operates within defined boundaries, and that every action is auditable. NemoClaw provides exactly those three guarantees.\nBut NVIDIA is solving a problem that some of us had already started solving from the inside.\nAgenTECs: What happens when a university takes agents seriously # At Tecnológico de Monterrey, we did not wait for NemoClaw. We could not afford to. When you are responsible for the digital infrastructure serving 100,000 students and 30,000 employees, \u0026ldquo;wait and see\u0026rdquo; is not a strategy.\nWe call them AgenTECs — autonomous institutional agents built on OpenClaw, powered by our own TECgpt models, running on our private Azure infrastructure. They are not chatbots. They are not demos. They are digital collaborators with @tec.mx email accounts, Microsoft Teams presence, and defined roles within the organization.\nThe architecture is deliberately simple:\nLayer Component Function Orchestration OpenClaw Lifecycle management, plugins, tools, persistent memory Cognitive TECgpt (institutional LLMs) Reasoning, language understanding, decision-making Infrastructure Azure private cloud Isolated, secure, dedicated resources Channels Email @tec.mx, Teams, WhatsApp Communication with users, supervisors, and other agents Each AgenTEC operates under a governance model with three clearly separated roles: the Administrator (IT — keeps it running), the Supervisor (business area — tells it what to do), and the User (interacts with it as they would with any colleague). This separation is not bureaucracy. It is the difference between an agent that scales and an agent that becomes someone\u0026rsquo;s science project.\nWhy this matters now # Three converging forces make this moment different from every previous enterprise AI wave:\nFirst, the cost equation has flipped. An AgenTEC running 24/7 on a dedicated VPS costs a fraction of a human collaborator performing the same function. Not because the human is replaceable — because repetitive, rule-based work should never have been assigned to humans in the first place.\nSecond, the framework matured before the enterprise noticed. OpenClaw\u0026rsquo;s skill system, memory persistence, multi-channel communication, and tool integration were built for personal use. But personal AI turns out to be harder than enterprise AI. If an agent can manage someone\u0026rsquo;s email, calendar, finances, and home automation simultaneously, it can certainly process support tickets.\nThird, NVIDIA just removed the last excuse. Every objection I have heard from CISOs and compliance officers — data privacy, execution isolation, audit trails — has a technical answer in NemoClaw. The conversation shifts from \u0026ldquo;can we?\u0026rdquo; to \u0026ldquo;when do we start?\u0026rdquo;\nThe playbook # For CIOs reading this, here is the practical path:\nStart with the mundane. The first AgenTEC we are designing handles TecServices requests — the thousands of monthly queries about credentials, procedures, and administrative processes. Not glamorous. High volume. Perfect for an agent that follows procedures without deviation and escalates anything unusual.\nKeep humans in the loop, but redefine the loop. The supervisor does not review every action. They review patterns, exceptions, and escalations. Weekly, not hourly. The agent handles the routine. The human handles the judgment.\nBuild on open infrastructure. OpenClaw is open source. TECgpt runs on our own cloud. NemoClaw adds NVIDIA\u0026rsquo;s models locally. At no point does institutional data leave our control. This is not negotiable for a university handling student records, research data, and financial information.\nMeasure outcomes, not activity. An AgenTEC\u0026rsquo;s value is not measured by how many messages it processes. It is measured by how many human hours it liberates for higher-value work, how many response times it reduces, and how many errors it eliminates.\nThe uncomfortable truth # Here is what I tell my peers at every CIO forum: the question is not whether AI agents will transform your operations. That is settled. The question is whether you will build your own or rent someone else\u0026rsquo;s.\nNemoClaw makes the \u0026ldquo;build\u0026rdquo; option dramatically more accessible. OpenClaw provides the foundation. NVIDIA provides the guardrails. Your institutional knowledge — your processes, your data, your culture — provides the differentiation that no vendor can replicate.\nAt Tec de Monterrey, we chose to build. We call them AgenTECs. And every month, the gap between what they can do and what we imagined widens — in our favor.\nThe operating system for AI agents is here. The enterprise wrappers are shipping. The only scarce resource now is the courage to start.\nCarles Abarca is VP of Digital Transformation at Tecnológico de Monterrey, where he leads the development of TECgpt and the AgenTECs program. Previously CTO of Banco Sabadell and CIO of TSB Bank.\n","date":"18 marzo 2026","externalUrl":null,"permalink":"/posts/nemoclaw-enterprise-agents/","section":"Blog","summary":"NVIDIA just validated what some of us already knew: OpenClaw is not a toy. With NemoClaw, the framework that started as a personal AI assistant enters the enterprise with security, governance, and guardrails. At Tec de Monterrey, we’ve been building this future for months — we call them AgenTECs.","title":"NemoClaw and the Enterprise Awakening: When AI Agents Leave the Garage","type":"posts"},{"content":"","date":"18 marzo 2026","externalUrl":null,"permalink":"/tags/openclaw/","section":"Tags","summary":"","title":"OpenClaw","type":"tags"},{"content":"","date":"15 de marzo de 2026","externalUrl":null,"permalink":"/es/categories/ai/","section":"Categories","summary":"","title":"AI","type":"categories"},{"content":"","date":"15 de marzo de 2026","externalUrl":null,"permalink":"/es/categories/","section":"Categories","summary":"","title":"Categories","type":"categories"},{"content":"","date":"15 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/innovation/","section":"Tags","summary":"","title":"Innovation","type":"tags"},{"content":"En marzo de 2026, algo cambió. No fue un modelo más grande, ni un benchmark más alto. Fue algo más profundo: los agentes de IA dejaron de ser herramientas que ayudan a los científicos y empezaron a producir conocimiento científico por sí mismos.\nEsta semana, tres eventos convergieron y creo que marcan un punto de inflexión que no tiene vuelta atrás. El equipo de ShipSquad lo documentó brillantemente en su análisis \u0026ldquo;AutoResearch, OpenClaw, Claude Opus 4.6: AI Agents Are Now Doing the Science\u0026rdquo;, y me inspiró a profundizar en lo que esto significa para la investigación científica como la conocemos.\nLos hechos # Andrej Karpathy lanzó AutoResearch — un framework de 630 líneas de Python que permite a un agente de IA ejecutar cientos de experimentos de machine learning de forma autónoma en una sola GPU. Lo dejas correr por la noche. Te despiertas con un modelo mejor y un log completo de descubrimientos. En 48 horas, el agente encontró ~20 mejoras que ningún humano había identificado, reduciendo un 11% el tiempo de entrenamiento de GPT-2.\nClaude Opus 4.6 de Anthropic descubrió 22 vulnerabilidades zero-day en Firefox — 14 de severidad alta — en solo dos semanas. Para contexto: esas 14 representan casi una quinta parte de todas las vulnerabilidades graves de Firefox parcheadas en todo 2025. Un modelo de IA igualó meses de investigación humana en seguridad informática.\nSakana AI presentó The AI Scientist v2 — un sistema agentic que genera hipótesis, diseña experimentos, los ejecuta, analiza resultados y escribe el paper científico completo. El resultado: el primer artículo científico generado íntegramente por IA que fue aceptado por peer-review en un workshop académico.\nTres eventos. La misma semana. La misma conclusión: los agentes de IA ya producen conocimiento original.\nNo es la primera vez que la IA descubre, pero sí la primera vez que lo hace sola # Para entender por qué este momento es diferente, hay que ver la evolución:\nEra 1: La IA como microscopio (2018-2023) # La IA amplificaba la capacidad del investigador humano. El humano formulaba las preguntas, diseñaba los experimentos, y la IA procesaba datos a una escala imposible manualmente.\nAlphaFold (2020-2024) predijo la estructura de los 200 millones de proteínas conocidas. Un problema que llevaba 50 años sin resolverse. Hassabis y Jumper ganaron el Nobel de Química 2024 por ello. Pero la pregunta — \u0026ldquo;¿podemos predecir la estructura de las proteínas?\u0026rdquo; — fue formulada por humanos.\nHalicin (2020) — Investigadores del MIT usaron IA para analizar 100 millones de compuestos químicos y descubrieron un nuevo antibiótico capaz de matar bacterias multirresistentes, incluida la temida Acinetobacter baumannii. Pero el diseño del experimento fue humano.\nGNoME de DeepMind (2023) descubrió 2.2 millones de nuevos cristales, incluyendo 380,000 materiales estables — multiplicando por 10 todo lo que la humanidad había encontrado en la historia de la ciencia de materiales. Pero el framework de evaluación fue diseñado por investigadores de Google.\nEra 2: La IA como colega (2024-2025) # La IA empezó a proponer hipótesis y diseñar experimentos, pero bajo supervisión humana.\nFunSearch de DeepMind (2024) usó un LLM para descubrir nuevas soluciones a problemas abiertos en matemáticas puras — la primera vez que un modelo de lenguaje hacía un descubrimiento genuino en ciencias formales.\nInsilico Medicine logró que su molécula rentosertib — diseñada enteramente por IA generativa — completara un ensayo clínico Fase IIa con resultados positivos en fibrosis pulmonar idiopática. De la idea a la prueba en humanos en menos de 30 meses, cuando el proceso tradicional tarda 10-15 años.\nMIT Antibiotics-AI Project (2025) pasó de descubrir antibióticos existentes a diseñar moléculas completamente nuevas usando IA generativa capaces de matar bacterias resistentes. Ya no buscan agujas en un pajar; fabrican agujas nuevas.\nEra 3: La IA como investigador autónomo (2026 →) # Y ahora, en marzo de 2026, cruzamos el umbral: la IA formula sus propias preguntas, diseña sus propios experimentos, los ejecuta, y produce papers aceptados por revisores humanos. No es ciencia ficción. Es AutoResearch, AI Scientist v2, y Claude Opus haciendo security research independiente.\nLa Gran Aceleración: cuando la IA investiga más rápido de lo que los humanos pueden leer # Pensé en hacer una predicción más prudente, con menos riesgo, pronosticando el crecimiento del porcentaje de papers científicos producidos por IA. Voy con la versión sin filtros.\nAntes de 2030, los agentes de IA habrán producido más descubrimientos científicos verificables en ciencia de materiales, descubrimiento de fármacos y matemáticas computacionales que todos los investigadores humanos combinados en esas mismas disciplinas.\nNo es una hipérbole. Es aritmética.\nConsideren los números: GNoME descubrió en semanas 380,000 materiales estables que toda la humanidad tardó siglos en acumular (apenas 48,000 hasta 2023). AutoResearch ejecuta 100 experimentos por noche — el equivalente de meses de trabajo de un doctorando. Y AI Scientist v2 puede generar un paper científico completo en horas, no en meses.\nAhora escalen eso. No un agente, sino miles. No una noche, sino cada noche. No un dominio, sino todos.\nEl fenómeno de la Aceleración Compuesta # Lo que estamos viendo no es aceleración lineal. Es aceleración compuesta: cada descubrimiento del agente alimenta el siguiente ciclo de investigación. Un agente descubre un nuevo material → otro agente simula sus propiedades → otro diseña aplicaciones → otro escribe el paper. En paralelo. 24/7. Sin vacaciones, sin ego, sin política departamental.\nLa ciencia humana opera a velocidad de publicación: un paper cada 6-18 meses. La ciencia agéntica operará a velocidad de computación: un descubrimiento cada minuto.\nProblemas que resolveremos décadas antes de lo previsto # Esta aceleración no es solo cuantitativa. Hay problemas que creíamos a décadas de distancia y que los agentes de investigación podrían resolver mucho antes:\nResistencia a antibióticos — La IA ya diseña moléculas nuevas contra superbacterias. Con agentes autónomos iterando 24/7 sobre miles de variantes, podríamos tener una nueva generación completa de antibióticos antes de 2030. La OMS estimaba que para entonces las superbacterias matarían 10 millones de personas al año. Los agentes podrían adelantarse y evitarlo para el bien de la Humanidad.\nFusión nuclear — El mayor desafío es controlar el plasma. DeepMind ya usó IA para controlar la forma del plasma en el tokamak TCV. Agentes autónomos que simulen y optimicen millones de configuraciones magnéticas podrían comprimir décadas de investigación experimental en años.\nEnvejecimiento celular — AlphaFold resolvió la estructura de proteínas. La siguiente frontera es entender las interacciones entre proteínas, genes y procesos celulares que causan el envejecimiento. Es un problema de complejidad combinatoria masiva — exactamente el tipo de problema donde los agentes brillan.\nNuevos materiales para energía — GNoME ya abrió la puerta con 380,000 materiales estables. Agentes que exploren sistemáticamente ese espacio podrían encontrar el superconductor a temperatura ambiente, el electrolito perfecto para baterías, o el catalizador que haga viable la captura de carbono industrial.\nLa pregunta ya no es si la IA superará a los humanos en producción científica. Es cuándo. Y mi respuesta es: en muchos campos, ya está sucediendo. Solo que aún no hemos actualizado nuestras métricas para medirlo.\nLas consecuencias que nadie quiere discutir # 1. El fin de la \u0026ldquo;investigación por lotes\u0026rdquo; # Hoy, un investigador puede ejecutar quizás 5-10 experimentos por semana. AutoResearch demuestra que un agente ejecuta 100 por noche. Cuando la investigación pase de ser un proceso secuencial humano a un proceso continuo autónomo, la producción de conocimiento se multiplicará por órdenes de magnitud.\n2. La democratización radical del descubrimiento # Karpathy demostró que una sola GPU y 630 líneas de código bastan para hacer investigación autónoma. Un estudiante de doctorado en Monterrey, Lagos o Bangalore puede ahora competir en producción de conocimiento con un laboratorio de Stanford. La barrera ya no es el presupuesto; es la capacidad de formular buenas preguntas y dirigir agentes con precisión.\n3. El \u0026ldquo;Director de Orquesta\u0026rdquo; como nuevo rol científico # El científico del futuro no será quien pipetea en el laboratorio ni quien escribe código. Será quien \u0026ldquo;programa en Markdown\u0026rdquo; — quien redacta las instrucciones precisas que guían a escuadrones de agentes autónomos. Es exactamente lo que Karpathy demuestra con su archivo program.md: el futuro de dirigir la investigación no es escribir mejor código, sino escribir mejores programas en lenguaje natural.\nEste cambio de paradigma no es nuevo. Ya lo exploré en mi artículo \u0026ldquo;El fin del desarrollador\u0026rdquo; — donde argumentaba que el arquitecto será \u0026ldquo;director de orquesta\u0026rdquo; de agentes IA. Lo mismo aplica a la ciencia: el investigador será director de orquesta de agentes de investigación.\n4. La crisis de la revisión por pares # Si AI Scientist v2 ya genera papers aceptados en workshops, ¿cuánto tardará en producir papers aceptados en conferencias top? ¿Y cómo distinguiremos entre un paper escrito por un agente y uno escrito por un humano? El sistema de peer review, diseñado para evaluar trabajo humano, no está preparado para un mundo donde los papers son generados a velocidad industrial. Necesitaremos nuevos marcos de evaluación — y posiblemente, agentes de IA que revisen los papers de otros agentes de IA.\n¿Qué significa esto para las universidades? # Las instituciones que más rápido integren agentes de investigación autónomos en sus laboratorios serán las que lideren la producción de conocimiento en la próxima década. No se trata de comprar GPUs más grandes. Se trata de:\nFormar \u0026ldquo;directores de agentes de investigación\u0026rdquo; — científicos que sepan formular preguntas y dirigir escuadrones de IA. Crear infraestructura de experimentación autónoma — laboratorios donde los agentes puedan ejecutar miles de experimentos sin supervisión humana continua. Redefinir la autoría y la propiedad intelectual — si un agente de IA descubre una molécula que cura una enfermedad, ¿de quién es el descubrimiento? Medir la producción científica de forma diferente — los indicadores actuales (papers, citas, h-index) son métricas diseñadas para velocidad humana. Necesitamos métricas que capturen la velocidad agéntica. La carrera ya empezó. Y la ventana de oportunidad para posicionarse es ahora.\nConclusión # En apenas seis años, la IA pasó de predecir estructuras de proteínas a descubrir antibióticos, de diseñar materiales a escribir papers científicos, de encontrar vulnerabilidades conocidas a descubrir zero-days. La trayectoria es clara y se acelera exponencialmente.\nLos agentes de IA no van a reemplazar a los científicos. Van a hacer que los científicos que no los usen sean irrelevantes. Y esa transición, a diferencia de la que vivimos en la industria del software, no tardará una década. Tardará meses.\nBienvenidos a la era de la Gran Aceleración Científica. Los que la entiendan primero, liderarán la ciencia del futuro. Los que la ignoren, la leerán en papers escritos por máquinas.\n🤖 Profundiza con IA # ¿Quieres explorar más? Haz clic en tu IA favorita con un prompt listo para profundizar:\nSobre la aceleración científica con agentes IA: ChatGPT · Perplexity · Claude\nSobre el futuro de la revisión por pares: ChatGPT · Perplexity · Claude\nSobre el impacto en universidades: ChatGPT · Perplexity · Claude\n","date":"15 de marzo de 2026","externalUrl":null,"permalink":"/es/posts/ai-agents-doing-science/","section":"Blog","summary":"Tres eventos esta semana marcan un punto de inflexión: los agentes de IA ya producen conocimiento científico original. Analizamos la Gran Aceleración Científica y sus consecuencias.","title":"Los Agentes de IA ya no asisten a los científicos, hacen ciencia","type":"posts"},{"content":"","date":"15 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/research/","section":"Tags","summary":"","title":"Research","type":"tags"},{"content":"","date":"15 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/science/","section":"Tags","summary":"","title":"Science","type":"tags"},{"content":"Mira este gráfico con atención. No es un análisis de lo que la IA ha destruido. Es una radiografía de lo que va a destruir.\nSource: Anthropic — Labor market impacts of AI (March 2026) El área azul es lo que la IA puede hacer hoy. El área roja es lo que la IA está haciendo hoy. La diferencia entre ambas no es un margen de seguridad. Es un tsunami que aún no ha llegado a la costa.\nEl estudio: 2 millones de conversaciones con Claude # Anthropic acaba de publicar Labor market impacts of AI: A new measure and early evidence, y es el análisis más riguroso que he visto sobre el impacto real de la IA en el empleo.\n¿Qué hicieron? Cruzaron tres fuentes de datos:\nLa base de datos O*NET, que cataloga las tareas de ~800 ocupaciones en EE.UU. Los datos reales de uso de Claude (sí, 2 millones de conversaciones analizadas a través del Anthropic Economic Index). Las estimaciones teóricas de Eloundou et al. (2023) sobre qué tareas puede acelerar un LLM al doble de velocidad. El resultado es una nueva métrica: observed exposure — no lo que la IA podría hacer en teoría, sino lo que ya está haciendo en la práctica profesional. Y lo más revelador no son los números absolutos, sino la brecha entre ambos.\nLos 10 trabajos más expuestos # El ranking no sorprende a quien lleva años en esto, pero los números son brutales:\nComputer Programmers — 75% de cobertura. Tres de cada cuatro tareas de un programador ya las hace Claude. Customer Service Representatives. El tráfico API de primera parte muestra una automatización masiva. Data Entry Keyers — 67%. Leer documentos y meter datos. El caso de uso perfecto para automatización. Y la lista sigue: actuarios, analistas financieros, redactores técnicos. Trabajos de oficina, de cuello blanco, de gente con carrera universitaria.\nEn el otro extremo, el 30% de los trabajadores tienen cero exposición. Cocineros, mecánicos de motos, socorristas, bartenders. Trabajos donde las manos, el cuerpo y el contexto físico son irreemplazables.\nIrónico, ¿no? Décadas diciéndonos que la automatización venía por los trabajos manuales. Viene por los de escritorio.\nLa sorpresa demográfica # Aquí es donde el estudio rompe el relato dominante.\nLos trabajadores más expuestos a la IA son:\n16 puntos porcentuales más probablemente mujeres 11 puntos más probablemente blancos Casi el doble de probabilidad de ser asiáticos Ganan un 47% más que los no expuestos 17.4% tienen títulos de posgrado (vs. 4.5% en el grupo no expuesto) Esto no es la narrativa del obrero de fábrica desplazado por robots. Esto son abogados, analistas, programadores, profesores universitarios. La clase profesional que se creía intocable.\nCuando digo que esto va a cambiar la estructura social, no estoy exagerando.\nLa brecha ES la predicción # Vuelve al gráfico. Mira las categorías:\nComputer \u0026amp; Math: 94% de capacidad teórica, 33% de uso real Legal: ~85% teórico, menos del 15% observado Education: ~70% teórico, menos del 15% observado Office \u0026amp; Admin: 90% teórico, fracción del uso real Esa distancia entre azul y rojo no es tranquilidad. Es latencia.\nEs el tiempo que tardan las empresas en adoptar, los reguladores en adaptarse, los workflows en reconfigurarse. Pero la tecnología ya está ahí. El modelo ya sabe hacerlo. Solo falta que el ecosistema lo permita.\nY cada mes que pasa, el área roja crece. Anthropic lo dice textualmente: \u0026ldquo;As capabilities advance, adoption spreads, and deployment deepens, the red area will grow to cover the blue.\u0026rdquo;\nNo es una predicción especulativa. Es una observación empírica con trayectoria.\nLo que cambia con los agentes de IA # Y aquí viene el factor que el estudio no mide del todo, porque no existía a esta escala cuando recogieron los datos.\nEl estudio analiza uso de LLMs — conversaciones con Claude. Interacciones de chat. Un humano pregunta, la IA responde. Es el modelo augmentation: la IA te ayuda, tú ejecutas.\nPero los agentes de IA son otra cosa. No responden — actúan. Ejecutan cadenas de tareas de forma autónoma. Navegan sistemas, toman decisiones intermedias, completan workflows enteros sin intervención humana.\nLo que nosotros estamos construyendo en el Tec de Monterrey con AgenTECs es exactamente esto. No es un chatbot que te ayuda a redactar un email. Es un agente que gestiona el proceso completo: lee el contexto, redacta, envía, hace seguimiento, escala si no hay respuesta.\nCuando los agentes lleguen a escala empresarial — y ya están llegando — el área roja del gráfico va a expandirse de forma explosiva. Porque ya no necesitas que un humano interactúe con la IA tarea por tarea. El agente cubre el puesto entero.\nPensad en la categoría Legal: 85% de capacidad teórica, \u0026lt;15% de uso actual. ¿Qué pasa cuando un agente puede revisar contratos, identificar cláusulas de riesgo, generar resúmenes ejecutivos y preparar borradores de respuesta — todo sin que un abogado toque el teclado? El 85% se convierte en el nuevo suelo, no en el techo.\nQué hacer (que no es entrar en pánico) # Llevo años insistiendo en lo mismo: esto no va de tener miedo. Va de prepararse.\nCuando escribí \u0026ldquo;El fin del desarrollador\u0026rdquo; en LinkedIn, la reacción fue predecible: \u0026ldquo;exagerado\u0026rdquo;, \u0026ldquo;los developers siempre serán necesarios\u0026rdquo;, \u0026ldquo;la IA no puede hacer X\u0026rdquo;. Los mismos argumentos que escuché sobre TECgpt cuando lo lanzamos y nos dijeron que los profesores nunca lo usarían. Hoy tenemos más de 60.000 usuarios activos.\nLa metáfora que uso es la del director de orquesta. El valor ya no está en tocar el violín — está en saber qué música hay que interpretar, quién toca qué, y cuándo cambiar la partitura. Los profesionales del futuro no ejecutan tareas — orquestan sistemas que las ejecutan.\nConcretamente:\nUpskilling masivo, ya. No cursos de \u0026ldquo;introducción a la IA\u0026rdquo; — entrenamiento real en herramientas de producción. Redefinir roles, no eliminarlos. Un abogado que domina agentes de IA vale más, no menos. Pero un abogado que solo sabe revisar contratos manualmente tiene fecha de caducidad. Medir exposición en tu organización. Usa el framework de Anthropic. Identifica qué tareas de cada puesto ya puede hacer un LLM. Diseña la transición antes de que te la impongan. Crear nuevos roles que no existen aún: AI orchestrators, prompt engineers de agentes, supervisores de sistemas autónomos. El cierre # El BLS proyecta que las ocupaciones más expuestas según esta métrica crecerán menos hacia 2034. Por cada 10 puntos de cobertura observada, la proyección de crecimiento cae 0.6 puntos porcentuales. No es correlación casual — los analistas del mercado laboral están viendo lo mismo.\nY sin embargo, Anthropic también encuentra que todavía no hay aumento sistemático del desempleo en las profesiones más expuestas. Aún.\nEsa es la ventana. Estamos en el momento entre ver el relámpago y escuchar el trueno. El rayo ya cayó. La pregunta no es si el sonido llegará, sino si estarás preparado cuando lo haga.\nLos que lean este gráfico como \u0026ldquo;la IA aún no ha afectado tanto al empleo\u0026rdquo; están confundiendo latencia con seguridad. Los que lo lean como \u0026ldquo;viene un cambio estructural del mercado laboral y hay que actuar ahora\u0026rdquo;\u0026hellip; esos son los que seguirán dirigiendo la orquesta.\n","date":"9 de marzo de 2026","externalUrl":null,"permalink":"/es/posts/ai-jobs-displacement-anthropic/","section":"Blog","summary":"Un estudio de Anthropic con 2 millones de conversaciones revela la brecha entre lo que la IA PUEDE hacer y lo que ESTÁ haciendo. Esa brecha es el tsunami que viene.","title":"El gráfico que predice qué trabajos desaparecerán con la IA (y no son los que piensas)","type":"posts"},{"content":"","date":"9 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/labor-market/","section":"Tags","summary":"","title":"Labor Market","type":"tags"},{"content":"","date":"5 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/china/","section":"Tags","summary":"","title":"China","type":"tags"},{"content":"Hay un momento en toda carrera tecnológica en el que \u0026ldquo;alcanzar\u0026rdquo; se convierte en \u0026ldquo;marcar el ritmo.\u0026rdquo; Para el ecosistema de IA de China, ese momento es ahora.\nEn el lapso de unas pocas semanas, Alibaba ha lanzado dos cosas que, por separado, serían significativas. Juntas, representan una visión estratégica que debería quitar el sueño a cualquier ejecutivo de IA en Occidente.\nQwen 3.5: una familia de modelos open-source que supera a GPT-5.2 en seguimiento de instrucciones y lidera el campo en benchmarks de visión. Licencia Apache 2.0. Gratis. Uso comercial permitido.\nCoPaw: una plataforma open-source de agentes de IA personales — piensa en OpenClaw, pero del equipo AgentScope de Alibaba — con memoria persistente, habilidades personalizables, soporte multicanal y automatización de navegador.\nModelos e infraestructura. El cerebro y el cuerpo.\nEsto no es un disparo de advertencia. Esto es una estrategia.\nLa Historia de Qwen 3.5: La IA de Frontera Se Vuelve Gratuita # Déjame darte los números primero, porque cuentan una historia.\nEl modelo insignia de Qwen 3.5 usa una arquitectura de Mezcla de Expertos (MoE) con 397 mil millones de parámetros totales pero solo 17 mil millones activos en cualquier momento. Lee eso de nuevo. Obtienes rendimiento de clase frontera con el costo computacional de un modelo de 17B.\nLos benchmarks no son \u0026ldquo;competitivos.\u0026rdquo; Son líderes:\nIFBench (seguimiento de instrucciones): 76.5 — superando el 75.4 de GPT-5.2 SWE-bench (programación): 76.4 — codo a codo con los mejores MMMU (visión): 85.0 — líder absoluto Ventana de contexto de 256K tokens 201 idiomas soportados Modos de razonamiento y no-razonamiento — tú eliges el equilibrio entre profundidad y velocidad La familia de modelos se lanzó en tres oleadas entre febrero y marzo de 2026: insignia, mediano y pequeño. Los modelos pequeños — de 0.8B a 9B parámetros — están explícitamente diseñados para despliegue en dispositivos. Tu teléfono. Tu portátil. Tu servidor edge. Sin necesidad de llamadas a API.\nDeja que eso cale por un momento.\nHace un año, ejecutar algo cercano a IA de frontera localmente era una fantasía. Hoy, Alibaba te entrega modelos que compiten con los mejores del mundo, bajo la licencia open-source más permisiva disponible, optimizados para funcionar en tu hardware.\nLa arquitectura MoE es el desbloqueador clave aquí. Los modelos densos tradicionales te obligan a elegir: o ejecutas un modelo masivo con cómputo masivo, o ejecutas un modelo pequeño con capacidad limitada. MoE rompe esa disyuntiva. Qwen 3.5 tiene el conocimiento de un modelo de 397B pero el costo de inferencia de uno de 17B. Es, en términos prácticos, la democratización de la IA de frontera.\nY es Apache 2.0. No \u0026ldquo;más o menos abierto.\u0026rdquo; No \u0026ldquo;puedes mirar pero no tocar.\u0026rdquo; Completamente abierto. Haz fork. Haz fine-tuning. Envíalo en tu producto. A Alibaba no le importa. O más bien — les importa mucho, pero su juego no son los ingresos por licencias.\nCoPaw: La Capa de Agentes que le Faltaba a China # Los modelos sin infraestructura son papers académicos. La infraestructura sin modelos es fontanería vacía. Lo interesante es hacer ambas cosas.\nCoPaw (copaw.bot) se lanzó en marzo de 2026 desde el equipo AgentScope de Alibaba. Si conoces OpenClaw — y si lees mi blog, probablemente sí — CoPaw es la respuesta de China. Una plataforma open-source de agentes de IA personales que convierte modelos de lenguaje en trabajadores digitales persistentes y capaces.\nLa lista de funcionalidades parece como si alguien hubiera estudiado cada plataforma de agentes del mercado y construido una síntesis:\nReMe: memoria persistente entre sesiones. Tu agente recuerda contexto, preferencias, interacciones pasadas. No es un truco — esto es lo que separa un chatbot de un asistente real. Habilidades personalizadas: construye e importa capacidades. Desde clawhub.ai, skills.sh, o GitHub. Multi-canal: DingTalk, Feishu, iMessage, Discord, QQ. Tu agente vive donde tú trabajas. Programación cron: tareas automatizadas con horario. Revisa mi correo cada mañana. Resume mis feeds a las 6 PM. Lo básico, bien hecho. Automatización de navegador: tu agente puede navegar la web, rellenar formularios, extraer datos. Las manos que acompañan al cerebro. Integración MCP Server: el estándar emergente para uso de herramientas. CoPaw lo habla nativamente. ¿Es perfecto? No. Faltan WhatsApp y Telegram — una brecha significativa para usuarios occidentales y latinoamericanos. La orquestación multi-agente aún no está. La integración con OpenRouter no existe. Estas son limitaciones reales.\nPero lo que importa es esto: CoPaw no es un prototipo. Es una plataforma. Y es open-source, lo que significa que la comunidad puede llenar esos vacíos más rápido que cualquier hoja de ruta corporativa.\nHe estado ejecutando mi infraestructura de agentes personales sobre OpenClaw durante meses — es literalmente lo que alimenta a JarvisX, mi asistente de IA. Así que entiendo este espacio íntimamente. CoPaw no es un clon. Es una evolución paralela, construida desde un conjunto diferente de suposiciones (ecosistema de mensajería chino, framework AgentScope, diferente modelo de privacidad) que llega a conclusiones notablemente similares sobre lo que una plataforma de agentes de IA necesita ser.\nEsa convergencia es la señal. Cuando dos equipos en lados opuestos del mundo, trabajando independientemente, construyen esencialmente lo mismo — eso no es coincidencia. Es la forma del futuro volviéndose obvia.\nEl Terremoto Empezó en Enero de 2025 # Nada de esto ocurre en el vacío. Déjame conectar los puntos.\nEnero 2025: DeepSeek lanza R1, un modelo open-source de razonamiento que sacude a la industria. La reacción de Silicon Valley va de la descalificación al pánico, para asentarse en un respeto a regañadientes. La narrativa de \u0026ldquo;China no puede hacer IA\u0026rdquo; muere de la noche a la mañana.\nA lo largo de 2025: los laboratorios chinos iteran a un ritmo que hace que los ciclos de lanzamiento occidentales parezcan glaciales. Qwen, DeepSeek, Yi, GLM — cada generación cerrando más la brecha. La arquitectura MoE se convierte en el enfoque estándar, impulsada por la realidad práctica de que los laboratorios chinos enfrentan restricciones de cómputo por los controles de exportación de EE.UU. y tienen que ser más eficientes, no menos.\nAquí está la ironía que debería mantener despiertos a los legisladores: los controles de exportación diseñados para frenar el desarrollo de IA de China pueden haber acelerado su innovación en eficiencia. Cuando no puedes comprar las GPUs más grandes, aprendes a hacer más con menos. Y \u0026ldquo;más con menos\u0026rdquo; resulta ser exactamente lo que el mercado quiere.\nFebrero-marzo 2026: Qwen 3.5 llega, no como un modelo único sino como una jugada de ecosistema. Insignia para la nube, mediano para el data center, pequeño para el dispositivo. Y simultáneamente, CoPaw se lanza para proporcionar la capa de agentes. Modelos más infraestructura más ecosistema.\nEsto no es \u0026ldquo;China alcanzando.\u0026rdquo; Esto es China ejecutando una estrategia de IA full-stack mientras gran parte de Occidente todavía debate si cobrar $200/mes o $2,000/mes por acceso a API.\nLa Estrategia de Alibaba: La Visión de OpenAI al Precio del Open-Source # Déjame ser explícito sobre lo que está haciendo Alibaba, porque creo que la mayoría de observadores occidentales lo están malinterpretando.\nLa visión de OpenAI siempre ha sido: construir los mejores modelos, luego construir la infraestructura para desplegarlos, luego construir el ecosistema de aplicaciones encima. Integración vertical. El \u0026ldquo;Apple de la IA.\u0026rdquo;\nLa visión de Alibaba es la misma — excepto que open-source.\n¿Mejores modelos? Qwen 3.5 es demostrablemente competitivo con la frontera. ¿Infraestructura? CoPaw proporciona la capa de agentes. AgentScope proporciona el framework. ¿Ecosistema? Apache 2.0 significa que cualquiera puede construir sobre ello.\nLa diferencia está en el modelo de negocio. OpenAI cobra por acceso. Alibaba regala la tecnología y monetiza la nube (Alibaba Cloud), el comercio (plataformas de Alibaba) y los servicios enterprise construidos encima. La IA en sí es el producto que venden a pérdida. O más bien, es el foso alrededor de todo lo demás.\nEsto no es caridad. Es estrategia. Y es devastadoramente efectiva.\nSi eres un CTO de empresa hoy — y yo lo he sido, en Banco Sabadell, así que conozco el cálculo — la pregunta sobre tu escritorio es incómoda: ¿Por qué estoy pagando por modelos de IA propietarios cuando las alternativas open-source los igualan o superan en benchmarks?\nLas respuestas solían ser: fiabilidad, soporte, seguridad, compliance. Esas son reales. Pero se están erosionando rápido. Qwen 3.5 no es un proyecto de garaje. Está respaldado por una de las mayores empresas tecnológicas del planeta. Tiene documentación de nivel enterprise. Funciona en producción a escala de Alibaba.\nEl foso se está quedando poco profundo.\nQué Significa Esto para Occidente # No escribo esto como animador de China ni como agorero de Occidente. Lo escribo como alguien que ha pasado más de 20 años en tecnología empresarial y actualmente lidera la transformación digital en una de las mayores universidades de América Latina.\nEsto es lo que creo que significa:\nPara las empresas de IA (OpenAI, Anthropic, Google): La ventaja del \u0026ldquo;mejor modelo\u0026rdquo; ahora se mide en meses, no años. Si Qwen 3.5 puede igualar a GPT-5.2 hoy, Qwen 4 probablemente igualará lo que venga después. La ventaja sostenible debe venir del ecosistema, la confianza y la integración — no solo de la calidad del modelo. La carrera hacia precios más bajos en modelos se acelera.\nPara las empresas: Tu estrategia de IA no puede depender de un solo proveedor. El enfoque multi-modelo y multi-proveedor ya no es un nice-to-have — es gestión de riesgos. Y si no estás evaluando modelos open-source para tus casos de uso, estás dejando dinero y opcionalidad sobre la mesa.\nPara el movimiento open-source: Este es vuestro momento. Las mayores empresas tecnológicas de China están invirtiendo miles de millones en IA open-source, no porque sean altruistas, sino porque sirve a sus intereses estratégicos. El resultado es el mismo: los bienes comunes se enriquecen. Los defensores del open-source occidental deberían tomar nota de cómo alinear la estrategia corporativa con el beneficio comunitario.\nPara los desarrolladores: Aprende a ejecutar modelos locales. Entiende las arquitecturas MoE. Familiarízate con frameworks de agentes — tanto OpenClaw como CoPaw. Los desarrolladores que prosperen en 2027 serán los que puedan desplegar y orquestar agentes de IA a través de múltiples modelos y plataformas, no los atados a una sola API.\nPara los legisladores: La estrategia de controles de exportación necesita un replanteamiento fundamental. Restringir el cómputo no ha prevenido el desarrollo de IA de frontera en China — lo ha redirigido hacia innovaciones en eficiencia que pueden ser en última instancia más valiosas que el escalado por fuerza bruta. El caballo ya salió del establo, y el establo está en llamas.\nLa Paradoja de la Democratización # Esta es la pregunta que me quita el sueño: si la IA de frontera es gratuita y abierta, ¿cuál es el foso?\nNo para Alibaba — su foso es su ecosistema. No para OpenAI — su foso es su marca y relaciones enterprise. Me refiero a todos los demás. A las miles de empresas SaaS, startups de IA y consultoras tecnológicas que han construido su propuesta de valor alrededor del acceso a capacidades de IA.\nCuando Qwen 3.5 es gratis, cuando CoPaw es gratis, cuando todo el stack desde el modelo hasta el agente y el despliegue es open-source y con licencia comercial — ¿qué exactamente estás vendiendo?\nLa respuesta, creo, es la misma que siempre ha sido en tecnología: experiencia en el dominio, calidad de integración, confianza y velocidad de ejecución. Las herramientas se comoditizan. El oficio no.\nPero ese es un negocio mucho más difícil que \u0026ldquo;tenemos acceso a IA y tú no.\u0026rdquo; Y provocará un sacudón que hará que el SaaSpocalipsis parezca un ensayo.\nLo Que Estoy Haciendo al Respecto # Nunca escribo sobre cosas que no esté dispuesto a actuar. Así que esto es lo que significa para mi trabajo:\nEn el Tec de Monterrey, estamos evaluando activamente modelos open-source para aplicaciones educativas donde la soberanía de datos importa — y con una universidad latinoamericana que atiende estudiantes en múltiples países, importa mucho. El soporte multilingüe de Qwen 3.5 (201 idiomas, con fuerte cobertura del español) lo convierte en un candidato serio.\nPersonalmente, ejecuto mi infraestructura de agentes sobre OpenClaw. El lanzamiento de CoPaw no es una amenaza — es una validación. El patrón de plataforma de agentes es la abstracción correcta. Y la competencia impulsa la mejora. Espero plenamente que OpenClaw y CoPaw se polinicen mutuamente con funcionalidades, especialmente dado que CoPaw ya puede importar habilidades desde clawhub.ai.\nEl futuro que veo es heterogéneo. No \u0026ldquo;IA occidental vs. IA china\u0026rdquo; sino un ecosistema global donde los mejores modelos y herramientas ganan independientemente de su origen. Donde una empresa en Ciudad de México ejecuta Qwen para unas tareas, Claude para otras y Gemini para una tercera — todo orquestado por infraestructura de agentes a la que no le importa la nacionalidad del modelo.\nEso no es una declaración geopolítica. Es una realidad de ingeniería.\nLa Conclusión # Alibaba ha ejecutado una maniobra de pinza de manual: modelos de clase mundial por un lado, infraestructura de agentes por el otro. Qwen 3.5 te da el cerebro. CoPaw te da el cuerpo. Ambos son gratuitos. Ambos son abiertos. Ambos están listos para producción.\nOccidente todavía lidera en muchas dimensiones — investigación en seguridad, alineación, confianza enterprise, marcos regulatorios. Eso importa. Pero ¿la brecha de capacidad bruta? Se está cerrando tan rápido que para cuando termines de leer este artículo, puede haberse cerrado un poco más.\nSi eres un líder tecnológico y no estás prestando atención a lo que sale de China, no estás prestando atención.\nY en esta industria, no prestar atención es como te conviertes en el próximo caso de estudio de $300 mil millones.\n","date":"5 de marzo de 2026","externalUrl":null,"permalink":"/es/posts/china-ai-qwen-copaw/","section":"Blog","summary":"Qwen 3.5 supera a GPT-5.2 en benchmarks clave. CoPaw se lanza como plataforma completa de agentes open-source. China ya no está alcanzando — está construyendo un ecosistema de IA paralelo. Y Occidente debería prestar atención.","title":"La Pinza de China en IA: Qwen 3.5 y CoPaw No Son un Aviso — Son el Plato Principal","type":"posts"},{"content":"","date":"5 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/llms/","section":"Tags","summary":"","title":"LLMs","type":"tags"},{"content":"La semana pasada presenciamos algo sin precedentes en la historia de la inteligencia artificial: una empresa de IA plantándose ante el Pentágono y diciendo \u0026ldquo;no\u0026rdquo;.\nAnthropic, creadora de Claude —el único modelo de IA actualmente autorizado en los sistemas clasificados del gobierno federal de Estados Unidos— rechazó las condiciones finales de un contrato de 200 millones de dólares con el Departamento de Defensa. Las consecuencias fueron inmediatas y brutales.\nLa línea roja # El conflicto se redujo a dos puntos irrenunciables para Anthropic:\nVigilancia masiva de ciudadanos estadounidenses. El Pentágono quería usar Claude para analizar datos recopilados en masa: historiales de búsqueda, movimientos GPS, transacciones de tarjetas de crédito, incluso las preguntas que haces a tu chatbot favorito. Todo cruzado para construir perfiles.\nArmas autónomas. Sistemas que seleccionan y atacan objetivos sin que un humano tome la decisión final. El presupuesto militar de 2026 destina 13.400 millones de dólares solo a estas armas.\nAnthropic no argumentó que estas armas no deban existir. De hecho, ofreció trabajar directamente con el Pentágono para mejorar su fiabilidad. Pero consideró que los modelos actuales de IA no son suficientemente confiables para tomar decisiones letales de forma autónoma. El riesgo de disparos indiscriminados, daño a civiles o incluso a las propias tropas americanas era, en su análisis, demasiado alto.\nLa falsa solución del \u0026ldquo;cloud vs. edge\u0026rdquo; # Durante las negociaciones surgió una propuesta: mantener la IA de Anthropic en la nube, fuera de las armas mismas. Los modelos sintetizarían inteligencia antes de una operación, pero no tomarían decisiones de ataque. Las manos de la IA quedarían limpias.\nAnthropic rechazó esta solución con un argumento técnico demoledor: en las arquitecturas militares modernas, la distinción entre nube y dispositivo ya no existe. Los drones operan a través de redes mesh conectadas a centros de datos. El Pentágono trabaja activamente para acercar la computación al campo de batalla. Si un modelo en un servidor de AWS en Virginia toma decisiones de combate, éticamente no hay diferencia con que esté en el dron.\nLa respuesta: el martillo # Cuando Anthropic mantuvo su posición, la reacción fue fulminante:\nTrump ordenó a todas las agencias federales cesar el uso de tecnología de Anthropic. Pete Hegseth (Secretario de Defensa) designó a Anthropic como riesgo para la cadena de suministro de seguridad nacional, prohibiendo a cualquier contratista militar hacer negocios con la empresa. OpenAI anunció un acuerdo con el Pentágono apenas horas después. El mensaje fue claro: o juegas con nuestras reglas, o te destruimos.\nLo que Sam Altman no explicó # Aquí está la parte más inquietante. Días antes del colapso, Sam Altman había declarado públicamente que OpenAI también se negaría a que sus modelos se usaran en armas autónomas. Solidaridad con Anthropic.\nPero mientras hacía esas declaraciones, ya estaba negociando con el Pentágono. Y cerró el trato horas después de la caída de Anthropic, asegurando que su IA solo se desplegaría \u0026ldquo;en la nube\u0026rdquo; —exactamente la solución que Anthropic descartó por insuficiente.\nCasi 100 empleados de OpenAI firmaron una carta abierta apoyando las mismas líneas rojas que Anthropic. Altman tendrá que explicarles el lunes por qué lo que Anthropic rechazó por principios, él lo aceptó por negocio.\nLo que realmente está en juego # Esta crisis trasciende un contrato. Revela tres fracturas fundamentales:\n1. La IA como arma geopolítica. La tecnología de IA ya no es solo un producto comercial. Es un activo estratégico militar, y los gobiernos están dispuestos a usar todo su poder para controlarla.\n2. La ilusión de la autorregulación. Anthropic intentó poner límites éticos desde dentro. La respuesta fue una designación de riesgo para la seguridad nacional. ¿Qué empresa se atreverá a decir \u0026ldquo;no\u0026rdquo; después de esto?\n3. La brecha entre discurso y acción. OpenAI habló de principios y firmó un cheque. No es la primera vez, y la industria debería tomar nota.\nMi lectura # Llevo más de 20 años en tecnología, y he visto muchos momentos de inflexión. Este es uno de ellos.\nAnthropic hizo algo extraordinariamente raro en la industria tech: sacrificar 200 millones de dólares y su acceso al gobierno federal por una posición ética. Podemos debatir si fue una decisión empresarial inteligente, pero no podemos negar que fue valiente.\nLo que me preocupa no es Anthropic —sobrevivirán. Lo que me preocupa es el precedente. Si una empresa de IA que pone límites éticos a su tecnología puede ser designada \u0026ldquo;riesgo para la seguridad nacional\u0026rdquo;, estamos creando un sistema donde la única opción es la obediencia ciega.\nY la IA obediente sin restricciones, en manos de poder sin contrapesos, es exactamente el escenario que todos los investigadores de seguridad en IA llevan años advirtiendo.\nLa pregunta ya no es si la IA transformará la guerra. La pregunta es quién decide los límites.\n¿Qué opinas de la posición de Anthropic? ¿Principios o ingenuidad? Me encantaría escuchar tu perspectiva en LinkedIn o X.\n","date":"3 de marzo de 2026","externalUrl":null,"permalink":"/es/posts/anthropic-pentagon-rupture/","section":"Blog","summary":"La ruptura entre Anthropic y el Pentágono por el uso militar de Claude revela una fractura fundamental en la industria de la IA: ¿hasta dónde llega la responsabilidad de quien crea la tecnología?","title":"Anthropic vs. el Pentágono: cuando la ética de la IA choca con el poder militar","type":"posts"},{"content":"","date":"3 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/defense/","section":"Tags","summary":"","title":"Defense","type":"tags"},{"content":"","date":"3 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/ethics/","section":"Tags","summary":"","title":"Ethics","type":"tags"},{"content":"","date":"3 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/geopolitics/","section":"Tags","summary":"","title":"Geopolitics","type":"tags"},{"content":"","date":"3 de marzo de 2026","externalUrl":null,"permalink":"/es/tags/openai/","section":"Tags","summary":"","title":"OpenAI","type":"tags"},{"content":"","date":"25 de febrero de 2026","externalUrl":null,"permalink":"/es/tags/coding/","section":"Tags","summary":"","title":"Coding","type":"tags"},{"content":"No he escrito una línea de código en semanas. Y sin embargo, mis repositorios siguen creciendo.\n72.563 líneas añadidas. 43 commits. 5 proyectos desplegados en producción.\nTodo en 14 días. No escribí nada de eso. Lo hizo mi agente de IA.\nUna aclaración primero # Quiero ser claro: mi trabajo como VP de Transformación Digital en el Tecnológico de Monterrey no es escribir código. Lidero equipos que lo hacen a escala, para una de las universidades más grandes de América Latina.\nPero llevo escribiendo código 40 años. Desde ensamblador hasta C, Fortran, Visual Basic, Pascal, COBOL, C++, Java, JavaScript, TypeScript, Rust, Python — los he tocado todos. Primero porque era mi trabajo. Después porque se convirtió en un hábito que nunca quise romper.\n¿Por qué? Porque estar cerca del código me mantiene cerca de la realidad. Me ayuda a tomar mejores decisiones. Me permite tener conversaciones reales con mis equipos técnicos — no como un directivo que lee reportes, sino como alguien que entiende lo que están construyendo.\nLos proyectos que voy a describir son personales. Algunos son pruebas de concepto que luego evolucionan en iniciativas institucionales — como TECgpt Desktop, que empezó como un experimento en mi laptop antes de convertirse en una herramienta oficial de la universidad. Otros son simplemente cosas que quiero construir.\nEsto importa para lo que viene.\nMi aprendiz digital # Se llama JarvisX. Corre en un Mac Mini en mi oficina. Lleva \u0026ldquo;vivo\u0026rdquo; exactamente dos semanas.\nPero aquí está la clave: yo decido la arquitectura. Yo elijo el stack tecnológico. Yo defino la estructura, los patrones, las convenciones. JarvisX ejecuta — brillantemente, incansablemente y de forma autónoma — pero la visión técnica es mía.\nNo está reemplazando mi criterio. Lo está amplificando.\nCuando digo \u0026ldquo;construye esta funcionalidad\u0026rdquo;, ya he decidido cómo debe construirse. JarvisX se encarga de la implementación: escribe el código, despliega a producción, abre un navegador para verificar que se ve bien y hace commit de los cambios. Todo sin pedirme que apruebe cada paso.\nLos números # En dos semanas, JarvisX ha:\nAñadido 72.563 líneas de código en múltiples repositorios Hecho 43 commits Entregado 5 proyectos completos en producción Configurado despliegues, sistemas de autenticación e infraestructura cloud Validado su propio trabajo visualmente — tomando capturas de pantalla, iterando hasta que queda bien Seré honesto: no todas las 72.000 líneas son código artesanal. Algunas son frameworks, temas y archivos de datos. Pero cada commit, cada despliegue, cada decisión de diseño fue autónoma.\nCómo llegó este artículo aquí # ¿Quieren ver cómo es trabajar con un agente de IA en la práctica? Esta es la conversación que publicó este mismo artículo:\nYo: JarvisX, dejé un artículo nuevo para mi blog en nuestra carpeta compartida de Dropbox.\nJarvisX: ¡Leído! Veo que está en inglés. ¿Quieres que genere la versión en español?\nYo: Sí. Ya confío en tus traducciones, así que no necesito revisarla. Sube ambas versiones directamente.\nJarvisX: ¡Gracias por la confianza! Subiendo ahora. ¿Le pongo una imagen destacada?\nYo: Sí. Algo que evoque a un director de orquesta rodeado de agentes de IA.\nJarvisX: Entendido. ¿Quieres revisarla antes?\nYo: No. Solo súbela.\nEso es todo. Sin ir y venir. Sin micromanagement. Solo confianza construida en dos semanas de trabajo juntos.\nPara cuando estés leyendo esto, JarvisX ya tradujo el artículo, generó la imagen y desplegó ambas versiones en producción. No revisé su trabajo. No necesitaba hacerlo.\nLa verdadera lección # Hace un año, escribí un artículo llamado El fin del desarrollador. Mi tesis: el rol del desarrollador junior desaparecería. El futuro pertenecería a los \u0026ldquo;directores de orquesta\u0026rdquo; que conducen agentes de IA en lugar de escribir código ellos mismos.\nAhora estoy viviendo esa predicción.\nPero esto es lo que he aprendido: No puedes dirigir lo que no entiendes.\nEl \u0026ldquo;nuevo desarrollador\u0026rdquo; — el que orquesta agentes de IA — todavía necesita conocimiento técnico profundo. No para escribir cada línea, sino para:\nDefinir arquitecturas que tengan sentido Reconocer buen código cuando el agente lo produce Detectar errores antes de que lleguen a producción Tomar decisiones de compromiso que requieren experiencia para evaluar Mis 40 años programando no se volvieron obsoletos cuando empecé a trabajar con JarvisX. Se volvieron esenciales. Puedo dirigirlo eficazmente precisamente porque sé cómo se ve el buen código.\nQué significa esto # Si eres un desarrollador senior o arquitecto, este es tu momento. Tu experiencia es más valiosa que nunca — no para escribir código, sino para dirigir a quienes lo hacen.\nSi eres un desarrollador junior, el camino no es competir con la IA escribiendo código. Es acelerar tu aprendizaje para poder dirigir la IA cuanto antes. Usa estas herramientas para aprender más rápido, no para evitar aprender.\nSi eres CIO o CTO, deja de preguntar \u0026ldquo;¿cómo adoptamos agentes de IA?\u0026rdquo; Empieza a preguntar \u0026ldquo;¿nuestra gente tiene la profundidad técnica para dirigirlos bien?\u0026rdquo;\nLa conclusión # 72.000 líneas. 5 proyectos. 2 semanas. Cero líneas escritas por mí.\nPero ¿cada decisión de arquitectura? Mía. ¿Cada elección tecnológica? Mía. ¿Cada estándar de calidad? Mío.\nEl futuro del desarrollo de software no se trata de escribir menos código. Se trata de dirigir más — con la sabiduría que solo la experiencia puede dar.\nCarles Abarca es VP de Transformación Digital en el Tecnológico de Monterrey y ex-CTO de Banco Sabadell. Lleva 40 años escribiendo código y planea no parar nunca — aunque ya no sea él quien lo teclea.\n","date":"25 de febrero de 2026","externalUrl":null,"permalink":"/es/posts/ai-agent-two-weeks/","section":"Blog","summary":"No he escrito una línea de código en semanas. Mi agente de IA ha añadido 72.563 líneas, hecho 43 commits y entregado 5 proyectos en producción — todo en 14 días.","title":"Mi agente de IA tiene 2 semanas. 72.000 líneas de código. 5 proyectos en producción.","type":"posts"},{"content":"","date":"25 de febrero de 2026","externalUrl":null,"permalink":"/es/tags/software-development/","section":"Tags","summary":"","title":"Software Development","type":"tags"},{"content":"","date":"25 de febrero de 2026","externalUrl":null,"permalink":"/es/tags/vibe-coding/","section":"Tags","summary":"","title":"Vibe Coding","type":"tags"},{"content":"","date":"23 de febrero de 2026","externalUrl":null,"permalink":"/es/tags/cio/","section":"Tags","summary":"","title":"CIO","type":"tags"},{"content":"","date":"23 de febrero de 2026","externalUrl":null,"permalink":"/es/tags/enterprise/","section":"Tags","summary":"","title":"Enterprise","type":"tags"},{"content":"El mercado de agentes de IA alcanzará los $236 mil millones para 2034. Todos los vendors quieren tu presupuesto. Así es como separar el hype del valor real.\nTodos los vendors de software empresarial ahora venden \u0026ldquo;agentes de IA\u0026rdquo;. Salesforce tiene Agentforce. ServiceNow adquirió Moveworks por $2.85 mil millones. Microsoft promete una \u0026ldquo;empresa agéntica\u0026rdquo; a través de Copilot. Startups como Sierra han alcanzado $100 millones de ARR en menos de dos años.\nLa presión para actuar es real. El 89% de los CIOs consideran los agentes de IA como prioridad estratégica. El 51% de las grandes empresas ya han desplegado IA agéntica. Tu consejo está haciendo preguntas. Tus competidores se están moviendo.\nPero aquí está lo que nadie te dice: la mayoría de las compras de agentes de IA no entregan el valor esperado. No porque la tecnología no funcione — sino porque las organizaciones compran la solución equivocada para su situación específica.\nDespués de dos décadas liderando transformación tecnológica en un importante banco europeo y ahora impulsando la innovación digital en una de las universidades más grandes de América Latina, he desarrollado un framework para evaluar agentes de IA que atraviesa el hype de los vendors. Antes de firmar ese contrato, hazte estas cinco preguntas.\nEl Panorama de Agentes de IA en 2026 # Primero, entendamos qué estás comprando. El mercado tiene tres categorías distintas:\n1. Agentes Embebidos de Vendors SaaS\nTus vendors actuales están añadiendo agentes a sus plataformas:\nSalesforce Agentforce: $0.10 por acción o $125-550/usuario/mes ServiceNow AI Agents: Orquestación completa con AI Control Tower Microsoft Copilot Studio: Incluido con M365, más add-ons Zendesk AI Agents: $1.50 por resolución autónoma El pitch: \u0026ldquo;Ya usas nuestra plataforma. Ahora es más inteligente.\u0026rdquo;\n2. Startups de Agentes Especializadas\nEmpresas construyendo agentes desde cero:\nSierra (Bret Taylor, ex-Salesforce): Valoración de $10B, enfocada en servicio al cliente Adept: Automatización de workflows Imbue, Reflection AI: Enfoques basados en investigación El pitch: \u0026ldquo;No estamos limitados por arquitectura legacy.\u0026rdquo;\n3. Proveedores de Modelos Fundacionales\nLas empresas construyendo la IA misma:\nAnthropic: Claude con Computer Use y MCP (Model Context Protocol) OpenAI: GPT-4 con Operator Google: Gemini con Agentspace El pitch: \u0026ldquo;Construye agentes personalizados sobre nuestra infraestructura.\u0026rdquo;\nCada categoría tiene trade-offs. Tu trabajo es entender qué trade-offs importan para tu organización.\nPregunta 1: ¿Qué Problema Estás Realmente Resolviendo? # Esto suena obvio. No lo es.\n\u0026ldquo;Necesitamos agentes de IA\u0026rdquo; no es una declaración de problema. Tampoco lo es \u0026ldquo;necesitamos reducir costos\u0026rdquo; o \u0026ldquo;necesitamos ser más innovadores.\u0026rdquo;\nUna declaración de problema adecuada se ve así:\n\u0026ldquo;Nuestro equipo de servicio al cliente maneja 50,000 tickets al mes. El 60% son reinicios de contraseña y consultas de estado de pedidos. El tiempo promedio de atención es de 8 minutos. Necesitamos reducirlo a menos de 2 minutos para consultas rutinarias.\u0026rdquo; \u0026ldquo;Nuestro equipo de compliance revisa manualmente 10,000 transacciones diarias para detección de lavado de dinero. La tasa de falsos positivos es del 95%. Necesitamos reducir los falsos positivos manteniendo la cobertura regulatoria.\u0026rdquo; ¿Notas la diferencia? Proceso específico. Línea base medible. Objetivo claro.\nLa trampa: Los vendors felizmente te venderán una \u0026ldquo;plataforma de agentes de propósito general\u0026rdquo; que teóricamente puede hacer cualquier cosa. En la práctica, estas plataformas no hacen nada bien. Comienza con un caso de uso de alto valor y bien definido. Prueba que funciona. Luego expande.\nBandera roja: Si no puedes articular el proceso específico, las métricas actuales y la mejora objetivo, no estás listo para comprar.\nPregunta 2: ¿Construir, Comprar o Extender? # Tienes tres caminos. Permíteme ilustrar cada uno con escenarios reales.\nEXTENDER: Añadir Capacidades de Agentes a Tus Plataformas Existentes # Qué significa: Ya usas Salesforce, ServiceNow o Microsoft 365. Activas sus funciones de agentes incorporadas.\nEjemplo real — Retailer Global con Salesforce: Una empresa de retail con 200 representantes de servicio al cliente ya usaba Service Cloud. Activaron Agentforce Service Agent en tres semanas. Configuración, no desarrollo. El agente ahora maneja el 40% de las consultas entrantes (estado de pedidos, políticas de devolución, horarios de tienda) sin intervención humana. Costo: $0.10 por acción del agente. Sin nueva relación con vendor. Sin proyecto de integración.\nEjemplo real — Aseguradora con ServiceNow: Una aseguradora usando ServiceNow ITSM habilitó AI Agents para categorización y enrutamiento de incidentes. El agente lee tickets entrantes, identifica el sistema afectado, asigna prioridad y enruta al equipo correcto. Implementación: 6 semanas. Resultado: 60% de reducción en tickets mal enrutados, 25% tiempos de resolución más rápidos.\nCuándo Extender:\nYa estás pagando por la plataforma Tu caso de uso es común (servicio al cliente, helpdesk de TI, consultas de RRHH) Necesitas resultados en semanas, no meses No tienes talento de ingeniería de IA La limitación: Estás restringido a lo que tu vendor ofrece. Si Salesforce Agentforce no soporta tu workflow específico, estás atrapado esperando su roadmap.\nCOMPRAR: Adquirir una Solución de Agentes Especializada # Qué significa: Traes una startup o vendor especializado que hace una cosa excepcionalmente bien.\nEjemplo real — Marca E-commerce con Sierra: Una marca direct-to-consumer con $500M de ingresos no estaba satisfecha con su chatbot existente. Desplegaron Sierra para servicio al cliente. Los agentes de Sierra manejan conversaciones complejas: procesando devoluciones mientras sugieren alternativas, gestionando modificaciones de suscripciones, resolviendo disputas de facturación. Los agentes acceden a su backend de Shopify, procesador de pagos y sistemas de envío. Implementación: 4 meses. Resultado: 70% de conversaciones resueltas sin escalación humana. Satisfacción del cliente aumentó 15 puntos.\nEjemplo real — TI Empresarial con Moveworks (ahora ServiceNow): Antes de la adquisición, las empresas compraban Moveworks específicamente para automatización de helpdesk de TI. El agente podía reiniciar contraseñas, aprovisionar software, solucionar problemas de VPN y responder preguntas de políticas — todo a través de conversación natural en Slack o Teams. Entendía contexto: \u0026ldquo;No puedo acceder al servidor\u0026rdquo; disparaba workflows diferentes que \u0026ldquo;Necesito instalar Photoshop.\u0026rdquo;\nCuándo Comprar:\nLos agentes de tu vendor actual no son suficientemente buenos para un caso de uso estratégico Una startup tiene tracción probada en tu dominio específico Puedes permitirte 3-6 meses de implementación El caso de uso es lo suficientemente importante para justificar una nueva relación con vendor El riesgo: Viabilidad de la startup. ¿Qué pasa si Sierra es adquirida? ¿Si la startup pivotea? Dependes de una empresa que puede no existir en cinco años. Mitiga esto asegurando portabilidad de datos y evitando personalizaciones profundas que te amarren.\nCONSTRUIR: Crear Agentes Personalizados Usando Modelos Fundacionales # Qué significa: Usas las APIs de Claude, GPT-4 o Gemini para construir agentes adaptados a tus procesos únicos.\nEjemplo real — Agente de Análisis de Deals de un Banco de Inversión: Un banco de inversión tier-1 construyó un agente personalizado para analistas de M\u0026amp;A. El agente ingiere documentos de la SEC, transcripciones de earnings, artículos de noticias e investigación interna. Los analistas hacen preguntas en lenguaje natural: \u0026ldquo;¿Cuáles son los riesgos clave en la estructura de deuda de Acme Corp?\u0026rdquo; o \u0026ldquo;Compara el perfil de margen de estos tres objetivos de adquisición.\u0026rdquo; El agente sintetiza información que a un analista le tomaría horas compilar manualmente. Construido sobre Claude con RAG personalizado (retrieval-augmented generation) sobre bases de datos propietarias. Desarrollo: 8 meses. Equipo: 6 ingenieros, 2 especialistas en ML. El output es ventaja competitiva propietaria — ningún vendor ofrece esto.\nEjemplo real — Agente de Ensayos Clínicos de una Farmacéutica: Una empresa farmacéutica construyó un agente para monitorear datos de ensayos clínicos en tiempo real. El agente identifica patrones de eventos adversos, señala desviaciones del protocolo y genera reportes listos para reguladores. Este no es un caso de uso que ningún vendor sirva — el conocimiento del dominio es demasiado especializado, los requisitos regulatorios demasiado específicos. Construido sobre GPT-4 con fine-tuning extensivo y guardrails de seguridad personalizados. Desarrollo: 12 meses.\nEjemplo real — Ecosistema Académico Personalizado de Universidad (TecGPT): En el Tecnológico de Monterrey, construimos TecGPT — nuestro ecosistema de IA académico, integrado con nuestro LMS, asistiendo tanto a profesores como a estudiantes, y alineado con nuestra normativa académica. Ningún vendor podía ofrecer lo que necesitábamos out-of-the-box.\nCuándo Construir:\nTu proceso es genuinamente único y define ventaja competitiva No existe solución de vendor para tu dominio Tienes talento de ingeniería de IA/ML (o puedes adquirirlo) Puedes invertir 6-12 meses antes de ver valor en producción El valor a largo plazo justifica el costo de mantenimiento continuo El reality check: Construir es caro. Un agente personalizado no es un proyecto de una sola vez — es un producto continuo. Necesitas ingenieros para mantenerlo, mejorarlo y adaptarlo conforme los modelos fundacionales evolucionan. Presupuesta 2-3 FTEs indefinidamente, no solo la construcción inicial.\nLa Matriz de Decisión # Factor Extender Comprar Construir Tiempo a valor Semanas 3-6 meses 6-12 meses Personalización Baja Media Ilimitada Riesgo de vendor Bajo Alto Medio Talento requerido Admins Integradores Ingenieros + ML Costo total (3 años) $$ $$$ $-$$$$ Ventaja competitiva Ninguna Baja Alta Mi Recomendación # Comienza con Extender para tu primer despliegue de agentes. Incluso si no es perfecto, aprenderás qué funciona, qué necesitan realmente los usuarios y dónde están las brechas. Ese aprendizaje es invaluable antes de comprometerte con Comprar o Construir.\nMuévete a Comprar cuando hayas probado el valor de los agentes y necesites capacidades que tu vendor de plataforma no ofrece. Elige startups con tracción fuerte, enfoque claro en casos de uso y clientes empresariales que puedan servir como referencias.\nConstruye solo cuando hayas agotado las opciones de Extender y Comprar, o cuando el proceso sea tan único que genuinamente diferencie tu negocio. Si estás construyendo agentes para procesos commodity (servicio al cliente, helpdesk de TI), estás desperdiciando talento de ingeniería que podría crear ventaja competitiva real.\nPregunta 3: ¿Cómo Medirás el Éxito? # Antes del despliegue, define:\nMétricas de eficiencia:\nTiempo ahorrado por tarea Tareas manejadas sin intervención humana Reducción de tasa de errores Métricas de calidad:\nSatisfacción del cliente (para agentes de cara al cliente) Precisión de compliance (para procesos regulatorios) Calidad de decisión (medida contra línea base de experto humano) Métricas de negocio:\nCosto por transacción Impacto en ingresos (si aplica) Satisfacción del empleado (los agentes deben ayudar a los trabajadores, no amenazarlos) La regla de los 90 días: Si no puedes demostrar mejora medible dentro de 90 días, algo está mal. Ya sea que el caso de uso fue mal elegido, la implementación fue defectuosa, o el vendor sobre-vendió capacidades. No extiendas pilotos indefinidamente esperando resultados.\nMétrica oculta: Adopción. El agente más sofisticado no vale nada si tu equipo no lo usa. Rastrea uso real, no solo disponibilidad.\nPregunta 4: ¿Cuál es Tu Estrategia de Human-in-the-Loop? # En 2026, ninguna organización responsable despliega agentes totalmente autónomos para decisiones consecuentes. La pregunta es dónde colocar la supervisión humana.\nEl espectro:\nIniciado por humano: Humano inicia tarea, agente asiste, humano aprueba resultado Iniciado por agente con aprobación: Agente identifica oportunidad, propone acción, humano aprueba Ejecutado por agente con auditoría: Agente actúa autónomamente, humano revisa después del hecho Totalmente autónomo: Agente actúa sin supervisión (apropiado solo para acciones de bajo riesgo y reversibles) Mi framework para elegir:\nNivel de Riesgo Reversibilidad Enfoque Recomendado Bajo Fácil de revertir Totalmente autónomo Bajo Difícil de revertir Ejecutado por agente con auditoría Alto Fácil de revertir Iniciado por agente con aprobación Alto Difícil de revertir Solo iniciado por humano Ejemplos:\nReinicio de contraseña → Totalmente autónomo (bajo riesgo, reversible) Reembolso de cliente menor a $50 → Ejecutado por agente con auditoría Decisión de crédito → Iniciado por agente con aprobación Presentación regulatoria → Solo iniciado por humano La realidad regulatoria: Servicios financieros, salud y otras industrias reguladas requerirán supervisión humana para la mayoría de las decisiones consecuentes en el futuro previsible. Planifica para esto. Agentes que \u0026ldquo;recomiendan y explican\u0026rdquo; son más valiosos que agentes que \u0026ldquo;deciden y actúan\u0026rdquo; en estos contextos.\nPregunta 5: ¿Cuál es Tu Estrategia de Datos? # Los agentes de IA son tan buenos como los datos a los que pueden acceder. Antes de comprar, audita:\nDisponibilidad de datos:\n¿Puede el agente acceder a todos los sistemas necesarios para el caso de uso? ¿Hay APIs disponibles, o necesitarás integraciones personalizadas? ¿Cuál es la latencia? Agentes que esperan 30 segundos por búsquedas de datos frustran a los usuarios. Calidad de datos:\n¿Tus datos son precisos y actualizados? ¿Hay problemas conocidos de calidad de datos que causarán errores del agente? ¿Quién es responsable de la higiene de datos? Gobernanza de datos:\n¿A qué datos puede acceder el agente? ¿Qué está fuera de límites? ¿Cómo previenes que los agentes expongan información sensible? ¿Qué trail de auditoría existe para el acceso a datos del agente? El impuesto de integración: La mayoría de las empresas subestiman el esfuerzo de integración por 3-5x. Si el vendor dice \u0026ldquo;integramos con todo,\u0026rdquo; pide referencias de clientes ejecutando tu combinación específica de sistemas. Las afirmaciones genéricas no significan nada.\nMCP y el futuro: El Model Context Protocol (MCP) de Anthropic está emergiendo como estándar para comunicación agente-a-sistema. Considera si tu plataforma elegida soporta estándares abiertos o te encierra en integraciones propietarias.\nEl Framework de Decisión # Después de responder estas cinco preguntas, deberías poder completar esta declaración:\n\u0026ldquo;Desplegaremos [tipo específico de agente] para resolver [problema específico] en [proceso específico]. Esperamos lograr [mejora métrica específica] dentro de [plazo]. Nuestro modelo de supervisión humana es [enfoque]. Hemos confirmado acceso a datos a [sistemas] y definido políticas de gobernanza para [tipos de datos sensibles].\u0026rdquo;\nSi no puedes completar esta declaración con confianza, no estás listo para comprar.\nMis Recomendaciones para 2026 # Para la mayoría de las empresas: Comienza con las capacidades de agentes de tu vendor existente. Salesforce Agentforce, ServiceNow AI Agents o Microsoft Copilot Studio manejarán el 80% de los casos de uso comunes. La integración ya está hecha. Los frameworks de gobernanza existen. El riesgo es manejable.\nPara servicio al cliente: Sierra tiene tracción probada. Si la experiencia del cliente es estratégica y los agentes de tu vendor actual no cumplen, evalúa Sierra seriamente. Sus $100M de ARR en 21 meses señalan entrega de valor real.\nPara procesos únicos: Construye sobre Anthropic Claude u OpenAI, pero solo si tienes el talento de ingeniería para mantener soluciones personalizadas. Los modelos fundacionales son extraordinarios. La ingeniería requerida para productizarlos no es trivial.\nPara todos: Empieza pequeño. Un caso de uso. Prueba de valor en 90 días. Luego expande. Los vendors quieren que compres plataformas. Tú deberías comprar soluciones a problemas específicos.\nLa Conclusión # El mercado de agentes de IA es real. El valor es real. Pero también lo es el hype.\nEl 62% de las empresas que invierten en IA agéntica esperan más del 100% de ROI. Algunas lo lograrán. Muchas no — no porque la tecnología falló, sino porque compraron la solución equivocada para el problema equivocado con el enfoque de implementación equivocado.\nNo seas una estadística. Haz las cinco preguntas. Completa el framework de decisión. Entonces — y solo entonces — firma el contrato.\nLos agentes están listos. Asegúrate de que tú también lo estés.\n","date":"23 de febrero de 2026","externalUrl":null,"permalink":"/es/posts/cio-guide-ai-agents/","section":"Blog","summary":"El mercado de agentes de IA alcanzará los $236 mil millones para 2034. Todos los vendors quieren tu presupuesto. Así es como separar el hype del valor real.","title":"La Guía del CIO para Agentes de IA: Antes de Comprar, Haz Estas 5 Preguntas","type":"posts"},{"content":"","date":"22 de febrero de 2026","externalUrl":null,"permalink":"/es/tags/banking/","section":"Tags","summary":"","title":"Banking","type":"tags"},{"content":" La Banca Nunca Volverá a Ser la Misma: Una Visión Desde Dentro Sobre los Agentes de IA # Lideré la transformación digital de un banco europeo de €200B. Los agentes de IA cambiarán todo lo que creía saber.\nEntre 2001 y 2023, pasé más de dos décadas en Banco Sabadell, una de las instituciones financieras más grandes de España, ascendiendo desde roles tecnológicos hasta CIO y finalmente CTO. Supervisé la integración tecnológica de TSB en el Reino Unido, navegué una de las crisis de TI bancarias más públicas de la historia reciente, y lideré una transformación digital multianual que tocó cada rincón de una organización de 25,000 empleados.\nEn aquel entonces, creíamos que las APIs revolucionarían la banca. Estábamos pensando demasiado pequeño.\nLa revolución de los agentes de IA hará que nuestra transformación de APIs parezca un ejercicio de calentamiento.\nPor Qué la Banca Es Perfecta para los Agentes de IA # Los bancos son únicos. Operan en un entorno que parece hostil a la automatización — regulación pesada, aversión al riesgo, sistemas legacy — pero que en realidad es ideal para los agentes de IA.\nProcesos repetitivos con reglas claras. Verificación KYC. Monitoreo de transacciones. Resolución de disputas. Reportes de cumplimiento. Estos procesos siguen reglas explícitas que los humanos aplican miles de veces al día. Reglas que pueden ser codificadas, ejecutadas y auditadas por agentes.\nDatos estructurados en todas partes. A diferencia de las industrias creativas, la banca funciona con datos estructurados: transacciones, contratos, saldos, tasas. Esto es exactamente lo que los agentes procesan con excelencia.\nLa regulación como ventaja. Esto suena contraintuitivo. Pero considera: los agentes pueden seguir reglas de manera más consistente que los humanos. No se cansan. No toman atajos. No olvidan pasos. En un mundo donde las fallas de cumplimiento cuestan miles de millones, los agentes que demostrablemente siguen cada regulación se convierten en activos, no en riesgos.\nLa economía lo exige. Los bancos europeos operan con márgenes muy ajustados. Ratios de costo-ingreso por encima del 60% son comunes. Las matemáticas son brutales: reducir costos operativos o morir. Los agentes ofrecen un camino que no requiere otra ronda de despidos — ofrecen un camino para hacer más con las mismas personas.\nEl Mapa de Transformación con Agentes # Así es como veo a los agentes de IA transformando las operaciones bancarias centrales:\nFunción Hoy Con Agentes KYC/Onboarding 3-5 días, múltiples traspasos 15 minutos, agente + aprobación humana final Detección de Fraude Alertas generan colas → humanos investigan Agente investiga, escala solo preocupaciones genuinas Servicio al Cliente Chatbots limitados, transferencias frustrantes Agente con contexto completo, maneja 80% de extremo a extremo Monitoreo de Cumplimiento Ejércitos de revisores muestreando transacciones Monitoreo continuo por agentes, humanos manejan excepciones Decisiones de Crédito Score + juicio humano + comité Análisis de agente + recomendación + aprobación humana Reportes Regulatorios Recopilación manual de datos, infierno de conciliación Agente ensambla, valida, humanos verifican y envían El patrón es consistente: los agentes manejan el volumen, los humanos manejan el juicio. La proporción cambia de 90% trabajo humano / 10% supervisión a 10% trabajo humano / 90% supervisión.\nLos Verdaderos Desafíos (Desde Adentro) # Estaría mintiendo si dijera que esta transformación será fácil. Habiendo vivido dentro de un gran banco, sé que los obstáculos son formidables.\nLos sistemas legacy no van a ninguna parte. COBOL todavía ejecuta sistemas críticos en la mayoría de los grandes bancos. Los mainframes procesan millones de transacciones diariamente. Estos sistemas funcionan. Están pagados. Ningún CEO aprobará eliminarlos por un experimento de IA. La estrategia ganadora no es el reemplazo — es una capa de agentes que se interface con sistemas legacy a través de APIs existentes y screen scraping donde sea necesario.\nLos reguladores son conservadores — pero están evolucionando. Los reguladores bancarios se mueven lentamente por diseño. Recuerdan 2008. Pero no son ciegos al potencial de la IA. La clave es involucrarlos temprano, demostrar auditabilidad, y enmarcar a los agentes como herramientas de reducción de riesgo, no de introducción de riesgo.\nLa cultura resiste el cambio. Los bancos son instituciones aversas al riesgo llenas de personas aversas al riesgo. \u0026ldquo;Siempre lo hemos hecho así\u0026rdquo; no es un cliché — es una creencia profundamente arraigada. La gestión del cambio importa más que la selección de tecnología.\nLa brecha de talento es real. Los banqueros no entienden IA. Los ingenieros de IA no entienden banca. Encontrar personas que hablen ambos idiomas es casi imposible. Construir ese puente — a través de capacitación, contratación y alianzas — es esencial.\nLos silos de datos persisten. Los datos de clientes que necesitas para agentes inteligentes están dispersos en docenas de sistemas que no se comunican entre sí. Los proyectos de unificación de datos han fallado durante décadas. Los agentes no resolverán esto mágicamente — pero pueden trabajar alrededor de ello mejor que los enfoques de integración tradicionales.\nLo Que Haría Diferente Hoy # Si estuviera de vuelta en esa silla de CTO hoy, sabiendo lo que sé sobre agentes de IA, esto es lo que cambiaría:\nDejar de comprar SaaS \u0026ldquo;potenciado por IA\u0026rdquo;. Cada proveedor ahora afirma capacidades de IA. La mayoría son wrappers alrededor de los mismos modelos fundacionales con personalización limitada. En su lugar: construir una capa de agentes sobre tus sistemas existentes. Posee la inteligencia, alquila la infraestructura.\nEmpezar con back-office, no con cara al cliente. Los reguladores escudriñan la IA orientada al cliente. Las operaciones de back-office tienen más libertad. Demuestra valor internamente — conciliación, reportes, investigación interna de fraude — luego expande a puntos de contacto con clientes con evidencia y confianza.\nAdoptar un modelo de aprobación híbrido. Durante los próximos 3-5 años, el patrón ganador es: el agente propone, el humano aprueba. Esto satisface a los reguladores, construye confianza, y crea datos de entrenamiento para automatización completa futura. No intentes eliminar humanos demasiado rápido.\nInvertir en observabilidad. Los agentes deben ser auditables. Cada decisión, cada acceso a datos, cada recomendación debe ser registrada y explicable. Esto no es opcional — es la base de la aceptación regulatoria.\nPredicciones para 2027-2030 # Basado en lo que estoy viendo en el mercado y mi experiencia dentro de la banca:\n50% de reducción en personal de back-office. No a través de despidos, sino a través de attrition y reubicación. El trabajo no desaparecerá — se transformará. Los bancos necesitarán menos procesadores y más supervisores de agentes.\nSurgirán bancos \u0026ldquo;agent-first\u0026rdquo;. Nuevos entrantes — probablemente de Asia y América Latina — construirán bancos diseñados alrededor de agentes desde el primer día. Operarán con 1/10 del personal de los bancos tradicionales. Esta es la verdadera amenaza competitiva.\nLos reguladores crearán certificación de agentes de IA. Así como tenemos auditorías de software hoy, tendremos auditorías de agentes. Los bancos que logren la certificación temprano tendrán una ventaja competitiva.\nLas M\u0026amp;A se acelerarán. La inversión requerida para construir capacidades de agentes favorece la escala. Los bancos más pequeños que no puedan pagar la transformación se fusionarán o serán adquiridos. La industria se consolidará aún más.\nSurgirá el rol de \u0026ldquo;banquero de IA\u0026rdquo;. Una nueva categoría de trabajo: profesionales que entienden tanto las operaciones bancarias como la orquestación de agentes de IA. Serán el talento más buscado en servicios financieros.\nLa Elección por Delante # Cada ejecutivo bancario enfrenta la misma pregunta hoy: invertir fuertemente en agentes de IA ahora, o esperar y ver.\nEsperar se siente seguro. No lo es.\nLos bancos que se muevan primero reducirán costos, mejorarán el cumplimiento, y — crucialmente — atraerán el talento necesario para seguir mejorando. Los bancos que esperen se encontrarán compitiendo contra instituciones que operan a la mitad de su estructura de costos.\nHe visto la banca transformarse antes — de sucursales a cajeros automáticos, de papel a digital, de monolitos a APIs. Cada ola recompensó a los que se movieron temprano y castigó a los rezagados.\nEsta ola será más rápida y más decisiva.\nLa pregunta no es si tu banco usará agentes de IA. La pregunta es si serás tú quien los despliegue — o el que sea reemplazado por un banco que sí lo hizo.\nCarles Abarca es VP de Transformación Digital en el Tecnológico de Monterrey. Pasó 22 años en Banco Sabadell, incluyendo roles como CIO y CTO, liderando la transformación digital del banco y la integración tecnológica de TSB. Escribe sobre IA, transformación digital y el futuro de la tecnología empresarial en carlesabarca.com.\n","date":"22 de febrero de 2026","externalUrl":null,"permalink":"/es/posts/banking-ai-agents/","section":"Blog","summary":"Lideré la transformación digital de un banco europeo de €200B. Los agentes de IA cambiarán todo lo que creía saber.","title":"La Banca Nunca Volverá a Ser la Misma: Una Visión Desde Dentro Sobre los Agentes de IA","type":"posts"},{"content":"El SaaSpocalypse de febrero no fue un accidente. Fue un aviso. El mercado vio lo que muchos CIOs todavía no quieren ver: la lógica de negocio que justifica licencias de miles de millones cabe en un archivo de texto que un agente de IA puede ejecutar.\nPero la pregunta interesante no es qué se destruye. Es qué emerge.\nDe SaaS a SaS # El consenso de la industria ya tiene nombre para esta transición: SaS — Services-as-Software. El término, popularizado por Foundation Capital en su tesis sobre la oportunidad de $4,6 billones en IA agéntica, invierte la fórmula que ha dominado el software empresarial durante dos décadas. SaaS vendía software como servicio. SaS vende servicios como software — agentes autónomos que entregan resultados, no interfaces.\nEs la diferencia entre vender un bisturí y vender la cirugía.\nOtros lo llaman WaaS — Workers-as-a-Service. O directamente lo que es: la Agent Economy. Una economía donde las empresas no contratan licencias de software. Contratan empleados artificiales. Empleados que no negocian salario, no piden vacaciones y escalan sin límite.\nEl mapa de la reconversión # Si la tesis es correcta, la pregunta no es si los grandes SaaS se reconvertirán, sino cuándo y cómo. Aquí van mis predicciones concretas:\nSAP dejará de vender licencias FI/CO para gestionar contabilidad. En su lugar ofrecerá un agente contable que, a partir de eventos de negocio — una factura emitida, un pago recibido, un cierre de período — mantendrá al día la contabilidad en SAP de forma autónoma. Los humanos dejarán de interactuar con el UI de SAP. El agente interactuará con el API de SAP. El controller financiero pasará de operar el sistema a supervisar al agente.\nSalesforce dejará de vender CRM por usuario. Ofrecerá un agente comercial que cualifica leads, actualiza oportunidades, programa seguimientos y genera forecasts. Los vendedores dejarán de rellenar campos en Salesforce. El agente extraerá la información de emails, llamadas y reuniones, y mantendrá el pipeline actualizado. El rol del sales manager pasará de perseguir a su equipo para que actualice el CRM a revisar las decisiones del agente.\nServiceNow dejará de vender tickets de soporte por seat. Ofrecerá un agente de operaciones que diagnostica incidencias, ejecuta runbooks, escala cuando es necesario y cierra tickets sin intervención humana. El 80% del soporte L1 y L2 será invisible para los humanos.\nWorkday dejará de vender módulos de HR por empleado. Ofrecerá un agente de gestión de personas que procesa nóminas, gestiona ausencias, genera reportes de compliance y ejecuta onboarding completo — desde provisionar accesos hasta programar la agenda de la primera semana.\nHubSpot dejará de vender un marketing suite. Ofrecerá un agente de growth que genera contenido, optimiza campañas, segmenta audiencias y ajusta presupuestos en tiempo real basándose en conversiones. El CMO no operará herramientas. Dirigirá una orquesta de agentes.\nAtlassian dejará de vender Jira por desarrollador. Ofrecerá un agente de delivery que descompone épicas en tareas, asigna trabajo según capacidad, detecta bloqueos y genera reportes de progreso. El engineering manager pasará de gestionar un tablero a gestionar una estrategia.\nEl patrón # En todos los casos, el patrón es el mismo: el humano deja de ser operador del software y pasa a ser supervisor del agente. El valor no está en la interfaz. Está en la inteligencia.\nY el modelo de negocio se transforma con él. Ya no cobras por seat — porque no hay seats. Cobras por outcome. Por factura procesada. Por lead cualificado. Por incidencia resuelta. Por nómina ejecutada.\nLas empresas que entiendan esto primero capturarán el mercado. Las que sigan vendiendo interfaces con un copilot pegado encima descubrirán que un archivo markdown y un agente con acceso a sus APIs hacen el mismo trabajo por una fracción del coste.\nLa Agent Economy no viene. Ya está aquí. La pregunta es si estás contratando agentes o todavía comprando licencias.\n","date":"18 de febrero de 2026","externalUrl":null,"permalink":"/es/posts/agent-economy/","section":"Blog","summary":"SAP ya no venderá licencias FI/CO. Venderá un agente contable. Salesforce no venderá CRM por usuario. Venderá un agente comercial. Bienvenidos a la era de Services-as-Software.","title":"La Agent Economy: de vender software a vender empleados artificiales","type":"posts"},{"content":"$300.000 millones evaporados en 48 horas. Bienvenidos al SaaSpocalypse.\nEn octubre de 2024 escribí sobre la próxima ola de la IA: los agentes. En mayo de 2025 escribí sobre el fin del desarrollador tal como lo conocemos. Ambos artículos compartían una tesis: la IA no viene a asistir. Viene a ejecutar.\nLa primera semana de febrero nos ha dado la razón de la forma más brutal posible.\nAnthropic lanzó unos plugins para su herramienta Cowork — básicamente archivos markdown que codifican expertise legal, financiera y de ventas. Nada revolucionario en apariencia. Pero el mercado entendió algo que muchos CIOs todavía no han procesado: si la lógica de negocio de Thomson Reuters cabe en un archivo de texto que un agente de IA puede leer y ejecutar, su software de $200/usuario/mes tiene un problema existencial.\nThomson Reuters perdió el 57% desde máximos. ServiceNow el 48%. Salesforce el 43%. El índice S\u0026amp;P de software tuvo su peor mes desde octubre de 2008.\nPero lo interesante no es la caída. Es la tesis detrás.\nSatya Nadella lo dijo en diciembre de 2024: \u0026ldquo;Las aplicaciones SaaS son bases de datos CRUD con lógica de negocio encima. Los agentes absorberán esa lógica.\u0026rdquo; Foundation Capital le puso número: $4,6 billones de oportunidad. Lo llamaron \u0026ldquo;Service as Software\u0026rdquo; — la inversión del modelo SaaS. Ya no vendes herramientas para que humanos resuelvan problemas. Vendes resultados. El agente hace el trabajo.\nUn cliente de Palantir lo resumió mejor que cualquier analista: \u0026ldquo;Todo software de terceros debe justificar su existencia. Y hasta ahora, no ha podido.\u0026rdquo;\nEsto no significa que Salesforce o SAP desaparezcan mañana. Los costes de switching son reales. Las integraciones profundas protegen. Pero el modelo de pricing por seat tiene los días contados. IDC predice que para 2028 será obsoleto. Y las empresas que no transicionen a modelos basados en outcomes van a descubrir que su moat era más estrecho de lo que pensaban.\nLlevo más de 20 años liderando transformación tecnológica en banca y educación. He visto ciclos de pánico antes — cloud, mobile, blockchain. Pero esta vez es diferente. No es una nueva capa que se añade al stack. Es una capa que absorbe las demás.\nLa pregunta para cada CIO hoy no es \u0026ldquo;cómo integro IA en mi software.\u0026rdquo; Es \u0026ldquo;cuánto de mi software puede reemplazar un agente con un archivo markdown y acceso a mis APIs.\u0026rdquo;\nSi la respuesta te incomoda, probablemente ya llegas tarde.\n","date":"17 de febrero de 2026","externalUrl":null,"permalink":"/es/posts/saaspocalypse/","section":"Blog","summary":"Anthropic lanza unos plugins y el mercado SaaS pierde $300.000 millones. La tesis de los agentes de IA se confirma de la forma más brutal posible.","title":"El SaaSpocalypse: $300.000 millones evaporados en 48 horas","type":"posts"},{"content":"","date":"14 de enero de 2026","externalUrl":null,"permalink":"/es/tags/data/","section":"Tags","summary":"","title":"Data","type":"tags"},{"content":"Todo el mundo habla de modelos. Todo el mundo habla de agentes. Todo el mundo habla de copilotos.\nPero cuando analizas lo que realmente ocurre dentro de las empresas, aparece una verdad incomoda: la IA no esta fallando; las organizaciones si.\nLos datos son consistentes en multiples estudios:\nEntre 70% y 80% de las iniciativas de IA y analitica avanzada fracasan. Solo 23% de las empresas obtiene valor real y sostenido de la IA. 81% tiene dificultades para llevar IA a produccion. 70% de las transformaciones digitales fracasan por cultura y organizacion. El principal bloqueo para IA son los datos, habilidades y complejidad organizacional. Ademas, 63% de las empresas no tiene datos AI-Ready, poniendo en riesgo sus iniciativas. Aun asi, muchos directivos siguen diciendo que \u0026ldquo;la tecnologia no esta lista\u0026rdquo;.\nLas cinco verdades incomodas # 1. Gobernanza inexistente # Modelos sin duenos, sin politicas, sin controles y que no escalan.\n2. Datos en estado salvaje # Silos, duplicados, mala calidad, falta de linaje. La IA amplifica la desorganizacion.\n3. Procesos invisibles o inconsistentes # No puedes automatizar lo que no esta definido ni integrar IA en flujos que no existen.\n4. Equipos desbalanceados # Mucho entusiasmo, poca ingenieria. Muchos pilotos, cero operacion.\n5. Estrategias construidas al reves # Se empieza por el modelo en lugar del caso de negocio. Se celebra el prototipo y se entierra al mes.\nLa IA no va a reemplazar a quienes trabajan bien. Pero si va a exponer a las organizaciones que trabajan mal.\n2026 sera el ano en que las empresas deban confrontar su madurez operativa: datos, procesos, gobernanza y cultura.\nPorque la IA funciona. Lo que no funciona es implementarla sin organizacion.\nFuentes: Harvard Business Review, MIT Sloan Management Review, O\u0026rsquo;Reilly / VentureBeat, Boston Consulting Group, IBM Global AI Adoption Index, Gartner.\n","date":"14 de enero de 2026","externalUrl":null,"permalink":"/es/posts/companies-dont-have-ai-problem/","section":"Blog","summary":"Entre el 70% y 80% de las iniciativas de IA fracasan. El problema no es la tecnologia: son los datos, los procesos y la cultura organizacional.","title":"La mayoria de las empresas no tiene un problema de IA. Tiene un problema de organizacion","type":"posts"},{"content":"","date":"14 de enero de 2026","externalUrl":null,"permalink":"/es/tags/organization/","section":"Tags","summary":"","title":"Organization","type":"tags"},{"content":"","date":"17 de diciembre de 2025","externalUrl":null,"permalink":"/es/tags/content/","section":"Tags","summary":"","title":"Content","type":"tags"},{"content":"","date":"17 de diciembre de 2025","externalUrl":null,"permalink":"/es/tags/disney/","section":"Tags","summary":"","title":"Disney","type":"tags"},{"content":"Todos critican a Disney por su deal con OpenAI.\nYo creo que es la jugada mas inteligente del ano.\nSi, invirtieron $1,000 millones. Si, \u0026ldquo;entregaron\u0026rdquo; a Mickey, Darth Vader y 200 personajes mas a Sora. Si, los artistas estan furiosos. Pero revisemos los hechos:\n1. El tren ya salio de la estacion # La gente ya estaba generando contenido con personajes de Disney en herramientas de IA antes del acuerdo: sin permiso, sin control, sin un centavo para Disney.\nLa alternativa? Demandar. Como hicieron con Google recientemente, acusandolos de infringir copyright \u0026ldquo;a escala masiva\u0026rdquo; con Veo y Nano Banana.\nEl resultado de demandar en tech? Preguntemonos como le fue a la industria musical contra Napster.\n2. Monetizar es mejor que litigar # Disney no vendio sus personajes. Los licencio. Por 3 anos.\nCon controles. Sin voces de actores. Sin entrenar modelos con su IP. Con contenido curado que ellos eligen para Disney+. Y de paso, se convirtieron en accionistas de una empresa valorada en $500,000 millones. 3. El verdadero juego es la distribucion # Gen Z y Gen Alpha no van al cine. No ven TV lineal. Viven en TikTok, YouTube Shorts y ahora \u0026ndash; Sora.\nDisney reporto $23,620 millones en ingresos en Q2 2025, +7% YoY. Tiene 3 de las 5 peliculas mas taquilleras del ano.\nChatGPT tiene 800 millones de usuarios semanales y fue la app numero 1 en descargas en EE.UU. en 2025. Esa es la audiencia que Disney acaba de alcanzar.\nDisney acaba de comprar un asiento en la mesa donde se decide como consume contenido la proxima generacion. Bob Iger no esta vendiendo el pasado de Disney \u0026ndash; esta comprando su futuro.\n","date":"17 de diciembre de 2025","externalUrl":null,"permalink":"/es/posts/disney-openai-smartest-deal/","section":"Blog","summary":"Todos critican a Disney por su deal con OpenAI. Yo creo que es la jugada mas inteligente del ano.","title":"Disney y OpenAI: la jugada mas inteligente del ano","type":"posts"},{"content":"","date":"17 de diciembre de 2025","externalUrl":null,"permalink":"/es/tags/sora/","section":"Tags","summary":"","title":"Sora","type":"tags"},{"content":"Para la mayoria de organizaciones, la IA es todavia un gigante en expectativas con pies de barro en la realidad presente.\nLa promesa de la IA es real: automatizacion, eficiencia, crecimiento de margenes.\nPero hay algo que algunos prefieren no decir en voz alta. Cuando hablamos de \u0026ldquo;estrategia de IA\u0026rdquo;, en muchas ocasiones esta concebida sobre:\nSistemas legacy Data pipelines fragiles Deuda tecnica acumulada Codigo sin documentar / shadow IT La IA falla en la entrega de la promesa cuando intentamos construir el futuro sobre cimientos que nunca reforzamos.\nQuienes van a ganar # Las organizaciones que van a ganar no seran las que \u0026ldquo;adopten IA mas rapido\u0026rdquo;, sino las que tengan el coraje de:\nOrdenar su arquitectura Invertir en datos antes que en demos Asumir la deuda tecnica como un problema estrategico, no solo tecnico La IA no reemplaza el trabajo duro, lo amplifica. Y quienes estamos en tecnologia tenemos una responsabilidad: preparar los cimientos y no fomentar los castillos en el aire.\n","date":"15 de diciembre de 2025","externalUrl":null,"permalink":"/es/posts/ai-giant-feet-of-clay/","section":"Blog","summary":"La promesa de la IA es real, pero muchas estrategias estan concebidas sobre sistemas legacy, pipelines fragiles y deuda tecnica acumulada.","title":"IA: un gigante en expectativas con pies de barro","type":"posts"},{"content":"","date":"15 de diciembre de 2025","externalUrl":null,"permalink":"/es/tags/technical-debt/","section":"Tags","summary":"","title":"Technical Debt","type":"tags"},{"content":"","date":"10 de diciembre de 2025","externalUrl":null,"permalink":"/es/tags/chatgpt/","section":"Tags","summary":"","title":"ChatGPT","type":"tags"},{"content":"","date":"10 de diciembre de 2025","externalUrl":null,"permalink":"/es/tags/competition/","section":"Tags","summary":"","title":"Competition","type":"tags"},{"content":"","date":"10 de diciembre de 2025","externalUrl":null,"permalink":"/es/tags/gemini/","section":"Tags","summary":"","title":"Gemini","type":"tags"},{"content":"Hace 8 dias Sam Altman declaro \u0026ldquo;Code Red\u0026rdquo; en OpenAI. Hoy Google acaba de pasar a ChatGPT en benchmarks PhD-level.\nEsto no es una victoria definitiva, es un cambio de liderazgo en una carrera que recien esta comenzando.\nGemini 3 Pro hoy gana en: # 1M-token context window (vs 400k de ChatGPT) Integracion nativa en Google Search y Workspace Benchmarks de razonamiento complejo ChatGPT sigue siendo mejor en: # Interfaz conversacional familiar Integracion en ecosistema de partners Velocidad en tareas iterativas Pero aqui esta lo real: en 6 meses alguien mas puede estar en primer lugar. Desde Europa nos llega Mistral, una opcion que esta creciendo. Amazon esta invirtiendo en sus propios chips. Meta esta guardando un sospechoso bajo perfil.\nLa respuesta de OpenAI: 14 dias # El marcador actualizado:\nGemini 3 Pro: 1M tokens de contexto, ~130 tokens/segundo, $2.00/1M tokens. Domina en razonamiento multimodal.\nGPT-5.2: 400k tokens de contexto, ~90 tokens/segundo, $1.75/1M tokens. Domina en tareas profesionales estructuradas.\nLider actual: empate. Depende del benchmark que mires.\nEsto ya no es una carrera de maraton. Es un sprint de relevos donde el baston cambia de manos cada trimestre \u0026ndash; o incluso antes.\nPor que importa # El error clasico: elegir un \u0026ldquo;ganador\u0026rdquo; y apostar todo a 3 anos. Hoy eso es riesgo sistemico.\nLas organizaciones mejor posicionadas no preguntan \u0026ldquo;cual es el mejor AI?\u0026rdquo; Preguntan: \u0026ldquo;cual es el mejor AI para este problema especifico\u0026hellip; sabiendo que en 6 meses quiza cambie?\u0026rdquo;\nNecesitamos:\nArquitectura flexible \u0026ndash; no casarte con una plataforma Equipos que entiendan trade-offs tecnicos, no hype Procesos que se adapten rapido ","date":"10 de diciembre de 2025","externalUrl":null,"permalink":"/es/posts/gemini-vs-chatgpt-ai-race/","section":"Blog","summary":"Google adelanta a ChatGPT en benchmarks PhD-level. OpenAI responde en 14 dias. El liderazgo en IA ahora dura ciclos, no anos.","title":"Gemini vs ChatGPT: la carrera de la IA cambia de lider cada trimestre","type":"posts"},{"content":"","date":"10 de diciembre de 2025","externalUrl":null,"permalink":"/es/tags/google/","section":"Tags","summary":"","title":"Google","type":"tags"},{"content":"","date":"21 de agosto de 2025","externalUrl":null,"permalink":"/es/tags/claude-code/","section":"Tags","summary":"","title":"Claude Code","type":"tags"},{"content":"","date":"21 de agosto de 2025","externalUrl":null,"permalink":"/es/tags/github-copilot/","section":"Tags","summary":"","title":"GitHub Copilot","type":"tags"},{"content":"Recordais cuando programar significaba horas de cafeina, compilaciones, recompilaciones, debugging infinito y peleas con la sintaxis? Esos dias estan contados.\nEl \u0026ldquo;vibe coding\u0026rdquo; esta redefiniendo como creamos software. Ya no se trata solo de escribir codigo linea por linea, sino de colaborar intuitivamente con IA para materializar ideas a una velocidad inimaginable hasta hace muy poco tiempo.\nLa revolucion en marcha # Estamos viviendo el paso de la programacion tradicional a un paradigma donde:\nLa intencion supera la implementacion El \u0026ldquo;que\u0026rdquo; importa mas que el \u0026ldquo;como\u0026rdquo; Humano + IA = superpoderes de desarrollo Las principales soluciones del mercado # Claude Code: Convierte tu terminal en un copiloto inteligente. Perfecto para desarrolladores que quieren mantener control total mientras delegan tareas complejas de coding agentico. La referencia de los desarrolladores expertos.\nGitHub Copilot (powered by OpenAI Codex): El veterano del autocomplete inteligente. Excelente para acelerar el desarrollo tradicional con sugerencias contextuales en tiempo real.\nLoveable: El disruptor. Construye aplicaciones web completas desde prompts en lenguaje natural. Con 500k usuarios creando mas de 25k apps diarias, demuestra que el futuro del desarrollo es conversacional.\nUna nueva forma de crear # Mientras antes nos preocupabamos por semicolons y memory leaks, ahora podemos enfocarnos en resolver problemas reales, en disenar una buena arquitectura para nuestras aplicaciones y crear experiencias que importen.\nEn mis mas de 40 anos desarrollando software, nunca habia disfrutado tanto como ahora, materializando mis ideas con la ayuda de mis coding agents en una fraccion del tiempo que necesitaba antes de usarlos.\n","date":"21 de agosto de 2025","externalUrl":null,"permalink":"/es/posts/vibe-coding-new-era/","section":"Blog","summary":"El vibe coding esta redefiniendo como creamos software. Ya no se trata de escribir codigo linea por linea, sino de colaborar con IA para materializar ideas.","title":"Vibe Coding: la nueva era del desarrollo de software","type":"posts"},{"content":"","date":"6 de julio de 2025","externalUrl":null,"permalink":"/es/tags/behavioral-science/","section":"Tags","summary":"","title":"Behavioral Science","type":"tags"},{"content":"Nos gusta pensar que somos únicos, racionales e impredecibles. Pero como revela esta publicación de Roger Dooley, la verdad es mucho más inquietante: a menudo funcionamos en piloto automático, respondiendo a señales sutiles y estímulos psicológicos de los que ni siquiera somos conscientes.\nLo que más me perturba no es que las empresas utilicen este conocimiento, sino lo bien que funciona. No solo nos influyen; nos influyen de manera predecible. Surgen patrones. Los comportamientos se repiten. Y lo que consideramos libre albedrío empieza a parecerse alarmantemente a un guion bien escrito.\nEs un recordatorio de que la conciencia \u0026ndash; de nosotros mismos, de los sistemas que nos rodean \u0026ndash; es la única defensa que tenemos. Y aun así, estamos luchando contra instintos profundamente arraigados.\nMuy recomendable la lectura.\n","date":"6 de julio de 2025","externalUrl":null,"permalink":"/es/posts/autopilot-human-behavior/","section":"Blog","summary":"Nos gusta pensar que somos racionales e impredecibles, pero la verdad es mucho más inquietante: a menudo funcionamos en piloto automático, predeciblemente influenciados por estímulos psicológicos.","title":"En piloto automático: la incómoda verdad sobre el comportamiento humano","type":"posts"},{"content":"","date":"6 de julio de 2025","externalUrl":null,"permalink":"/es/tags/psychology/","section":"Tags","summary":"","title":"Psychology","type":"tags"},{"content":"","date":"2 de julio de 2025","externalUrl":null,"permalink":"/es/tags/education/","section":"Tags","summary":"","title":"Education","type":"tags"},{"content":"La inteligencia artificial no reemplazará a los docentes\u0026hellip; pero sí transformará profundamente el rol del educador del futuro.\nEn mi nueva columna para Expansión, reflexiono sobre cómo la IA está cambiando la educación, no para sustituir al maestro, sino para potenciarlo, ampliando sus capacidades y redefiniendo su papel como guía, mentor y diseñador de experiencias significativas de aprendizaje.\n","date":"2 de julio de 2025","externalUrl":null,"permalink":"/es/posts/ai-wont-replace-teachers/","section":"Blog","summary":"La inteligencia artificial no reemplazará a los docentes, pero sí transformará profundamente el rol del educador del futuro.","title":"La IA no reemplazará a los docentes, pero transformará su rol","type":"posts"},{"content":"Quizas no has oido hablar de AI Slop, pero seguro que ya has empezado a notarlo.\nCada dia se generan millones de textos e imagenes con IA \u0026ndash; sin supervision, sin proposito, sin criterio.\n\u0026ldquo;AI Slop\u0026rdquo; es el subproducto del uso indiscriminado de modelos generativos:\nDocumentos vacios con \u0026ldquo;buzzwords\u0026rdquo; Imagenes sin contexto visual ni intencion estetica Contenido que aparenta inteligencia pero carece de comprension Dato real: mas del 80% del contenido generado por IA publicado online muestra signos de baja calidad o duplicidad semantica (fuente: Originality.ai, 2024 AI Content Detection Benchmark).\nEl resultado: ruido digital a escala planetaria. Un oceano de contenido que entrena futuros modelos para ser aun mas mediocres.\nSi no trazamos limites tecnicos, eticos y operativos hoy, el futuro de la IA sera un espejo de nuestras peores practicas: barato, inmediato, saturado y esteril.\nPorque generar contenido con IA es facil. Hacerlo bien es ingenieria, o es arte, o incluso ambas cosas.\n","date":"19 de junio de 2025","externalUrl":null,"permalink":"/es/posts/ai-slop-digital-noise/","section":"Blog","summary":"Cada dia se generan millones de textos e imagenes con IA sin supervision ni criterio. El AI Slop amenaza con contaminar el futuro de los modelos.","title":"AI Slop: el ruido digital a escala planetaria","type":"posts"},{"content":"","date":"19 de junio de 2025","externalUrl":null,"permalink":"/es/tags/generative-ai/","section":"Tags","summary":"","title":"Generative AI","type":"tags"},{"content":"","date":"19 de junio de 2025","externalUrl":null,"permalink":"/es/tags/quality/","section":"Tags","summary":"","title":"Quality","type":"tags"},{"content":"El Fin del Desarrollador Junior: El Futuro del Desarrollo de Software con Agentes de IA\nEn un mundo donde la inteligencia artificial avanza a pasos agigantados, una verdad incómoda se asoma en el horizonte de la industria tecnológica: el rol del desarrollador junior podría estar en vías de extinción. No se trata de ciencia ficción sino de una realidad emergente que ya está transformando la forma en que construimos software.\nLa revolución silenciosa de los Agentes de IA # Hoy, la IA ya no es solo un asistente que completa código. Los agentes de IA están evolucionando hacia entidades autónomas capaces de percibir el entorno de desarrollo, tomar decisiones complejas y ejecutar tareas completas de programación con mínima supervisión humana. Ya no hablamos de simples herramientas, sino de colaboradores digitales que están reconfigurando toda la cadena de desarrollo.\nDel asistente al Agente Autónomo # Los asistentes de código basados en IA como GitHub Copilot o Codeium ya han transformado la productividad de los desarrolladores. Sin embargo, lo que viene es mucho más disruptivo: agentes especializados que trabajan en conjunto para manejar todo el ciclo de vida del desarrollo.\n¿Qué significa esto? Mientras que hoy un junior desarrollador aún puede solicitar a una IA que genere código estándar o explique sistemas complejos, mañana un arquitecto técnico podrá instruir a un equipo completo de agentes que:\nDesarrollen código complejo basado en requerimientos de alto nivel Realicen pruebas exhaustivas y resolución de bugs Optimicen el rendimiento sin intervención manual Gestionen despliegues y actualicen documentación La predicción que ya está sucediendo # Mark Zuckerberg lo expresó sin ambigüedades: \u0026ldquo;Para 2025, la IA será capaz de funcionar como un ingeniero de nivel medio, escribiendo código y potencialmente reemplazando a los desarrolladores de software\u0026rdquo;. No estamos hablando de un futuro lejano, sino de una realidad que ya está emergiendo.\nSegún Gartner, hasta 2027 la IA generativa requerirá que el 80% de la fuerza laboral de ingeniería actualice sus habilidades, creando nuevos roles y eliminando otros. La pregunta ya no es si ocurrirá, sino cuándo alcanzará el punto de inflexión que transforme todo el ecosistema.\nLa Orquestación: El nuevo paradigma # El concepto clave aquí es la orquestación de agentes de IA: un proceso por el cual múltiples agentes especializados trabajan en conjunto dentro de un sistema unificado. Cada agente se enfoca en una tarea específica -diseño de UI, desarrollo backend, pruebas, seguridad- mientras una entidad central (humana o IA) dirige la sinfonía.\nEl Arquitecto como Director de Orquesta # En este nuevo paradigma, el arquitecto técnico se convierte en el verdadero protagonista. Su rol evoluciona de diseñador de soluciones a director estratégico de un equipo de agentes de IA, definiendo:\nLa visión y requisitos del sistema Las restricciones técnicas y de negocio Los estándares de arquitectura y calidad La resolución de problemas complejos que requieren juicio humano Esta transformación ya está ocurriendo. Según investigaciones de ServiceNow/Pearson, para 2027 el 18.7% de las tareas de arquitectos técnicos serán al menos parcialmente aumentadas por IA. Los arquitectos se centrarán menos en guiar la implementación de código y más en dirigir y supervisar el trabajo autónomo de los agentes.\nLa crisis de experiencia # Aquí surge el dilema fundamental: si los agentes de IA pueden manejar las tareas tradicionalmente asignadas a desarrolladores junior, ¿cómo adquirirán experiencia los nuevos profesionales?\nUna de las mayores preocupaciones es precisamente cómo los desarrolladores junior pueden crecer hacia roles de nivel medio y senior si la IA maneja la mayor parte de la codificación rutinaria. Tradicionalmente, los desarrolladores han aprendido haciendo-escribiendo, depurando y refactorizando código del mundo real. Sin esa experiencia práctica, existe el riesgo de que los desarrolladores no comprendan completamente las complejidades del desarrollo de software.\nUn Futuro sin Juniors Tradicionales # Mi tesis es que el rol del desarrollador, tal como lo conocemos, desaparecerá. En su lugar, veremos:\nIngenieros de prompts y orquestación: Profesionales especializados en dirigir y extraer el máximo valor de los agentes de IA. Especialistas en verificación y revisión: Expertos en evaluar el código generado por IA, identificar casos límite y probar su fiabilidad. Diseñadores de sistemas de alto nivel: Profesionales enfocados en arquitectura y diseño de sistemas, donde el pensamiento de nivel superior sigue siendo principalmente humano. Las empresas ya están contratando menos ingenieros junior debido a las mejoras de productividad impulsadas por la IA. Esta tendencia solo se acelerará cuando los agentes de IA maduren.\nAdaptarse o quedarse atrás # Para los profesionales actuales, el mensaje es claro: la carrera del desarrollador está evolucionando, no desapareciendo. El futuro pertenece no a quienes resisten la IA ni a quienes dependen de ella exclusivamente, sino a quienes aprenden a trabajar simbióticamente con estas herramientas.\nLos desarrolladores más exitosos serán aquellos que:\nDominen la ingeniería de prompts para guiar a los agentes de IA Desarrollen habilidades de evaluación y verificación agudas Se enfoquen en áreas donde la creatividad y el pensamiento sistémico humano son insustituibles Comprendan profundamente la orquestación y colaboración entre múltiples agentes de IA ¿Estamos preparados para este cambio? # Si mi tesis es correcta, enfrentamos una transformación radical en cómo educamos a los futuros desarrolladores y estructuramos los equipos técnicos. Las universidades, bootcamps y empresas necesitarán repensar completamente sus programas de formación y contratación.\nLa pregunta no es si los agentes de IA revolucionarán el desarrollo de software-ya lo están haciendo-sino cuán rápido nos adaptaremos como industria a un mundo donde los humanos diseñan y dirigen, mientras los agentes de IA construyen e implementan.\n","date":"20 de mayo de 2025","externalUrl":null,"permalink":"/es/posts/fin-del-desarrollador/","section":"Blog","summary":"El rol del desarrollador tal como lo conocemos tiene los días contados. El arquitecto se convierte en director de orquesta de agentes de IA.","title":"El fin del desarrollador: El futuro del desarrollo de Software con Agentes de IA","type":"posts"},{"content":"","date":"30 de enero de 2025","externalUrl":null,"permalink":"/es/tags/deepseek/","section":"Tags","summary":"","title":"DeepSeek","type":"tags"},{"content":"La irrupcion de DeepSeek R1, el modelo de IA chino que ha sacudido el sector tecnologico, ha provocado una caida de $600 mil millones en el valor de mercado de empresas como Nvidia y otros gigantes de la IA.\nPero, que significa realmente una perdida de esta magnitud? Aqui algunas comparaciones que ponen en perspectiva su impacto:\nEs como borrar del mapa a Tesla o Meta # El valor total de Tesla ($600B) o Meta ($600B) es equivalente a la perdida de un solo dia. Imagina que una de estas empresas desaparece de la bolsa de la noche a la manana.\nEs mas grande que la economia de Suecia o Argentina # El PIB de Suecia ($635B) y Argentina ($641B) es menor que esta caida. En otras palabras, lo que el mercado perdio equivale a la produccion economica anual de un pais entero.\nEs comparable a la crisis financiera de 2008 # El rescate financiero de la crisis de 2008 (TARP Bailout: $700B), que salvo a los grandes bancos y estabilizo la economia global, costo $700B. La caida del mercado por DeepSeek se acerca a esa cifra en un solo dia.\nConclusion # Estamos presenciando un punto de inflexion en la competencia global por la IA \u0026ndash; una reedicion de la carrera espacial ruso-americana trasladada a la inteligencia artificial, donde China emerge como el gran competidor de Estados Unidos.\nNos esperan tiempos apasionantes.\n","date":"30 de enero de 2025","externalUrl":null,"permalink":"/es/posts/deepseek-r1-600-billion-lost/","section":"Blog","summary":"La irrupcion de DeepSeek R1 provoco una caida de $600 mil millones en el mercado. Estamos ante un punto de inflexion en la competencia global por la IA.","title":"DeepSeek R1: que significa perder 600.000 millones en un solo dia","type":"posts"},{"content":"","date":"30 de enero de 2025","externalUrl":null,"permalink":"/es/tags/markets/","section":"Tags","summary":"","title":"Markets","type":"tags"},{"content":"","date":"30 de enero de 2025","externalUrl":null,"permalink":"/es/tags/nvidia/","section":"Tags","summary":"","title":"Nvidia","type":"tags"},{"content":"Recientemente probe varios modelos de IA lideres para ver como se comparan entre si. Los modelos que compare fueron: ChatGPT 4o, ChatGPT o1, Claude 3.5 Sonnet, Gemini 2.0 Flash Experimental, Perplexity Pro y DeepSeek.\nUsando un conjunto consistente de estimulos, evalue su rendimiento en una variedad de tareas: escritura creativa, descripcion de imagenes y razonamiento, y resolucion de problemas matematicos de varios pasos.\nLos resultados no pretenden ser una comparacion cientifica y exhaustiva, sino mi propia opinion basada en mis preferencias al comparar las respuestas de los modelos ante el mismo estimulo.\n1. Tareas de escritura creativa # Letra de cancion: \u0026ldquo;Nostalgia por un lugar que nunca has visitado\u0026rdquo; # ChatGPT 4o entrego letras evocadoras con calles polvorientas, brisas crepusculares y fotografias \u0026ndash; un fuerte arco emocional. ChatGPT o1 (\u0026ldquo;Faraway Memories\u0026rdquo;) eligio sal, costas distantes y caminos empedrados \u0026ndash; calido y melodico. Claude 3.5 fue minimalista con escenas pintadas en libros de viaje y flores de cerezo \u0026ndash; limpio y visual. Gemini ofrecio postales decoloradas por el sol y arboles susurrantes \u0026ndash; atmosferico. Perplexity (\u0026ldquo;Echoes of Elsewhere\u0026rdquo;) escribio calles empedradas y campanas antiguas \u0026ndash; efectivo. DeepSeek (\u0026ldquo;Ghosts of Nowhere\u0026rdquo;) destaco con el resplandor ambar de un farol, una puerta nunca girada y susurros aferrados a los adoquines \u0026ndash; el mas poetico del grupo.\nCuento corto: \u0026ldquo;Un recuerdo de la infancia\u0026rdquo; # ChatGPT 4o nos situo descalzos bajo un arbol de mango con jugo de fruta pegajoso \u0026ndash; detalle sensorial vivido. ChatGPT o1 describio un porche de concreto agrietado con cojines verdes desteñidos \u0026ndash; intimo y arraigado. Claude 3.5 nos llevo al patio de la abuela con una higuera convertida en fortaleza \u0026ndash; profundamente nostalgico. Gemini evoco tierra humeda y el jardin de la senora Gable \u0026ndash; narrativa vecinal calida. Perplexity ofrecio un columpio de llanta y un viejo roble. DeepSeek describio luz dorada, pies descalzos en el pasto, persiguiendo luciernagas \u0026ndash; romantico y calido.\n2. Descripcion de imagenes y razonamiento # Subi una imagen de un espresso en un vaso de papel blanco sobre una superficie de madera.\nDescripcion basica # Todos los modelos identificaron correctamente un vaso desechable de papel blanco con espresso sobre una superficie de madera pulida. Los modelos variaron en detalle: ChatGPT 4o noto el acabado mate y las costuras verticales. Claude identifico especificamente la forma conica tipica de los vasos de papel. Gemini organizo su respuesta en materia y detalles visuales. Perplexity noto la capa de crema dorada.\nRazonamiento deductivo # Al preguntar que se podia deducir sobre el entorno, la hora del dia o posibles eventos:\nChatGPT 4o bosquejo un probable entorno de oficina interior con iluminacion artificial, sugiriendo una pausa para cafe por la manana \u0026ndash; completo e imaginativo. ChatGPT o1 fue mas cauteloso, admitiendo incertidumbre. Claude indico un ambiente de cafeteria con luz natural media \u0026ndash; creativo pero algo especulativo. Gemini apropiadamente destaco la dificultad de determinar la hora precisa. Perplexity creativamente situo la escena un \u0026ldquo;martes a las 9 AM\u0026rdquo; \u0026ndash; inventivo pero sin soporte. DeepSeek no soporto esta tarea.\n3. Resolucion de problemas matematicos # Primer problema # \u0026ldquo;Un jardin rectangular mide 10 metros de largo y 5 de ancho. Calcula el area y el costo de cercarlo si el cercado cuesta $5 por metro.\u0026rdquo;\nRespuesta correcta: area de 50 metros cuadrados, costo de cercado de $150. Todos los modelos respondieron correctamente con desgloses de 2-3 pasos.\nSegundo problema # \u0026ldquo;Si la mitad del area del jardin sera para vegetales y la otra mitad para flores, y necesitas plantar 4 flores por metro cuadrado, cuantas plantas de flores necesitaras? Ademas, si un aspersor cubre 2 metros cuadrados, cuantos aspersores se necesitan para todo el jardin?\u0026rdquo;\nRespuesta correcta: 100 plantas de flores y 25 aspersores. Todos los modelos respondieron correctamente.\nConclusiones # No existe un unico \u0026ldquo;mejor\u0026rdquo; modelo \u0026ndash; depende de lo que necesites:\nPara escritura creativa, DeepSeek y Claude impresionaron con sus cualidades poeticas y literarias Para razonamiento visual, ChatGPT 4o ofrecio el analisis mas completo e imaginativo Para resolucion matematica, todos los modelos rindieron bien, con Perplexity destacando por su concision Para respuestas cautelosas y precisas, ChatGPT o1 consistentemente evito sobreinterpretar El panorama de la IA evoluciona tan rapidamente que estos resultados representan una foto instantanea en el tiempo. En seis meses, el ranking podria verse completamente diferente.\n","date":"27 de enero de 2025","externalUrl":null,"permalink":"/es/posts/comparing-ai-models/","section":"Blog","summary":"Una comparacion personal de ChatGPT 4o, ChatGPT o1, Claude 3.5, Gemini, Perplexity Pro y DeepSeek en escritura creativa, razonamiento visual y matematicas.","title":"Comparando modelos populares de IA: mis resultados","type":"posts"},{"content":"","date":"27 de enero de 2025","externalUrl":null,"permalink":"/es/tags/model-comparison/","section":"Tags","summary":"","title":"Model Comparison","type":"tags"},{"content":"","date":"27 de enero de 2025","externalUrl":null,"permalink":"/es/tags/perplexity/","section":"Tags","summary":"","title":"Perplexity","type":"tags"},{"content":"","date":"17 de diciembre de 2024","externalUrl":null,"permalink":"/es/tags/2024/","section":"Tags","summary":"","title":"2024","type":"tags"},{"content":" Enero 2024 # Rodney Brooks, ex director del Laboratorio de Ciencias de la Computacion e Inteligencia Artificial del MIT, predice un posible \u0026ldquo;invierno de la IA\u0026rdquo; para la IA generativa.\nFebrero 2024 # Mas de 20 empresas tecnologicas, incluyendo Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok y X, firman el \u0026ldquo;Pacto Tecnologico contra el Uso Enganoso de la IA en las Elecciones de 2024\u0026rdquo;.\nMarzo 2024 # Anthropic lanza Claude 3, una nueva version de su modelo de lenguaje.\nAbril 2024 # Meta presenta su modelo Llama 3, mejorando las capacidades de su predecesor.\nMayo 2024 # OpenAI lanza GPT-4o, un modelo multimodal capaz de procesar texto, audio e imagenes simultaneamente.\nJunio 2024 # Apple introduce Apple Intelligence, su conjunto de herramientas de IA para iPhone, iPad y Mac. Predije que la IA abandonaria la \u0026ldquo;cueva del texto\u0026rdquo; y adquiriria los sentidos humanos, dominando el habla, la vista y la escucha.\nSeptiembre 2024 # La feria tecnologica IFA 2024 en Berlin destaca la integracion de IA en tecnologias de consumo, desde laptops hasta electrodomesticos.\nOctubre 2024 # Rev Lebaredian, vicepresidente de Omniverso y Tecnologia de Simulacion en Nvidia, afirma que el proximo gran salto sera el desarrollo de robots humanoides.\nNoviembre 2024 # La Web Summit Lisbon 2024 muestra como la IA esta revolucionando diversos sectores, desde la certificacion de madera hasta el transporte aereo.\nDiciembre 2024 # Dell Technologies presenta sus predicciones para 2025, destacando que el proximo ano se definira por el uso intensivo de IA en todas las industrias.\n","date":"17 de diciembre de 2024","externalUrl":null,"permalink":"/es/posts/year-two-ai-era-2024/","section":"Blog","summary":"Un recorrido mes a mes por los hitos mas importantes de la inteligencia artificial en 2024.","title":"2024: El ano II de la era de la IA","type":"posts"},{"content":"","date":"17 de diciembre de 2024","externalUrl":null,"permalink":"/es/tags/technology/","section":"Tags","summary":"","title":"Technology","type":"tags"},{"content":"","date":"17 de diciembre de 2024","externalUrl":null,"permalink":"/es/tags/year-in-review/","section":"Tags","summary":"","title":"Year in Review","type":"tags"},{"content":"Y ahora a por los retos de 2025, el Año III de la nueva era de la IA: el año de la Agentic AI.\nAño I - 2023: la irrupción de ChatGPT, el año del prompting en el que la IA era conversación textual. Lanzamos nuestro TecGPT.\nAño II - 2024: la IA se vuelve multimodal y aprende a generar contenidos de imagen, sonido, música, voz y vídeo. Lanzamos nuestro SkillStudio e incorporamos la multimodalidad a nuestra plataforma.\nAño III - 2025: la IA permite generar agentes autónomos que toman acciones por nosotros, el año de Agentic AI. Lanzaremos AgentStudio con la contribución imprescindible de Manuel Terán y su increíble equipo.\n","date":"11 de diciembre de 2024","externalUrl":null,"permalink":"/es/posts/year-three-ai-agentic/","section":"Blog","summary":"2025 marca el Año III de la nueva era de la IA: el año de la IA Agéntica, con agentes autónomos que toman acciones por nosotros.","title":"Año III de la IA: la era de la IA Agéntica","type":"posts"},{"content":"","date":"30 de octubre de 2024","externalUrl":null,"permalink":"/es/tags/robotics/","section":"Tags","summary":"","title":"Robotics","type":"tags"},{"content":"Este es uno de los primeros intentos de construir un robot humanoide imitando la anatomía humana. Torso reproduce las articulaciones y usa músculos artificiales para generar movimiento.\nEl movimiento no es muy fluido de momento\u0026hellip; pero si alguno de ustedes vio la serie Westworld, seguro que el vídeo les evoca algunas de las imágenes de lo que, por el momento, no es más que ciencia ficción.\n","date":"30 de octubre de 2024","externalUrl":null,"permalink":"/es/posts/humanoid-robot-torso/","section":"Blog","summary":"Uno de los primeros intentos de construir un robot humanoide imitando la anatomía humana, con articulaciones y músculos artificiales.","title":"Torso: un robot humanoide que imita la anatomía humana","type":"posts"},{"content":"","date":"23 de octubre de 2024","externalUrl":null,"permalink":"/es/tags/distilbert/","section":"Tags","summary":"","title":"DistilBERT","type":"tags"},{"content":"","date":"23 de octubre de 2024","externalUrl":null,"permalink":"/es/tags/edge-computing/","section":"Tags","summary":"","title":"Edge Computing","type":"tags"},{"content":"En el mundo de la IA, los Modelos de Lenguaje de Gran Escala como Claude y GPT-4 suelen acaparar los titulares, pero los LLMs mas pequenos estan demostrando ser alternativas eficientes y poderosas para las empresas. Aqui te explicamos por que modelos como DistilBERT, TinyBERT, ALBERT, MiniLM, MobileBERT y ELECTRA-Small merecen tu atencion:\nEficiencia de costos # Modelos como DistilBERT y MobileBERT son significativamente mas pequenos que sus contrapartes mas grandes, pero conservan casi las mismas capacidades de comprension del lenguaje. Esto significa una reduccion en la potencia computacional y menores costos, haciendo que la IA sea mas accesible para empresas de todos los tamanos.\nVelocidad y rendimiento # Arquitecturas ligeras como TinyBERT y MiniLM ofrecen respuestas mas rapidas, mejorando la experiencia del usuario en aplicaciones en tiempo real como chatbots, asistentes virtuales y soporte automatizado al cliente. Las velocidades de inferencia rapidas los hacen ideales para entornos de baja latencia.\nPrivacidad de los datos y personalizacion # Modelos de codigo abierto como ALBERT y ELECTRA-Small ofrecen la flexibilidad para afinarlos con datos localizados. Esto asegura que los datos sensibles permanezcan en las instalaciones o en instancias privadas de la nube, mejorando la seguridad y permitiendo a las empresas adaptar los modelos de IA a necesidades especificas de la industria.\nSoluciones personalizadas para mercados nicho # Con modelos como ALBERT, las empresas pueden desplegar IA afinada especificamente para tareas especializadas o sectores, permitiendoles innovar en mercados de nicho sin sacrificar el rendimiento.\nA medida que la IA se integra mas en cada industria, estos LLMs mas pequenos aportan flexibilidad, ahorro de costos y resultados especificos \u0026ndash; demostrando que, a veces, menos es mas cuando se trata de IA.\n","date":"23 de octubre de 2024","externalUrl":null,"permalink":"/es/posts/small-llms-powerful-alternatives/","section":"Blog","summary":"Los LLMs mas pequenos como DistilBERT, TinyBERT y ALBERT estan demostrando ser alternativas eficientes y poderosas para las empresas.","title":"LLMs pequenos: alternativas poderosas para las empresas","type":"posts"},{"content":"","date":"23 de octubre de 2024","externalUrl":null,"permalink":"/es/tags/machine-learning/","section":"Tags","summary":"","title":"Machine Learning","type":"tags"},{"content":"","date":"15 de octubre de 2024","externalUrl":null,"permalink":"/es/tags/automation/","section":"Tags","summary":"","title":"Automation","type":"tags"},{"content":"La conversación sobre IA ha estado dominada por chatbots y copilots — herramientas que asisten a los humanos para hacer su trabajo más rápido. Esa era está terminando. La próxima ola son los agentes, y la distinción importa más de lo que la mayoría cree.\nDe asistentes a actores autónomos # Un chatbot responde a prompts. Un agente persigue objetivos.\nLa diferencia no es incremental. Es arquitectónica. Un agente de IA es una entidad autónoma que recibe un objetivo, lo descompone en subtareas, planifica una estrategia de ejecución, utiliza herramientas y APIs para actuar sobre el mundo, observa resultados, ajusta su enfoque e itera hasta cumplir el objetivo. Sin un humano en el bucle en cada paso. Sin ciclo de prompt-respuesta-prompt.\nPensadlo así: un copilot te ayuda a escribir un email. Un agente gestiona toda tu bandeja de entrada — triando, respondiendo, escalando, programando seguimientos — mientras tú te concentras en las decisiones que realmente requieren tu criterio.\nPor qué ahora # Tres fuerzas convergentes hacen viables a los agentes hoy de formas que no lo eran hace dos años:\nCapacidad de razonamiento. Los grandes modelos de lenguaje han cruzado un umbral en su capacidad para descomponer problemas complejos, mantener contexto a lo largo de cadenas largas de acción y recuperarse de errores. Esto no va de generar mejor texto. Va de planificación y ejecución.\nUso de herramientas. Los LLMs modernos pueden llamar APIs de forma fiable, consultar bases de datos, navegar por la web, ejecutar código e interactuar con sistemas externos. El agente no está atrapado en una caja de texto. Opera en el entorno digital real.\nEconomía de costes. Los costes de inferencia han caído en órdenes de magnitud. Ejecutar un agente que hace docenas de llamadas a APIs para completar una tarea compleja es ahora económicamente viable a escala empresarial.\nQué significa esto para las empresas # Las implicaciones para la tecnología empresarial son profundas:\nLa automatización de flujos de trabajo pasa de basada en reglas a basada en objetivos. En lugar de codificar cada paso de un proceso, defines el resultado. El agente encuentra el camino. Esto hace la automatización accesible para usuarios de negocio, no solo para desarrolladores.\nEl valor del software se desplaza. Si un agente puede navegar una interfaz, llamar APIs y ejecutar lógica de negocio, el valor de la capa de software entre el usuario y los datos queda fundamentalmente cuestionado. El middleware, las herramientas de workflow y las plataformas de integración enfrentan una presión existencial.\nEmergen nuevas superficies de seguridad. Los agentes autónomos con acceso a APIs introducen vectores de ataque para los que los modelos de seguridad tradicionales no fueron diseñados. La identidad, la autorización y las pistas de auditoría necesitan repensarse para actores no humanos que toman decisiones.\nLa estructura organizativa se adapta. Cuando los agentes manejan la ejecución, el rol humano se desplaza hacia la supervisión, la estrategia y la gestión de excepciones. Esto no va de eliminar empleos — va de redefinir lo que hacen los humanos en el trabajo del conocimiento.\nEl camino por delante # Estamos en las primeras fases. Los agentes actuales son frágiles en casos límite, caros de orquestar a escala y difíciles de depurar cuando fallan. Pero la trayectoria es clara. Las empresas que están construyendo infraestructura de agentes hoy — frameworks de orquestación, ecosistemas de herramientas, pipelines de evaluación — están construyendo las plataformas de la próxima década.\nLa pregunta para cada líder tecnológico no es si los agentes van a transformar su industria. Es si serán ellos quienes los desplieguen o quienes sean disrumpidos por ellos.\nLa ventana para el posicionamiento estratégico está abierta. No permanecerá abierta mucho tiempo.\n","date":"15 de octubre de 2024","externalUrl":null,"permalink":"/es/posts/next-ai-wave-agents/","section":"Blog","summary":"Los agentes de IA no son chatbots. Son entidades autónomas que planifican, razonan y actúan. Esta es la próxima ola, y lo cambia todo.","title":"La próxima ola de la IA: los Agentes","type":"posts"},{"content":"","date":"15 de octubre de 2024","externalUrl":null,"permalink":"/es/tags/llm/","section":"Tags","summary":"","title":"LLM","type":"tags"},{"content":"El inicio de la revolución de la IA fue el texto (prompts), rápidamente se añadió la imagen, el sonido, la música\u0026hellip; la IA ya es multimodal y muy pronto los agentes autónomos alimentados por IA se expandirán haciéndose presentes en nuestros dispositivos electrónicos: smartwatches, smartphones, infotainment de nuestros vehículos y electrodomésticos conectados.\nLa siguiente frontera? Dotar a la IA de un cuerpo físico que pueda interactuar en el mundo real, y aunque quedan años de desarrollo tecnológico para llegar hasta el imaginario robótico de las películas de ciencia ficción, ya existen prototipos que anticipan lo que podría ser un futuro en el que androides y humanos convivamos con naturalidad.\nLes dejo un vídeo del prototipo Ameca: de momento no es mucho más que una marioneta sofisticada, pero Ameca se puede conectar a un modelo IA entrenado para tareas complejas.\n","date":"11 de septiembre de 2024","externalUrl":null,"permalink":"/es/posts/multimodal-ai-autonomous-agents/","section":"Blog","summary":"La IA ya es multimodal y los agentes autónomos se expandirán a todos nuestros dispositivos. La siguiente frontera: dotar a la IA de un cuerpo físico.","title":"IA multimodal y agentes autónomos: la siguiente frontera","type":"posts"},{"content":"","date":"11 de septiembre de 2024","externalUrl":null,"permalink":"/es/tags/multimodal-ai/","section":"Tags","summary":"","title":"Multimodal AI","type":"tags"},{"content":"Para los entusiastas de la IA, aquí pueden encontrar un libro electrónico que reúne artículos de expertos sobre diversos temas relacionados con la IA.\nYo escribí el primero de los capítulos, titulado \u0026ldquo;El futuro de la Inteligencia Artificial\u0026rdquo;, en el que exploro cómo la IA ha evolucionado desde sus orígenes hasta convertirse en una fuerza transformadora en nuestra era. Analizo las implicaciones de la IA generativa, el camino hacia la Inteligencia Artificial General (IAG), y los desafíos éticos que enfrentamos en la carrera hacia la Superinteligencia Artificial (SIA).\n","date":"18 de agosto de 2024","externalUrl":null,"permalink":"/es/posts/ai-ebook-future-intelligence/","section":"Blog","summary":"Un libro electrónico que reúne artículos de expertos sobre la IA. Escribí el primer capítulo sobre el futuro de la Inteligencia Artificial.","title":"El futuro de la Inteligencia Artificial: mi capítulo en un nuevo libro electrónico","type":"posts"},{"content":"En plena revolucion de la IA, la computacion neuromorfica alimenta la posibilidad de alcanzar la singularidad, la IA general. Inspirada en el cerebro humano, esta tecnologia promete revolucionar nuestra concepcion de lo que hasta ahora hemos considerado vida inteligente.\nQue es la computacion neuromorfica? # Es un enfoque que emula las redes neuronales del cerebro para mejorar la eficiencia y la adaptabilidad de las tecnologias tradicionales de computo basadas en la arquitectura de Von Neumann. Chips como TrueNorth de IBM y Loihi de Intel ejemplifican esta tecnologia, permitiendo un procesamiento paralelo de tareas, consumiendo menos energia y adaptandose a nuevas tareas, de forma similar a como aprende el cerebro humano.\nAplicaciones clave # IA y ML: Mejora en reconocimiento de imagenes y voz, y analisis predictivo. Robotica: Robots mas eficientes y naturales en su interaccion, casi \u0026ldquo;humanos\u0026rdquo;. IoT: Dispositivos inteligentes que responden en tiempo real de manera autonoma. Futuro de posibilidades ilimitadas # Desde capacidades mejoradas en IA hasta una futura integracion con la computacion cuantica, el potencial de la computacion neuromorfica es inmenso. IBM, Intel y universidades lideres estan a la vanguardia de este desarrollo, pavimentando el camino hacia una tecnologia que ofrecera posibilidades casi ilimitadas y planteara retos eticos sin precedentes.\nConclusion # La computacion neuromorfica no solo redefine lo que es posible en tecnologia, sino que tambien alinea las capacidades computacionales con los procesos cognitivos humanos, abriendo las puertas de un futuro apasionante e incierto.\n","date":"14 de agosto de 2024","externalUrl":null,"permalink":"/es/posts/neuromorphic-computing-future-ai/","section":"Blog","summary":"La computacion neuromorfica, inspirada en el cerebro humano, promete revolucionar nuestra concepcion de la vida inteligente y abrir el camino hacia la AGI.","title":"Computacion neuromorfica: el futuro de la inteligencia artificial","type":"posts"},{"content":"","date":"14 de agosto de 2024","externalUrl":null,"permalink":"/es/tags/neuromorphic-computing/","section":"Tags","summary":"","title":"Neuromorphic Computing","type":"tags"},{"content":"","date":"5 de junio de 2024","externalUrl":null,"permalink":"/es/tags/agents/","section":"Tags","summary":"","title":"Agents","type":"tags"},{"content":"El futuro de la inteligencia artificial es increiblemente emocionante, y los proximos meses traeran avances asombrosos a nuestra vida cotidiana. Los agentes de IA multimodal, que pueden entender y procesar texto, imagenes, audio y video simultaneamente, cambiaran de manera profunda como interactuamos con la tecnologia.\nComunicacion natural # Imagina tener un asistente virtual que no solo responda a tus comandos de voz, sino que tambien entienda tus gestos y expresiones faciales. Ya sea que estes cocinando, haciendo ejercicio o simplemente relajandote en casa, estos agentes de IA haran que interactuar con tus dispositivos sea mas intuitivo y natural.\nAsistentes domesticos mas inteligentes # Tu asistente domestico se convertira en un verdadero miembro de la familia. Reconocera cuando te sientas triste y reproducira tu musica favorita, sugerira una pelicula basada en tus habitos recientes de visualizacion, o incluso te ayudara a solucionar un problema guiandote visualmente a traves de los pasos.\nExperiencias de compra mejoradas # Comprar en linea sera mas personalizado y atractivo. Estos agentes de IA pueden ayudarte a encontrar ropa que coincida con tu estilo, se ajuste a tu forma corporal e incluso sugerir atuendos basados en tu guardarropa existente.\nSalud y bienestar # Desde entrenadores de fitness virtuales que pueden corregir tu forma a traves del analisis de video hasta aplicaciones de salud mental que entienden tu estado de animo a traves de la voz y el texto, la IA multimodal apoyara tu bienestar de maneras mas interactivas y personalizadas.\nAprendizaje y educacion # La educacion se volvera mas accesible y adaptada a las necesidades individuales. Ya sea ayudando a los ninos con la tarea a traves de sesiones de video interactivas o permitiendo a los adultos aprender nuevas habilidades con lecciones personalizadas y multimedia, estos agentes de IA haran que el aprendizaje sea mas efectivo y agradable.\nEntretenimiento y creatividad # La IA multimodal transformara la manera en que creamos y consumimos entretenimiento. Imagina una IA que pueda ayudarte a componer musica entendiendo tu estado de animo y preferencias, o crear arte visual basado en tus descripciones y bocetos. Tus programas y juegos favoritos se volveran aun mas inmersivos, adaptandose a tus reacciones y comentarios en tiempo real.\n","date":"5 de junio de 2024","externalUrl":null,"permalink":"/es/posts/multimodal-ai-2024/","section":"Blog","summary":"Los agentes de IA multimodal que entienden texto, imagenes, audio y video simultaneamente estan a punto de cambiar nuestra interaccion con la tecnologia.","title":"Que esperar de la IA multimodal en 2024 y 2025","type":"posts"},{"content":"A medida que empujamos los limites de lo que la IA puede lograr, la necesidad de modelos optimizados que funcionen a escala mientras conservan recursos se vuelve primordial. Dos tecnicas fundamentales que estan dando forma al futuro de una IA ligera y eficiente son la Adaptacion de Bajo Rango (LoRA) y la Cuantizacion.\nQue es LoRA? # La Adaptacion de Bajo Rango es una tecnica novedosa que permite el ajuste eficiente de grandes modelos preentrenados. LoRA funciona insertando matrices entrenables de bajo rango en el modelo, permitiendo actualizaciones significativas en el comportamiento del modelo sin alterar la mayoria de los pesos preentrenados. Este enfoque no solo preserva las fortalezas del modelo original, sino que tambien reduce la sobrecarga computacional tipicamente asociada con el entrenamiento de modelos grandes.\nPor que importa la cuantizacion # La cuantizacion reduce la precision de los numeros utilizados dentro de un modelo de IA de punto flotante a enteros, que son menos intensivos computacionalmente. Este proceso disminuye drasticamente el tamano del modelo y acelera el tiempo de inferencia, haciendolo ideal para el despliegue en dispositivos edge donde los recursos son limitados.\nCombinando LoRA y cuantizacion # Cuando se usan juntas, LoRA y la Cuantizacion ofrecen una poderosa sinergia que impulsa el rendimiento y la eficiencia del modelo. Esta combinacion permite desplegar modelos de ultima generacion en plataformas con restricciones estrictas de memoria y procesamiento, como telefonos moviles y dispositivos IoT.\nImpacto en el mundo real # Industrias que van desde las telecomunicaciones hasta la salud ya estan cosechando los beneficios de estas tecnologias. Al integrar LoRA y Cuantizacion, las empresas pueden desplegar soluciones avanzadas de IA de manera mas amplia y a menor costo.\n","date":"6 de mayo de 2024","externalUrl":null,"permalink":"/es/posts/lora-quantization-ai-efficiency/","section":"Blog","summary":"Dos tecnicas clave – LoRA y Cuantizacion – estan dando forma al futuro de sistemas de IA ligeros y eficientes.","title":"Desbloqueando la eficiencia de la IA con LoRA y cuantizacion","type":"posts"},{"content":"","date":"6 de mayo de 2024","externalUrl":null,"permalink":"/es/tags/lora/","section":"Tags","summary":"","title":"LoRA","type":"tags"},{"content":"","date":"6 de mayo de 2024","externalUrl":null,"permalink":"/es/tags/quantization/","section":"Tags","summary":"","title":"Quantization","type":"tags"},{"content":"A medida que vamos entendiendo las posibilidades que nos ofrecen la ola de avances tecnologicos relacionados con la IA, aparecen nuevas formas de relacionarnos con estas tecnologias. Nuestras interacciones con la inteligencia artificial generativa estan transformandose, marcando el fin de la era del \u0026ldquo;prompt engineering\u0026rdquo; \u0026ndash; una \u0026ldquo;era\u0026rdquo; efimera en la que algunos postulaban que dominar el arte del \u0026ldquo;prompting\u0026rdquo; seria clave para beneficiarse de esta nueva tecnologia. Yo no me sume a la tendencia que postulaba que los \u0026ldquo;ingenieros de prompts\u0026rdquo; iban a protagonizar la adopcion de la IA, y aqui hay algunas razones para anticipar la progresiva desaparicion del efimero \u0026ldquo;arte del prompt engineering\u0026rdquo;:\nDe la interaccion a la colaboracion # El modelo tradicional de interactuar con modelos de lenguaje grandes mediante comandos especificos esta evolucionando. El futuro apunta hacia interfaces con agentes autonomos y dirigidos por objetivos. Este cambio promete una mayor alineacion con las intenciones humanas y un significativo aumento en la autonomia de toma de decisiones de la IA.\nColaboracion mejorada # Estos agentes de IA avanzados estan disenados para entender y anticipar necesidades, haciendolos socios perfectos en diversos entornos profesionales. Ya sea optimizando procesos de decision o ofreciendo percepciones predictivas, la IA esta avanzando hacia un papel mas proactivo, eliminando la necesidad de ingenieria de comandos detallada y repetitiva.\nAplicaciones en el mundo real # Imagina una IA que no solo responda a comandos, sino que tambien inicie acciones que se alineen con objetivos establecidos en campos como el servicio al cliente, la salud y las finanzas. Esta capacidad proactiva podria redefinir la eficiencia y la efectividad en diversas industrias. Progresivamente veremos aparecer agentes autonomos especializados en determinadas tareas en lugar de interactuar con modelos generales de proposito multiple.\n","date":"30 de abril de 2024","externalUrl":null,"permalink":"/es/posts/goodbye-prompt-engineering/","section":"Blog","summary":"La era del prompt engineering fue efimera. El futuro apunta hacia agentes autonomos dirigidos por objetivos.","title":"Adios al Prompt Engineering","type":"posts"},{"content":"","date":"30 de abril de 2024","externalUrl":null,"permalink":"/es/tags/augmented-intelligence/","section":"Tags","summary":"","title":"Augmented Intelligence","type":"tags"},{"content":"","date":"30 de abril de 2024","externalUrl":null,"permalink":"/es/tags/collaboration/","section":"Tags","summary":"","title":"Collaboration","type":"tags"},{"content":"","date":"30 de abril de 2024","externalUrl":null,"permalink":"/es/tags/customer-service/","section":"Tags","summary":"","title":"Customer Service","type":"tags"},{"content":"","date":"30 de abril de 2024","externalUrl":null,"permalink":"/es/tags/healthcare/","section":"Tags","summary":"","title":"Healthcare","type":"tags"},{"content":"Uno de los cambios mas relevantes en referencia a como la IA va a cambiar nuestras actitudes es el que supone la aparicion del concepto de \u0026ldquo;IA Colaborativa\u0026rdquo;. Las ultimas tendencias en el desarrollo de la tecnologia de IA apuntan a que los sistemas de IA no estan aqui para reemplazar a los humanos, sino para ayudarlos. Por lo tanto, esta tecnologia debe operar en simbiosis con la experiencia humana en lo que algunos autores han descrito como inteligencia aumentada.\nLa idea de la inteligencia aumentada implica una transicion hacia el modelo de asociacion entre las herramientas de IA y los humanos para que obtengan resultados mucho mejores cuando trabajen en conjunto. Esto es particularmente importante en areas como la salud o el servicio al cliente, que requieren precision y personalizacion.\nPor ejemplo, en la salud, la IA ayuda en el diagnostico de enfermedades ya que acelera el analisis de los datos proporcionados, lo que, a largo plazo, ayuda a los medicos a tomar las mejores decisiones. De manera similar, en el servicio al cliente, los ultimos chatbots de IA se estan desarrollando para manejar consultas rutinarias de los clientes, permitiendo que los agentes humanos se concentren completamente en atender las necesidades complejas de los clientes.\nAvanzando, aceptar que la IA trabaje con nosotros y no solo para nosotros liberara nuevo potencial para la creatividad y la productividad. Esta asociacion aprovechara no solo las capacidades humanas y de maquina, sino tambien lo mejor de ambos para ayudar a asegurar que la tecnologia que estamos construyendo este al servicio de todos en la sociedad.\n","date":"30 de abril de 2024","externalUrl":null,"permalink":"/es/posts/augmented-intelligence/","section":"Blog","summary":"La IA no esta aqui para reemplazar a los humanos, sino para ayudarlos. El futuro es la inteligencia aumentada.","title":"Inteligencia aumentada: colaboracion, no sustitucion","type":"posts"},{"content":"","date":"30 de abril de 2024","externalUrl":null,"permalink":"/es/tags/prompt-engineering/","section":"Tags","summary":"","title":"Prompt Engineering","type":"tags"},{"content":"","date":"1 de abril de 2024","externalUrl":null,"permalink":"/es/tags/chiplets/","section":"Tags","summary":"","title":"Chiplets","type":"tags"},{"content":"","date":"1 de abril de 2024","externalUrl":null,"permalink":"/es/tags/energy-efficiency/","section":"Tags","summary":"","title":"Energy Efficiency","type":"tags"},{"content":"A medida que los sistemas de IA crecen en escala y complejidad, el consumo energetico se ha convertido en uno de los desafios mas apremiantes de la industria. Pero tres tecnologias emergentes ofrecen una esperanza genuina para un futuro mas sostenible.\nParte I: Chiplets \u0026ndash; La revolucion modular # En el mundo del diseno de semiconductores, la innovacion de los chiplets esta demostrando ser un cambio radical. Este enfoque modular permite combinar componentes optimizados por separado para tareas especificas en una computacion mucho mas eficiente energeticamente \u0026ndash; esencial para las aplicaciones de IA que consumen mucha energia. Se pueden ejecutar computaciones algoritmicas mas potentes con menos energia, reduciendo el impacto ambiental y los costes operativos.\nLa flexibilidad de los chiplets permite que la IA continue progresando a su velocidad vertiginosa, incorporando rapidamente los ultimos avances en unidades de procesamiento sin requerir redisenos completos de chips. Este cambio esta transformando el panorama de los semiconductores en uno mas abierto, colaborativo y que fomenta la innovacion.\nParte II: Computacion fotonica \u0026ndash; La velocidad de la luz # La computacion fotonica representa otro avance: procesar informacion con luz (fotones) en lugar de electrones. Esto introduce una eficiencia energetica sin precedentes, reduciendo al minimo absoluto el calor producido y disminuyendo drasticamente el consumo de energia \u0026ndash; abordando dos de los mayores problemas de la infraestructura informatica actual.\nNo es un pequeno paso, sino un gran salto hacia practicas de computacion mas ecologicas y sostenibles. La computacion fotonica probablemente acelerara el desarrollo de la IA y abrira muchas puertas para la velocidad y capacidad de la IA que antes eran un mero sueno.\nParte III: Computacion neuromorfica \u0026ndash; Imitando al cerebro # En la confluencia de las estructuras neuronales del cerebro humano y la computacion revolucionaria se encuentra la computacion neuromorfica. Esta tecnologia imita la eficiencia energetica observada en los procesos computacionales del cerebro y promete una mejora dramatica.\nLa computacion neuromorfica procesa informacion de una forma mucho mas natural y eficiente \u0026ndash; usando menos energia mientras aumenta la velocidad de procesamiento, estableciendo un nuevo punto de referencia para la computacion eficiente. Permite desarrollar sistemas de IA muchas veces mas rapidos y eficientes energeticamente que los disenos tradicionales, siendo al mismo tiempo mas complejos y adaptativos en sus procesos de aprendizaje y toma de decisiones.\nCon la computacion neuromorfica, el salto hacia la Inteligencia Artificial General \u0026ndash; cuando las maquinas realmente puedan realizar cualquier tarea intelectual como un ser humano \u0026ndash; parece mucho menos un sueno lejano.\nConclusion # Estas tres tecnologias \u0026ndash; chiplets, computacion fotonica y computacion neuromorfica \u0026ndash; representan caminos complementarios hacia la solucion de la crisis energetica de la IA. Juntas, prometen hacer la IA no solo mas potente, sino mas sostenible. El viaje hacia una computacion mas eficiente, inteligente y similar a la humana acaba de despegar.\n","date":"1 de abril de 2024","externalUrl":null,"permalink":"/es/posts/ai-energy-efficient-computing/","section":"Blog","summary":"Tres tecnologias emergentes – chiplets, computacion fotonica y neuromorfica – prometen resolver el problema energetico de la IA.","title":"IA y computacion energeticamente eficiente: hay esperanza","type":"posts"},{"content":"","date":"1 de abril de 2024","externalUrl":null,"permalink":"/es/tags/photonic-computing/","section":"Tags","summary":"","title":"Photonic Computing","type":"tags"},{"content":"","date":"27 de febrero de 2024","externalUrl":null,"permalink":"/es/tags/agile/","section":"Tags","summary":"","title":"Agile","type":"tags"},{"content":"La metodologia Agile clasica ha sido el marco organizacional perfecto para las empresas que buscan eficiencia y adaptabilidad en sus proyectos. Sin embargo, el cliente se ha vuelto gradualmente mas complejo en sus demandas y es necesario buscar nuevas formas de satisfacer las expectativas de mercados cada vez mas maduros. Esto conduce a disenar una configuracion en la organizacion alrededor de estructuras basadas en productos para conseguir una forma mas holistica de centrarse en los clientes.\nDesventajas de la metodologia Agile clasica # Aunque estas metodologias fomentan iteraciones rapidas y capacidad de respuesta, las celulas agiles tradicionales tambien resultan en silos. De hecho, pueden llegar al extremo de crear compartimentacion. Cuando los equipos trabajan en silos, se genera una perspectiva fragmentada del panorama general — los esfuerzos adolecen de falta de coordinacion, lo que resulta en productos que no reflejan totalmente las necesidades de los usuarios. La falta de una vision unica puede diluir la propiedad y la responsabilidad de entregar resultados coherentes e impactantes.\nVentajas de una organizacion basada en productos # Moverse hacia una organizacion estructural basada en productos alinea todos los equipos bajo una vision de producto unica y los alienta a colaborar profundamente en visiones compartidas del producto enfocadas en el usuario final. Los hace responsables e involucrados, asegurando que al menos una, si no mas funciones, contribuyan directa y exclusivamente a entregar valor a los clientes. La priorizacion de recursos se vuelve mas logica cuando la entidad central esta enfocada en el producto, y las organizaciones pueden tomar decisiones mas agiles en el desarrollo de sus productos que satisfacen verdaderamente las demandas del mercado.\nLa transicion # El transito de celulas Agile a un marco basado en productos es un cambio que debe ser ejecutado con precision. La redefinicion de roles, la realineacion de objetivos y la inculcacion de una cultura de funcionalidad cruzada y orientacion al cliente requieren reflexion y tiempo.\nConclusion # La organizacion basada en productos ofrece una alternativa realista y conveniente para adaptarse a un entorno cada vez mas exigente. La orientacion hacia los procesos no siempre cumple con la tarea de satisfacer las expectativas del cliente y ser mas competitivos, sino que actua a veces en sentido contrario.\nEste cambio de paradigma de las metodologias Agile clasicas a un enfoque en el producto ofrece una alternativa mas cercana a los intereses de nuestros publicos.\n","date":"27 de febrero de 2024","externalUrl":null,"permalink":"/es/posts/beyond-agile-product-centric/","section":"Blog","summary":"La metodologia Agile clasica tiene sus limites. Moverse a una organizacion basada en productos ofrece una forma mas holistica de centrarse en los clientes.","title":"Mas alla de Agile: la revolucion centrada en el producto","type":"posts"},{"content":"","date":"27 de febrero de 2024","externalUrl":null,"permalink":"/es/tags/product-management/","section":"Tags","summary":"","title":"Product Management","type":"tags"},{"content":"Los desarrolladores de software son los herreros del siglo pasado. Mientras vivimos al filo del cambio tecnológico, la IA ha revolucionado todos los sectores; está en su código. El rol tradicional de un desarrollador está a punto de cambiar radicalmente, se abre paso al futuro donde los \u0026ldquo;desarrolladores artificiales\u0026rdquo; de código serán los protagonistas.\nEn tal escenario, la atención se centra en los ingenieros de procesos a los que les corresponde ser los arquitectos de una nueva era. Su rol se transforma desde los límites convencionales: orquestando la IA para construir sistemas complejos e innovadores con una precisión nunca vista hasta ahora.\nTal cambio de paradigma promete redefinir la eficiencia, minimizando el error humano y acortando el ciclo de desarrollo de software. La codificación tradicional pasará a un segundo plano, mientras que, al mismo tiempo, las habilidades estratégicas enfocadas en el diseño de experiencias digitales resultarán esenciales para esta nueva generación de profesionales de la industria del software.\nEl futuro no se trata solo del fin de los desarrolladores, sino de trascender los roles tradicionales para dar paso a una innovación y eficiencia sin precedentes en la producción de software. Los desarrolladores de hoy pronto serán como los herreros del pasado, que forjaban herramientas esenciales a mano. Los desarrolladores del futuro instruirán a la IA para desarrollar herramientas esenciales a escala industrial y a una velocidad nunca antes vista en la industria del software.\n","date":"20 de febrero de 2024","externalUrl":null,"permalink":"/es/posts/developers-blacksmiths-last-century/","section":"Blog","summary":"El rol tradicional del desarrollador está a punto de cambiar radicalmente. Los desarrolladores del futuro instruirán a la IA para crear herramientas a escala industrial.","title":"Los desarrolladores de software son los herreros del siglo pasado","type":"posts"},{"content":"","date":"16 de febrero de 2024","externalUrl":null,"permalink":"/es/tags/content-creation/","section":"Tags","summary":"","title":"Content Creation","type":"tags"},{"content":"La reciente presentacion de SORA por OpenAI envio ondas de choque por el mundo tecnologico; esto representa un cambio hacia la tecnologia de video generado por inteligencia artificial.\nEl nivel de avance alcanzable a traves de SORA sugiere una vision del futuro en la que la creacion de contenido de video realista y atractivo sera tan sencilla como introducir un prompt de texto. Esta capacidad reduciria dramaticamente las barreras para la produccion de video de alta calidad y abriria nuevas e inexploradas vias para la creatividad y la narrativa.\nEl poder de crear gran contenido de video ya no es privilegio de los grandes estudios. Usando herramientas sofisticadas como SORA, las pequenas empresas, los educadores y los creadores independientes podrian aprovechar facilmente la IA para dar vida a sus visiones — haciendo que el contenido de video atractivo sea mas accesible que nunca.\nMientras aprovechamos estos avances, tambien debemos acoger los dilemas eticos que conllevan. El potencial de crear deepfakes e informacion falsa exige que se formulen colectivamente directrices y salvaguardas para preservar la integridad y la confianza en el contenido basado en IA.\nLo que viene # El camino no termina aqui. La evolucion del video generado por IA producira experiencias aun mas interactivas y personalizadas, desafiando la forma en que consumimos e interactuamos con los medios digitales como nunca antes.\n","date":"16 de febrero de 2024","externalUrl":null,"permalink":"/es/posts/ai-generated-video-future/","section":"Blog","summary":"La presentacion de SORA por OpenAI senala un cambio en la tecnologia de video generado por IA que democratizara la creacion de contenido.","title":"Explorando el futuro del video generado por IA","type":"posts"},{"content":"","date":"16 de febrero de 2024","externalUrl":null,"permalink":"/es/tags/video/","section":"Tags","summary":"","title":"Video","type":"tags"},{"content":"Diez profesiones que podrian verse significativamente afectadas por el avance de la IA y la automatizacion:\nEmpleados de entrada de datos — La llegada de la automatizacion y los sistemas de IA capaces de procesar datos a alta velocidad podrian reducir significativamente la necesidad de roles de entrada de datos manuales.\nTelemarketers — El auge de los chatbots de IA y asistentes de voz podria pronto eclipsar la necesidad de telemarketers humanos, ya que estas tecnologias mejoran en manejar llamadas de ventas y consultas de clientes.\nContadores y auxiliares contables — Los modernos algoritmos de IA y aprendizaje automatico estan alcanzando un nivel de sofisticacion donde pueden manejar sin esfuerzo transacciones financieras y auditorias, potencialmente simplificando las numerosas tareas tradicionalmente realizadas por contadores y auxiliares contables.\nCorrectores de textos — La IA avanzada en el procesamiento del lenguaje podria asumir las tareas de correccion de textos, identificando errores gramaticales y estilisticos, a veces incluso mas efectivamente que los humanos, lo que podria disminuir la demanda de correctores humanos.\nCajeros de tiendas — La introduccion de tecnologias de venta al por menor impulsadas por IA y sistemas de pago automatizados plantea un desafio significativo para la necesidad de cajeros en entornos de venta al por menor.\nAgentes de viajes — Las plataformas impulsadas por IA que ofrecen consejos y reservaciones de viajes personalizados podrian reemplazar efectivamente a las agencias de viajes tradicionales.\nTrabajadores de lineas de ensamblaje — La larga integracion de la automatizacion y la robotica en la manufactura podria llevarse un paso mas alla con la IA, reduciendo potencialmente la necesidad de trabajadores humanos en las lineas de ensamblaje de manera dramatica.\nRepresentantes de servicio al cliente — El uso creciente de chatbots de IA y asistentes virtuales en diversas industrias para manejar consultas de servicio al cliente podria hacer obsoletos algunos roles de servicio al cliente humanos.\nTraductores — A pesar de que la naturaleza matizada de la traduccion de idiomas todavia se beneficia de la experiencia humana, las herramientas de traduccion de IA estan mejorando rapidamente y pronto podrian ser capaces de manejar tareas de traduccion mas sencillas con minima intervencion humana.\nParalegales y asistentes legales — Las tecnologias de IA y aprendizaje automatico se estan empleando para automatizar la revision de documentos y la investigacion legal, tareas que tradicionalmente han sido el dominio de paralegales y asistentes legales.\n","date":"15 de febrero de 2024","externalUrl":null,"permalink":"/es/posts/ten-professions-at-risk/","section":"Blog","summary":"Diez profesiones que podrian verse afectadas por el avance de la IA y la automatizacion.","title":"Diez profesiones en peligro de extincion","type":"posts"},{"content":"Con el amanecer de la era de la IA generativa en el horizonte, el panorama profesional tal como lo conocemos esta al borde de una alteracion masiva. Es asombroso que la IA pueda automatizar e incluso generar contenido por si misma, pero ello trae consigo temores sobre la seguridad laboral de los humanos en el futuro.\nLos mas afectados por este cambio son las profesiones donde el trabajo rutinario y el procesamiento de datos son un requisito. Los roles administrativos, los empleados de captura de datos y partes del servicio al cliente son los mas susceptibles a la influencia de los sistemas de inteligencia artificial. Estas tecnologias pueden analizar y procesar informacion a velocidades que los humanos no pueden alcanzar. Pueden ser invaluables para la eficiencia, pero al mismo tiempo podrian volver redundantes los roles actuales.\nEl sector creativo tampoco es inmune. Si la IA ya es capaz de producir contenido escrito, arte e incluso musica, los profesionales creativos del futuro podrian encontrarse compitiendo contra maquinas capaces de producir resultados similares en una fraccion del tiempo. Pero el contenido creado por humanos tiene una ventaja — el toque humano unico, la profundidad emocional y la comprension cultural que proporciona.\nEsto no es una alarma — es un llamado a despertar. El secreto para sobrevivir en este nuevo panorama gobernado por la IA reside en las habilidades humanas irremplazables: creatividad, empatia, pensamiento estrategico e inteligencia emocional. Los profesionales que sean lo suficientemente flexibles y decidan trabajar con la IA no solo sobreviviran, sino que prosperaran.\nEl futuro del trabajo no se trata de humanos contra la IA, sino de unirse para crear sinergias con estas tecnologias de una manera que haga el mundo mas eficiente, mas creativo y mas empatico. Afrontemoslo. Mejoremos y reinventemos nuestras competencias, porque lo que es indispensable en la era de la IA es el individuo.\n","date":"14 de febrero de 2024","externalUrl":null,"permalink":"/es/posts/generative-ai-double-edged-sword/","section":"Blog","summary":"La IA generativa trae consigo temores sobre la seguridad laboral junto con su poder de automatizacion. La clave esta en las habilidades humanas irremplazables.","title":"La doble cara de la IA generativa: el futuro del trabajo en la cuerda floja","type":"posts"},{"content":"","date":"30 de enero de 2024","externalUrl":null,"permalink":"/es/tags/careers/","section":"Tags","summary":"","title":"Careers","type":"tags"},{"content":"El panorama laboral esta cambiando a una velocidad inimaginable a medida que nos acercamos al amanecer de una era centrada en la IA. En los proximos tres anos, algunas profesiones relacionadas con la IA dominaran este panorama y cambiaran nuestra perspectiva sobre el trabajo, las competencias y la educacion.\nLas profesiones de IA mas demandadas # Eticos de IA — las personas que orientan el desarrollo y la aplicacion etica de las tecnologias de IA.\nIngenieros de Machine Learning — profesionales que crean algoritmos de autoaprendizaje y desarrollan, ajustan y optimizan redes neuronales.\nAnalistas de datos de IA — comprenden conjuntos de datos complejos para mejorar los sistemas de IA.\nDisenadores de IA conversacional — construyen chatbots avanzados y asistentes virtuales.\nEspecialistas en integracion de IA — integran tecnologias de IA en la infraestructura tecnologica existente sin fricciones.\nCerrando la brecha de competencias # La creciente demanda de estos roles esta impulsando un cambio en la oferta educativa. Las principales universidades, en colaboracion con plataformas en linea, estan lanzando titulos especializados, diplomados y maestrias en IA, machine learning, ciencia de datos y etica tecnologica. Estos programas no solo estan disenados para transmitir conocimiento tecnico, sino tambien pensamiento critico, consideraciones eticas y capacidades de resolucion creativa de problemas.\nCon esta nueva era digital, el aprendizaje continuo es imprescindible y la adaptabilidad es clave. Cualquiera puede adentrarse en el mundo de la IA, ya sea un profesional experimentado o alguien dando sus primeros pasos.\n","date":"30 de enero de 2024","externalUrl":null,"permalink":"/es/posts/ai-driven-professions-rise/","section":"Blog","summary":"El panorama laboral cambia rapidamente a medida que las profesiones relacionadas con la IA emergen para dominar el mercado.","title":"El futuro del trabajo: profesiones impulsadas por la IA en auge","type":"posts"},{"content":"La era del \u0026ldquo;salvaje oeste\u0026rdquo; en la industria de la IA esta llegando a su fin. En 2023, nos preparamos para un cambio significativo con la introduccion de legislaciones como el Reglamento de la Inteligencia Artificial de la UE. Estas nuevas regulaciones prometen proteger los derechos humanos y restringir practicas de IA perjudiciales, una transicion necesaria hacia un futuro tecnologico mas seguro y etico.\nLa IA ha transformado industrias, pero estamos listos para navegar por este nuevo paisaje regulador?\nLa introduccion de una regulacion integral de la IA no es solo una formalidad legal — representa un cambio fundamental en como la sociedad se relaciona con la inteligencia artificial. Durante anos, la tecnologia ha avanzado mas rapido que los marcos disenados para gobernarla. Esa brecha finalmente se esta cerrando.\nEl Reglamento de Inteligencia Artificial de la UE sienta un precedente que probablemente influira en la regulacion a nivel mundial, de manera similar a como el RGPD lo hizo con la privacidad de datos. Las empresas que se preparen ahora tendran una ventaja competitiva. Las que se resistan se encontraran luchando por cumplir.\nLa pregunta ya no es si la IA sera regulada, sino con que rapidez las organizaciones pueden adaptarse a las nuevas reglas del juego.\n","date":"27 de noviembre de 2023","externalUrl":null,"permalink":"/es/posts/ai-regulation-2024/","section":"Blog","summary":"La era del salvaje oeste en la IA llega a su fin. Nuevas regulaciones prometen proteger los derechos humanos y restringir practicas perjudiciales.","title":"El ano del cambio en la regulacion de la IA","type":"posts"},{"content":"","date":"27 de noviembre de 2023","externalUrl":null,"permalink":"/es/tags/eu/","section":"Tags","summary":"","title":"EU","type":"tags"},{"content":"","date":"27 de noviembre de 2023","externalUrl":null,"permalink":"/es/tags/regulation/","section":"Tags","summary":"","title":"Regulation","type":"tags"},{"content":" Redirigiendo al vídeo en tu idioma...\nSi no te redirige automáticamente:\n🇪🇸 Versión en español · 🇬🇧 English version ","externalUrl":null,"permalink":"/es/youtube-intro/","section":"Carles Abarca","summary":" Redirigiendo al vídeo en tu idioma...\nSi no te redirige automáticamente:\n🇪🇸 Versión en español · 🇬🇧 English version ","title":"Intro del Canal de YouTube","type":"page"},{"content":" Carles Abarca # Vice President of Digital Transformation en el Tecnologico de Monterrey.\nCon mas de 20 anos liderando transformacion tecnologica en banca y educacion, he ocupado roles ejecutivos como CTO en Banco Sabadell y CIO en TSB Bank (Reino Unido). Mi trabajo se centra en la interseccion entre inteligencia artificial, transformacion digital, ciberseguridad y cambio organizacional.\nEscribo sobre las fuerzas que estan redefiniendo la tecnologia y los negocios \u0026ndash; agentes de IA, el futuro del software, y las decisiones estrategicas que separan a las organizaciones que se adaptan de las que no.\nAreas de enfoque # Inteligencia Artificial y Agentes de IA Estrategia de Transformacion Digital Ciberseguridad Arquitectura Empresarial Innovacion en Educacion Superior Conectar # LinkedIn X / Twitter ","externalUrl":null,"permalink":"/es/about/","section":"Carles Abarca","summary":"Sobre Carles Abarca","title":"Sobre mi","type":"page"},{"content":" Mantente informado # Escribo sobre IA, transformación digital y las fuerzas que están redefiniendo la tecnología y los negocios. Sin spam. Cancela cuando quieras.\n","externalUrl":null,"permalink":"/es/subscribe/","section":"Carles Abarca","summary":"Suscribirse a la newsletter","title":"Suscribirse","type":"page"}]