Hay una sensación general de final de época: la de la Inteligencia Artificial “barata” o subvencionada. Cada vez hay más señales que la lógica de usar mucho una IA con límites altos por una tarifa fija está llegando a su fin. Y sí, tiene toda la lógica del mundo: los usuarios se hacen cada vez más especializados e intensivos en el uso y los Agentes de IA consumen de forma exponencial.
Por eso se ven experiencias como las de Anthropic probando tarifas de hasta el doble de su valor actual, restringiendo sus herramientas (como Claude Code) a los planes más altos. Como las de Google, limitando en algunos casos hasta el 97 % de acceso a los modelos a Antigravity. O, por ahora al contrario, la estrategia de OpenAI de subir los límites para atraer a esa parte del mercado que habían perdido frente a otros laboratorios.
Este es uno de esos momentos críticos: la mejor estrategia es exprimir hasta el final las IAs más poderosas mientras estén “accesibles” en costos y construir herramientas para nuestro día a día con ellas, pero que usen modelos abiertos o más económicos. Porque sí, quizá se vuelva más caro llegar al mejor procesamiento, pero si nuestras soluciones las construimos para ser compatibles con cualquier modelo, la frustración y el costo de oportunidad bajan.
Relanzamiento
Hace 9 años, junto a dos amigos, fundé Tres Barbas con una idea bastante concreta: ayudar a empresas, medios y proyectos a construir una presencia digital sólida.
Desde entonces cambió casi todo. Cambió el equipo, cambiaron las herramientas, cambiaron los problemas de las empresas y también cambió la tecnología. Lo que antes era “tener presencia digital”, hoy se parece mucho más a integrar sistemas, automatizar procesos y aprender a trabajar con inteligencia artificial sin que eso se vuelva una moda vacía o una caja negra.
Por eso relanzamos ArgentoIA: una nueva etapa, con otro equipo y una mirada más enfocada en llevar la inteligencia artificial a flujos reales de trabajo. No como promesa abstracta, sino como herramientas concretas para empresas, emprendimientos y equipos que necesitan ahorrar tiempo, ordenar procesos y tomar mejores decisiones.
En este posteo de Instagram contamos un poco más de qué se trata este nuevo camino. Están más que invitados a acompañarnos en este proceso.
Una IA atrapada en 1930
Talkie es un experimento raro y bastante elegante: un modelo de 13.000 millones de parámetros entrenado únicamente con textos anteriores a 1931 —libros, diarios, revistas, patentes, jurisprudencia— para ver qué tipo de inteligencia aparece cuando se le quita algo que damos por inevitable: Internet. Lo crearon Nick Levine, David Duvenaud y Alec Radford, y la idea no es competir con los modelos actuales, sino estudiar qué queda de la capacidad de razonar cuando el mundo del modelo termina antes de la computación moderna, la Segunda Guerra Mundial o la cultura digital. En cierto sentido, es una IA con memoria histórica limitada de forma deliberada.

Lo más interesante es que Talkie no solo reproduce el tono de otra época, sino que permite medir generalización de una forma más limpia. Como no fue entrenado con datos modernos, no puede haber “visto” muchos de los tests actuales. Por eso resulta llamativo que, con ejemplos mínimos, pueda resolver pequeñas tareas en Python, un lenguaje que no existía en 1930. No está programando como un modelo moderno, claro: sus soluciones correctas son simples, a veces apenas modificar un signo. Pero justamente ahí está el punto. Cuando cambia un “+” por un “-” para invertir una función, no está recordando una respuesta de la web; está aplicando una relación aprendida desde otros materiales.
También hay una lectura más amplia. Los modelos actuales tienden a parecerse entre sí porque todos fueron moldeados, directa o indirectamente, por el mismo gran corpus cultural: la web contemporánea. Talkie muestra que otra dieta de datos produce otra personalidad, otros errores, otra textura de pensamiento. A veces suena enciclopédico, victoriano, seguro de cosas que inventa; otras veces ofrece intuiciones sorprendentemente precisas sobre su propio horizonte histórico. Tal vez el valor de estos modelos “vintage” no sea hablar con el pasado como si fuera una máquina del tiempo, sino recordarnos algo más incómodo: que la inteligencia artificial no aprende el mundo, aprende una versión del mundo. Y cambiar esa versión cambia también la forma en que piensa.
El software empieza a escribirse como intención
Andrej Karpathy viene insistiendo con una idea que ayuda a ordenar bastante el momento: los modelos de lenguaje no son solo herramientas, sino una nueva forma de computadora. Primero estuvo el Software 1.0, hecho de código escrito a mano. Después el Software 2.0, donde el “programa” eran pesos aprendidos a partir de datos. Ahora aparece algo distinto: Software 3.0, donde se programa con instrucciones, contexto y agentes. El ejemplo de OpenClaw es bastante claro: en lugar de entregar un instalador enorme que intenta anticipar cada sistema operativo, cada error y cada dependencia rota, se le da al usuario un bloque de instrucciones para que un agente lea su entorno, entienda qué falla y complete la instalación.
El cambio parece menor hasta que uno mira qué se está moviendo. Durante décadas, el software tuvo que prever todo de antemano: botones, flujos, excepciones, mensajes de error. En este nuevo esquema, el programa puede ser texto; el intérprete es el modelo; y el entorno de ejecución es un agente con herramientas, permisos y capacidad de actuar dentro de la computadora del usuario. No estamos simplemente agregando IA a una aplicación. Estamos viendo cómo la aplicación empieza a volverse menos rígida, menos cerrada, menos dependiente de interfaces fijas.
Tal vez por eso OpenClaw importa más como señal que como producto puntual. Anticipa una arquitectura donde ya no operamos software paso a paso, sino que delegamos intención. “Instalá esto”, “prepará este entorno”, “resolvé este conflicto”, “dejalo funcionando”. La interfaz deja de ser un panel lleno de opciones y se acerca más a una conversación con alguien capaz de ejecutar. Eso no elimina el software; lo desplaza. La próxima capa quizás no esté hecha de apps que usamos, sino de agentes en los que confiamos lo suficiente como para que usen las apps por nosotros.
Relámpago
- Google firmó un acuerdo con el Pentágono para permitir el uso de su IA en fines gubernamentales, generando rechazo interno de empleados que piden limitar aplicaciones militares.
- NVIDIA lanzó Nemotron 3 Nano Omni, un modelo multimodal abierto que procesa visión, audio y texto con mayor velocidad que sus competidores.
- Xiaomi liberó MiMo-V2.5-Pro, un modelo open source con contexto de 1 millón de tokens y rendimiento comparable a Kimi K2.6 en tareas de agentes.
- SpaItial lanzó Echo-2, un modelo que genera mundos 3D explorables a partir de texto o imágenes y que supera a Marble 1.1 en benchmarks.
- Google está probando “Ask YouTube”, una función de búsqueda conversacional que genera respuestas con IA, resúmenes y recomendaciones dentro de la plataforma.
- OpenAI estaría explorando el desarrollo de un smartphone centrado en agentes de IA junto a socios como MediaTek y Qualcomm, buscando ir más allá del modelo de apps tradicionales.
- OpenAI y Amazon ampliaron su colaboración para integrar modelos como Codex y sistemas de agentes en la infraestructura de AWS.
- Apple confirmó que Siri ahora funciona con Google Gemini en iOS 26.4, incorporando funciones como lectura de pantalla y acciones entre apps, con una fase futura más conversacional prevista para iOS 27.
- Anthropic reconoció que Claude Code sufrió degradaciones por tres fallos entre marzo y abril, incluyendo menor razonamiento, pérdida de contexto y límites en respuestas. Los problemas fueron corregidos el 20 de abril.
- Un estudio de Alexis Apablaza-Campos y Jaime Andrés Wilches Tinjacá analizó más de 100 casos de uso de IA en medios de Iberoamérica, destacando enfoques locales y debates pendientes sobre su uso ético.
- Biohub lanzó una iniciativa de 500 millones de dólares para crear datos y modelos abiertos que permitan predecir el comportamiento de células humanas mediante IA.
- La Clínica Mayo presentó REDMOD, una IA que detecta cáncer de páncreas hasta tres años antes en tomografías, superando en precisión a especialistas.
- KAIKAKU AI presentó Epicure, un modelo que analiza recetas para inferir sabor, textura y cocina sin datos químicos, con aplicaciones en diseño de menús y creación de platos.
- SpaceX aprobó un plan de compensación que otorgaría a Elon Musk acciones si la empresa alcanza una valoración de 7,5 billones de dólares y logra establecer una colonia en Marte con 1 millón de personas. El plan también incluye objetivos vinculados a centros de datos espaciales.
- Flipbook es un navegador visual que genera escenas interactivas en lugar de páginas web tradicionales, organizando información de forma contextual a partir de cada clic.
- Google lanzó Gemini 3.1 Ultra con una ventana de contexto de 2 millones de tokens y capacidades multimodales, incluyendo ejecución de código en sandbox.
- Meta lanzó TRIBE v2, una herramienta de IA experimental que analiza contenido y predice en qué momentos los espectadores perderán interés antes de su publicación.
- La Casa Blanca se opone a ampliar el acceso privado al modelo Mythos de Anthropic por preocupaciones sobre capacidad de cómputo, mientras evalúa nuevas políticas de uso de IA en el gobierno.
- Google comenzó a integrar Gemini en vehículos compatibles, reemplazando al Asistente con un sistema más conversacional que controla navegación, mensajes y funciones del auto.
- OpenAI detectó que menciones frecuentes a criaturas como “duendes” en ChatGPT provenían de una señal de recompensa en su modo “Nerdy”, lo que influyó en múltiples versiones del modelo.
- Novo Nordisk anunció una alianza con OpenAI para integrar IA en todo su pipeline de fármacos, desde descubrimiento hasta fabricación, con despliegue completo previsto para 2026.
- Un estudio de Harvard mostró que un modelo de OpenAI superó a médicos en diagnósticos de urgencias en 76 casos, logrando mayor precisión usando solo historiales clínicos.
- Sam Altman anunció que los usuarios de OpenClaw podrán utilizar sus suscripciones de ChatGPT dentro de la herramienta.
- Un tribunal chino dictaminó que reemplazar a un trabajador por inteligencia artificial no justifica su despido, y obligó a una empresa tecnológica a indemnizar al empleado por despido improcedente.
- Peter Thiel lideró una ronda de 140 millones de dólares en la startup Panthalassa, que desarrolla centros de datos flotantes alimentados por energía de las olas.
- Google anunció que la API de Gemini ahora soporta webhooks orientados a eventos, permitiendo que aplicaciones reciban notificaciones en tiempo real cuando finalizan tareas como generación de video, procesos batch o flujos de agentes, eliminando la necesidad de hacer polling constante y reforzando la integración de Gemini dentro de infraestructuras automatizadas y sistemas backend.
- xAI lanzó Grok 4.3 con mejoras claras en rendimiento y razonamiento, aunque todavía sigue detrás de modelos líderes como los de OpenAI y Anthropic. Lo más interesante es su eficiencia: con unos 500 mil millones de parámetros, rinde bien para su tamaño y deja abierta la posibilidad de un salto mucho más fuerte en futuras versiones.
- GitHub Copilot empieza a abandonar la suscripción plana y pasa a un modelo basado en créditos, reflejando el enorme coste computacional de los nuevos agentes de IA. Ya no se trata solo de autocompletar código: Copilot ahora ejecuta tareas complejas, y eso cambia completamente la economía del producto.
- OpenAI y Anthropic lanzaron el mismo día nuevas empresas centradas en despliegue corporativo de IA, con miles de millones en financiación. La apuesta ya no es solo vender modelos, sino incrustar equipos e infraestructura directamente dentro de las empresas clientes.
- Un estudio de MIT Sloan School of Management encontró que gran parte del rendimiento al usar IA no depende del modelo, sino de cómo se escriben los prompts. Los usuarios que añaden rol, contexto y restricciones obtienen resultados mucho más útiles que quienes usan instrucciones genéricas.
- OpenAI estaría acelerando el desarrollo de su primer teléfono con IA para lanzarlo en 2027, con chips de MediaTek y un fuerte enfoque en agentes visuales capaces de interpretar el entorno en tiempo real.
- Span y NVIDIA quieren instalar mini centros de datos de IA en hogares y pequeños negocios, usando capacidad eléctrica sobrante para distribuir cargas de computación sin depender solo de grandes data centers centralizados.
Qué estoy usando
En esta sección de cierre te cuento qué herramientas estoy usando en este momento porque, desde mi visión y uso, me da los mejores resultados (por respuesta o por costos).
Texto: mis GPTs personalizados con GPT 5.5 (plan plus), Los bots en GPT 5 nano y uno en Gemini 3.1 flash lite (sigo con los modelos que me parecen más accesibles costo/rendimiento/latencia)
Video: VEO 3.1 (pago)
Audio: Elevenlabs (Pago), Adobe Audition (Pago) y NotebookLM (Plan Ultra).
Imágenes: GPT 2 (Pago) Nano Banana 2 (Pago).
Programación: Antigravity (ya casi nada) y Codex, ambas con sus respectivos planes de 20 dólares. Claude Code la estoy usando con la api de NVIDIA NIM y Ollama.
Buscador: Deep Research (OpenAI plus).
Música: Suno y Elevenlabs (Pago)