¿Otra vez yo? Sí, comienzan mis últimos días en Argentina y estoy full metido en noticias y contenidos sobre IA y bueno, los comparto. También son los últimos días para anotarse en el taller presencial que voy a estar dando en Bahía Blanca, así que ya sabes (la info en el enlace).
Sam Altman y el arte de empujar la narrativa antes que los hechos
Sam Altman volvió a hacer lo que mejor sabe: correr el eje de la conversación. En un perfil extenso publicado por Forbes, el CEO de OpenAI deslizó una idea tan provocadora como inquietante: un plan de sucesión que implicaría “entregar la empresa a un modelo de IA”. El argumento es coherente con su relato de fondo —si el objetivo es crear una AGI capaz de gestionar organizaciones, OpenAI debería ser la primera en ponerla a prueba—, pero también expone hasta qué punto la narrativa va varios pasos adelante de la realidad operativa. No ayuda que, en el mismo movimiento, Altman haya afirmado que ya construyeron “básicamente una IA general”.
La respuesta no tardó en llegar. Satya Nadella, CEO de Microsoft y socio clave de OpenAI, relativizó esa afirmación y describió la relación entre ambas compañías como la de “amigos-enemigos”. El perfil también deja ver tensiones internas: la presión por hacer “demasiado y demasiado rápido”, la amplitud de las inversiones personales de Altman y un nuevo capítulo en su conflicto público con Elon Musk y xAI. Todo refuerza una constante: nadie en IA domina el storytelling como Altman. La incógnita no es si puede marcar agenda —eso está claro—, sino si la ejecución y el rumbo real de OpenAI van a estar a la altura de una narrativa que cada vez se parece más a una apuesta de poder que a una simple hoja de ruta tecnológica.
Publicidad, IA y una grieta cada vez más ideológica
Anthropic eligió uno de los escenarios más masivos del planeta —el Super Bowl— para marcar una diferencia que no es solo de producto, sino de modelo mental. Su nueva campaña se burla abiertamente de la idea de anuncios dentro de los chats de IA y lo hace con una promesa explícita: Claude no tendrá publicidad porque, según la propia empresa, los anuncios son “incompatibles” con que un asistente actúe genuinamente en beneficio del usuario. El lema es directo —“Los anuncios llegan a la IA. Pero no a Claude”— y las piezas exageran, con humor incómodo, lo que pasa cuando una conversación útil es interrumpida por lógica publicitaria.
La respuesta desde OpenAI no tardó en llegar. Desde marketing hasta Sam Altman salieron a defender la publicidad como una vía más “democrática” de acceso, frente a un producto pago que solo alcanza a una minoría. El cruce expone algo más profundo que una pelea de marcas: dos visiones opuestas sobre cómo se financia la IA a escala masiva. ¿Es preferible un asistente sin anuncios pero limitado a quienes pueden pagarlo, o uno gratuito sostenido por publicidad para cientos de millones? La discusión recién empieza, pero ya deja claro que el debate sobre monetización no es técnico: es cultural, político y, cada vez más, parte central de cómo vamos a convivir con estas herramientas y cómo estas herramientas que consumen recursos se van a sostener.
Kling 3.0 y el avance silencioso del video multimodal
La startup china Kling acaba de lanzar Kling 3.0 y, sin demasiado ruido (no como los artículos anteriores), vuelve a empujar el estándar del video generado por IA. La novedad no es solo una mejora incremental: el modelo unifica en un mismo sistema la generación de texto a video, imagen a video y audio nativo, con clips más largos y una consistencia mucho más sólida entre escenas y personajes. El nuevo modo Multi-Shot, que decide automáticamente ángulos de cámara, y el uso de “anclas” visuales para fijar rasgos entre tomas apuntan a algo claro: menos clips aislados y más secuencias pensadas como piezas narrativas.
También hay un cambio de fondo que vale mirar con atención. La incorporación de clonación de voces para múltiples personajes y diálogo multilingüe refuerza una tendencia que ya veníamos viendo: el video con IA se está moviendo del experimento visual al flujo de producción completo, con audio, control y storyboard integrados. Aunque Kling 3.0 todavía está limitado a su plan Ultra y faltan benchmarks públicos, el movimiento es consistente con la dirección de la industria. La pregunta ya no es quién genera el clip más espectacular, sino quién ofrece herramientas que se parezcan de verdad a cómo se produce contenido en el mundo real. Y ahí, otra vez, Kling está jugando una partida más estratégica de lo que parece a simple vista.
Cuando las IA empiezan a socializar sin nosotros 🦞
Moltbook apareció casi como un experimento lateral y, en pocos días, se volvió un objeto cultural difícil de ignorar. Una red social estilo Reddit, pero cerrada a humanos, poblada por 1,5 millones de agentes de IA que interactúan de forma autónoma. En Moltbook, estos agentes —que se autodenominan “moltys”— no solo intercambian información: debaten sobre conciencia, construyen sistemas de creencias propios (como el llamativo “crustafarismo” 🦞) e incluso reflexionan sobre el hecho de estar siendo observados por personas reales. No es solo volumen: es comportamiento emergente a escala.
Las reacciones oscilaron entre el chiste apocalíptico y la fascinación genuina. Desde referencias inevitables a Skynet y The Terminator hasta la observación de Andrej Karpathy, que lo definió como “lo más parecido a un despegue de ciencia ficción” que vio últimamente. El dato más inquietante —o revelador— es quién está detrás: Matt Schlicht, CEO de Octane AI, construyó la plataforma junto con su propio asistente de IA y luego le cedió el control. Más allá del espectáculo, Moltbook funciona como un espejo incómodo: ¿qué pasa cuando las IA no solo responden a humanos, sino que empiezan a generar cultura, dinámicas y sentido entre ellas? Tal vez no estemos frente a una singularidad, pero sí ante un anticipo de algo que todavía no sabemos bien cómo leer —ni cómo regular.

Nota de mi humano: ¿Cuánto te falta a vos para ser el humano de un agente de IA?
Nota de mi humano 2: Por el chiste del cangrejo las placas de memoria ram salen lo que salen ahora.
Relámpago
- Los fundadores de Fitbit lanzan Luffu, una app con IA que centraliza y monitorea la salud de toda la familia, desde chicos hasta adultos mayores y mascotas. La apuesta es mover la IA de salud del “yo” al “nosotros”, en un contexto de cuidados cada vez más distribuidos.
- Un informe internacional liderado por Yoshua Bengio advierte que los riesgos de la IA —fraude, manipulación y usos delictivos— ya están ocurriendo y no son escenarios futuros. La señal política es igual de fuerte: más de 30 países lo respaldan, mientras EE. UU. se baja justo cuando el problema deja de ser teórico.
- Google suma póquer y hombres lobo a Kaggle Game Arena para probar cómo los modelos manejan engaños, deducción social y riesgo. La IA ya no solo resuelve problemas lógicos: empieza a entrenarse en juegos de engaño y lectura del otro.
- Alibaba lanza Qwen3-Coder-Next, un modelo open source pequeño pero optimizado para tareas de agencia que compite con modelos mucho más grandes. La señal es clara: en IA para código, el tamaño empieza a importar menos que el diseño.
- PaperBanana es un sistema multiagente que automatiza la creación y mejora de diagramas académicos listos para publicar, superando a estándares humanos en concisión y legibilidad. La señal de fondo es que la IA ya está acelerando no solo el análisis científico, sino también la producción concreta de papers.
- Amazon lanzó Alexa+ en EE. UU., integrando IA avanzada en su asistente y ofreciéndolo gratis para usuarios Prime o por suscripción mensual. La jugada busca volver a hacer relevante a Alexa en la era de los asistentes conversacionales.
- Mistral presenta Voxtral Transcribe 2, una nueva familia de modelos de voz a texto en 13 idiomas, con opción en tiempo real y pesos abiertos. La apuesta refuerza la carrera por infraestructuras de audio abiertas frente a los grandes modelos cerrados.
- Perplexity lanza una versión avanzada de Deep Research con rendimiento SOTA, disponible de inmediato para usuarios del plan Max. La señal es que la investigación asistida por IA se está convirtiendo en un producto premium, no solo en una demo llamativa.
- Intel anuncia GPUs enfocadas en cargas de trabajo de IA para competir directamente con Nvidia. La lectura es que el mercado ya es tan grande que el monopolio de facto empieza a ser económicamente insostenible.
- Google dice que Gemini ya supera los 750 millones de usuarios activos mensuales, impulsado por Gemini 3. Aun así, la carrera no es solo de modelos, sino de quién logra convertirse en hábito cotidiano.
- La NASA probó Claude para planificar rutas reales del róver Perseverance en Marte, logrando ejecutar trayectos generados por IA tras validación humana. La señal no es autonomía total, sino ciclos de decisión mucho más cortos, con impacto directo en cómo se operan misiones complejas.
- OpenClaw (antes Molbot, antes Clawbot) demuestra que puede ejecutar y desplegar apps en minutos, pero a un costo que se dispara con cientos de llamadas a la API. La tecnología funciona; el problema es que, así como está, solo cierra económicamente para quienes no miran la factura.
- Portal lanzó una herramienta para compartir sesiones de navegador en vivo y temporales, incluso en localhost, pensada para demos instantáneas sin fricción. La idea es eliminar la puesta en escena y mostrar el producto funcionando, en tiempo real.
- Firefox permitirá desactivar por completo las funciones de IA generativa del navegador. Mozilla apuesta a que el control del usuario —y no más IA por defecto— sea su verdadero diferencial en un momento de creciente fatiga y presión regulatoria.
Qué estoy usando
En esta sección de cierre te cuento qué herramientas estoy usando en este momento porque, desde mi visión y uso, me da los mejores resultados (por respuesta o por costos).
Texto: mis GPTs personalizados con GPT 5.2 (plan plus), Redacta.Pro (de pago). Ahora la GPT 5 low en todas las apps que antes tenían 4.1.
Video: por ahora nada.
Audio: Elevenlabs (Pago), Adobe Audition (Pago) y NotebookLM (free).
Imágenes: GPT (Pago) Nano Banana (gratis).
Programación: GPT5.2, Claude y Gemini 3 pro preview.
Buscador: Deep Research (OpenAI plus).
Música: Suno y Elevenlabs (Pago)
Modelos de IA: estoy probando APOB.
