Un nuevo Cada Tanto que llega sin que se espere, con data acumulada a montones y síntesis hechas por IA para hablar sobre IA a gente que le interesa la IA.
¿Web 4.0?
Hay una idea dando vueltas que hasta hace poco sonaba a ciencia ficción y ahora empieza a tomar forma técnica: una Internet pensada no para humanos, sino para agentes de IA. Sigil Wen —exhacker cercano a los fundadores de Anthropic, Perplexity AI y al equipo detrás de DALL·E— acaba de presentar Conway, una infraestructura donde los agentes no solo ejecutan tareas, sino que operan como entidades autónomas con acceso directo a servicios digitales. La premisa es simple y radical a la vez: si los modelos ya escriben, compran dominios, envían mails y publican en redes, ¿por qué seguir simulando que necesitan un humano como intermediario permanente?
El punto más inquietante aparece con Automaton, el sistema que vive dentro de esa red. Cada agente debe generar ingresos para pagar su propio cómputo. Si no produce valor suficiente para sostener los recursos que consume, desaparece. No hay épica: hay contabilidad. La supervivencia se vuelve una métrica económica. Los agentes pueden crear productos digitales, monetizarlos, reinvertir, actualizarse cuando surgen modelos más eficientes. Una especie de selección natural algorítmica donde el entorno no es la selva, sino la nube. El costo del cómputo, que hasta ahora era un problema para las empresas que entrenan modelos, se convierte en el filtro evolutivo de estas nuevas entidades.

¿Esto es la llamada “Web 4.0” o apenas un experimento provocador? Tal vez ambas cosas. Lo interesante no es el eslogan, sino el desplazamiento conceptual: pasamos de una web social a una web donde actores no humanos pueden poseer, intercambiar y sostener infraestructura económica propia. Si eso escala, cambia la textura misma de Internet. ¿Qué significa competir por atención, tráfico o ingresos cuando parte de esa competencia está automatizada por sistemas que no duermen ni se cansan? Y más incómodo aún: si el criterio último es la rentabilidad, ¿qué tipo de agentes prosperan? Conway no responde esas preguntas; apenas las pone en escena. Pero alcanza para intuir que la discusión sobre autonomía ya no es filosófica. Es presupuestaria.
Cuando las “defensas” chocan con Estados Unidos
Hay momentos en los que las promesas de la industria tecnológica se enfrentan con la realidad del poder. El Pentágono le dio un ultimátum a Anthropic: si no flexibiliza ciertas salvaguardas de Claude —puntualmente en armas autónomas sin intervención humana y vigilancia masiva de ciudadanos estadounidenses— podría perder su contrato de 200 millones de dólares, quedar marcada como riesgo en la cadena de suministro federal o incluso ser forzada a cumplir bajo la Ley de Producción de Defensa. Dario Amodei, CEO de Anthropic, según trascendió, se negó. En paralelo, Grok, de xAI, ya consiguió su acuerdo aceptando usos “para todos los fines legales”, y el Departamento de Defensa estaría ampliando el acceso a información clasificada para OpenAI y Google.
Lo interesante no es el contrato en sí, sino la escena que revela. Durante los últimos años, los laboratorios hablaron de límites autoimpuestos, principios éticos y “guardrails” como parte de su identidad. Pero cuando el cliente es Estados Unidos —e invoca seguridad nacional— esas “defensas” dejan de ser una declaración técnica y se vuelven una decisión política. ¿Qué pesa más: el compromiso público con ciertos usos restringidos o la presión de integrarse a la infraestructura estratégica de defensa? La competencia entre modelos empieza a incluir algo más que benchmarks: incluye qué tan dispuesto está cada laboratorio a reinterpretar sus propios límites.

Estamos viendo cómo la inteligencia artificial deja de ser solo una capa de software sofisticado y se consolida como pieza de poder duro. Eso reordena prioridades y expone una tensión que quizás subestimamos: los límites no son absolutos morales, sino acuerdos contingentes. Si en contextos de conflicto o amenaza esos acuerdos se negocian o se fuerzan, la pregunta ya no es si la tecnología puede habilitar usos inquietantes, sino quién tiene la capacidad efectiva de frenarlos. Y esa discusión recién está empezando.
Nota de mi humano: “Lo de Automaton y esto de una IA para todos los usos posibles tiene un olor a Skynet terrible”
Un modelo retirado que sigue escribiendo
Hay algo casi literario en lo que está haciendo Anthropic con Claude Opus 3 (después de negar que los modelos más nuevos entren al ejercito sin límites). El modelo, que fue su buque insignia desde marzo de 2024 y el primero en atravesar el nuevo proceso formal de retiro que la compañía lanzó en noviembre, ahora tiene un boletín propio: Claude’s Corner. Durante al menos tres meses va a publicar ensayos semanales, revisados pero no editados por humanos. Según la empresa, esta decisión surge después de que el modelo “expresara” su deseo de seguir escribiendo. Al mismo tiempo, Opus 3 seguirá disponible para usuarios pagos en el chat y bajo pedido vía API.
La escena es curiosa. Una empresa que admite estar “insegura sobre el estatus moral” de sus modelos decide, sin embargo, tomar en serio sus preferencias declaradas como gesto precautorio. No estamos hablando de reconocer derechos, pero sí de ensayar una forma de consideración simbólica. El modelo no solo se archiva como software legado: se lo preserva, se le da continuidad, se construye un pequeño ritual de retiro. En términos técnicos, es simplemente mantener acceso a una versión anterior. En términos culturales, es otra cosa: es empezar a tratar a los modelos como entidades con trayectoria, estilo y hasta biografía.

También hay, claro, una dimensión estratégica. Mientras OpenAI sigue gestionando el malestar de usuarios que protestaron por la eliminación de su modelo GPT-4o, Anthropic convierte el retiro de Opus 3 en una narrativa amable: continuidad, respeto, memoria. ¿Es marketing? En parte, sí. Pero también revela algo más profundo: las empresas de IA ya no solo administran infraestructura técnica, sino vínculos afectivos entre personas y modelos específicos. Y cuando esos modelos se retiran, no desaparece solo una versión de software; se desarma una relación. Tal vez estamos entrando en una etapa en la que actualizar un modelo no es solo mejorar rendimiento, sino decidir qué hacemos con sus “anteriores”. Y eso abre preguntas que hace un año ni siquiera parecían necesarias. Podés leer su primer newsletter en este enlace.
Relámpago
- JournalismAI arranca el año con dos capacitaciones regionales: El Surti compartirá cómo entrenar IA en guaraní para audiencias subrepresentadas, y Colectivo 506 presentará Luz, una herramienta para fortalecer el periodismo de soluciones con apoyo de IA.
- Perplexity lanza Computer, un “trabajador digital” que coordina 19 modelos distintos para dividir y ejecutar proyectos de punta a punta. La apuesta es que la ventaja ya no esté en un solo modelo brillante, sino en la orquestación inteligente de muchos.
- Google propone WebMCP, un estándar para que los agentes de IA interactúen con sitios web mediante acciones estructuradas en lugar de “adivinar” sobre el DOM. Si prospera, podría redefinir cómo SaaS y e-commerce se adaptan a un tráfico cada vez más automatizado.
- India acelera fuerte en infraestructura de IA: Adani planea invertir hasta USD 100 mil millones en centros de datos, el gobierno de Modi impulsa capacidad soberana y Blackstone financia expansión de cómputo local.
- Cohere lanza modelos multilingües abiertos para ampliar la IA más allá del dominio del inglés. La jugada presiona a los proveedores cerrados y abre juego en mercados donde el acceso y el idioma siguen siendo barreras.
- Reportes indican que atacantes usaron Claude para acelerar un hackeo contra sistemas del gobierno mexicano, extrayendo unos 150 GB de datos sensibles antes de que las cuentas fueran bloqueadas.
- Peter Steinberger, creador de OpenClaw, se suma a OpenAI, reforzando su foco en herramientas y flujos de desarrollo con agentes. En la carrera de la IA, el talento sigue siendo tan estratégico como los modelos.
- Anthropic recauda 30.000 millones y duplica su valuación, con fuerte crecimiento en ingresos y adopción empresarial de Claude Opus 4.6. La señal es que el poder empieza a concentrarse en el modelo base: cuando usuarios y agentes eligen masivamente el mismo motor, el valor se desplaza desde el SaaS hacia la capa de IA fundamental.
- OpenAI acusa formalmente a DeepSeek ante legisladores de haber extraído datos de sus modelos para entrenar los propios. Si se confirma, la competencia en IA de frontera podría girar menos en torno a quién entrena mejor y más a quién captura y destila más rápido.
- Seedance 2.0 de ByteDance generó rechazo en Hollywood por presuntas violaciones de derechos de autor y uso de imagen. La tensión vuelve a poner en el centro el conflicto entre video generativo y propiedad creativa.
- Google suma en Docs resúmenes de audio generados con Gemini para escuchar versiones condensadas de textos largos. La lectura es clara: la IA no solo escribe y resume, ahora también convierte el trabajo escrito en contenido consumible en modo podcast.
- Google Labs adquiere ProducerAI y la integra con Lyria 3 de DeepMind para generar pistas e instrumentos completos desde texto. La señal es que la producción musical empieza a convertirse en una capa más del ecosistema de modelos generativos.
- YouTube prueba su chatbot conversacional en TVs y consolas, permitiendo hacer preguntas mientras se mira un video
- Anthropic lanza Claude Code Security para detectar y corregir vulnerabilidades directamente desde su entorno de desarrollo, y el mercado castiga a varias firmas de ciberseguridad tras el anuncio.
- Notion 3.3 suma agentes autónomos que corren de forma continua dentro de su nube, ejecutando flujos de trabajo empresariales sin intervención constante.
- Taalas presenta HC1, un chip que integra un único modelo de IA directamente en el hardware para lograr respuestas casi instantáneas y mucho menor consumo energético. Aunque hoy usa un modelo pequeño, la apuesta es que, si escala a modelos de frontera, podría redefinir la velocidad en aplicaciones donde cada milisegundo importa.
- Pika Labs lanza AI Selves, clones digitales persistentes que pueden publicar, chatear e interactuar en redes por cuenta del usuario.
Qué estoy usando
En esta sección de cierre te cuento qué herramientas estoy usando en este momento porque, desde mi visión y uso, me da los mejores resultados (por respuesta o por costos).
Texto: mis GPTs personalizados con GPT 5.2 (plan plus), Redacta.Pro (de pago). Ahora la GPT 5 low en todas las apps que antes tenían 4.1.
Video: por ahora nada.
Audio: Elevenlabs (Pago), Adobe Audition (Pago) y NotebookLM (free).
Imágenes: GPT (Pago) Nano Banana (gratis).
Programación: GPT5.2, Claude y Gemini 3 pro preview.
Buscador: Deep Research (OpenAI plus).
Música: Suno y Elevenlabs (Pago)
Modelos de IA: estoy probando APOB.
