Si alguien en el gremio de los medios todavía tenía la idea de no trabajar con inteligencia artificial, con los últimos anuncios parece que se va a quedar solo. Abajo lo voy a detallar un poco más, pero quiero primero poner en contexto lo que está pasando para que se entienda.
No digo que haya que usar ChatGPT para hacer textos, o Nano Banana para ilustrar las notas. Me refiero a que las tecnológicas de IA se están transformando en ecosistemas equivalentes a los sistemas operativos. Me explico: dentro de ellas ya se pueden usar herramientas de terceros, por lo que redefinen la lógica de escribir y que te respondan.
Un poco ya pasaba eso con las imágenes, porque uno podía tener cierta capacidad de edición y evitarse así usar un programa editor. Pero ahora además de asistirte en la navegación web, se le puede pedir, por ejemplo, que use Canva y haga un flayer (o un posteo para IG). Todavía, como todo, muy verde, pero es un síntoma.
La IA se está volviendo Windows o Internet, la plataforma sobre la que hacemos cosas y que eventualmente vamos a dar por sentada. Y de la misma manera que antes de los sistemas operativos visuales (como Windows 95) en las redacciones había máquinas de escribir (y después también), y que antes del boom de internet en las redacciones estaba “la computadora con acceso a internet” hoy siento que estamos en esa misma etapa, donde está “el que trabaja con IA”.
Y es un momento para frenar la pelota y pensar: ¿Cómo vamos a contar el mundo? ¿Qué nuevas formas de narrativa e interacción con las audiencias podemos tener? ¿Cómo figurar en la “internet de la IA”? La última la respondo rápido: haciendo lo que hacen los demás o copiando y pegando, no.
Sora y los deepfakes

Salió el modelo Sora 2 de OpenAI y de a poco (y con VPN) algunos vamos teniendo acceso a la herramienta de videos. En resumen es un generador de videos como VEO 3 y una aplicación por ahora solo para iPhone tipo TikTok pero con un motor de recomendación diferente.
Se pueden subir imágenes personales y crear una suerte de avatar que nuestros amigos y desconocidos pueden usar para hacer remixes de videos, si damos nuestro consentimiento. Por ahora son videos solo de 10 segundos en la app.
Por otro lado, seguro ya lo notaron, las redes sociales se están llenando de videos de abuelitas alimentando pumas, de animales haciendo cosas completamente imposibles y algunos videos donde todo “es normal” y que es casi imposible detectar que es de IA… Bueno gente, llegó el momento que se venía anunciando y que siempre se postergaba… las Deepfakes ya están instaladas en el público masivo y no son el producto del trabajo de grandes equipos o hackers talentosos.
Saber detectar videos falsos ya no es solo un requisito de los chequeadores.
Para que no sean todas pálidas, según un informe que presentaron en OpenAI, GPT 5 tiene un 30 % menos sesgos políticos que sus predecesores. Además, siempre según la propia empresa, solo en el 0,01 % de las conversaciones reales los la IA tiene sesgos sobre política.
¿ChatGPT será un sistema operativo?
Lo que comenté al inicio, GPT como SO y además como un mercado en donde eventualmente vamos a poder vender aplicaciones y servicios (no como el fiasco que fueron los GPTs personalizados que algunos monetizaron, pero que nunca tuvo una tienda oficial para vender/comprar).
En el DevDay (el evento de OpenAI para desarrolladores) presentaron su tienda para conectar aplicaciones creada por los desarrolladores sobre el “Sistema Operativo” GPT, por ejemplo pedirle a GPT que arme una lista de Spotify, lea un curso en Coursera o genere un desarrollo dentro de Figma. Y ese mercado no es menor, en teoría tienen 800 millones de usuarios semanales.
Y también es un nuevo mercado para vender aplicaciones de medios, con modelos propios de suscripción. Ahora hay que pensar lo que mencionamos arriba y también redefinir qué son las aplicaciones de medios.
IA en los navegadores
Perplexity liberó de forma gratuita su navegador Comet, que usa IA integrada para buscar pero además también para interpretar el contenido de las páginas web que estamos visitando.

Para la versión de pago (los que tienen suscripción con Perplexity) hay un asistente de mails y la posibilidad de probar antes las funciones que van a ir incorporando. Yo estoy en proceso de probarlo, cuando tenga una idea concreta de qué tan bueno es (o no) lo voy a decir.
China no se queda atrás
Ya está disponible para pruebas cerradas la V3.2-exp (qué nombre) de DeepSeek, que usa un modelo de “atención dispersa” que sirve para reducir la carga de procesamiento y según algunas pruebas baja a la mitad el costo de procesamiento.
Aunque es polémica la relación de China (y por ende DeepSeek) con la información, la baja de costos es un cuello de botella importante en el desarrollo de aplicaciones. Si el modelo es tan eficiente posiblemente algunas soluciones que hoy son poco ejecutables se vuelvan accesibles. Además si el sistema funciona, nada evita que otros modelos más “respetuosos” de los datos personales lo copien.
El calladito sigue demostrando que es bueno
Anthropic lanzó en los últimos días Claude Sonnet 4.5 un modelo que califican como “mejor modelo de codificación del mundo” y al que la verdad le van muy bien varias tareas complejas.
Según difundieron el modelo fue capaz de codificar sin parar por 30 horas para entregar una aplicación funcional sin intervención humana de 11.000 líneas de código. Capaz que a ustedes no les dice nada, pero que una IA pueda trabajar tanto resolviendo problemas sin que un humano la vaya guiando es un gran salto.
Relámpago
- xAI no se quiere quedar afuera de la carrera del video generado por IA.
- Google lanzó un modelo de Gemini 2.5 que puede navegar por internet “como un humano”.
- Apple corre atrás del caballo y cancela sus desarrollos del Vision Pro (sus lentes de realidad aumentada) para ir en una línea similar a las de Meta.
- IBM sumó a Claude (de Anthropic) en una alianza que impulsa a la starup a nivel mundial.
- La IA Médica de Microsoft estudiará en Harvard. Según indicaron las fuentes, la actualización de Copilot obtendrá una licencia de información de la Facultad de Medicina de Harvard para responder a consultas sobre temas de salud.
- Figma se asoció con Google para sumar Gemini a su plataforma de diseño.
- ElevenLabs lanzó una biblioteca de componentes de interfaz de usuario de código abierto para crear rápidamente experiencias de voz de IA.
- OpenAI sumó AgentKit a sus herramientas de Api para mediante nodos generar “agentes de IA”. Este componente visual es “similar” a n8n, Make o Zapier.
- Neuralink, la empresa de Elon Musk, logró que un paciente con ELA moviera un brazo robótico solo con sus pensamientos.
- Apple estaría interesada en adquirir una startup llamada Prompt AI e incorporar a sus 11 empleados a la división de Hogares inteligentes de la manzana.
Qué estoy usando
En esta sección de cierre te cuento qué herramientas estoy usando en este momento porque, desde mi visión y uso, me da los mejores resultados (por respuesta o por costos).
Es algo súper íntimo y pueden no estar de acuerdo, pero creo que es una manera interesante de no solo decir “existe esto” si no “yo lo uso así” (o no).
Texto: mis GPTs personalizados con GPT 5 (plan plus), Redacta.Pro (de pago). Para aplicaciones (o sea con API) 4.1 las de respuesta rápida o GPT 5 mini las “normales”.
Video: por ahora nada.
Audio: Elevenlabs (Pago), Adobe Audition (Pago) y NotebookLM (free).
Imágenes: GPT (Pago) Nano Banana (gratis).
Programación: 99 % con GPT5, pero cuando se complica uso alguna otra, aunque cada vez menos.
Buscador: Deep Research (OpenAI plus).
Música: Suno.