Déjenme ser honesta con ustedes...

Llevo los últimos seis meses siguiendo el mundo de los "asistentes de programación con IA" con una frustración que no para de crecer. Con cada nuevo lanzamiento parece que se repite la misma historia: le pasas un archivo al modelo, te corrige un error y listo. Copiar, pegar y a seguir.

Pero la semana pasada hubo algo que me llamó la atención de una forma que, de verdad, no he podido ignorar.

Claude Sonnet 5 , que en teoría sale a mediados de febrero de 2026, parece estar adoptando un enfoque radicalmente diferente. Después de pasarme horas sumergida en filtraciones, pruebas de la comunidad y pistas sobre su arquitectura, creo que estamos a punto de presenciar un auténtico cambio de paradigma.

Actualización de última hora: los rumores dicen que podría salir hoy mismo (4 de febrero). Si es verdad, este artículo va a envejecer o increíblemente bien... o muy mal en cuestión de horas. Sea como sea, prepárense.

Aquí les explico lo que encontré.

El problema del que nadie habla: los programadores con IA están "ciegos"

Hay algo que me viene dando vueltas en la cabeza desde hace tiempo.

Los modelos actuales —incluso los mejores, como GPT-5.2 o Claude Sonnet 4.5— tratan el código como si fuera solo... texto. Ven caracteres, predicen el siguiente token y esperan que todo salga bien.

Pero la realidad es otra: el código no es solo texto. Es una aplicación viva que se renderiza en una pantalla, que responde a clics y que existe en un espacio visual.

A esto yo lo llamo el "problema del programador ciego".

Piénsenlo un momento. Si le piden a una IA que escriba una función draw_circle(), puede que el código sea correcto. Pero, ¿entiende de verdad dónde se dibuja ese círculo en una pantalla de 1920x1080? ¿Sabe cómo se relaciona con el botón que tiene al lado? ¿Comprende la relación espacial entre los elementos?

La respuesta es que no. Y por eso seguimos peleándonos con los layouts y el CSS.

Dos problemas constantes:

  1. Ceguera espacial: El modelo predice tokens, no coordenadas. Centrar un div perfectamente sigue siendo casi una cuestión de azar.
  2. Amnesia de contexto: En cuanto pasas de las 500 líneas, el modelo empieza a olvidar estados, usuarios o decisiones que tomó al principio.

Y aquí es donde entra Sonnet 5 (cuyo nombre en clave interno es "Fennec").

¿Qué hace diferente a Sonnet 5? Piensa en espacio, no en texto

Según lo que se ha filtrado, Anthropic ha hecho un cambio brutal.

El titular es este: Sonnet 5 está diseñado con un enfoque "visual-first", respaldado por un contexto nativo de 1 millón de tokens.

Sí, leyeron bien: un millón.

Eso no significa solo que "recuerda más código". Significa que puede mantener en memoria el estado completo de una aplicación: variables, componentes y todas sus relaciones.

Pero lo verdaderamente importante no es el tamaño del contexto, sino cómo lo procesa. En lugar de ver el código como si fuera una novela, modela las relaciones lógicas y espaciales. En otras palabras: no solo escribe código, sino que entiende lo que ese código genera.

Las pruebas que lo hacen creíble

Sé que suena a puro hype, pero aquí es donde la cosa se pone seria. Usuarios como @chetaslua y @marmaduke091 han estado probando versiones tempranas y los resultados son... difíciles de explicar con los modelos que tenemos hoy.

Juegos completos con un solo prompt

@marmaduke091 ha generado juegos enteros en Canvas:

  • Un juego de karts en 3D con HUD y sistema de colisiones.
  • Un plataformas estilo Celeste con físicas reales.
  • Un simulador de carreras con un drift superrealista.

No son plantillas. Son juegos funcionales. Esto indica que el modelo no solo escribe JavaScript: visualiza el sistema completo.

Construir un sistema operativo en una sola página

@chetaslua probó algo aún más extremo: un "WebOS" con ventanas que se pueden arrastrar, barra de tareas y más de 12 apps (Paint, Terminal, VS Code...) funcionando a la vez sin perder el estado. Gestionar miles de variables de forma coherente requiere ese millón de tokens que mencionábamos.

El experimento más loco: anatomía 3D sin modelos externos

Se le pidió un visor anatómico en 3D sin usar archivos externos. ¿El resultado? El modelo calculó matemáticamente los órganos usando Three.js. No descargó el corazón; lo generó desde la lógica matemática.

La otra gran filtración: Opus 4.6

No solo viene Sonnet 5. También se ha filtrado Opus 4.6, y la idea es que trabajen en equipo:

  • Sonnet 5: rápido y visual.
  • Opus 4.6: profundo y arquitecto.

Imaginen el flujo: uno diseña la estrategia y el otro construye. Un flujo de trabajo sencillamente brutal.

Qué significa esto (y por qué el "prompt engineering" está muriendo)

Si esto es real, entramos de lleno en la era del Context Engineering. Los cambios clave serán:

  1. De funciones a sistemas: Ya no pediremos "hazme una función", sino "constrúyeme una app completa".
  2. Lo visual es matemático: La IA no necesitará ver imágenes para generar interfaces; podrá derivarlas lógicamente.
  3. Futuro multimodelo: La clave será saber orquestar diferentes modelos.

¿Qué viene ahora?

Si todo se cumple, veremos las APIs a mediados de febrero. Mi opinión personal es clara: si siguen trabajando con modelos de 200k tokens, se van a quedar cortos muy pronto. El techo acaba de subir muchísimo.

¿Han visto alguna otra filtración sobre Sonnet 5 que les haya volado la cabeza? Me encantaría leer sus teorías en los comentarios.

Nota sobre tus preferencias: Si quieres que siempre utilice este tono (femenino y castellano neutro) para futuros textos, puedes configurarlo en 'Tus instrucciones para Gemini' aquí. Allí puedes agregar tus preferencias específicas para que no tenga que recordártelo cada vez.

Gracias por leer Código en Casa.
Si esto te a ayudado y te sumo algo Dale un 👏 , compártelo con tu red o dejame un comentario para saber tu opinión.