Si eres de los que piensa que para crear tus propias herramientas necesitas pasarte años estudiando sintaxis complejas o que estás vendido a lo que digan las grandes corporaciones de la Inteligencia Artificial, prepárate, porque hoy vamos a romper esos mitos con OpenCode.
Democratizando el código con OpenCode
La gran estrella de hoy es OpenCode. Imagina un agente de inteligencia artificial especializado en programación que no te obliga a usar un solo modelo. A diferencia de otras soluciones cerradas, OpenCode es de código abierto. Esto significa que tú tienes el control total: puedes conectarlo con modelos en la nube como Claude o GPT-4, o lo que es más emocionante para los que amamos el auto-alojamiento, puedes usarlo con modelos locales a través de Ollama.
En el episodio de hoy, te cuento cómo he puesto a trabajar a este agente para crear, desde cero, una aplicación en Rust que descarga transcripciones de vídeos de YouTube. Yo solo le he dado las instrucciones de lo que quería conseguir y el agente se ha encargado de proponer el plan, elegir las librerías adecuadas (como YouTube Transcript o Anyhow) y escribir cada línea de código mientras yo grababa este podcast. ¡Es como tener un compañero de programación que nunca se cansa!
El dilema de los tokens y el modelo híbrido
Pero no todo es magia. También te cuento mis "penas" con los tokens. Te explico una anécdota real donde un modelo de IA se puso a "pensar" demasiado para solucionar un problema sencillísimo con un script para evitar que mis pantallas se apagaran (usando Stasis).
De aquí sacamos una lección fundamental: la importancia de los modelos híbridos. En este episodio te explico por qué deberías delegar las tareas más pesadas y repetitivas a modelos locales que corren en tu propio equipo (gratis y privados) y reservar la potencia de la nube solo para cuando necesites un razonamiento complejo. Además, exploramos OpenCode Go, una opción de bajo coste para acceder a modelos abiertos sin arruinarse.
Planificación y Tests: La IA que piensa antes de actuar
Una de las funciones que más me han volado la cabeza es la capacidad de OpenCode para diferenciar entre planificar y ejecutar.
Seguridad y el futuro en contenedores
Si alguna vez has tenido una idea para una aplicación pero te daba pereza empezar o no sabías por dónde hincarle el diente, este episodio es la señal que necesitabas. Es el momento de recuperar esos proyectos del cajón y empezar a materializarlos.
Capítulos para no perderte nada:
00:00:00 El truco de los 5 segundos y David Marzal
00:01:08 Fartons y Podcast: Experiencias y agradecimientos
00:01:57 ¿Qué es OpenCode? Programar sin escribir código
00:02:54 Caso práctico: Herramienta en Rust para transcripciones de YouTube
00:05:10 Un agente de IA de código abierto y multimodelo
00:07:05 La importancia de no estar atado a un solo proveedor
00:07:44 Modelos híbridos: Cuándo usar IA local vs. nube
00:09:12 El peligro de los tokens: Mi experiencia con Stasis y el modo sleep
00:12:36 OpenCode Go: Suscripción y acceso a modelos abiertos
00:13:24 Configurando Ollama en local para programar
00:15:10 Refinando la herramienta: Mejoras en la descarga por defecto
00:17:58 Probando diferentes modelos: Qwen, DeepSeek y Kimi
00:20:18 Modos de OpenCode: Planificación frente a Ejecución
00:21:44 Implementando tests unitarios y de integración con el agente
00:23:43 Delegando tareas repetitivas en el desarrollo web
00:25:24 Seguridad: El futuro de ejecutar agentes en contenedores
00:26:14 Próximos pasos: Skills y recomendación de Web Reactiva
00:26:59 Despedida y comunidad Atareao en Telegram
Más información y enlaces en las notas del episodio
🌐 Aquí lo puedes encontrar todo 👉 https://atareao.es
✈️ Telegram (el grupo) 👉 https://t.me/atareao_con_linux
✈️ Telegram (el canal) 👉 https://t.me/canal_atareao
🦣 Mastodon 👉 https://mastodon.social/@atareao
🐦 Twitter 👉 https://twitter.com/atareao
🐙 GitHub 👉 https://github.com/atareao