En este episodio, me he propuesto un reto, que no es otro, dejar de hablar de la teoría de la Inteligencia Artificial y pasar a la acción más absoluta. No quiero que veas la IA como una caja negra que vive en un servidor en Alemania, o España. Quiero que la veas como un asistente que vive en tu propio equipo, que te conoce, que recuerda tus manías y que, además, es capaz de aprender trucos nuevos gracias a un poco de código en Python. Prepárate, porque vamos a desgranar cómo convertir Open Web UI en el cerebro de tu laboratorio personal.
¿Por qué estoy obsesionado con Open Web UI?
En las últimas semanas he probado distintas interfaces para modelos de lenguaje. Pero Open Web UI tiene algo especial. No es solo una cara bonita, que lo es, y mucho, es que resulta ser la navaja suiza definitiva para cualquiera que quiera correr modelos en local.
La democratización de la IA no consiste solo en que todos podamos usar ChatGPT o Gemini. La verdadera democratización ocurre cuando tú puedes levantar un contenedor en tu Raspberry Pi, en tu NAS o en tu estación de trabajo Linux, y tener una experiencia de usuario que no envidia en nada a las soluciones de pago. Open Web UI nos da eso y mucho más. Desde gestión de documentos, búsqueda web integrada, herramientas personalizadas y una gestión de la memoria que es, francamente, espectacular.
El gran muro de la IA. La Ventana de Contexto
Antes de entrar en el barro del experimento que hice en el podcast, necesito que hablemos de un concepto técnico pero vital: la ventana de contexto. Vuelvo a incidir en este aspecto que ya comenté en el episodio anterior, no sea que no lo vieras, o que simplemente no me explicara como toca.
Imagina que estás leyendo una novela de mil páginas. Si tu memoria solo fuera capaz de retener las últimas diez páginas, cuando llegas a la página veinte, no recuerdas nada de las 10 primeras. Pero aún es pero, porque al llegar al final del libro no tendrás ni idea de quién era el asesino ni por qué el protagonista está llorando. Esto es lo que les pasa a los modelos de lenguaje. Tienen un límite de tokens. O como decía en el episodio anterior, es como si se emborrachara.
Cuando chateas con una IA, cada mensaje que envías y cada respuesta que recibes van llenando ese saco. Cuando el saco se llena, la IA empieza a olvidar los primeros mensajes. Por eso, a veces, después de una charla larga, parece que la IA sea una borrachina, porque no recuerda de lo que estabais hablando.
La solución. Memoria y RAG
Aquí es donde entra la magia de lo que te muestro hoy. Open Web UI utiliza RAG (Retrieval-Augmented Generation) y memorización selectiva. En lugar de intentar meter todo el libro en el saco, la IA guarda datos clave en una base de datos vectorial (su memoria a largo plazo) y solo recupera lo que necesita en el momento preciso.
El Experimento en Directo. Dime quién soy
Para este episodio he decidido jugar a corazón abierto con la IA. He utilizado un modelo que tengo configurado localmente y he estado interrogándolo. Quiero ver si es capaz de cruzar información y generar un perfil útil.
La Identidad y la Memoria
Lo primero ha sido decirle quién soy. Al decirle que me conocen como atareao, la IA no solo saluda amablemente, sino que activa su módulo de memoria. Esto es fundamental. Si mañana le pregunto algo sobre mis proyectos, ella ya sabe el contexto base. No partimos de cero.
La Búsqueda Web Inteligente
Aquí viene uno de los puntos donde Open Web UI brilla con luz propia, las herramientas de búsqueda. Le pedí que buscara información sobre atareao en redes sociales.
Me sorprende el proceso. La IA no se limita a lanzar una lista de enlaces. Lee el contenido de atareao.es, visita mi canal de YouTube, busca en Mastodon, en Spotify y en Apple Podcast. Pero ojo, aquí te conté un truco importante: limitar las fuentes. Durante mis pruebas, descubrí que si dejas que la IA lea diez o quince fuentes a la vez, se come el contexto en un abrir y cerrar de ojos. Yo lo tengo limitado a tres resultados de alta calidad. Es mejor saber mucho de poco, que saber nada de mucho.
El Perfil del Desarrollador
Otra parte interesante es cuando le pido que analice mi actividad en GitHub. Sin que yo le diera las URLs, la IA es capaz de identificar que uso PHP, TypeScript, Python y JavaScript.
Pero como me gusta molestar, también le pregunto por Rust. Como sabes, mas por pesado que soy, que por otra razón, Rust es el lenguaje que utilizo últimamente, el que me hace disfrutar como un chiquillo con zapatos nuevos. La IA, tras una búsqueda más profunda, rectificó y añadió Rust a mi perfil de memoria. A partir de ese momento, cualquier código que le pida o cualquier duda técnica que le plantee, sabrá que mi sesgo es hacia la seguridad de memoria y el rendimiento que ofrece Rust.
Superpoderes: Creando Herramientas con Python
Pero no nos quedamos aquí. Si la memoria te ha resultado interesante, prepárate para las Tools.
Una Tool es, básicamente, una habilidad nueva que le das a la IA. Imagina que la IA es un cerebro muy inteligente pero que no tiene manos. Las herramientas son esas manos que le permiten interactuar con el mundo real o realizar cálculos complejos que, de forma natural, se le dan fatal (como las matemáticas precisas).
El caso de la calculadora de distancias
En el episodio le planteo un reto: Quiero ir corriendo desde mi casa en Silla hasta Valencia. ¿Qué distancia hay?.
La IA hace una búsqueda web y me dio un dato aproximado (unos 14 kilómetros). Pero luego vamos más allá. Le pido: «Crea una herramienta para Open Web UI que calcule la distancia entre dos ciudades usando Python».
Y aquí es donde ocurre el milagro del código. La propia IA es capaz de generar un archivo tools.json y un script en Python que utiliza la API de Nominatim.
¿Qué significa esto para ti?
- No necesitas ser un experto: La IA escribe el código por ti.
- Es extensible: Puedes crear herramientas para consultar el precio del Bitcoin, para gestionar tus contenedores Docker, para apagar las luces de tu casa (vía Home Assistant) o para lo que se te ocurra.
- Se ejecuta en local: Ese código Python corre en tu entorno, bajo tu supervisión.
El fin de la era de las subvenciones a las grandes tecnológicas
Ha llegado el momento de que hablemos de dinero y de libertad. Estamos viviendo un momento dulce donde Google, OpenAI y Anthropic nos regalan (o casi) el acceso a modelos increíbles. Pero no te engañes: esto es una estrategia de captación.
Mantener la infraestructura necesaria para que millones de personas pregunten tonterías a un chat cuesta miles de millones de euros o dólares en energía y hardware. Ya estamos viendo los primeros movimientos:
- Subida de precios en las suscripciones.
- Límites más estrictos en el uso de las APIs.
- Modelos que se vuelven más «ligeros» (y a veces peores) para ahorrar costes.
Cuando tú montas tu propio laboratorio en local con Open Web UI, te estás protegiendo contra el futuro. No te importa si OpenAI decide subir el precio a 50 euros al mes. No te importa si Google decide que tu país ya no tiene acceso a Gemini. Tú tienes tu modelo, tus herramientas y tu conocimiento en tu servidor. Eso es soberanía tecnológica.
Es cierto que los modelos locales no son, ni mucho menos como los modelos en la nube, pero dependiendo del trabajo que quieras hacer, puedes delegar determinados trabajos a los servicios de terceros, y otros hacerlos tu en tu laboratorio. Es una estrategia híbrida que te da lo mejor de ambos mundos.
Mi flujo de trabajo. De la Nube al Local
Te confieso que hasta hace poco yo mismo dependía mucho de Google AI Studio y de Gemini, y lo sigo haciendo. Son herramientas fantástica, en particular Google AI Studio que empecé a utilizar gracias a Carlos Castillo. Sin embargo poco a poco, estoy en fase de migración de mi flujo de trabajo a Open Web UI. Tengo prompts personalizados para cada tarea:
- Para generar los guiones de este podcast.
- Para extraer el minutaje de los audios.
- Para sugerir títulos para los vídeos de YouTube
Cada uno de estos asistentes vive en mi panel de Open Web UI, con su propia configuración y sus propias herramientas. Es como tener un equipo de becarios expertos trabajando para ti las 24 horas del día, sin quejas y sin conexión a internet si así lo decides.
¿Qué sigue en este viaje?
Este episodio es un punto de inflexión. Hemos visto cómo la interfaz web puede ser nuestro centro de mando, pero los desarrolladores y los entusiastas del terminal queremos más. Por eso, en el próximo episodio nos vamos a meter de lleno en Open Code.
Vamos a ver cómo podemos programar en local, con asistencia de IA, pero sin enviar nuestro código a servidores de terceros. Porque sí, Copilot está muy bien, pero que tu editor de código se comunique con un modelo que corre en tu propia máquina… eso es otro nivel de satisfacción.
Ojo, esto no significa que se cierre aquí el ciclo de Open Web UI. Simplemente es que cambiamos de capítulo. Queda todavía mucho que explorar en esta fantástica herramienta, pero por ahora no quiero aburrir, así que ha llegado el momento de dar el salo.
Conclusión. Atrévete a cacharrear
Si algo quiero que te lleves de este post (y del podcast) es que la Inteligencia Artificial no es algo inalcanzable. No necesitas una supercomputadora de la NASA. Con un equipo decente, un poco de paciencia y muchas ganas de aprender, puedes montar un sistema que hace unos años parecería ciencia ficción.
Open Web UI es la puerta de entrada perfecta. Es amable, es potente y es open source. Te permite experimentar con la memoria, con las herramientas y con los modelos más punteros del mercado sin soltar un solo euro en suscripciones.
Pero ojo, no se trata de menospreciar o infravalorar otras opciones. No se trata de eso ni mucho menos. Creo y cada vez lo veo mas claro que la solución es híbrida, como comenté anteriormente. Así que hay que estar atento y en el juego, porque esto va a evolucionar muy rápido. Lo importante es que tú tengas el control de tu experiencia, y eso solo lo consigues cuando entiendes lo que tienes entre manos.