Open WebUI, el ChatGPT PRO que puedes tener GRATIS y 100% local Vistas: 2

Si has llegado hasta aquí es porque, al igual que yo, sientes que la fiesta del todo gratis en la inteligencia artificial comercial está llegando a su fin. No tienes más que ver las noticias: Gemini, ChatGPT, Claude… todos están moviendo ficha hacia modelos de suscripción más agresivos y costes por uso que, seamos sinceros, pueden acabar pesando en el bolsillo. Pero hay algo que me preocupa mucho más que el dinero: nuestra soberanía digital y la privacidad de nuestros datos. En este episodio número 792 del podcast, te adelanto que ha llegado el momento de pisar el acelerador. No podemos quedarnos de brazos cruzados viendo cómo nuestra información alimenta nubes ajenas, y lo que es igual o pero, viendo como nuestro dinero se evapora. Por eso, hoy vamos a continuar montado nuestro laboratorio de IA local de auténtico lujo. Y para ello, el protagonista absoluto es Open WebUI. Prepárate, porque vamos a desgranar por qué esta herramienta es el «cerebro» que le faltaba a tu infraestructura de autoalojamiento.

0:00 / 0:00

El fin de la era de la IA gratuita y el refugio del Local-First

Durante los últimos meses hemos vivido una especie de luna de miel con la IA. Todo era accesible, rápido y gratuito. Pero la realidad es cabezota, mantener estos modelos de lenguaje (LLM) tiene un coste computacional elevado. Las empresas necesitan rentabilizarlo y eso significa que el usuario medio va a tener que pasar por caja más pronto que tarde.

Pero el coste económico es solo la punta del iceberg. Cada vez que le haces una pregunta a una IA comercial, cada vez que le pasas un documento para que te lo resuma o un trozo de código para que lo corrija, puede ser que le estés entregando información sensible. ¿Dónde acaba eso? ¿Quién lo lee? ¿Se usa para entrenar a la siguiente generación de modelos? Con el Self-hosting, estas dudas vitales desaparecen. Tus datos no salen de tu red local, de tu servidor o de tu equipo principal. Y para que esa experiencia sea igual de buena (o incluso mejor) que la de ChatGPT, necesitamos una interfaz a la altura.

¿Qué es Open WebUI? Más que una cara bonita para Ollama

Como te conté en episodios anteriores, Ollama, o llama.cpp es una maravilla para ejecutar modelos como Llama 3, Mistral o Gemma en tu ordenador usando la terminal. Pero, seamos honestos, aunque a los que nos gusta el terminal nos sentimos como peces en el agua, para el día a día y para el resto de los mortales, hace falta algo más visual. Algo que nos permita organizar los chats, ver las fórmulas matemáticas bien maquetadas, o ver código formateado, y gestionar archivos con un clic.

Open WebUI es una plataforma de IA autoalojada, extensible y cargada de características, diseñada para operar de forma totalmente offline si así lo deseas. Es compatible con Ollama y también con cualquier API que siga el estándar de OpenAI. Lo que la hace especial es que no es solo un chat, es un ecosistema completo para desplegar inteligencia artificial en tu propia casa o empresa.

Una interfaz que te resultará familiar

Lo primero que te va a llamar la atención de Open WebUI es que es calcada a lo que ya conoces. Tiene ese diseño limpio, minimalista, con su barra lateral para los hilos de conversación y su área central de chat. Pero bajo esa apariencia sencilla se esconde una potencia bruta.

  • Responsiva: Se adapta a tu monitor de 27 pulgadas o a la pantalla de tu móvil sin despeinarse.
  • PWA (Progressive Web App): Puedes instalarla en tu teléfono y sentir que tienes la aplicación nativa de ChatGPT, pero conectada a tu propio servidor.
  • Soporte Markdown y LaTeX: Ideal para científicos, ingenieros o simplemente para quienes quieren que las fórmulas y el código se vean perfectos.

Model Builder: Creando a mis propios expertos (y a Leslie Winkle)

Una de las funciones que más me ha hecho disfrutar cacharreando estos días es el Model Builder. En las plataformas comerciales, sueles tener lo que te dan. Aquí, tú eres el arquitecto. Puedes crear Personas o agentes especializados de una forma increíblemente sencilla.

He creado mi propio modelo con la personalidad de Leslie Winkle, de la serie The Big Bang Theory. Simplemente le defines un System Prompt (unas instrucciones de base) donde le explicas quién es, cómo debe hablar (con ese sarcasmo científico tan característico) y quiénes son sus aliados y enemigos.

Ahora, me llama cerebro de corcho y se comporta exactamente como el personaje. Pero, quitando la parte lúdica, esto tiene una utilidad profesional inmensa. Imaginate crear un modelo que sea un experto senior en Rust o en Python o en Typst, otro que conozca al dedillo la legislación de protección de datos, y otro que sea un mentor de soberanía digital. Puedes preconfigurarles herramientas, memoria y bases de conocimiento específicas para que, cuando les preguntes, te den respuestas precisas basadas en la realidad de tu trabajo.

RAG Local: Tu propia biblioteca privada de conocimiento

Si hay una palabra de moda en la IA es RAG (Retrieval Augmented Generation). En pocas palabras, es la capacidad de que la IA lea tus documentos y te responda basándose en ellos. Open WebUI lleva esto a otro nivel integrando motores de inferencia para RAG de forma nativa.

¿Tienes una carpeta llena de PDFs con manuales técnicos? ¿Años de notas en texto plano? ¿Documentación de proyectos? Solo tienes que subirlos a la biblioteca de documentos de Open WebUI. A partir de ese momento, puedes usar el comando # en el chat para citar un documento o una colección entera.

La IA buscará en esos archivos, extraerá la información relevante y te dará una respuesta fundamentada. Y lo mejor de todo: nada de esto viaja a internet. El procesamiento de los documentos y la búsqueda vectorial (soporta hasta 9 tipos de bases de datos vectoriales como ChromaDB o Milvus) se hace íntegramente en tu infraestructura.

Búsqueda Web Privada con SearXNG: La IA conectada pero protegida

Uno de los puntos flacos de los modelos locales es que viven en el pasado, solo saben lo que aprendieron durante su entrenamiento. Open WebUI soluciona esto permitiendo que la IA navegue por internet. Pero claro, si queremos privacidad, no vamos a dejar que la IA le pregunte directamente a Google, ¿verdad?

Aquí es donde entra mi configuración con SearXNG. Es un motor de búsqueda que actúa como intermediario. La IA le pide a SearXNG que busque algo, este consulta de forma anónima en decenas de buscadores y le devuelve a la IA los resultados limpios, sin rastreadores ni publicidad. Así, mi IA puede decirme qué tiempo hace hoy en Valencia o cuáles son las últimas noticias de Linux sin que ningún gigante tecnológico sepa qué estoy buscando.

Características avanzadas para ti

Al analizar las capacidades de este proyecto, te das cuenta de que Open WebUI no es un juguete, es una herramienta de grado empresarial que podemos disfrutar en casa:

  1. Llamadas de Voz y Vídeo: Soporta comunicación manos libres con múltiples proveedores de Speech-to-Text como Whisper (local) o OpenAI, y motores de Text-to-Speech para que la IA te conteste con voz natural.
  2. Ejecución de código Python: Incluye un intérprete de código nativo. Si le pides que haga un gráfico o un cálculo complejo, la IA puede escribir el script de Python y ejecutarlo para darte el resultado final.
  3. Generación de Imágenes: Se integra con herramientas como ComfyUI o AUTOMATIC1111 (locales) para que puedas generar imágenes directamente desde el chat.
  4. Conversaciones multi-modelo: ¿No sabes qué modelo es mejor? Puedes preguntar a varios a la vez y comparar sus respuestas en paralelo. Es una forma fantástica de ver cómo razona una Llama 3 frente a una Gemma 2.
  5. Artefactos: Permite guardar y gestionar «artefactos», como códigos o documentos generados, que persisten entre sesiones para trabajar de forma colaborativa.
  6. Integración Cloud: Aunque el foco es local, permite conectar con Google Drive o OneDrive para importar archivos de forma fluida.

Gestión de usuarios: IA para toda la familia (o la oficina)

Si tienes un servidor con una buena tarjeta gráfica (una NVIDIA con unos cuantos gigas de VRAM es el paraíso aquí), no tienes por qué disfrutarlo tú solo. Open WebUI incluye un sistema de RBAC (Control de Acceso Basado en Roles).

Como administrador, puedes crear usuarios, agruparlos y definir permisos granulares. Por ejemplo, puedes permitir que tus hijos usen un modelo específico para ayudarles con los deberes, pero que no puedan descargar nuevos modelos que pesen 40 GB y te llenen el disco duro. O puedes crear un grupo para tu equipo de trabajo con acceso a una base de conocimientos específica del proyecto. Incluso soporta protocolos profesionales como LDAP o SSO (Single Sign-On) para integrarse en entornos corporativos de forma segura.

Mi arquitectura: Podman, Traefik y el poder de los contenedores

Para que todo esto funcione como un reloj suizo, he optado por una configuración basada en contenedores. En mi caso utilizo Podman, pero podrías usar Docker de la misma manera. He levantado lo que yo llamo el «Dúo Dinámico» (que en realidad es un cuarteto):

1. Ollama

Es el motor de inferencia. Es el que se encarga de hablar con la tarjeta gráfica y ejecutar los modelos de lenguaje. Es el músculo de la operación.

2. Open WebUI

Es la interfaz, el cerebro que orquestra las conversaciones, gestiona los usuarios y se comunica con Ollama. Es lo que nosotros vemos en el navegador.

3. SearXNG

Como te decía antes, es nuestro «detective privado». Se encarga de buscar en la web de forma anónima cuando la IA necesita datos actualizados.

4. Traefik

Este es el director de orquesta del tráfico. Gracias a Traefik, no tengo que recordar que Open WebUI está en el puerto 8080 y SearXNG en el 8081. Simplemente escribo openwebui.localhost en mi navegador y Traefik se encarga de llevarme al sitio correcto de forma transparente.

Toda esta configuración la tengo recogida en un repositorio de GitHub que te he dejado en las notas del episodio. Uso una herramienta llamada qctl para levantar todo el pod de contenedores de un solo golpe. Es llegar y besar el santo.

Conclusión: La importancia de cacharrear

Open WebUI es mucho más que una alternativa a ChatGPT. Es una declaración de intenciones. Mi tecnología me pertenece. No solo estamos ganando en privacidad y en ahorro de costes a largo plazo, sino que estamos aprendiendo cómo funcionan estas herramientas por dentro. Estamos personalizando nuestra experiencia hasta límites que las grandes corporaciones no nos permiten.

Te animo a que lo pruebes. No hace falta tener un superordenador para empezar; modelos pequeños como gemma4:e2b funcionan de maravilla y son increíblemente rápidos para tareas cotidianas. Empieza poco a poco, monta tu contenedor, prueba el Model Builder y verás cómo te cambia la perspectiva sobre la inteligencia artificial.


Más información,

Deja una respuesta