720 - ¡Olvida ChatGPT! Así tienes tu IA privada y personal en Linux

720 - ¡Olvida ChatGPT! Así tienes tu IA privada y personal en Linux

Controla tu IA con LM Studio en Linux. Aprende a usar el modelo gpt-oss-20b de forma local y privada. ¡Olvida la nube!

1:25
-3:15

En el episodio 712 te hablé sobre como podías tener tu IA local en tu Android. Sin embargo, todavía tenía una petición pendiente, y es precisamente como hacerlo en Linux, en tu escritorio preferido, sea este cual sea. Anteriormente había hecho algún vídeo sobre Ollama. Sin embargo, esto de Ollama, no es para todos los usuarios. Era necesario una herramienta que permitiera una experiencia de usuario mucho mas cercana, y esto es precisamente lo que nos trae LM Studio.

¡Olvida ChatGPT! Así tienes tu IA privada y personal en Linux

LM Studio

LM Studio es una aplicación de escritorio que te permite ejecutar y experimentar con grandes modelos de lenguaje (LLMs) como los que usa ChatGPT, pero de forma completamente local en tu propio ordenador con Linux, macOS o Windows.

En lugar de enviar tus datos a un servidor externo, LM Studio te da el control total. Funciona como una «caja de herramientas» o «sandbox» para IA, facilitando lo que antes era un proceso complejo y técnico.

Características principales de LM Studio

  • Privacidad total. Tus datos y conversaciones nunca salen de tu ordenador. Esto es ideal para manejar información sensible o simplemente para tener total control sobre tus interacciones con la IA.
  • Facilidad de uso. A diferencia de otras herramientas que requieren comandos complejos, LM Studio tiene una interfaz gráfica muy intuitiva que te permite buscar, descargar y chatear con modelos de IA con solo unos clics.
  • Catálogo de modelos. Se conecta con repositorios como Hugging Face para que puedas descargar una amplia variedad de modelos de lenguaje de código abierto (como Llama, Phi, Mistral, y el que mencionaste, gpt-oss-20b) y probarlos en tu máquina.
  • Servidor local. Puede emular una API de OpenAI, lo que significa que puedes usar LM Studio como un backend para tus propias aplicaciones, scripts o incluso en editores de texto como Neovim, sin necesidad de conexión a internet ni de claves de API.
  • Optimización de hardware. Permite configurar y optimizar el uso de tu GPU (si tienes una) para acelerar significativamente el rendimiento de los modelos, aprovechando al máximo los recursos de tu equipo.

Instalación

La forma mas sencilla de instalar LM Studio es a través de su AppImage. Para ello, solo tienes que descargar el archivo LMStudio.AppImage, darle permisos de ejecución y empezar a interrogar a tu nuevo asistente con todo lo que quieras saber.

Los modelos Open Source de OpenAI

El lanzamiento de los modelos gpt-oss por parte de OpenAI representa un hito importante para la comunidad de código abierto, ya que pone a disposición del público modelos de lenguaje grandes (LLMs) con capacidades avanzadas. Estos modelos, optimizados para su ejecución en hardware local, eliminan la barrera de la dependencia de la nube y los costes asociados. Al ser «Open Source» (de código abierto), brindan a los usuarios la libertad de inspeccionar, modificar y utilizar la tecnología sin las restricciones de las APIs comerciales, lo cual se alinea perfectamente con la filosofía del software libre. Esta apertura fomenta la innovación y permite a los usuarios tener un control sin precedentes sobre su IA.

La principal ventaja de utilizar LM Studio para interactuar con los modelos gpt-oss es su facilidad de uso. Mientras que ejecutar LLMs en local tradicionalmente requería conocimientos de programación y el manejo de complejas líneas de comando, LM Studio simplifica todo el proceso a través de una interfaz gráfica intuitiva. La aplicación permite a los usuarios buscar y descargar directamente los modelos gpt-oss desde su catálogo integrado, seleccionar la versión adecuada para su hardware (por ejemplo, el modelo gpt-oss-20b, que es más adecuado para equipos de consumo) y empezar a chatear con ellos en cuestión de minutos. Esta accesibilidad democratiza la experimentación con la IA, haciendo que sea posible para cualquier usuario de Linux con un ordenador potente.

A nivel técnico, LM Studio gestiona la ejecución del modelo de forma eficiente, aprovechando las capacidades de la GPU (si está disponible) para acelerar el procesamiento. Esto es crucial para modelos grandes como gpt-oss, donde la velocidad de inferencia depende en gran medida de los recursos gráficos. Además, LM Studio ofrece la posibilidad de configurar parámetros avanzados como la «temperatura» y la «longitud del contexto», lo que permite a los usuarios ajustar el comportamiento del modelo para tareas específicas. Por ejemplo, se puede hacer que el modelo sea más creativo o más preciso según la necesidad, algo que no siempre es posible en las interfaces de chat en la nube.

Otra característica destacada de la combinación LM Studio y gpt-oss es el soporte para funcionalidades «agentic» o de agente. Los modelos gpt-oss incluyen capacidades nativas como la llamada a funciones, la ejecución de código Python y la navegación web. LM Studio no solo permite utilizar estas herramientas de forma local, sino que también puede actuar como un servidor API compatible con OpenAI. Esto abre un mundo de posibilidades para desarrolladores, quienes pueden integrar las capacidades de gpt-oss en sus propias aplicaciones, scripts o herramientas, todo ello sin tener que enviar datos a servidores externos y manteniendo un entorno de desarrollo privado y controlado.

La prueba de Carlos

Carlos Castillo va paseando por el campo con su perro Pistón y su gata Biela cuando se encuentra con un caudaloso río. Para cruzar el río hay una barca, pero en la barca solo puede ir Carlos y una de las mascotas a la vez. ¿Como tiene que hacer Carlos para cruzar al otro lado del río con sus dos mascotas?

La respuesta de gpt-oss-20b,

Para que Carlos consiga cruzar al río sin dejar al perro y a la gata juntos sin su supervisión, debe seguir estos tres pasos:

  1. Lleva primero a la gata
  • Carlos toma a Biela en la barca y cruza el río.
  • Deja a Biela en la orilla opuesta y regresa solo a la otra ribera.
  1. Regresa vacío
  • La barca llega de nuevo al lado original, donde queda sólo el perro Pistón sin supervisión.
  1. Lleva al perro
  • Carlos toma a Pistón y cruza una vez más con él.
  • Al llegar, ambos animales (Biela ya está en la otra ribera) están junto a Carlos, por lo que no quedan solos juntos.
    Con estos tres viajes (dos de ida y una de regreso), Carlos logra cruzar al otro lado del río con las dos mascotas sin que el perro quede solo con la gata.

Más información,

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *