Ir al contenido

De usuario a constructor

Hasta este punto, has interactuado con la Inteligencia Artificial a través de interfaces de chat (ChatGPT, Gemini, LM Studio). En ese entorno, la IA es un “asistente”.

En este módulo, cruzaremos la línea. La IA dejará de ser tu copiloto para convertirse en una función dentro de tu código.

Lo primero que debes entender como desarrollador backend es que los LLMs funcionan sobre HTTP y son, por definición, Stateless (sin estado).


Para este laboratorio utilizaremos TypeScript/Node.js y Google Gemini. Esta combinación no es aleatoria; es una decisión de arquitectura técnica:

  1. Asincronía nativa: Node.js brilla manejando I/O. Dado que los LLMs pueden tardar segundos en responder, el modelo de Event Loop de Node es perfecto para manejar múltiples peticiones sin bloquear el servidor.
  2. Contexto masivo y gratuito: Gemini 3 Flash ofrece una ventana de contexto de 1 millón de tokens y un tier gratuito. Esto nos permite prototipar aplicaciones reales (como analizar libros enteros) sin costo.
  3. JSON mode: Gemini tiene uno de los mejores soportes nativos para devolver JSON estructurado, algo crítico para integrar la respuesta en tu frontend o base de datos.

No haremos simples “Hola Mundo”. Este módulo está diseñado para darte piezas de LEGO reutilizables para aplicaciones reales:

  1. Configuración robusta: Aprenderás a gestionar API Keys de forma segura y crear un cliente Singleton.

  2. Ingeniería de datos (JSON): Dejarás de recibir texto plano. Obligaremos al modelo a comportarse como una API REST que devuelve objetos JSON predecibles.

  3. UX en tiempo real (Streaming): Implementaremos el efecto de “máquina de escribir” para que tus usuarios no esperen 5 segundos frente a una pantalla en blanco.