Introducción
El AI SDK es la biblioteca open source de Vercel que está transformando cómo los desarrolladores integran inteligencia artificial en aplicaciones web.
¿Qué es el AI SDK?
Es un toolkit de TypeScript que simplifica la integración de modelos de lenguaje (LLMs) como GPT, Claude, o Gemini en aplicaciones JavaScript/TypeScript.
Con pocas líneas de código obtienes streaming en tiempo real, exactamente como ChatGPT.
¿Por qué AI SDK?
1. TypeScript-first
Tipos completos, autocompletado, y validación en tiempo de compilación. No más any o respuestas sin tipar.
2. Streaming nativo
El streaming no es un extra, es el default. Cada función tiene su versión stream (generateText → streamText).
3. Agnóstico del proveedor
Cambia de OpenAI a Anthropic a Google con una línea. La API es la misma.
4. React hooks listos
useChat maneja el streaming y estado de mensajes por ti.
Nota para principiantes: En v6, el hook ya no maneja el input internamente. Usamos
useStatede React para controlar el campo de texto, ysendMessagepara enviar. Los mensajes ahora tienenpartsen lugar decontent.
Estructura del libro
Este libro está organizado en capítulos progresivos:
- Tu primera inferencia - Streaming, tokens, context window y datos estructurados con Zod
- React - El hook
useChat, internals y patrones de UI - Backend - Servidores Express y Hono, HTTP streaming
- React Router v7 - Integración full-stack
- Tools - Cuando el modelo ejecuta acciones
- Agentes - Sistemas autónomos
Cada capítulo incluye ejemplos que puedes ejecutar inmediatamente.
Requisitos previos
- Node.js 20+
- Conocimiento básico de TypeScript
- Familiaridad con React
- Una API key de OpenAI, Anthropic, o Google (tienen tiers gratuitos)
Versión del AI SDK: Este libro está escrito para AI SDK v6 (la versión más reciente de Vercel). Si encuentras código en internet con
toDataStreamResponse(), es de versiones anteriores (4.x/5.x). Nosotros usamostoUIMessageStreamResponse()y el formatoUIMessageexclusivamente.
Fecha de escritura: Este libro fue escrito en Enero 2026. El AI SDK evoluciona rápido—si algo no funciona, revisa el .
Setup inicial
Usaremos el repositorio oficial del taller que ya tiene todo configurado:
Crea un archivo .env en la raíz del proyecto:
Branches del taller:
ejercicio/00-basic_inferencehastaejercicio/06-sending_custom_data— Flujo principalejercicio/bonus-migrate_to_hono— Usado en el Capítulo 3 para entender streamingLas branches del libro siguen el patrón
book/capitulo-*para diferenciarse.
Tu primer script ya está listo en index.ts:
Ejecuta con:
Si ves "Hola desde TypeScript!" (o algo similar), estás listo para continuar.
En el próximo capítulo haremos tu primera inferencia: verás streaming en acción, entenderás qué son los tokens y el context window, y generarás datos estructurados con Zod. *
¿Ya compraste el libro?
Si compraste el libro y no encuentras tu email de descarga, ingresa tu email y te enviamos un nuevo enlace.
