Curso práctico de IA Generativa orientado a desarrolladores. Aprende los fundamentos teóricos y prácticos para integrar LLMs en tus aplicaciones usando LangChain con modelos locales (Ollama) y APIs comerciales (OpenAI, Anthropic, Google).
Autor: Alan Sastre
| Notebook | Descripción |
|---|---|
01-genai-que-es-ia-generativa |
Introducción a la IA Generativa |
02-genai-que-puede-hacer |
Casos de uso y aplicaciones |
03-genai-historia-y-evolucion |
Historia y evolución de los LLMs |
04-genai-llm-arquitectura-alto-nivel |
Arquitectura de los modelos de lenguaje |
05-genai-llm-limitaciones-y-alucinaciones |
Limitaciones y alucinaciones |
06-genai-roles-disciplinas-profesionales |
Roles profesionales en IA |
| Notebook | Descripción |
|---|---|
01-genai-setup-entorno-python-ollama-langchain |
Configuración del entorno de desarrollo |
02-genai-langchain-modelos-ollama |
Uso de modelos locales con Ollama |
03-genai-langchain-message-types |
Tipos de mensajes en LangChain |
04-genai-langchain-generation-parameters |
Parámetros de generación |
| Notebook | Descripción |
|---|---|
01-genai-ecosistema-proveedores |
Panorama de proveedores |
02-genai-langchain-openai |
Integración con OpenAI |
03-genai-langchain-anthropic |
Integración con Anthropic (Claude) |
04-genai-langchain-google |
Integración con Google (Gemini) |
Aplicación de consola que implementa un chatbot conversacional usando LangChain y Ollama. Incluye:
- Memoria de conversación
- Cambio dinámico de modelos
- Comandos interactivos (
/help,/model,/clear,/info)
Nota: Los notebooks incluyen diagramas Mermaid que no se visualizan en GitHub. Para verlos correctamente, abre los notebooks en VS Code con la extensión Quarto.
- Python 3.13+
- Ollama instalado y en ejecución (para modelos locales)
- API Keys (opcionales, para proveedores comerciales):
OPENAI_API_KEYANTHROPIC_API_KEYGOOGLE_API_KEY
Descarga e instala Ollama desde ollama.com y descarga un modelo:
ollama pull gemma3:1bWindows:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"Linux/macOS:
curl -LsSf https://astral.sh/uv/install.sh | shgit clone https://github.com/TU_USUARIO/genai-fundamentos.git
cd genai-fundamentos
# Crear entorno virtual e instalar dependencias
uv venv --python 3.13.5
uv add -r requirements.txtWindows:
.venv\Scripts\activateLinux/macOS:
source .venv/bin/activateCrea un archivo .env en la raíz del proyecto:
OPENAI_API_KEY=sk-...
ANTHROPIC_API_KEY=sk-ant-...
GOOGLE_API_KEY=...Abre los notebooks con VS Code (extensión Jupyter) o ejecuta:
jupyter notebookpython 04-proyecto/main.pyComandos disponibles:
/help- Muestra la ayuda/model <nombre>- Cambia el modelo (ej:gemma3:1b,deepseek-r1:1.5b)/clear- Limpia el historial/info- Muestra información del chatbot/exit- Salir
| Paquete | Versión | Descripción |
|---|---|---|
langchain |
1.2.6 | Framework para aplicaciones LLM |
langchain-ollama |
1.0.1 | Integración con Ollama |
langchain-openai |
1.1.7 | Integración con OpenAI |
langchain-anthropic |
1.3.1 | Integración con Anthropic |
langchain-google-genai |
4.2.0 | Integración con Google AI |
jupyter |
1.1.1 | Notebooks interactivos |
genai-fundamentos/
├── 01-fundamentos/ # Notebooks de teoría
├── 02-iniciacion/ # Notebooks de iniciación práctica
├── 03-proveedores/ # Notebooks de integración con APIs
├── 04-proyecto/ # Chatbot CLI
│ └── main.py
├── .env # Variables de entorno (no incluido)
├── pyproject.toml # Configuración del proyecto
├── requirements.txt # Dependencias alternativas (pip)
└── README.md
Este proyecto está bajo la licencia MIT.