Entre la miríada de herramientas y marcos disponibles, LangChain destaca como una plataforma innovadora que permite a los desarrolladores aprovechar todo el potencial de los modelos lingüísticos.

En este mundo en rápida evolución de la inteligencia artificial (IA), mantenerse a la vanguardia requiere algo más que conocimientos teóricos: exige experiencia práctica.

Este artículo se sumerge en las aplicaciones prácticas de LangChain utilizando Python, proporcionando tutoriales paso a paso que destacan su importancia en la era de la IA.

Mediante la integración de LangChain con Ollama, demostraremos cómo ejecutar localmente grandes modelos lingüísticos (LLM), ahorrando costes y evitando problemas de conexión.

Tanto si eres un desarrollador experimentado como si eres nuevo en la IA, esta guía te ofrece valiosos conocimientos y ejemplos prácticos para ayudarte a dominar LangChain y dar forma al futuro del desarrollo de la IA.

Si tu quieres aprender más acerca de Inteligencia Artificial puedes visitar el curso AQUI

Configuración del entorno

Antes de sumergirnos en los ejemplos, vamos a configurar nuestro entorno. Necesitarás Python instalado en tu sistema.

Para ello te dejo el siguiente articulo

Install Python on Mac
To install Python on a MacBook Pro, you can follow these steps: Step 1: Open the Terminal application from the Applications/Utilities folder. Step 2: Install Homebrew by running the following command and pressing Enter: Step 4: After Homebrew is installed, run the following command to update it: Not

Si eres nuevo en Python, espero que el siguiente artículo te ponga al día:

Python Basics Crash Course
This article serves as a quick refresher or a jumpstart for Python before delving into machine learning concepts. While it is not a comprehensive Python course, it provides a solid foundation and helps you choose the direction to pursue.

Instalando Ollama y Comunicándose con Diferentes LLMs, Localmente:

Usaremos Ollama y ejecutaremos LLMs localmente para evitar gastos y problemas de conexión. Sigue el siguiente artículo para configurar Ollama y comunicarse con el LLM

Ollama with LangChain for Local LLMs Applications
Ollama is a versatile platform for running and interacting with large language models (LLMs) like Llama, Gemma, Phi, Zypher, Code Llama, and many more. It allows users to pull, run, and create models easily on local machines, ensuring privacy and control over data.

Después de la instalación, sigue el siguiente artículo para crear una función LangChain que se comunique con múltiples LLMs.

Connecting LangChain with Different LLMs
In the rapidly evolving field of artificial intelligence, integrating powerful language models into your applications can be a game-changer. LangChain, in conjunction with Azure OpenAI, offers a robust framework for leveraging state-of-the-art language models to build intelligent applications.

Deberías poder comunicarte con un LLM local utilizando el siguiente comando:

from langchain_community.llms import Ollamadefchat_with(llm, prompt):return llm.invoke(prompt) phi3_llm = Ollama(model='phi3:3.8b')response = chat_with(phi3_llm, "tell me a joke")from pprint import pprintpprint(response)

Ahora, divirtámonos con LangChain y los LLM locales

Plantillas de avisos

Una plantilla de aviso en LangChain es una forma estructurada de crear avisos que se envían al modelo de lenguaje. Te permite definir una plantilla con marcadores de posición que pueden ser rellenados con valores dinámicos en tiempo de ejecución.

Esto ayuda a reutilizar los avisos y garantiza la coherencia en la forma en que se estructuran los avisos. En el siguiente artículo se explican las plantillas de avisos con ejemplos:

Explaining LangChain Prompt Templates by Example
LangChain is a powerful framework for developing applications powered by large language models (LLMs). One of its core features is the prompt template, which helps standardize and manage the prompts you send to the LLMs.


Uso de cadenas


Uno de los componentes principales de LangChain es el concepto de "cadenas", que permite a los desarrolladores crear secuencias de operaciones que procesan entradas y salidas de forma estructurada.

LangChain Chains with Ollama Phi3, Gemma2, and Llama3: Simple Examples of Chains
As artificial intelligence continues to evolve, developers are constantly seeking ways to streamline and enhance their AI development workflows. LangChain, a versatile framework for working with language models, provides powerful tools for building and managing AI applications.

Memoria LangChain
LangChain proporciona utilidades para añadir memoria a los sistemas de IA conversacional, lo que les permite referirse a información introducida anteriormente en la conversación. Esto es esencial para crear aplicaciones interactivas y conscientes del contexto.

Aquí exploraremos cómo utilizar la memoria LangChain con sencillos ejemplos en Python.

LangChain Memory
LangChain provides utilities for adding memory to conversational AI systems, enabling them to refer to information introduced earlier in the conversation. This is essential for creating interactive and context-aware applications.

Herramientas LangChain

LangChain proporciona varias herramientas que pueden integrarse en las aplicaciones para permitir la interacción con diferentes fuentes de datos y API. Estas herramientas se definen con un nombre, descripción, esquema de entrada, función a llamar, y si el resultado debe ser devuelto directamente al usuario.

A continuación, exploraremos algunas de estas herramientas con ejemplos sencillos en Python utilizando LangChain y el modelo Ollama.

LangChain Tools: A Quick Start Guide
LangChain provides various tools that can be integrated into applications to enable interaction with different data sources and APIs. These tools are defined with a name, description, input schema, function to call, and whether the result should be returned directly to the user.
Understanding StructuredTools in LangChain
StructuredTools in LangChain are designed to facilitate more complex interactions with APIs and data sources by defining clear input and output schemas. These tools ensure that the data exchanged between components is well-structured and validated, enhancing reliability and integration capabilities.

Agentes LangChain:

Los agentes LangChain te permiten crear aplicaciones dinámicas e interactivas aprovechando los LLM para manejar diversas tareas de forma autónoma.

El siguiente artículo explorará los agentes LangChain y proporcionará ejemplos Python fáciles de seguir para ayudarte a empezar a usar Ollama y Llama3.

LangChain Agents: A Quick Start
LangChain is an innovative framework designed to simplify the integration of large language models (LLMs) into applications. One of its core features is the concept of “agents.

Agentes Langchain con herramientas personalizadas:

El siguiente artículo explorará cómo mejorar los agentes LangChain con herramientas personalizadas, usando un ejemplo de Python para obtener mi apellido, que el LLM no puede responder sin una herramienta.

Demostraremos el comportamiento del agente antes y después de añadir la herramienta personalizada, aprovechando el modelo Llama3 de Ollama como nuestro modelo de lenguaje.

LangChain Agents with Custom Tools
In the rapidly evolving world of AI, LangChain stands out as a robust framework for building applications with language models. Among its many features, LangChain agents are particularly powerful, enabling dynamic interaction with various tools to accomplish tasks more efficiently.

Agentes LangChain con StructuredTools personalizados

LangChain proporciona un marco versátil para construir y desplegar agentes de modelos lingüísticos, facilitando a los desarrolladores el aprovechamiento de la potencia de los grandes modelos lingüísticos (LLM) en diversas aplicaciones.

Una de las características destacables de LangChain es el uso de StructuredTools, que permite interacciones más estructuradas y fiables con los LLM. En el siguiente artículo, profundizaremos en cómo se pueden mejorar los agentes LangChain con StructuredTools, utilizando un ejemplo práctico para ilustrar el proceso.

LangChain Agents with Custom StructuredTools
LangChain provides a versatile framework for building and deploying language model agents, making it easier for developers to leverage the power of large language models (LLMs) in various applications. One of the notable features of LangChain is the use of StructuredTools, which enables more structu

LangGraph

LangGraph es un módulo innovador construido sobre LangChain, diseñado para crear gráficos cíclicos para tiempos de ejecución de agentes de IA. Proporciona la flexibilidad necesaria para implementar comportamientos similares a los de una máquina de estados, mejorando los procesos de toma de decisiones.

Esta guía introducirá las características clave de LangGraph y demostrará su aplicación a través de sencillos ejemplos en Python, apoyados por diagramas.

LangGraph: A Quick Start
LangGraph is an innovative module built on LangChain, designed to create cyclical graphs for AI agent runtimes. It provides the flexibility to implement state-machine-like behaviors, enhancing decision-making processes.

Cómo utilizamos LangChain en Clearwater Analytics:

En el siguiente artículo se explica cómo utilizamos LangChain y Agents en Clearwater Analytics

Langchain and MRKL Agents Demystified
A large language learning model (LLM) can do a great job of writing a silly limerick or ripping off a Hollywood screenplay, but without…

Fuente