Esquema rápido
Esta publicación demostrará:
Cómo implementar la lógica ReAct con el almacén de documentos en LangChain
- Instalación de marcos
- Proporcionar clave API de OpenAI
- Importación de bibliotecas
- Usando el Explorador de Wikipedia
- Probando el modelo
¿Cómo implementar la lógica ReAct con el almacén de documentos en LangChain?
Los modelos de lenguaje se entrenan con una enorme cantidad de datos escritos en lenguajes naturales como inglés, etc. Los datos se administran y almacenan en los almacenes de documentos y el usuario puede simplemente cargar los datos desde el almacén y entrenar el modelo. El entrenamiento del modelo puede requerir múltiples iteraciones, ya que cada iteración hace que el modelo sea más efectivo y mejorado.
Para conocer el proceso de implementación de la lógica ReAct para trabajar con el almacén de documentos en LangChain, simplemente siga esta sencilla guía:
Paso 1: instalar marcos
Primero, comience con el proceso de implementación de la lógica ReAct para trabajar con el almacén de documentos instalando el marco LangChain. La instalación del marco LangChain obtendrá todas las dependencias necesarias para obtener o importar las bibliotecas para completar el proceso:
pip instalar cadena larga
Instale las dependencias de Wikipedia para esta guía, ya que se pueden utilizar para que los almacenes de documentos funcionen con la lógica de ReAct:
pip instalar wikipedia
Instale los módulos OpenAI usando el comando pip para obtener sus bibliotecas y crear modelos de lenguaje grandes o LLM:
instalación de pip en openai
Paso 2: Proporcionar la clave API de OpenAI
Después de instalar todos los módulos necesarios, simplemente configurar el entorno usando la clave API de la cuenta OpenAI usando el siguiente código:
importar túimportar conseguir pase
tú . alrededor de [ 'OPENAI_API_KEY' ] = conseguir pase . conseguir pase ( 'Clave API de OpenAI:' )
Paso 3: Importar bibliotecas
Una vez configurado el entorno, importe las bibliotecas de LangChain que se requieren para configurar la lógica de ReAct para trabajar con los almacenes de documentos. Usar agentes LangChain para obtener DocstoreExplaorer y agentes con sus tipos para configurar el modelo de lenguaje:
de cadena larga. llms importar Abierto AIde cadena larga. tienda de documentos importar Wikipedia
de cadena larga. agentes importar agente_inicializar , Herramienta
de cadena larga. agentes importar Tipo de agente
de cadena larga. agentes . reaccionar . base importar DocstoreExplorer
Paso 4: usar el Explorador de Wikipedia
Configurar el “ tienda de documentos ”variable con el método DocstoreExplorer() y llame al método Wikipedia() en su argumento. Construya el modelo de lenguaje grande utilizando el método OpenAI con el ' texto-davinci-002 ”modelo después de configurar las herramientas para el agente:
tienda de documentos = DocstoreExplorer ( Wikipedia ( ) )herramientas = [
Herramienta (
nombre = 'Buscar' ,
función = tienda de documentos. buscar ,
descripción = 'Se utiliza para realizar consultas/indicaciones con la búsqueda' ,
) ,
Herramienta (
nombre = 'Buscar' ,
función = tienda de documentos. buscar ,
descripción = 'Se utiliza para realizar consultas/indicaciones con búsqueda' ,
) ,
]
llm = Abierto AI ( temperatura = 0 , nombre del modelo = 'texto-davinci-002' )
#definir la variable configurando el modelo con el agente
reaccionar = agente_inicializar ( herramientas , llm , agente = Tipo de agente. REACT_DOCSTORE , verboso = Verdadero )
Paso 5: probar el modelo
Una vez que el modelo esté construido y configurado, establezca la cadena de preguntas y ejecute el método con la variable de pregunta en su argumento:
pregunta = '¿Con qué almirante de la Marina de los EE. UU. colaboró? Autor David Chanoff'reaccionar. correr ( pregunta )
Una vez que se ejecuta la variable de la pregunta, el modelo ha entendido la pregunta sin ninguna plantilla o capacitación externa. El modelo se entrena automáticamente utilizando el modelo cargado en el paso anterior y generando el texto correspondiente. La lógica de ReAct trabaja con los almacenes de documentos para extraer información basada en la pregunta:
Haga otra pregunta a partir de los datos proporcionados al modelo desde los almacenes de documentos y el modelo extraerá la respuesta del almacén:
pregunta = '¿El autor David Chanoff ha colaborado con William J. Crowe, quien sirvió bajo qué presidente?'reaccionar. correr ( pregunta )
Se trata de implementar la lógica de ReAct para trabajar con el almacén de documentos en LangChain.
Conclusión
Para implementar la lógica de ReAct para trabajar con el almacén de documentos en LangChain, instale los módulos o marcos para construir el modelo de lenguaje. Después de eso, configure el entorno para OpenAI para configurar el LLM y cargar el modelo desde el almacén de documentos para implementar la lógica de ReAct. Esta guía ha explicado detalladamente la implementación de la lógica de ReAct para trabajar con el almacén de documentos.