¿Cómo implementar la lógica ReAct para trabajar con Document Store?

Como Implementar La Logica React Para Trabajar Con Document Store



LangChain es el marco que contiene todas las dependencias y bibliotecas para crear modelos de lenguaje y chatbots. Estos chatbots deben estar entrenados con datos masivos para poder comprender las complejidades del lenguaje de manera eficiente. Los desarrolladores pueden utilizar la lógica ReAct con estos modelos que pueden aprender y comprender el lenguaje con precisión. El Reaccionar La lógica es la combinación de Razonamiento (entrenar y Interino Fases (de prueba) para obtener los resultados optimizados del modelo.

Esquema rápido

Esta publicación demostrará:







Cómo implementar la lógica ReAct con el almacén de documentos en LangChain



Conclusión



¿Cómo implementar la lógica ReAct con el almacén de documentos en LangChain?

Los modelos de lenguaje se entrenan con una enorme cantidad de datos escritos en lenguajes naturales como inglés, etc. Los datos se administran y almacenan en los almacenes de documentos y el usuario puede simplemente cargar los datos desde el almacén y entrenar el modelo. El entrenamiento del modelo puede requerir múltiples iteraciones, ya que cada iteración hace que el modelo sea más efectivo y mejorado.





Para conocer el proceso de implementación de la lógica ReAct para trabajar con el almacén de documentos en LangChain, simplemente siga esta sencilla guía:

Paso 1: instalar marcos

Primero, comience con el proceso de implementación de la lógica ReAct para trabajar con el almacén de documentos instalando el marco LangChain. La instalación del marco LangChain obtendrá todas las dependencias necesarias para obtener o importar las bibliotecas para completar el proceso:



pip instalar cadena larga

Instale las dependencias de Wikipedia para esta guía, ya que se pueden utilizar para que los almacenes de documentos funcionen con la lógica de ReAct:

pip instalar wikipedia

Instale los módulos OpenAI usando el comando pip para obtener sus bibliotecas y crear modelos de lenguaje grandes o LLM:

instalación de pip en openai

Paso 2: Proporcionar la clave API de OpenAI

Después de instalar todos los módulos necesarios, simplemente configurar el entorno usando la clave API de la cuenta OpenAI usando el siguiente código:

importar

importar conseguir pase

. alrededor de [ 'OPENAI_API_KEY' ] = conseguir pase . conseguir pase ( 'Clave API de OpenAI:' )

Paso 3: Importar bibliotecas

Una vez configurado el entorno, importe las bibliotecas de LangChain que se requieren para configurar la lógica de ReAct para trabajar con los almacenes de documentos. Usar agentes LangChain para obtener DocstoreExplaorer y agentes con sus tipos para configurar el modelo de lenguaje:

de cadena larga. llms importar Abierto AI

de cadena larga. tienda de documentos importar Wikipedia

de cadena larga. agentes importar agente_inicializar , Herramienta

de cadena larga. agentes importar Tipo de agente

de cadena larga. agentes . reaccionar . base importar DocstoreExplorer

Paso 4: usar el Explorador de Wikipedia

Configurar el “ tienda de documentos ”variable con el método DocstoreExplorer() y llame al método Wikipedia() en su argumento. Construya el modelo de lenguaje grande utilizando el método OpenAI con el ' texto-davinci-002 ”modelo después de configurar las herramientas para el agente:

tienda de documentos = DocstoreExplorer ( Wikipedia ( ) )
herramientas = [
Herramienta (
nombre = 'Buscar' ,
función = tienda de documentos. buscar ,
descripción = 'Se utiliza para realizar consultas/indicaciones con la búsqueda' ,
    ) ,
Herramienta (
nombre = 'Buscar' ,
función = tienda de documentos. buscar ,
descripción = 'Se utiliza para realizar consultas/indicaciones con búsqueda' ,
    ) ,
]

llm = Abierto AI ( temperatura = 0 , nombre del modelo = 'texto-davinci-002' )
#definir la variable configurando el modelo con el agente
reaccionar = agente_inicializar ( herramientas , llm , agente = Tipo de agente. REACT_DOCSTORE , verboso = Verdadero )

Paso 5: probar el modelo

Una vez que el modelo esté construido y configurado, establezca la cadena de preguntas y ejecute el método con la variable de pregunta en su argumento:

pregunta = '¿Con qué almirante de la Marina de los EE. UU. colaboró? Autor David Chanoff'

reaccionar. correr ( pregunta )

Una vez que se ejecuta la variable de la pregunta, el modelo ha entendido la pregunta sin ninguna plantilla o capacitación externa. El modelo se entrena automáticamente utilizando el modelo cargado en el paso anterior y generando el texto correspondiente. La lógica de ReAct trabaja con los almacenes de documentos para extraer información basada en la pregunta:

Haga otra pregunta a partir de los datos proporcionados al modelo desde los almacenes de documentos y el modelo extraerá la respuesta del almacén:

pregunta = '¿El autor David Chanoff ha colaborado con William J. Crowe, quien sirvió bajo qué presidente?'

reaccionar. correr ( pregunta )

Se trata de implementar la lógica de ReAct para trabajar con el almacén de documentos en LangChain.

Conclusión

Para implementar la lógica de ReAct para trabajar con el almacén de documentos en LangChain, instale los módulos o marcos para construir el modelo de lenguaje. Después de eso, configure el entorno para OpenAI para configurar el LLM y cargar el modelo desde el almacén de documentos para implementar la lógica de ReAct. Esta guía ha explicado detalladamente la implementación de la lógica de ReAct para trabajar con el almacén de documentos.