¿Cómo utilizar un búfer de token de conversación en LangChain?

Como Utilizar Un Bufer De Token De Conversacion En Langchain



LangChain permite a los desarrolladores crear modelos mediante aprendizaje automático o aprendizaje profundo que pueden entrenar modelos utilizando conjuntos de datos. Estos modelos pueden obtener diferentes patrones de los datos o comprender la forma del conjunto de datos y su lenguaje para extraer información. Los modelos de lenguaje grandes o LLM se pueden configurar o diseñar utilizando los marcos LangChain que pueden comprender y generar texto en lenguajes naturales.

Esta guía ilustrará el proceso de uso de un búfer de token de conversación en LangChain.

¿Cómo utilizar un búfer de token de conversación en LangChain?

El ConversaciónTokenBufferMemoria La biblioteca se puede importar desde el marco LangChain para almacenar los mensajes más recientes en la memoria intermedia. Los tokens se pueden configurar para limitar la cantidad de mensajes almacenados en el búfer y los mensajes anteriores se eliminarán automáticamente.







Para conocer el proceso de uso del búfer de token de conversación en LangChain, utilice la siguiente guía:



Paso 1: instalar módulos

Primero, instale el marco LangChain que contiene todos los módulos necesarios usando el comando pip:



pip instalar cadena larga





Ahora, instale el módulo OpenAI para construir los LLM y las cadenas usando el método OpenAI():

instalación de pip en openai



Después de instalar los módulos, simplemente use la clave API de OpenAI para configurar el entorno usando las bibliotecas os y getpass:

importar

importar conseguir pase

. alrededor de [ 'OPENAI_API_KEY' ] = conseguir pase . conseguir pase ( 'Clave API de OpenAI:' )

Paso 2: uso de la memoria intermedia del token de conversación

Cree los LLM utilizando el método OpenAI() después de importar el ConversaciónTokenBufferMemoria biblioteca del marco LangChain:

de cadena larga. memoria importar ConversaciónTokenBufferMemoria

de cadena larga. llms importar AbiertoAI

llm = AbiertoAI ( )

Configure la memoria para configurar el token, vacía los mensajes antiguos y los almacena en la memoria intermedia. Después de eso, almacena los mensajes de la conversación y obtén los más recientes para usarlos como contexto:

memoria = ConversaciónTokenBufferMemoria ( llm = llm , límite_max_token = 10 )

memoria. guardar_contexto ( { 'aporte' : 'Hola' } , { 'producción' : 'Cómo estás' } )

memoria. guardar_contexto ( { 'aporte' : 'Estoy bien, y tu' } , { 'producción' : 'poco' } )

Ejecute la memoria para obtener los datos almacenados en la memoria intermedia usando el método load_memory_variables():

memoria. variables_memoria_carga ( { } )

Paso 3: Usar la memoria intermedia del token de conversación en una cadena

Construya las cadenas configurando el Cadena de conversación() Método con múltiples argumentos para usar la memoria intermedia del token de conversación:

de cadena larga. cadenas importar Cadena de conversación

conversación_con_resumen = Cadena de conversación (
llm = llm ,
memoria = ConversaciónTokenBufferMemoria ( llm = AbiertoAI ( ) , límite_max_token = 60 ) ,
verboso = Verdadero ,
)
conversación_con_summary. predecir ( aporte = '¿Hola que tal?' )

Ahora, inicie la conversación haciendo preguntas utilizando las indicaciones escritas en lenguaje natural:

conversación_con_summary. predecir ( aporte = 'Simplemente estoy trabajando en el proyecto de PNL' )

Obtenga el resultado de los datos almacenados en la memoria intermedia utilizando la cantidad de tokens:

conversación_con_summary. predecir ( aporte = 'Simplemente estoy trabajando en el diseño de LLM' )

El búfer se sigue actualizando con cada nueva entrada, ya que los mensajes anteriores se vacían periódicamente:

conversación_con_summary. predecir (

aporte = '¡LLM usando LangChain! ¿Has oído hablar de él?'

)

Se trata de utilizar el búfer de token de conversación en LangChain.

Conclusión

Para utilizar el búfer de token de conversación en LangChain, simplemente instale los módulos para configurar el entorno utilizando la clave API de la cuenta OpenAI. Después de eso, importe la biblioteca ConversationTokenBufferMemory usando el módulo LangChain para almacenar la conversación en el búfer. La memoria intermedia se puede utilizar en cadena para eliminar los mensajes más antiguos con cada mensaje nuevo en el chat. Esta publicación ha detallado el uso de la memoria intermedia del token de conversación en LangChain.