¿Cómo utilizar una ventana de búfer de conversación en LangChain?

Como Utilizar Una Ventana De Bufer De Conversacion En Langchain



LangChain es el marco que se puede utilizar en el cuaderno Python para entrenar modelos de lenguaje o chatbots utilizando modelos de aprendizaje automático. Estos modelos de lenguaje se utilizan para conversar con humanos en su lenguaje natural después de entrenarlos en lenguajes similares a los humanos. Esta publicación ilustrará el proceso de uso de una ventana de búfer de conversación en LangChain.

¿Cómo utilizar una ventana de búfer de conversación en LangChain?

La ventana del búfer de conversación se utiliza para mantener los mensajes más recientes de la conversación en la memoria para obtener el contexto más reciente. Utiliza el valor de K para almacenar los mensajes o cadenas en la memoria utilizando el marco LangChain.

Para conocer el proceso de uso de la ventana del búfer de conversación en LangChain, simplemente consulte la siguiente guía:







Paso 1: instalar módulos

Inicie el proceso de uso de la ventana del búfer de conversación instalando el módulo LangChain con las dependencias necesarias para crear modelos de conversación:



pip instalar cadena larga



Después de eso, instale el módulo OpenAI que se puede usar para construir modelos de lenguaje grandes en LangChain:





instalación de pip en openai

Ahora, configurar el entorno OpenAI para construir las cadenas LLM usando la clave API de la cuenta OpenAI:



importar
importar conseguir pase

. alrededor de [ 'OPENAI_API_KEY' ] = conseguir pase . conseguir pase ( 'Clave API de OpenAI:' )

Paso 2: uso de la memoria de la ventana del búfer de conversación

Para utilizar la memoria de la ventana del búfer de conversación en LangChain, importe el ConversaciónBufferVentanaMemoria biblioteca:

de cadena larga. memoria importar ConversaciónBufferVentanaMemoria

Configure la memoria usando el ConversaciónBufferVentanaMemoria () método con el valor de k como argumento. El valor de k se utilizará para mantener los mensajes más recientes de la conversación y luego configurar los datos de entrenamiento usando las variables de entrada y salida:

memoria = ConversaciónBufferVentanaMemoria ( k = 1 )

memoria. guardar_contexto ( { 'aporte' : 'Hola' } , { 'producción' : 'Cómo estás' } )

memoria. guardar_contexto ( { 'aporte' : 'Estoy bien, y tu' } , { 'producción' : 'poco' } )

Pruebe la memoria llamando al variables_memoria_carga () método para iniciar la conversación:

memoria. variables_memoria_carga ( { } )

Para obtener el historial de la conversación, configure la función ConversationBufferWindowMemory() usando el mensajes_devueltos argumento:

memoria = ConversaciónBufferVentanaMemoria ( k = 1 , mensajes_devueltos = Verdadero )

memoria. guardar_contexto ( { 'aporte' : 'Hola' } , { 'producción' : 'qué pasa' } )

memoria. guardar_contexto ( { 'aporte' : 'no mucho tú' } , { 'producción' : 'poco' } )

Ahora, llama a la memoria usando el variables_memoria_carga () método para obtener la respuesta con el historial de la conversación:

memoria. variables_memoria_carga ( { } )

Paso 3: usar la ventana de búfer en una cadena

Construye la cadena usando el Abierto AI y Cadena de conversación bibliotecas y luego configurar la memoria intermedia para almacenar los mensajes más recientes de la conversación:

de cadena larga. cadenas importar Cadena de conversación
de cadena larga. llms importar Abierto AI
#construyendo un resumen de la conversación usando múltiples parámetros
conversación_con_resumen = Cadena de conversación (
llm = Abierto AI ( temperatura = 0 ) ,
#construyendo un buffer de memoria usando su función con el valor de k para almacenar mensajes recientes
memoria = ConversaciónBufferVentanaMemoria ( k = 2 ) ,
#configure la variable detallada para obtener resultados más legibles
verboso = Verdadero
)
conversación_con_summary. predecir ( aporte = 'Hola que tal' )

Ahora continúe la conversación haciendo la pregunta relacionada con el resultado proporcionado por el modelo:

conversación_con_summary. predecir ( aporte = '¿Cuáles son sus problemas?' )

El modelo está configurado para almacenar solo un mensaje anterior que puede usarse como contexto:

conversación_con_summary. predecir ( aporte = 'Va todo bien' )

Pregunte por la solución a los problemas y la estructura de salida seguirá deslizando la ventana del búfer eliminando los mensajes anteriores:

conversación_con_summary. predecir ( aporte = 'Cual es la solución' )

Se trata del proceso de uso de LangChain de las ventanas del búfer de conversación.

Conclusión

Para utilizar la memoria de la ventana del búfer de conversación en LangChain, simplemente instale los módulos y configure el entorno utilizando la clave API de OpenAI. Después de eso, cree la memoria intermedia utilizando el valor de k para conservar los mensajes más recientes de la conversación y mantener el contexto. La memoria intermedia también se puede utilizar con cadenas para iniciar la conversación con el LLM o la cadena. Esta guía ha detallado el proceso de uso de la ventana del búfer de conversación en LangChain.