¿Cómo utilizar una ventana de búfer de conversación en LangChain?
La ventana del búfer de conversación se utiliza para mantener los mensajes más recientes de la conversación en la memoria para obtener el contexto más reciente. Utiliza el valor de K para almacenar los mensajes o cadenas en la memoria utilizando el marco LangChain.
Para conocer el proceso de uso de la ventana del búfer de conversación en LangChain, simplemente consulte la siguiente guía:
Paso 1: instalar módulos
Inicie el proceso de uso de la ventana del búfer de conversación instalando el módulo LangChain con las dependencias necesarias para crear modelos de conversación:
pip instalar cadena larga
Después de eso, instale el módulo OpenAI que se puede usar para construir modelos de lenguaje grandes en LangChain:
instalación de pip en openai
Ahora, configurar el entorno OpenAI para construir las cadenas LLM usando la clave API de la cuenta OpenAI:
importar tú
importar conseguir pase
tú . alrededor de [ 'OPENAI_API_KEY' ] = conseguir pase . conseguir pase ( 'Clave API de OpenAI:' )
Paso 2: uso de la memoria de la ventana del búfer de conversación
Para utilizar la memoria de la ventana del búfer de conversación en LangChain, importe el ConversaciónBufferVentanaMemoria biblioteca:
de cadena larga. memoria importar ConversaciónBufferVentanaMemoriaConfigure la memoria usando el ConversaciónBufferVentanaMemoria () método con el valor de k como argumento. El valor de k se utilizará para mantener los mensajes más recientes de la conversación y luego configurar los datos de entrenamiento usando las variables de entrada y salida:
memoria = ConversaciónBufferVentanaMemoria ( k = 1 )memoria. guardar_contexto ( { 'aporte' : 'Hola' } , { 'producción' : 'Cómo estás' } )
memoria. guardar_contexto ( { 'aporte' : 'Estoy bien, y tu' } , { 'producción' : 'poco' } )
Pruebe la memoria llamando al variables_memoria_carga () método para iniciar la conversación:
memoria. variables_memoria_carga ( { } )
Para obtener el historial de la conversación, configure la función ConversationBufferWindowMemory() usando el mensajes_devueltos argumento:
memoria = ConversaciónBufferVentanaMemoria ( k = 1 , mensajes_devueltos = Verdadero )memoria. guardar_contexto ( { 'aporte' : 'Hola' } , { 'producción' : 'qué pasa' } )
memoria. guardar_contexto ( { 'aporte' : 'no mucho tú' } , { 'producción' : 'poco' } )
Ahora, llama a la memoria usando el variables_memoria_carga () método para obtener la respuesta con el historial de la conversación:
memoria. variables_memoria_carga ( { } )
Paso 3: usar la ventana de búfer en una cadena
Construye la cadena usando el Abierto AI y Cadena de conversación bibliotecas y luego configurar la memoria intermedia para almacenar los mensajes más recientes de la conversación:
de cadena larga. cadenas importar Cadena de conversaciónde cadena larga. llms importar Abierto AI
#construyendo un resumen de la conversación usando múltiples parámetros
conversación_con_resumen = Cadena de conversación (
llm = Abierto AI ( temperatura = 0 ) ,
#construyendo un buffer de memoria usando su función con el valor de k para almacenar mensajes recientes
memoria = ConversaciónBufferVentanaMemoria ( k = 2 ) ,
#configure la variable detallada para obtener resultados más legibles
verboso = Verdadero
)
conversación_con_summary. predecir ( aporte = 'Hola que tal' )
Ahora continúe la conversación haciendo la pregunta relacionada con el resultado proporcionado por el modelo:
conversación_con_summary. predecir ( aporte = '¿Cuáles son sus problemas?' )
El modelo está configurado para almacenar solo un mensaje anterior que puede usarse como contexto:
conversación_con_summary. predecir ( aporte = 'Va todo bien' )
Pregunte por la solución a los problemas y la estructura de salida seguirá deslizando la ventana del búfer eliminando los mensajes anteriores:
conversación_con_summary. predecir ( aporte = 'Cual es la solución' )
Se trata del proceso de uso de LangChain de las ventanas del búfer de conversación.
Conclusión
Para utilizar la memoria de la ventana del búfer de conversación en LangChain, simplemente instale los módulos y configure el entorno utilizando la clave API de OpenAI. Después de eso, cree la memoria intermedia utilizando el valor de k para conservar los mensajes más recientes de la conversación y mantener el contexto. La memoria intermedia también se puede utilizar con cadenas para iniciar la conversación con el LLM o la cadena. Esta guía ha detallado el proceso de uso de la ventana del búfer de conversación en LangChain.