Esta guía ilustrará el proceso de uso de un resumen de conversación en LangChain.
¿Cómo utilizar el resumen de la conversación en LangChain?
LangChain proporciona bibliotecas como ConversationSummaryMemory que pueden extraer el resumen completo del chat o la conversación. Se puede utilizar para obtener la información principal de la conversación sin tener que leer todos los mensajes y textos disponibles en el chat.
Para conocer el proceso de uso del resumen de conversación en LangChain, simplemente siga los siguientes pasos:
Paso 1: instalar módulos
Primero, instale el marco LangChain para obtener sus dependencias o bibliotecas usando el siguiente código:
pip instalar cadena larga
Ahora, instale los módulos OpenAI después de instalar LangChain usando el comando pip:
instalación de pip en openai
Después de instalar los módulos, simplemente configurar el entorno usando el siguiente código después de obtener la clave API de la cuenta OpenAI:
importar túimportar conseguir pase
tú . alrededor de [ 'OPENAI_API_KEY' ] = conseguir pase . conseguir pase ( 'Clave API de OpenAI:' )
Paso 2: usar el resumen de la conversación
Ingrese al proceso de uso del resumen de la conversación importando las bibliotecas de LangChain:
de cadena larga. memoria importar ConversaciónResumenMemoria , ChatMensajeHistorialde cadena larga. llms importar AbiertoAI
Configure la memoria del modelo usando los métodos ConversationSummaryMemory() y OpenAI() y guarde los datos en ella:
memoria = ConversaciónResumenMemoria ( llm = AbiertoAI ( temperatura = 0 ) )memoria. guardar_contexto ( { 'aporte' : 'Hola' } , { 'producción' : 'Hola' } )
Ejecute la memoria llamando al cargar_memoria_variables() Método para extraer los datos de la memoria:
memoria. variables_memoria_carga ( { } )
El usuario también puede obtener los datos en forma de conversación como cada entidad con un mensaje separado:
memoria = ConversaciónResumenMemoria ( llm = AbiertoAI ( temperatura = 0 ) , mensajes_devueltos = Verdadero )memoria. guardar_contexto ( { 'aporte' : 'Hola' } , { 'producción' : 'Hola cómo estás' } )
Para recibir el mensaje de la IA y los humanos por separado, ejecute el método load_memory_variables():
memoria. variables_memoria_carga ( { } )
Almacene el resumen de la conversación en la memoria y luego ejecute la memoria para mostrar el resumen del chat/conversación en la pantalla:
mensajes = memoria. memoria_chat . mensajesresumen_anterior = ''
memoria. predecir_nuevo_summary ( mensajes , resumen_anterior )
Paso 3: usar el resumen de la conversación con mensajes existentes
El usuario también puede obtener el resumen de la conversación que existe fuera de la clase o chat usando el mensaje ChatMessageHistory(). Estos mensajes se pueden añadir a la memoria para que genere automáticamente el resumen de la conversación completa:
historia = ChatMensajeHistorial ( )historia. agregar_mensaje_usuario ( 'Hola' )
historia. agregar_ai_message ( '¡hola!' )
Construya el modelo como LLM utilizando el método OpenAI() para ejecutar los mensajes existentes en el memoria_chat variable:
memoria = ConversaciónResumenMemoria. de_mensajes (llm = AbiertoAI ( temperatura = 0 ) ,
memoria_chat = historia ,
mensajes_devueltos = Verdadero
)
Ejecute la memoria usando el buffer para obtener el resumen de los mensajes existentes:
memoria. buffer
Ejecute el siguiente código para construir el LLM configurando la memoria intermedia usando los mensajes de chat:
memoria = ConversaciónResumenMemoria (llm = AbiertoAI ( temperatura = 0 ) ,
buffer = '''El humano pregunta a la máquina sobre sí mismo
El sistema responde que la IA está diseñada para el bien, ya que puede ayudar a los humanos a alcanzar su potencial''' ,
memoria_chat = historia ,
mensajes_devueltos = Verdadero
)
Paso 4: Usar el resumen de la conversación en cadena
El siguiente paso explica el proceso de uso del resumen de la conversación en una cadena usando el LLM:
de cadena larga. llms importar AbiertoAIde cadena larga. cadenas importar Cadena de conversación
llm = AbiertoAI ( temperatura = 0 )
conversación_con_resumen = Cadena de conversación (
llm = llm ,
memoria = ConversaciónResumenMemoria ( llm = AbiertoAI ( ) ) ,
verboso = Verdadero
)
conversación_con_summary. predecir ( aporte = 'Hola, cómo estás' )
Aquí hemos empezado a construir cadenas iniciando la conversación con una pregunta cortés:
Ahora entre en la conversación preguntando un poco más sobre el último resultado para ampliarlo:
conversación_con_summary. predecir ( aporte = '¡Dime mas acerca!' )La modelo ha explicado el último mensaje con una introducción detallada a la tecnología de IA o chatbot:
Extraiga un punto de interés del resultado anterior para llevar la conversación en una dirección específica:
conversación_con_summary. predecir ( aporte = 'Increíble ¿Qué tan bueno es este proyecto?' )Aquí obtenemos respuestas detalladas del bot utilizando la biblioteca de memoria de resumen de conversación:
Se trata de utilizar el resumen de la conversación en LangChain.
Conclusión
Para utilizar el mensaje de resumen de la conversación en LangChain, simplemente instale los módulos y marcos necesarios para configurar el entorno. Una vez configurado el entorno, importe el ConversaciónResumenMemoria biblioteca para crear LLM utilizando el método OpenAI(). Después de eso, simplemente use el resumen de la conversación para extraer el resultado detallado de los modelos, que es el resumen de la conversación anterior. Esta guía ha detallado el proceso de uso de la memoria de resumen de conversación utilizando el módulo LangChain.