¿Cómo utilizar el resumen de la conversación en LangChain?

Como Utilizar El Resumen De La Conversacion En Langchain



LangChain es el marco que se puede utilizar para crear modelos de lenguaje utilizando la enorme cantidad de conjuntos de datos de entrenamiento creados en lenguajes naturales. LangChain proporciona bibliotecas y dependencias que se pueden utilizar para crear y administrar chatbots y modelos de lenguaje como LLM. Estos modelos se consideran en su mayoría máquinas con las que conversar o extraer información basada en indicaciones escritas en lenguajes similares a los humanos.

Esta guía ilustrará el proceso de uso de un resumen de conversación en LangChain.

¿Cómo utilizar el resumen de la conversación en LangChain?

LangChain proporciona bibliotecas como ConversationSummaryMemory que pueden extraer el resumen completo del chat o la conversación. Se puede utilizar para obtener la información principal de la conversación sin tener que leer todos los mensajes y textos disponibles en el chat.







Para conocer el proceso de uso del resumen de conversación en LangChain, simplemente siga los siguientes pasos:



Paso 1: instalar módulos

Primero, instale el marco LangChain para obtener sus dependencias o bibliotecas usando el siguiente código:



pip instalar cadena larga





Ahora, instale los módulos OpenAI después de instalar LangChain usando el comando pip:

instalación de pip en openai



Después de instalar los módulos, simplemente configurar el entorno usando el siguiente código después de obtener la clave API de la cuenta OpenAI:

importar

importar conseguir pase

. alrededor de [ 'OPENAI_API_KEY' ] = conseguir pase . conseguir pase ( 'Clave API de OpenAI:' )

Paso 2: usar el resumen de la conversación

Ingrese al proceso de uso del resumen de la conversación importando las bibliotecas de LangChain:

de cadena larga. memoria importar ConversaciónResumenMemoria , ChatMensajeHistorial

de cadena larga. llms importar AbiertoAI

Configure la memoria del modelo usando los métodos ConversationSummaryMemory() y OpenAI() y guarde los datos en ella:

memoria = ConversaciónResumenMemoria ( llm = AbiertoAI ( temperatura = 0 ) )

memoria. guardar_contexto ( { 'aporte' : 'Hola' } , { 'producción' : 'Hola' } )

Ejecute la memoria llamando al cargar_memoria_variables() Método para extraer los datos de la memoria:

memoria. variables_memoria_carga ( { } )

El usuario también puede obtener los datos en forma de conversación como cada entidad con un mensaje separado:

memoria = ConversaciónResumenMemoria ( llm = AbiertoAI ( temperatura = 0 ) , mensajes_devueltos = Verdadero )

memoria. guardar_contexto ( { 'aporte' : 'Hola' } , { 'producción' : 'Hola cómo estás' } )

Para recibir el mensaje de la IA y los humanos por separado, ejecute el método load_memory_variables():

memoria. variables_memoria_carga ( { } )

Almacene el resumen de la conversación en la memoria y luego ejecute la memoria para mostrar el resumen del chat/conversación en la pantalla:

mensajes = memoria. memoria_chat . mensajes

resumen_anterior = ''

memoria. predecir_nuevo_summary ( mensajes , resumen_anterior )

Paso 3: usar el resumen de la conversación con mensajes existentes

El usuario también puede obtener el resumen de la conversación que existe fuera de la clase o chat usando el mensaje ChatMessageHistory(). Estos mensajes se pueden añadir a la memoria para que genere automáticamente el resumen de la conversación completa:

historia = ChatMensajeHistorial ( )

historia. agregar_mensaje_usuario ( 'Hola' )

historia. agregar_ai_message ( '¡hola!' )

Construya el modelo como LLM utilizando el método OpenAI() para ejecutar los mensajes existentes en el memoria_chat variable:

memoria = ConversaciónResumenMemoria. de_mensajes (
llm = AbiertoAI ( temperatura = 0 ) ,
memoria_chat = historia ,
mensajes_devueltos = Verdadero
)

Ejecute la memoria usando el buffer para obtener el resumen de los mensajes existentes:

memoria. buffer

Ejecute el siguiente código para construir el LLM configurando la memoria intermedia usando los mensajes de chat:

memoria = ConversaciónResumenMemoria (
llm = AbiertoAI ( temperatura = 0 ) ,
buffer = '''El humano pregunta a la máquina sobre sí mismo
El sistema responde que la IA está diseñada para el bien, ya que puede ayudar a los humanos a alcanzar su potencial'''
,
memoria_chat = historia ,
mensajes_devueltos = Verdadero
)

Paso 4: Usar el resumen de la conversación en cadena

El siguiente paso explica el proceso de uso del resumen de la conversación en una cadena usando el LLM:

de cadena larga. llms importar AbiertoAI
de cadena larga. cadenas importar Cadena de conversación
llm = AbiertoAI ( temperatura = 0 )
conversación_con_resumen = Cadena de conversación (
llm = llm ,
memoria = ConversaciónResumenMemoria ( llm = AbiertoAI ( ) ) ,
verboso = Verdadero
)
conversación_con_summary. predecir ( aporte = 'Hola, cómo estás' )

Aquí hemos empezado a construir cadenas iniciando la conversación con una pregunta cortés:

Ahora entre en la conversación preguntando un poco más sobre el último resultado para ampliarlo:

conversación_con_summary. predecir ( aporte = '¡Dime mas acerca!' )

La modelo ha explicado el último mensaje con una introducción detallada a la tecnología de IA o chatbot:

Extraiga un punto de interés del resultado anterior para llevar la conversación en una dirección específica:

conversación_con_summary. predecir ( aporte = 'Increíble ¿Qué tan bueno es este proyecto?' )

Aquí obtenemos respuestas detalladas del bot utilizando la biblioteca de memoria de resumen de conversación:

Se trata de utilizar el resumen de la conversación en LangChain.

Conclusión

Para utilizar el mensaje de resumen de la conversación en LangChain, simplemente instale los módulos y marcos necesarios para configurar el entorno. Una vez configurado el entorno, importe el ConversaciónResumenMemoria biblioteca para crear LLM utilizando el método OpenAI(). Después de eso, simplemente use el resumen de la conversación para extraer el resultado detallado de los modelos, que es el resumen de la conversación anterior. Esta guía ha detallado el proceso de uso de la memoria de resumen de conversación utilizando el módulo LangChain.