¿Cómo utilizar el gráfico de conocimiento de conversaciones en LangChain?

Como Utilizar El Grafico De Conocimiento De Conversaciones En Langchain



LangChain es el módulo para crear modelos de lenguaje que pueden imitar el formato conversacional en el que los humanos interactúan entre sí. El usuario puede hacer preguntas en forma de cadenas o texto en lenguajes naturales y el modelo extraerá o generará información para el usuario. Estos modelos tienen memoria adjunta para que puedan almacenar mensajes anteriores para obtener el contexto de la conversación.

Esta guía ilustrará el proceso de uso del gráfico de conocimiento de conversación en LangChain.

¿Cómo utilizar el gráfico de conocimiento de conversaciones en LangChain?

El ConversaciónKGMemoria La biblioteca se puede utilizar para recrear la memoria que se puede utilizar para obtener el contexto de la interacción. Para conocer el proceso de uso del gráfico de conocimiento de conversación en LangChain, simplemente siga los pasos enumerados:







Paso 1: instalar módulos

Primero, comience con el proceso de uso del gráfico de conocimiento de la conversación instalando el módulo LangChain:



pip instalar cadena larga



Instale el módulo OpenAI que se puede instalar usando el comando pip para obtener sus bibliotecas para crear modelos de lenguaje grandes:





instalación de pip en openai

Ahora, configurar el entorno utilizando la clave API de OpenAI que se puede generar desde su cuenta:



importar

importar conseguir pase

. alrededor de [ 'OPENAI_API_KEY' ] = conseguir pase . conseguir pase ( 'Clave API de OpenAI:' )

Paso 2: uso de la memoria con LLM

Una vez instalados los módulos, comience a usar la memoria con LLM importando las bibliotecas requeridas desde el módulo LangChain:

de cadena larga. memoria importar ConversaciónKGMemoria

de cadena larga. llms importar AbiertoAI

Construya el LLM usando el método OpenAI() y configure la memoria usando el ConversaciónKGMemoria () método. Después de eso, guarde las plantillas de mensajes usando múltiples entradas con su respectiva respuesta para entrenar el modelo con estos datos:

llm = AbiertoAI ( temperatura = 0 )

memoria = ConversaciónKGMemoria ( llm = llm )

memoria. guardar_contexto ( { 'aporte' : 'saluda a john' } , { 'producción' : '¡Juan! ¿Quién?' } )

memoria. guardar_contexto ( { 'aporte' : 'el es un amigo' } , { 'producción' : 'seguro' } )

Pruebe la memoria cargando el variables_memoria () Método que utiliza la consulta relacionada con los datos anteriores:

memoria. variables_memoria_carga ( { 'aporte' : '¿Quién es Juan?' } )

Configure la memoria usando el método ConversationKGMemory() con el mensajes_devueltos argumento para obtener el historial de la entrada también:

memoria = ConversaciónKGMemoria ( llm = llm , mensajes_devueltos = Verdadero )

memoria. guardar_contexto ( { 'aporte' : 'saluda a john' } , { 'producción' : '¡Juan! ¿Quién?' } )

memoria. guardar_contexto ( { 'aporte' : 'el es un amigo' } , { 'producción' : 'seguro' } )

Simplemente pruebe la memoria proporcionando el argumento de entrada con su valor en forma de consulta:

memoria. variables_memoria_carga ( { 'aporte' : '¿Quién es Juan?' } )

Ahora, pruebe la memoria haciendo la pregunta que no se menciona en los datos de entrenamiento y el modelo no tiene idea de la respuesta:

memoria. obtener_entidades_actuales ( '¿Cuál es el color favorito de John?' )

Utilizar el get_knowledge_tripletes () método respondiendo a la consulta realizada anteriormente:

memoria. get_knowledge_tripletes ( 'su color favorito es el rojo' )

Paso 3: usar la memoria en cadena

El siguiente paso utiliza la memoria de conversación con las cadenas para construir el modelo LLM usando el método OpenAI(). Después de eso, configure la plantilla de mensaje usando la estructura de conversación y el texto se mostrará mientras el modelo obtiene el resultado:

llm = AbiertoAI ( temperatura = 0 )
de cadena larga. indicaciones . inmediato importar Plantilla de aviso
de cadena larga. cadenas importar Cadena de conversación

plantilla = '''Esta es la plantilla para la interacción entre humanos y máquinas.
El sistema es un modelo de IA que puede hablar o extraer información sobre múltiples aspectos.
Si no entiende la pregunta o no tiene la respuesta, simplemente lo dice.
El sistema extrae datos almacenados en la sección 'Específicos' y no alucina

Específico:

{historia}

Conversación:
Humano: {entrada}
AI:'''

#Configurar la plantilla o estructura para proporcionar indicaciones y obtener respuesta del sistema de IA
inmediato = Plantilla de aviso ( variables_entrada = [ 'historia' , 'aporte' ] , plantilla = plantilla )
conversación_con_kg = Cadena de conversación (
llm = llm , verboso = Verdadero , inmediato = inmediato , memoria = ConversaciónKGMemoria ( llm = llm )
)

Una vez creado el modelo, simplemente llame al conversación_con_kg modelo utilizando el método predict() con la consulta realizada por el usuario:

conversación_con_kg. predecir ( aporte = '¿Hola que tal?' )

Ahora, entrene el modelo usando la memoria de conversación proporcionando la información como argumento de entrada para el método:

conversación_con_kg. predecir (

aporte = 'Mi nombre es James y estoy ayudando a Will, él es ingeniero'

)

Este es el momento de probar el modelo realizando consultas para extraer información de los datos:

conversación_con_kg. predecir ( aporte = '¿Quién es voluntad?' )

Se trata de utilizar el gráfico de conocimiento de la conversación en LangChain.

Conclusión

Para utilizar el gráfico de conocimiento de conversación en LangChain, instale los módulos o marcos para importar bibliotecas para usar el método ConversationKGMemory(). Después de eso, construye el modelo usando la memoria para construir las cadenas y extraer información de los datos de entrenamiento proporcionados en la configuración. Esta guía ha detallado el proceso de uso del gráfico de conocimiento de conversación en LangChain.