¿Cómo utilizar la memoria en LLMChain a través de LangChain?

Como Utilizar La Memoria En Llmchain A Traves De Langchain



LangChain es el marco que se puede utilizar para importar bibliotecas y dependencias para crear modelos de lenguajes grandes o LLM. Los modelos de lenguaje utilizan la memoria para almacenar datos o historial en la base de datos como observación para obtener el contexto de la conversación. La memoria está configurada para almacenar los mensajes más recientes para que el modelo pueda comprender las indicaciones ambiguas dadas por el usuario.

Este blog explica el proceso de uso de la memoria en LLMChain a través de LangChain.







¿Cómo utilizar la memoria en LLMChain a través de LangChain?

Para agregar memoria y usarla en LLMChain a través de LangChain, se puede usar la biblioteca ConversationBufferMemory importándola desde LangChain.



Para conocer el proceso de uso de la memoria en LLMChain a través de LangChain, consulte la siguiente guía:



Paso 1: instalar módulos

Primero, inicie el proceso de uso de la memoria instalando LangChain usando el comando pip:





pip instalar cadena larga

Instale los módulos de OpenAI para obtener sus dependencias o bibliotecas para crear LLM o modelos de chat:



instalación de pip en openai

Configurar el entorno para OpenAI usando su clave API importando las bibliotecas os y getpass:

importarnos
importar obtener pase

os.environ['OPENAI_API_KEY'] = getpass.getpass('Clave API de OpenAI:')

Paso 2: Importar bibliotecas

Después de configurar el entorno, simplemente importe las bibliotecas como ConversationBufferMemory desde LangChain:

de langchain.chains importar LLMChain
desde langchain.llms importar OpenAI

desde langchain.memory importar ConversationBufferMemory

desde langchain.prompts importar PromptTemplate

Configure la plantilla para el mensaje usando variables como 'entrada' para obtener la consulta del usuario y 'hist' para almacenar los datos en la memoria intermedia:

template = '''Eres una modelo conversando con un humano

{historia}
Humano: {entrada}
Chatbot:'''

mensaje = Plantilla de mensaje(
input_variables=['hist', 'input'], plantilla=plantilla
)
memoria = ConversationBufferMemory(memory_key='hist')

Paso 3: Configurar LLM

Una vez creada la plantilla para la consulta, configure el método LLMChain() usando múltiples parámetros:

llm = OpenAI()
llm_chain = LLMChain(
llm=llm,
mensaje = mensaje,
detallado = Verdadero,
memoria = memoria,
)

Paso 4: Prueba LLMChain

Después de eso, pruebe LLMChain usando la variable de entrada para obtener el mensaje del usuario en forma textual:

llm_chain.predict(input='Hola amigo')

Utilice otra entrada para obtener los datos almacenados en la memoria para extraer la salida utilizando el contexto:

llm_chain.predict(input='¡Bien! Estoy bien, ¿cómo estás?')

Paso 5: Agregar memoria a un modelo de chat

La memoria se puede agregar al LLMChain basado en el modelo de chat importando las bibliotecas:

desde langchain.chat_models importar ChatOpenAI
desde langchain.schema importar SystemMessage
desde langchain.prompts importe ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

Configure la plantilla de aviso usando ConversationBufferMemory() usando diferentes variables para configurar la entrada del usuario:

mensaje = ChatPromptTemplate.from_messages([
SystemMessage(content='Eres un modelo conversando con un humano'),
MensajesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{entrada}'),
])

memoria = ConversationBufferMemory(memory_key='hist', return_messages=True)

Paso 6: Configurar LLMChain

Configure el método LLMChain() para configurar el modelo usando diferentes argumentos y parámetros:

llm = ChatOpenAI()

chat_llm_chain = LLMChain(
llm=llm,
mensaje = mensaje,
detallado = Verdadero,
memoria = memoria,
)

Paso 7: Prueba LLMChain

Al final, simplemente pruebe LLMChain usando la entrada para que el modelo pueda generar el texto de acuerdo con el mensaje:

chat_llm_chain.predict(input='Hola amigo')

El modelo ha almacenado la conversación anterior en la memoria y la muestra antes del resultado real de la consulta:

llm_chain.predict(input='¡Bien! Estoy bien, ¿cómo estás?')

Se trata de usar memoria en LLMChain usando LangChain.

Conclusión

Para usar la memoria en LLMChain a través del marco LangChain, simplemente instale los módulos para configurar el entorno para obtener las dependencias de los módulos. Después de eso, simplemente importe las bibliotecas de LangChain para usar la memoria intermedia para almacenar la conversación anterior. El usuario también puede agregar memoria al modelo de chat construyendo LLMChain y luego probando la cadena proporcionando la entrada. Esta guía ha detallado el proceso de uso de la memoria en LLMChain a través de LangChain.