Cómo usar la función LangChain LLMChain en Python

Como Usar La Funcion Langchain Llmchain En Python



LangChain tiene una gran cantidad de módulos para crear aplicaciones de modelos de lenguaje. Las aplicaciones se pueden hacer más complicadas combinando módulos, o se pueden hacer más simples usando un solo módulo. Llamar a un LLM en una determinada entrada es el componente más esencial de LangChain.

Las cadenas no funcionan solo para una sola llamada LLM; son colecciones de llamadas, ya sea a un LLM oa otra utilidad. LangChain proporciona cadenas de extremo a extremo para aplicaciones ampliamente utilizadas junto con una API de cadena estándar y numerosas integraciones de herramientas.

La flexibilidad y la capacidad de vincular varios elementos en una sola entidad pueden ser útiles cuando queremos diseñar una cadena que acepte la entrada del usuario, la configure mediante una PromptTemplate y luego entregue el resultado generado a un LLM.







Este artículo lo ayuda a comprender el uso de una función LangChain LLMchain en Python.



Ejemplo: Cómo usar la función LLMchain en LangChain

Hablamos de lo que son las cadenas. Ahora, veremos una demostración práctica de estas cadenas que se implementan en un script de Python. En este ejemplo, usamos la cadena LangChain más básica, que es LLMchain. Contiene un PromptTemplate y un LLM, y los encadena para generar una salida.



Para comenzar a implementar el concepto, debemos instalar algunas bibliotecas requeridas que no están incluidas en la biblioteca estándar de Python. Las bibliotecas que necesitamos instalar son LangChain y OpenAI. Instalamos la biblioteca LangChain porque necesitamos usar su módulo LLMchain, así como PromptTemplate. La biblioteca de OpenAI nos permite usar los modelos de OpenAI para predecir los resultados, es decir, GPT-3.





Para instalar la biblioteca LangChain, ejecute el siguiente comando en la terminal:

$ pip instalar langchain

Instale la biblioteca OpenAI con el siguiente comando:



$ pip instalar openai

Una vez que las instalaciones están completas, podemos comenzar a trabajar en el proyecto principal.

de cadena larga indicaciones importar Plantilla de solicitud

de cadena larga películas importar IA abierta

importar

. alrededor de [ 'OPENAI_API_KEY' ] = 'sk-TU CLAVE API'

El proyecto principal comienza con la importación de los módulos necesarios. Entonces, primero importamos PromptTemplate de la biblioteca 'langchain.prompts'. Luego, importamos el OpenAI de la biblioteca 'langchain.llms'. A continuación, importamos el 'os' para establecer la variable de entorno.

Inicialmente, configuramos la clave API de OpenAI como la variable de entorno. La variable de entorno es una variable que consta de un nombre y un valor y se configura en nuestro sistema operativo. El 'os.environ' es un objeto que se utiliza para mapear las variables de entorno. Entonces, llamamos el 'os.environ'. El nombre que establecemos para la clave API es OPENAI_API_KEY. Luego asignamos la clave API como su valor. La clave API es única para cada usuario. Entonces, cuando practique este script de código, escriba su clave API secreta.

llm = IA abierta ( temperatura = 0.9 )

inmediato = Plantilla de solicitud (

variables_de_entrada = [ 'productos' ] ,

plantilla = '¿Cómo se llamaría una marca que vende {productos}?' ,

)

Ahora que la clave está configurada como la variable de entorno, inicializamos un contenedor. Configure la temperatura para los modelos OpenAI GPT. La temperatura es una característica que nos ayuda a determinar qué tan impredecible será la respuesta. Cuanto mayor sea el valor de la temperatura, más erráticas serán las respuestas. Aquí establecemos el valor de la temperatura en 0,9. Por lo tanto, obtenemos los resultados más aleatorios.

Luego, inicializamos una clase PromptTemplate. Cuando usamos el LLM, generamos un aviso a partir de la entrada que se toma del usuario y luego lo pasamos al LLM en lugar de enviar la entrada directamente al LLM, lo que requiere una codificación fija (un aviso es una entrada que tomamos del LLM). usuario y sobre el que el modelo de IA definido debe crear una respuesta). Entonces, inicializamos el PromptTemplate. Luego, dentro de sus llaves, definimos input_variable como 'Productos' y el texto de la plantilla es '¿Cómo se llamaría una marca que vende {productos}?' La entrada del usuario dice lo que hace la marca. Luego, formatea el indicador en función de esta información.

de cadena larga cadenas importar LLMCadena

cadena = LLMCadena ( llm = llm , inmediato = inmediato )

Ahora que nuestro PromptTemplate está formateado, el siguiente paso es crear una cadena LLM. Primero, importe el módulo LLMchain de la biblioteca 'langchain.chain'. Luego, creamos una cadena llamando a la función LLMchain() que toma la entrada del usuario y formatea el aviso con ella. Por último, envía la respuesta al LLM. Entonces, conecta PromptTemplate y LLM.

imprimir ( cadena. correr ( 'Artículos de arte' ) )

Para ejecutar la cadena, llamamos al método chain.run() y proporcionamos la entrada del usuario como el parámetro que se define como 'Suministros de arte'. Luego, pasamos este método a la función print() de Python para mostrar el resultado previsto en la consola de Python.

El modelo de IA lee el aviso y da una respuesta basada en él.

Dado que solicitamos el nombre de una marca que vende materiales de arte, el nombre predicho por el modelo de IA se puede ver en la siguiente instantánea:

Este ejemplo nos muestra el LLMchaining cuando se proporciona una sola variable de entrada. Esto también es posible cuando se utilizan múltiples variables. Para eso, simplemente tenemos que crear un diccionario de variables para ingresarlas todas juntas. Veamos cómo funciona esto:

de cadena larga indicaciones importar Plantilla de solicitud

de cadena larga películas importar IA abierta

importar

. alrededor de [ 'OPENAI_API_KEY' ] = 'sk-Tu-API-KEY”

llm = OpenAI (temperatura = 0.9)

solicitud = Plantilla de solicitud (

variables_de_entrada=['
Marca ', ' Producto '],

plantilla='
cual seria el nombre de { Marca } eso vende { Producto } ? ',

)

de langchain.chains importar LLMChain

cadena = LLMChain(llm=llm, solicitud=solicitud)

imprimir(cadena.ejecutar({

'Marca': '
Artículos de arte ',

'Producto': '
colores '

}))

El código es el mismo que el del ejemplo anterior, excepto que tenemos que pasar dos variables en la clase de plantilla de solicitud. Por lo tanto, cree un diccionario de variables_de_entrada. Los corchetes largos representan un diccionario. Aquí, tenemos dos variables, 'Marca' y 'Producto', que están separadas por una coma. Ahora, el texto de la plantilla que proporcionamos es '¿Cuál sería el nombre de {Marca} que vende {Producto}?' Por lo tanto, el modelo de IA predice un nombre que se centra en estas dos variables de entrada.

Luego, creamos una cadena LLM que formatea la entrada del usuario con el aviso para enviar la respuesta a LLM. Para ejecutar esta cadena, usamos el método chain.run() y pasamos el diccionario de variables con la entrada del usuario como 'Marca': 'Suministros de arte' y 'Producto' como 'Colores'. Luego, pasamos este método a la función print() de Python para mostrar la respuesta obtenida.

La imagen de salida muestra el resultado previsto:

Conclusión

Las cadenas son los componentes básicos de LangChain. Este artículo analiza el concepto de usar LLMchain en LangChain. Hicimos una introducción a LLMchain y describimos la necesidad de emplearlos en el proyecto Python. Luego, llevamos a cabo una ilustración práctica que demuestra la implementación de LLMchain al conectar PromptTemplate y LLM. Puede crear estas cadenas con una sola variable de entrada, así como con múltiples variables proporcionadas por el usuario. También se proporcionan las respuestas generadas a partir del modelo GPT.