Com utilitzar la memòria d'entitats a LangChain?

Com Utilitzar La Memoria D Entitats A Langchain



LangChain és un mòdul que permet la creació de models que poden processar els llenguatges naturals, que són els llenguatges que els humans utilitzen per a la comunicació. LangChain conté tots els mòduls i dependències necessaris que es poden utilitzar per crear grans models de llenguatge o chatbots. Aquests models s'han d'entrenar per aprendre el llenguatge natural per generar textos a partir de les consultes proporcionades per l'usuari.

Aquesta guia il·lustrarà el procés d'ús de la memòria d'entitats a LangChain.

Com utilitzar la memòria d'entitats a LangChain?

L'entitat s'utilitza per mantenir els fets clau emmagatzemats a la memòria per extreure'ls quan l'ésser humà ho demani mitjançant les consultes/indicacions. Per conèixer el procés d'utilitzar la memòria d'entitats a LangChain, només cal que visiteu la guia següent:







Pas 1: instal·leu els mòduls

Primer, instal·leu el mòdul LangChain mitjançant l'ordre pip per obtenir les seves dependències:



pip install langchain



Després d'això, instal·leu el mòdul OpenAI per obtenir les seves biblioteques per crear LLM i models de xat:





pip install openai

Configura l'entorn OpenAI utilitzant la clau API que es pot extreure del compte OpenAI:



importar vostè

importar getpass

vostè . aproximadament [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Clau de l'API OpenAI:' )

Pas 2: Ús de la memòria d'entitats

Per utilitzar la memòria d'entitats, importeu les biblioteques necessàries per crear el LLM mitjançant el mètode OpenAI():

des de langchain. llms importar OpenAI

des de langchain. memòria importar ConversationEntityMemory

llm = OpenAI ( temperatura = 0 )

Després d'això, defineix el memòria variable utilitzant el mètode ConversationEntityMemory() per entrenar el model mitjançant les variables d'entrada i sortida:

memòria = ConversationEntityMemory ( llm = llm )

_entrada = { 'entrada' : 'Joe are Root ha estat fent un projecte' }

memòria. load_memory_variables ( _entrada )

memòria. desa_context (

_entrada ,

{ 'sortida' : 'Genial! Quin tipus de projecte és aquest?' }

)

Ara, proveu la memòria utilitzant la consulta/indicació del fitxer entrada variable cridant al mètode load_memory_variables():

memòria. load_memory_variables ( { 'entrada' : 'qui és Root' } )

Ara, doneu més informació perquè el model pugui afegir algunes entitats més a la memòria:

memòria = ConversationEntityMemory ( llm = llm , missatges_retorn = És cert )

_entrada = { 'entrada' : 'Joe are Root ha estat fent un projecte' }

memòria. load_memory_variables ( _entrada )

memòria. desa_context (

_entrada ,

{ 'sortida' : 'Genial! Quin tipus de projecte és aquest' }

)

Executeu el codi següent per obtenir la sortida utilitzant les entitats emmagatzemades a la memòria. És possible a través del entrada que conté la sol·licitud:

memòria. load_memory_variables ( { 'entrada' : 'qui és Joe' } )

Pas 3: Ús de la memòria d'entitats en una cadena

Per utilitzar la memòria d'entitats després de construir una cadena, només cal que importeu les biblioteques necessàries mitjançant el bloc de codi següent:

des de langchain. cadenes importar Cadena de conversa

des de langchain. memòria importar ConversationEntityMemory

des de langchain. memòria . prompte importar ENTITY_MEMORY_CONVERSATION_TEMPLATE

des de pidant importar Model base

des de escrivint importar Llista , Dict , Cap

Creeu el model de conversa utilitzant el mètode ConversationChain() utilitzant els arguments com llm:

conversa = Cadena de conversa (

llm = llm ,

verbosa = És cert ,

prompte = ENTITY_MEMORY_CONVERSATION_TEMPLATE ,

memòria = ConversationEntityMemory ( llm = llm )

)

Truqueu al mètode conversation.predict() amb l'entrada inicialitzada amb l'indicador o la consulta:

conversa. predir ( entrada = 'Joe are Root ha estat fent un projecte' )

Ara, obteniu la sortida separada per a cada entitat que descriu la informació sobre aquesta:

conversa. memòria . entitat_botiga . botiga

Utilitzeu la sortida del model per donar l'entrada perquè el model pugui emmagatzemar més informació sobre aquestes entitats:

conversa. predir ( entrada = 'Estan intentant afegir estructures de memòria més complexes a Langchain' )

Després de donar la informació que s'emmagatzema a la memòria, només cal fer la pregunta per extreure la informació específica sobre les entitats:

conversa. predir ( entrada = 'Què en saps sobre Joe i Root' )

Pas 4: prova del magatzem de memòria

L'usuari pot inspeccionar directament els magatzems de memòria per obtenir la informació emmagatzemada en ells mitjançant el següent codi:

des de imprimir importar imprimir

imprimir ( conversa. memòria . entitat_botiga . botiga )

Proporcioneu més informació per emmagatzemar-la a la memòria, ja que més informació ofereix resultats més precisos:

conversa. predir ( entrada = 'Root ha fundat un negoci anomenat HJRS' )

Extreu informació del magatzem de memòria després d'afegir més informació sobre les entitats:

des de imprimir importar imprimir

imprimir ( conversa. memòria . entitat_botiga . botiga )

La memòria té informació sobre diverses entitats com HJRS, Joe, LangChain i Root:

Ara extreu informació sobre una entitat específica mitjançant la consulta o el missatge definit a la variable d'entrada:

conversa. predir ( entrada = 'Què en saps de Root' )

Es tracta d'utilitzar la memòria de l'entitat mitjançant el marc LangChain.

Conclusió

Per utilitzar la memòria d'entitats a LangChain, només cal que instal·leu els mòduls necessaris per importar les biblioteques necessàries per crear models després de configurar l'entorn OpenAI. Després d'això, creeu el model LLM i emmagatzemeu les entitats a la memòria proporcionant informació sobre les entitats. L'usuari també pot extreure informació utilitzant aquestes entitats i construir aquestes memòries a les cadenes amb informació agitada sobre les entitats. Aquesta publicació ha explicat el procés d'ús de la memòria d'entitats a LangChain.