Com utilitzar una finestra de memòria intermèdia de conversa a LangChain?

Com Utilitzar Una Finestra De Memoria Intermedia De Conversa A Langchain



LangChain és el marc que es pot utilitzar al quadern Python per entrenar models d'idioma o chatbots mitjançant models d'aprenentatge automàtic. Aquests models lingüístics s'utilitzen per mantenir una conversa amb humans en el seu llenguatge natural després d'entrenar-los en llengües semblants a les persones. Aquesta publicació il·lustrarà el procés d'utilitzar una finestra de memòria intermèdia de conversa a LangChain.

Com utilitzar una finestra de memòria intermèdia de conversa a LangChain?

La finestra de memòria intermèdia de conversa s'utilitza per mantenir els missatges més recents de la conversa a la memòria per obtenir el context més recent. Utilitza el valor de la K per emmagatzemar els missatges o cadenes a la memòria mitjançant el marc LangChain.

Per conèixer el procés d'utilitzar la finestra de memòria intermèdia de conversa a LangChain, només cal que seguiu la guia següent:







Pas 1: instal·leu els mòduls

Inicieu el procés d'utilitzar la finestra de memòria intermèdia de conversa instal·lant el mòdul LangChain amb les dependències necessàries per crear models de conversa:



pip install langchain



Després d'això, instal·leu el mòdul OpenAI que es pot utilitzar per construir els grans models de llenguatge a LangChain:





pip install openai

Ara, configurar l'entorn OpenAI per crear les cadenes LLM mitjançant la clau API del compte OpenAI:



importar vostè
importar getpass

vostè . aproximadament [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Clau de l'API OpenAI:' )

Pas 2: Ús de la memòria de la finestra del buffer de conversa

Per utilitzar la memòria de la finestra del buffer de conversa a LangChain, importeu el fitxer ConversationBufferWindowMemory biblioteca:

des de langchain. memòria importar ConversationBufferWindowMemory

Configureu la memòria amb el ConversationBufferWindowMemory () mètode amb el valor de k com a argument. El valor de k s'utilitzarà per mantenir els missatges més recents de la conversa i després configurar les dades d'entrenament mitjançant les variables d'entrada i sortida:

memòria = ConversationBufferWindowMemory ( k = 1 )

memòria. desa_context ( { 'entrada' : 'Hola' } , { 'sortida' : 'Com va' } )

memòria. desa_context ( { 'entrada' : 'Sóc bo i tu' } , { 'sortida' : 'no gaire' } )

Proveu la memòria trucant a load_memory_variables () mètode per iniciar la conversa:

memòria. load_memory_variables ( { } )

Per obtenir l'historial de la conversa, configureu la funció ConversationBufferWindowMemory() mitjançant la missatges_retorn argument:

memòria = ConversationBufferWindowMemory ( k = 1 , missatges_retorn = És cert )

memòria. desa_context ( { 'entrada' : 'hola' } , { 'sortida' : 'què passa' } )

memòria. desa_context ( { 'entrada' : 'No molt tu' } , { 'sortida' : 'no gaire' } )

Ara, truca a la memòria amb el load_memory_variables () mètode per obtenir la resposta amb l'historial de la conversa:

memòria. load_memory_variables ( { } )

Pas 3: ús de la finestra de memòria intermèdia en una cadena

Construeix la cadena amb el OpenAI i Cadena de conversa biblioteques i després configureu la memòria intermèdia per emmagatzemar els missatges més recents de la conversa:

des de langchain. cadenes importar Cadena de conversa
des de langchain. llms importar OpenAI
#building resum de la conversa utilitzant diversos paràmetres
conversa_amb_resum = Cadena de conversa (
llm = OpenAI ( temperatura = 0 ) ,
#building memòria intermèdia utilitzant la seva funció amb el valor de k per emmagatzemar missatges recents
memòria = ConversationBufferWindowMemory ( k = 2 ) ,
#configure la variable verbosa per obtenir una sortida més llegible
verbosa = És cert
)
conversa_amb_resum. predir ( entrada = 'Ei què tal' )

Ara continueu la conversa fent la pregunta relacionada amb la sortida proporcionada pel model:

conversa_amb_resum. predir ( entrada = 'Quins són els seus problemes' )

El model està configurat per emmagatzemar només un missatge anterior que es pot utilitzar com a context:

conversa_amb_resum. predir ( entrada = 'Va bé' )

Demaneu la solució als problemes i l'estructura de sortida continuarà lliscant la finestra de memòria intermèdia eliminant els missatges anteriors:

conversa_amb_resum. predir ( entrada = 'Quina és la solució' )

Això és tot sobre el procés d'utilitzar el buffer de conversa LangChain de finestres.

Conclusió

Per utilitzar la memòria de la finestra del buffer de conversa a LangChain, només cal que instal·leu els mòduls i configureu l'entorn mitjançant la clau API d'OpenAI. Després d'això, creeu la memòria intermèdia utilitzant el valor de k per mantenir els missatges més recents de la conversa per mantenir el context. La memòria intermèdia també es pot utilitzar amb cadenes per iniciar la conversa amb el LLM o la cadena. Aquesta guia ha explicat el procés d'ús de la finestra del buffer de conversa a LangChain.