Com utilitzar el resum de conversa a LangChain?

Com Utilitzar El Resum De Conversa A Langchain



LangChain és el marc que es pot utilitzar per crear models de llenguatge utilitzant la gran quantitat de conjunts de dades d'entrenament construïts en llenguatges naturals. LangChain proporciona les biblioteques i dependències que es poden utilitzar per crear i gestionar chatbots i models d'idioma com ara LLM. Aquests models es consideren majoritàriament màquines per mantenir una conversa o extreure informació basant-se en indicacions escrites en llenguatges semblants als humans.

Aquesta guia il·lustrarà el procés d'utilitzar un resum de conversa a LangChain.

Com utilitzar el resum de la conversa a LangChain?

LangChain ofereix biblioteques com ConversationSummaryMemory que poden extreure el resum complet del xat o conversa. Es pot utilitzar per obtenir la informació principal de la conversa sense haver de llegir tots els missatges i text disponibles al xat.







Per conèixer el procés d'utilitzar el resum de la conversa a LangChain, només cal que seguiu els passos següents:



Pas 1: instal·leu els mòduls

Primer, instal·leu el marc LangChain per obtenir les seves dependències o biblioteques mitjançant el codi següent:



pip install langchain





Ara, instal·leu els mòduls OpenAI després d'instal·lar el LangChain mitjançant l'ordre pip:

pip install openai



Després d'instal·lar els mòduls, simplement configurar l'entorn utilitzant el codi següent després d'obtenir la clau API del compte OpenAI:

importar vostè

importar getpass

vostè . aproximadament [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Clau de l'API OpenAI:' )

Pas 2: ús del resum de la conversa

Entra en el procés d'utilitzar el resum de la conversa important les biblioteques de LangChain:

des de langchain. memòria importar Memòria de resum de la conversa , Historial de missatges de xat

des de langchain. llms importar OpenAI

Configureu la memòria del model mitjançant els mètodes ConversationSummaryMemory() i OpenAI() i deseu-hi les dades:

memòria = Memòria de resum de la conversa ( llm = OpenAI ( temperatura = 0 ) )

memòria. desa_context ( { 'entrada' : 'Hola' } , { 'sortida' : 'hola' } )

Executeu la memòria trucant a load_memory_variables() mètode per extreure les dades de la memòria:

memòria. load_memory_variables ( { } )

L'usuari també pot obtenir les dades en forma de conversa com cada entitat amb un missatge independent:

memòria = Memòria de resum de la conversa ( llm = OpenAI ( temperatura = 0 ) , missatges_retorn = És cert )

memòria. desa_context ( { 'entrada' : 'Hola' } , { 'sortida' : 'Hola com estàs' } )

Per obtenir el missatge de l'IA i els humans per separat, executeu el mètode load_memory_variables():

memòria. load_memory_variables ( { } )

Emmagatzemeu el resum de la conversa a la memòria i, a continuació, executeu la memòria per mostrar el resum del xat/conversa a la pantalla:

missatges = memòria. memòria de xat . missatges

resum_anterior = ''

memòria. predir_nou_resum ( missatges , resum_anterior )

Pas 3: ús del resum de la conversa amb missatges existents

L'usuari també pot obtenir el resum de la conversa que existeix fora de la classe o xatejar mitjançant el missatge ChatMessageHistory(). Aquests missatges es poden afegir a la memòria perquè pugui generar automàticament el resum de la conversa completa:

història = Historial de missatges de xat ( )

història. add_user_message ( 'hola' )

història. afegir_ai_message ( 'Hola!' )

Creeu el model com ara LLM utilitzant el mètode OpenAI() per executar els missatges existents al fitxer memòria de xat variable:

memòria = Memòria de resum de la conversa. de_missatges (
llm = OpenAI ( temperatura = 0 ) ,
memòria de xat = història ,
missatges_retorn = És cert
)

Executeu la memòria utilitzant el buffer per obtenir el resum dels missatges existents:

memòria. tampó

Executeu el codi següent per crear el LLM configurant la memòria intermèdia mitjançant els missatges de xat:

memòria = Memòria de resum de la conversa (
llm = OpenAI ( temperatura = 0 ) ,
tampó = '''L'humà pregunta a la màquina de preguntes sobre si mateix
El sistema respon que la IA està construïda per al bé, ja que pot ajudar els humans a assolir el seu potencial'''
,
memòria de xat = història ,
missatges_retorn = És cert
)

Pas 4: ús del resum de la conversa en cadena

El següent pas explica el procés d'utilitzar el resum de la conversa en una cadena mitjançant el LLM:

des de langchain. llms importar OpenAI
des de langchain. cadenes importar Cadena de conversa
llm = OpenAI ( temperatura = 0 )
conversa_amb_resum = Cadena de conversa (
llm = llm ,
memòria = Memòria de resum de la conversa ( llm = OpenAI ( ) ) ,
verbosa = És cert
)
conversa_amb_resum. predir ( entrada = 'Hola! Com estàs?' )

Aquí hem començat a construir cadenes començant la conversa amb una consulta cortès:

Ara entra a la conversa preguntant una mica més sobre l'última sortida per ampliar-la:

conversa_amb_resum. predir ( entrada = 'Digues-me més sobre això!' )

El model ha explicat l'últim missatge amb una introducció detallada a la tecnologia d'IA o chatbot:

Extreu un punt d'interès de la sortida anterior per portar la conversa en una direcció específica:

conversa_amb_resum. predir ( entrada = 'Increïble Què tan bo és aquest projecte?' )

Aquí rebem respostes detallades del bot mitjançant la biblioteca de memòria de resum de converses:

Es tracta d'utilitzar el resum de la conversa a LangChain.

Conclusió

Per utilitzar el missatge de resum de la conversa a LangChain, només cal que instal·leu els mòduls i marcs necessaris per configurar l'entorn. Un cop configurat l'entorn, importeu el fitxer Memòria de resum de la conversa biblioteca per crear LLM mitjançant el mètode OpenAI(). Després d'això, només cal que utilitzeu el resum de la conversa per extreure la sortida detallada dels models, que és el resum de la conversa anterior. Aquesta guia ha elaborat el procés d'ús de la memòria de resum de conversa mitjançant el mòdul LangChain.