Com utilitzar un buffer de testimoni de conversa a LangChain?

Com Utilitzar Un Buffer De Testimoni De Conversa A Langchain



LangChain permet als desenvolupadors crear models mitjançant aprenentatge automàtic o aprenentatge profund que poden entrenar models mitjançant els conjunts de dades. Aquests models poden obtenir diferents patrons de les dades o comprendre la forma del conjunt de dades i el seu llenguatge per extreure informació. Els models de llenguatge grans o LLM es poden configurar o dissenyar mitjançant els frameworks LangChain que poden entendre i generar text en llenguatges naturals.

Aquesta guia il·lustrarà el procés d'ús d'un buffer de testimoni de conversa a LangChain.

Com utilitzar un buffer de testimoni de conversa a LangChain?

El ConversationTokenBufferMemory La biblioteca es pot importar des del marc LangChain per emmagatzemar els missatges més recents a la memòria intermèdia. Els testimonis es poden configurar per limitar el nombre de missatges emmagatzemats a la memòria intermèdia i els missatges anteriors s'esborraran automàticament.







Per conèixer el procés d'utilitzar la memòria intermèdia del testimoni de conversa a LangChain, utilitzeu la guia següent:



Pas 1: instal·leu els mòduls

Primer, instal·leu el marc LangChain que conté tots els mòduls necessaris mitjançant l'ordre pip:



pip install langchain





Ara, instal·leu el mòdul OpenAI per crear els LLM i les cadenes mitjançant el mètode OpenAI():

pip install openai



Després d'instal·lar els mòduls, només cal que utilitzeu la clau API d'OpenAI configurar l'entorn utilitzant les biblioteques os i getpass:

importar vostè

importar getpass

vostè . aproximadament [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Clau de l'API OpenAI:' )

Pas 2: ús de la memòria intermèdia del testimoni de conversa

Creeu els LLM utilitzant el mètode OpenAI() després d'importar el ConversationTokenBufferMemory biblioteca del marc LangChain:

des de langchain. memòria importar ConversationTokenBufferMemory

des de langchain. llms importar OpenAI

llm = OpenAI ( )

Configureu la memòria per configurar el testimoni, esborra els missatges antics i els emmagatzema a la memòria intermèdia. Després d'això, emmagatzemeu els missatges de la conversa i obteniu els més recents per utilitzar-los com a context:

memòria = ConversationTokenBufferMemory ( llm = llm , límit_màx_de_tokens = 10 )

memòria. desa_context ( { 'entrada' : 'Hola' } , { 'sortida' : 'Com va' } )

memòria. desa_context ( { 'entrada' : 'Sóc bo i tu' } , { 'sortida' : 'no gaire' } )

Executeu la memòria per obtenir les dades emmagatzemades a la memòria intermèdia mitjançant el mètode load_memory_variables():

memòria. load_memory_variables ( { } )

Pas 3: ús de la memòria intermèdia del testimoni de conversa en una cadena

Construeix les cadenes configurant el ConversationChain() mètode amb diversos arguments per utilitzar la memòria intermèdia del testimoni de conversa:

des de langchain. cadenes importar Cadena de conversa

conversa_amb_resum = Cadena de conversa (
llm = llm ,
memòria = ConversationTokenBufferMemory ( llm = OpenAI ( ) , límit_màx_de_tokens = 60 ) ,
verbosa = És cert ,
)
conversa_amb_resum. predir ( entrada = 'Ei què tal?' )

Ara, posa en marxa la conversa fent preguntes utilitzant les indicacions escrites en llenguatge natural:

conversa_amb_resum. predir ( entrada = 'Només treballant en el projecte PNL' )

Obteniu la sortida de les dades emmagatzemades a la memòria intermèdia utilitzant el nombre de fitxes:

conversa_amb_resum. predir ( entrada = 'Només treballant en el disseny de LLM' )

La memòria intermèdia es continua actualitzant amb cada entrada nova, ja que els missatges anteriors s'estan esborrant regularment:

conversa_amb_resum. predir (

entrada = 'LLM utilitzant LangChain! N'heu sentit a parlar'

)

Es tracta d'utilitzar el buffer de testimoni de conversa a LangChain.

Conclusió

Per utilitzar la memòria intermèdia del testimoni de conversa a LangChain, només cal que instal·leu els mòduls per configurar l'entorn mitjançant la clau API del compte OpenAI. Després d'això, importeu la biblioteca ConversationTokenBufferMemory mitjançant el mòdul LangChain per emmagatzemar la conversa a la memòria intermèdia. La memòria intermèdia es pot utilitzar en una cadena per netejar els missatges antics amb cada missatge nou al xat. Aquesta publicació s'ha explicat com utilitzar la memòria intermèdia del testimoni de conversa a LangChain.