Com utilitzar el gràfic de coneixement de la conversa a LangChain?

Com Utilitzar El Grafic De Coneixement De La Conversa A Langchain



LangChain és el mòdul per crear models de llenguatge que poden imitar el format de conversa com els humans interactuen entre ells. L'usuari pot fer preguntes en forma de cadenes o text en llenguatges naturals i el model extreu o generarà informació per a l'usuari. Aquests models tenen memòria adjunta perquè puguin emmagatzemar missatges anteriors per obtenir el context de la conversa.

Aquesta guia il·lustrarà el procés d'ús del gràfic de coneixement de conversa a LangChain.

Com utilitzar el gràfic de coneixements de conversa a LangChain?

El ConversaKGMemòria La biblioteca es pot utilitzar per recrear la memòria que es pot utilitzar per obtenir el context de la interacció. Per aprendre el procés d'utilitzar el gràfic de coneixement de la conversa a LangChain, simplement seguiu els passos indicats:







Pas 1: instal·leu els mòduls

Primer, comenceu amb el procés d'utilitzar el gràfic de coneixement de la conversa instal·lant el mòdul LangChain:



pip install langchain



Instal·leu el mòdul OpenAI que es pot instal·lar mitjançant l'ordre pip per obtenir les seves biblioteques per crear models de llenguatge grans:





pip install openai

Ara, configurar l'entorn utilitzant la clau de l'API OpenAI que es pot generar des del seu compte:



importar vostè

importar getpass

vostè . aproximadament [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Clau de l'API OpenAI:' )

Pas 2: Ús de la memòria amb LLM

Un cop instal·lats els mòduls, comenceu a utilitzar la memòria amb LLM important les biblioteques necessàries des del mòdul LangChain:

des de langchain. memòria importar ConversaKGMemòria

des de langchain. llms importar OpenAI

Creeu el LLM mitjançant el mètode OpenAI() i configureu la memòria mitjançant el ConversaKGMemòria () mètode. Després d'això, deseu les plantilles de sol·licitud utilitzant diverses entrades amb la seva resposta respectiva per entrenar el model en aquestes dades:

llm = OpenAI ( temperatura = 0 )

memòria = ConversaKGMemòria ( llm = llm )

memòria. desa_context ( { 'entrada' : 'Hola a John' } , { 'sortida' : 'John! Qui' } )

memòria. desa_context ( { 'entrada' : 'És un amic' } , { 'sortida' : 'segur' } )

Proveu la memòria carregant el fitxer variables_de_memoria () mètode mitjançant la consulta relacionada amb les dades anteriors:

memòria. load_memory_variables ( { 'entrada' : 'Qui és Joan' } )

Configureu la memòria mitjançant el mètode ConversationKGMemory() amb el missatges_retorn argument per obtenir també l'historial de l'entrada:

memòria = ConversaKGMemòria ( llm = llm , missatges_retorn = És cert )

memòria. desa_context ( { 'entrada' : 'Hola a John' } , { 'sortida' : 'John! Qui' } )

memòria. desa_context ( { 'entrada' : 'És un amic' } , { 'sortida' : 'segur' } )

Simplement proveu la memòria proporcionant l'argument d'entrada amb el seu valor en forma de consulta:

memòria. load_memory_variables ( { 'entrada' : 'Qui és Joan' } )

Ara, proveu la memòria fent la pregunta que no s'esmenta a les dades d'entrenament i el model no té ni idea de la resposta:

memòria. obtenir_entitats_actuals ( 'Quin és el color preferit de John' )

Utilitzar el obtenir_coneixement_triplets () responent a la consulta prèviament:

memòria. obtenir_coneixement_triplets ( 'el seu color preferit és el vermell' )

Pas 3: Ús de la memòria en cadena

El següent pas utilitza la memòria de conversa amb les cadenes per construir el model LLM mitjançant el mètode OpenAI(). Després d'això, configureu la plantilla de sol·licitud mitjançant l'estructura de conversa i el text es mostrarà mentre obteniu la sortida del model:

llm = OpenAI ( temperatura = 0 )
des de langchain. indicacions . prompte importar PromptTemplate
des de langchain. cadenes importar Cadena de conversa

plantilla = '''Aquesta és la plantilla per a la interacció entre l'home i la màquina
El sistema és un model d'IA que pot parlar o extreure informació sobre múltiples aspectes
Si no entén la pregunta o té la resposta, simplement ho diu
El sistema extreu les dades emmagatzemades a la secció 'Específic' i no al·lucina

Específics:

{història}

Conversa:
Humà: {entrada}
AI:'''

#Configura la plantilla o l'estructura per proporcionar sol·licituds i obtenir resposta del sistema d'IA
prompte = PromptTemplate ( variables_entrada = [ 'història' , 'entrada' ] , plantilla = plantilla )
conversa_amb_kg = Cadena de conversa (
llm = llm , verbosa = És cert , prompte = prompte , memòria = ConversaKGMemòria ( llm = llm )
)

Un cop creat el model, només cal que truqueu al conversa_amb_kg model mitjançant el mètode predict() amb la consulta que fa l'usuari:

conversa_amb_kg. predir ( entrada = 'Ei què tal?' )

Ara, entreneu el model utilitzant la memòria de conversa donant la informació com a argument d'entrada per al mètode:

conversa_amb_kg. predir (

entrada = 'Em dic James i estic ajudant a Will, és enginyer'

)

Aquí és el moment de provar el model demanant a les consultes per extreure informació de les dades:

conversa_amb_kg. predir ( entrada = 'Qui és Will' )

Es tracta d'utilitzar el gràfic de coneixement de conversa a LangChain.

Conclusió

Per utilitzar el gràfic de coneixement de conversa a LangChain, instal·leu els mòduls o marcs per importar biblioteques per utilitzar el mètode ConversationKGMemory(). Després d'això, creeu el model utilitzant la memòria per construir les cadenes i extreure informació de les dades d'entrenament proporcionades a la configuració. Aquesta guia ha elaborat el procés d'ús del gràfic de coneixement de conversa a LangChain.