Com utilitzar l'analitzador de sortida estructurat a LangChain?

Com Utilitzar L Analitzador De Sortida Estructurat A Langchain



LangChain és el marc per crear models de xat i LLM per obtenir informació del conjunt de dades o d'Internet mitjançant l'entorn OpenAI. L'analitzador de sortida estructurat s'utilitza per obtenir diversos camps o respostes com la resposta real i informació addicional relacionada. Les biblioteques de l'analitzador de sortida es poden utilitzar amb LangChain per extreure dades mitjançant els models creats com a LLM o models de xat.

Aquesta publicació va demostrar el procés d'utilitzar l'analitzador de sortida estructurat a LangChain.







Com utilitzar l'analitzador de sortida estructurat a LangChain?

Per utilitzar l'analitzador de sortida estructurat a LangChain, simplement seguiu aquests passos:



Pas 1: instal·leu els requisits previs



Inicieu el procés instal·lant el marc LangChain si encara no està instal·lat al vostre entorn Python:





pip instal·lar langchain



Instal·leu el marc OpenAI per accedir als seus mètodes per construir un analitzador a LangChain:

pip instal·lar oberta

Després d'això, només cal que connecteu-vos a l'entorn OpenAI mitjançant la seva clau API per accedir al seu entorn mitjançant el ' vostè ” biblioteca i proporcioneu la clau de l'API mitjançant el “ getpass ” biblioteca:

importa'ns
importar getpass

os.environ [ 'OPENAI_API_KEY' ] = getpass.getpass ( 'Clau de l'API OpenAI:' )

Pas 2: creeu un esquema per a la sortida/resposta

Després d'obtenir la connexió a l'OpenAI, simplement importeu les biblioteques per crear l'esquema per generar la sortida:

des de langchain.output_parsers importar StructuredOutputParser, ResponseSchema
de langchain.prompts import PromptTemplate, ChatPromptTemplate, HumanMessagePromptTemplate
des de langchain.llms importar OpenAI
des de langchain.chat_models importar ChatOpenAI

Especifiqueu l'esquema per a la resposta segons el requisit perquè el model generi la resposta en conseqüència:

esquemes_respostes = [
Esquema de resposta ( nom = 'resposta' , descripció = 'respon a la consulta' ) ,
Esquema de resposta ( nom = 'font' , descripció = 'font del lloc web que s'utilitza per obtenir la resposta' )
]
output_parser = StructuredOutputParser.from_response_schemas ( esquemes_respostes )

Pas 3: Formateu la plantilla

Després de configurar l'esquema per a la sortida, simplement configureu la plantilla per a l'entrada en llenguatge natural perquè el model pugui entendre les preguntes abans d'obtenir la resposta:

format_instructions = output_parser.get_format_instructions ( )
prompt = PromptTemplate (
plantilla = 'Doneu resposta a la pregunta de l'usuari. \n {plantilla} \n {consulta}' ,
variables_entrada = [ 'consulta' ] ,
variables_parcials = { 'plantilla' : format_instructions }
)

Mètode 1: Ús del model lingüístic

Després de configurar les plantilles de format per a preguntes i respostes, simplement creeu el model mitjançant la funció OpenAI():

model = OpenAI ( temperatura = 0 )

Establiu la sol·licitud a ' consulta ” variable i passar-ho a la format_prompt() funcionar com a entrada i després emmagatzemar la resposta al ' sortida ” variable:

_entrada = prompt.format_prompt ( consulta = 'quants continents hi ha al món' )
sortida = model ( _entrada.a_cadena ( ) )

Truqueu al analitzar () funció amb la variable de sortida com a argument per obtenir la resposta del model:

output_parser.parse ( sortida )

L'analitzador de sortida obté la resposta per a la consulta i mostra una resposta detallada amb l'enllaç a la pàgina del lloc web que s'utilitza per obtenir la resposta:

Mètode 2: Ús del model de xat

Per obtenir resultats de l'analitzador de sortida a LangChain, utilitzeu chat_model variable a continuació:

chat_model = ChatOpenAI ( temperatura = 0 )

Per entendre la sol·licitud, configureu la plantilla de sol·licitud per al model de xat. A continuació, genereu la resposta segons l'entrada:

prompte = ChatPromptTemplate (
missatges = [
HumanMessagePromptTemplate.from_template ( 'Doneu resposta a la pregunta de l'usuari. \n {format_instructions} \n {consulta}' )
] ,
variables_entrada = [ 'consulta' ] ,
variables_parcials = { 'instruccions_de_format' : format_instructions }
)

Després d'això, només cal que proporcioneu l'entrada al ' consulta ” variable i després passar-la a la chat_model() funció per obtenir la sortida del model:

_entrada = prompt.format_prompt ( consulta = 'EUA representen' )
sortida = chat_model ( _entrada.a_missatges ( ) )

Per obtenir la resposta del model de xat, utilitzeu el output_parser que emmagatzema el resultat del ' sortida ” variable:

output_parser.parse ( sortida.contingut )

El model de xat mostrava la resposta a la consulta i el nom del lloc web que s'utilitza per obtenir la resposta d'Internet:

Es tracta d'utilitzar un analitzador de sortida estructurat a LangChain.

Conclusió

Per utilitzar l'analitzador de sortida estructurat a LangChain, només cal que instal·leu els mòduls LangChain i OpenAI per començar amb el procés. Després d'això, connecteu-vos a l'entorn OpenAI mitjançant la seva clau API i, a continuació, configureu les plantilles de sol·licitud i resposta per al model. L'analitzador de sortida es pot utilitzar amb un model d'idioma o amb un model de xat. Aquesta guia explica l'ús de l'analitzador de sortida amb els dos mètodes.