Com utilitzar l'analitzador de sortida a LangChain?

Com Utilitzar L Analitzador De Sortida A Langchain



LangChain és el marc que conté totes les dependències i biblioteques per construir models que poden generar resultats en forma de text. El text de sortida s'extreu o es genera en llenguatges naturals perquè els humans puguin entendre i comunicar-se fàcilment. Tanmateix, la sortida ha de tenir un format adequat i una bona informació estructurada pot proporcionar un coneixement exhaustiu a l'usuari.

Aquesta publicació il·lustra el mètode d'utilització de les funcions i classes de l'analitzador de sortida mitjançant el marc LangChain.

Com utilitzar l'analitzador de sortida mitjançant LangChain?

Els analitzadors de sortida són les sortides i les classes que poden ajudar a obtenir la sortida estructurada del model. Per aprendre el procés d'utilitzar els analitzadors de sortida a LangChain, simplement seguiu els passos indicats:







Pas 1: instal·leu els mòduls
En primer lloc, inicieu el procés d'utilitzar els analitzadors de sortida instal·lant el mòdul LangChain amb les seves dependències per seguir el procés:



pip instal·lar langchain



Després d'això, instal·leu el mòdul OpenAI per utilitzar les seves biblioteques com OpenAI i ChatOpenAI:





pip instal·lar oberta

Ara, configureu el entorn per a l'OpenAI utilitzant la clau API del compte OpenAI:



importa'ns
importar getpass

os.environ [ 'OPENAI_API_KEY' ] = getpass.getpass ( 'Clau de l'API OpenAI:' )

Pas 2: importa les biblioteques
El següent pas és importar biblioteques de LangChain per utilitzar els analitzadors de sortida al marc:

de langchain.prompts import PromptTemplate
de langchain.prompts importar HumanMessagePromptTemplate
del camp d'importació pidant
de langchain.prompts importar ChatPromptTemplate
de langchain.output_parsers importar PydanticOutputParser
del BaseModel d'importació pydantic
del validador d'importació pydantic
des de langchain.chat_models importar ChatOpenAI
des de langchain.llms importar OpenAI
des d'escriure la llista d'importació

Pas 3: Construcció de l'estructura de dades
Construir l'estructura de la sortida és l'aplicació vital dels analitzadors de sortida en grans models de llenguatge. Abans d'arribar a l'estructura de dades dels models, cal definir el nom del model que estem utilitzant per obtenir la sortida estructurada dels analitzadors de sortida:

nom_model = 'text-davinci-003'
temperatura = 0.0
model = OpenAI ( nom_model =nom_model, temperatura = temperatura )

Ara, utilitzeu la classe Joke que conté el BaseModel per configurar l'estructura de la sortida per obtenir l'acudit del model. Després d'això, l'usuari pot afegir fàcilment una lògica de validació personalitzada amb la classe pydantic que pot demanar a l'usuari que faci una consulta/indicació millor formada:

broma de classe ( Model base ) :
configuració: str = Camp ( descripció = 'consulta per mostrar una broma' )
punchline: str = Camp ( descripció = 'respon a la consulta amb una broma' )
#Validació lògica per a la consulta ja que el model necessita per entendre-la correctament
@ validador ( 'configuració' )
def question_ends_with_question_mark ( cls, camp ) :
si camp [ - 1 ] ! = '?' :
augmentar ValueError ( 'Pregunta mal formada!' )
tornar camp

Pas 4: Configuració de la plantilla de sol·licitud
Configureu la variable analitzadora que conté el mètode PydanticOutputParser() que conté els seus paràmetres:

analitzador = PydanticOutputParser ( objecte_pidant = Broma )

Després de configurar l'analitzador, simplement definiu la variable de sol·licitud utilitzant el mètode PromptTemplate() amb l'estructura de la consulta/indicació:

prompt = PromptTemplate (
plantilla = 'Contesta la consulta de l'usuari. \n {format_instructions} \n {consulta} \n ' ,
variables_entrada = [ 'consulta' ] ,
variables_parcials = { 'instruccions_de_format' : parser.get_format_instructions ( ) }
)

Pas 5: prova l'analitzador de sortida
Després de configurar tots els requisits, creeu una variable que s'assigni mitjançant una consulta i, a continuació, crideu al mètode format_prompt():

joke_query = 'Explica'm una broma'
_entrada = prompt.format_prompt ( consulta =consulta_acudit )

Ara, crida a la funció model() per definir la variable de sortida:

sortida = model ( _entrada.a_cadena ( ) )

Completeu el procés de prova cridant al mètode parser() amb la variable de sortida com a paràmetre:

parser.parse ( sortida )

Això és tot sobre el procés d'utilitzar l'analitzador de sortida a LangChain.

Conclusió

Per utilitzar l'analitzador de sortida a LangChain, instal·leu els mòduls i configureu l'entorn OpenAI mitjançant la seva clau API. Després d'això, definiu el model i després configureu l'estructura de dades de la sortida amb la validació lògica de la consulta proporcionada per l'usuari. Un cop configurada l'estructura de dades, simplement configureu la plantilla de sol·licitud i, a continuació, proveu l'analitzador de sortida per obtenir el resultat del model. Aquesta guia ha il·lustrat el procés d'utilitzar l'analitzador de sortida al marc LangChain.