Com crear LLM i LLMChain a LangChain?

Com Crear Llm I Llmchain A Langchain



LangChain és el marc amb l'aplicació al domini del processament del llenguatge natural o NLP per construir models en llenguatges semblants als humans. Aquests models poden ser utilitzats pels humans per obtenir respostes del model o mantenir una conversa com qualsevol altre humà. LangChain s'utilitza per construir cadenes emmagatzemant cada frase de la conversa i interactuant encara més utilitzant-la com a context.

Aquesta publicació il·lustrarà el procés de creació de LLM i LLMChain a LangChain.







Com crear LLM i LLMChain a LangChain?

Per crear LLM i LLMChain a LangChain, simplement seguiu els passos indicats:



Pas 1: instal·leu els mòduls

En primer lloc, instal·leu el mòdul LangChain per utilitzar les seves biblioteques per crear LLM i LLMChain:



pip install langchain





Un altre mòdul que es requereix per crear LLM és OpenAI, i es pot instal·lar mitjançant l'ordre pip:

pip install openai



Pas 2: configureu un entorn

Configureu un entorn mitjançant la clau de l'API OpenAI del seu entorn:

importa'ns
import getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('Clau de l'API OpenAI:')

Exemple 1: crear LLMs amb LangChain

El primer exemple és construir els models de llenguatge grans utilitzant LangChain important les biblioteques OpenAI i ChatOpenAI i la funció llm() d'ús:

Pas 1: Ús del model de xat LLM

Importeu mòduls OpenAI i ChatOpenAI per crear un LLM senzill mitjançant l'entorn OpenAI de LangChain:

des de langchain.chat_models importar ChatOpenAI

des de langchain.llms importar OpenAI

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('hola!')

El model ha respost amb la resposta 'hola', tal com es mostra a la següent captura de pantalla:

La funció predict() del chat_model s'utilitza per obtenir la resposta o la resposta del model:

chat_model.predict('hola!')

La sortida mostra que el model està a disposició de l'usuari que fa preguntes:

Pas 2: Ús de la consulta de text

L'usuari també pot obtenir respostes del model donant la frase completa a la variable de text:

text = 'Quin seria un bon nom d'empresa per a una empresa que fa mitjons de colors?'

llm.predict(text)

El model ha mostrat múltiples combinacions de colors per a mitjons de colors:

Obteniu la resposta detallada del model mitjançant la funció predict() amb les combinacions de colors per als mitjons:

chat_model.predict(text)

Pas 3: Ús de text amb contingut

L'usuari pot obtenir la resposta amb una petita explicació sobre la resposta:

de langchain.schema importar HumanMessage

text = 'Quin seria un bon títol per a una empresa que fa roba de colors'
missatges = [HumanMessage(content=text)]

llm.predict_messages(missatges)

El model ha generat el títol de l'empresa que és 'Creative Clothing Co':

Prediu el missatge per obtenir la resposta per al títol de l'empresa amb la seva explicació també:

chat_model.predict_messages(missatges)

Exemple 2: crear LLMChain amb LangChain

El segon exemple de la nostra guia construeix el LLMChain per obtenir el model en el format d'interacció humana per combinar tots els passos de l'exemple anterior:

des de langchain.chat_models importar ChatOpenAI
de langchain.prompts.chat importar ChatPromptTemplate
de langchain.prompts.chat importar ChatPromptTemplate
des de langchain.prompts.chat import  SystemMessagePromptTemplatefrom langchain.prompts.chat import HumanMessagePromptTemplate
de langchain.chains importar LLMChain
de langchain.schema import BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def parse(self, text: str):
retornar text.strip().split(', ')

Creeu la plantilla per al model de xat donant una explicació detallada del seu funcionament i, a continuació, creeu la funció LLMChain() que conté les biblioteques LLM, analitzador de sortida i xat_prompt:

template = '''Heu d'ajudar a generar llistes separades per comes
Obteniu la categoria de l'usuari i genereu una llista separada per comes amb cinc objectes
L'única cosa hauria de ser l'objecte de la categoria '''
system_message_prompt = SystemMessagePromptTemplate.from_template(plantilla)
human_template = '{text}'
human_message_prompt = HumanMessagePromptTemplate.from_template (plantilla_humana)
#Configura LLMChain amb l'estructura de la consulta
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
cadena = LLMChain(
llm=ChatOpenAI(),
prompt=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run ('colors')

El model ha proporcionat la resposta amb la llista de colors, ja que la categoria només hauria de contenir 5 objectes indicats a la sol·licitud:

Això es tracta de construir el LLM i el LLMChain a LangChain.

Conclusió

Per crear el LLM i el LLMChain amb LangChain, només cal que instal·leu els mòduls LangChain i OpenAI per configurar un entorn amb la seva clau API. Després d'això, creeu el model LLM amb el model de xat després de crear la plantilla de sol·licitud per a una única consulta a un xat complet. LLMChain s'utilitzen per construir cadenes de totes les observacions de la conversa i utilitzar-les com a context de la interacció. Aquesta publicació il·lustra el procés de creació de LLM i LLMChain mitjançant el marc LangChain.