아이디어 1
- LM으로 하여금 질문이 specific한지 판단한뒤에 specific하면 ‘specific’으로 답변하고, 구체적이지 못하면 ‘Not specific’으로 답변하도록 프롬프트를 작성한뒤에 LM의 판정을 받아 질문을 구체화 하도록
- 문제점: specific 한 질문에 대한 일정 정도의 정의가 필요함
아이디어1 - 실험 1
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
prompt = ChatPromptTemplate.from_messages(
[
(
"system",
"Evaluate the following question and decide if it is specific enough to answer directly or requires more information.\\n\\nIf specific, respond with 'Specific'. If it requires more information, respond with 'Not Specific'.\\n\\n",
),
("human", "{input}"),
]
)
chain = prompt | llm
chain.invoke(
{
"input": "부산에 있는 맛집을 알려줘",
}
)
- 질문: "부산에 있는 맛집을 알려줘”, 결과 : 'Not Specific’
- 질문: "부산 동구에 있는 밀면 맛집을 알려줘”, 결과: 'Specific’
- 질문: "부모님과 부산여행을 하려 하는데, 밀면 맛집을 알려줘”, 결과: 'Not Specific’
- 질문: "부모님과 부산여행을 하려 하는데, 부산 동구에 있는 밀면 맛집을 알려줘”, 결과: 'Not Specific’
- 마지막 질문에 대해 어떤 정보가 필요한지 물었을 때의 답변
- Please provide more information on your preferences, such as whether you are looking for a specific type of milmyeon (e.g., spicy, cold, or with specific ingredients) or if you have any dietary restrictions or budget considerations.