跳到主要内容

优化分类器

本教程将引导您完成基于用户反馈优化分类器的过程。分类器非常适合优化,因为通常很容易收集所需的输出,这使得根据用户反馈创建少量示例变得容易。这正是我们将在本示例中做的事情。

目标

在本示例中,我们将构建一个机器人,根据 GitHub 问题的标题对其进行分类。它将接收标题并将其分类为多种不同的类别之一。然后,我们将开始收集用户反馈,并使用它来塑造此分类器的性能。

开始入门

首先,为了开始入门,我们将进行设置,以便将所有追踪发送到特定项目。我们可以通过设置环境变量来做到这一点

import os
os.environ["LANGSMITH_PROJECT"] = "classifier"

然后我们可以创建我们的初始应用程序。这将是一个非常简单的函数,它只接收 GitHub 问题的标题并尝试对其进行标记。

import openai
from langsmith import traceable, Client
import uuid

client = openai.Client()

available_topics = [
"bug",
"improvement",
"new_feature",
"documentation",
"integration",
]

prompt_template = """Classify the type of the issue as one of {topics}.

Issue: {text}"""

@traceable(
run_type="chain",
name="Classifier",
)
def topic_classifier(
topic: str
):
return client.chat.completions.create(
model="gpt-4o-mini",
temperature=0,
messages=[
{
"role": "user",
"content": prompt_template.format(
topics=','.join(available_topics),
text=topic,
)
}
],
).choices[0].message.content

然后我们可以开始与之交互。在与之交互时,我们将提前生成 LangSmith 运行 ID 并将其传递给此函数。我们这样做是为了稍后可以附加反馈。

以下是我们如何调用应用程序

run_id = uuid.uuid4()
topic_classifier(
"fix bug in LCEL",
langsmith_extra={"run_id": run_id}
)

以下是我们如何在之后附加反馈。我们可以通过两种形式收集反馈。

首先,我们可以收集“正面”反馈 - 这适用于模型正确理解的示例。

ls_client = Client()
run_id = uuid.uuid4()

topic_classifier(
"fix bug in LCEL",
langsmith_extra={"run_id": run_id}
)

ls_client.create_feedback(
run_id,
key="user-score",
score=1.0,
)

接下来,我们可以专注于收集与生成的“更正”相对应的反馈。在本示例中,模型会将其分类为错误,而我实际上希望将其分类为文档。

ls_client = Client()

run_id = uuid.uuid4()
topic_classifier(
"fix bug in documentation",
langsmith_extra={"run_id": run_id}
)

ls_client.create_feedback(
run_id,
key="correction",
correction="documentation"
)

设置自动化

现在我们可以设置自动化,以将具有某种形式反馈的示例移动到数据集中。我们将设置两个自动化,一个用于正面反馈,另一个用于负面反馈。

第一个自动化将获取所有具有正面反馈的运行,并自动将其添加到数据集中。这背后的逻辑是,任何具有正面反馈的运行都可以在未来的迭代中用作好的示例。让我们创建一个名为 classifier-github-issues 的数据集来添加此数据。

Optimization Negative

第二个自动化将获取所有带有更正的运行,并使用 Webhook 将它们添加到数据集中。在创建此 Webhook 时,我们将选择“使用更正”选项。此选项将使在从运行创建数据集时,它将使用更正,而不是使用运行的输出作为数据点的黄金真相输出。

Optimization Positive

更新应用程序

现在我们可以更新我们的代码,以拉取我们正在向其发送运行的数据集。一旦我们将其拉取下来,我们就可以创建一个包含示例的字符串。然后我们可以将此字符串作为 Prompt 的一部分!


### NEW CODE ###

# Initialize the LangSmith Client so we can use to get the dataset
ls_client = Client()

# Create a function that will take in a list of examples and format them into a string
def create_example_string(examples):
final_strings = []
for e in examples:
final_strings.append(f"Input: {e.inputs['topic']}\n> {e.outputs['output']}")
return "\n\n".join(final_strings)

### NEW CODE ###


client = openai.Client()

available_topics = [
"bug",
"improvement",
"new_feature",
"documentation",
"integration",
]

prompt_template = """Classify the type of the issue as one of {topics}.

Here are some examples:

{examples}

Begin!

Issue: {text}
>"""

@traceable(
run_type="chain",
name="Classifier",
)
def topic_classifier(
topic: str
):
# We can now pull down the examples from the dataset
# We do this inside the function so it always get the most up-to-date examples,
# But this can be done outside and cached for speed if desired
examples = list(ls_client.list_examples(dataset_name="classifier-github-issues")) # <- New Code
example_string = create_example_string(examples)

return client.chat.completions.create(
model="gpt-4o-mini",
temperature=0,
messages=[
{
"role": "user",
"content": prompt_template.format(
topics=','.join(available_topics),
text=topic,
examples=example_string,
)
}
],
).choices[0].message.content

如果现在使用与之前类似的输入运行应用程序,我们可以看到它正确地学习到任何与文档相关的内容(即使是错误)都应归类为 documentation

ls_client = Client()

run_id = uuid.uuid4()
topic_classifier(
"address bug in documentation",
langsmith_extra={"run_id": run_id}
)

对示例进行语义搜索

我们可以做的另一件事是仅使用语义上最相似的示例。当您开始积累大量示例时,这非常有用。

为了做到这一点,我们可以首先定义一个示例来查找 k 个最相似的示例

import numpy as np

def find_similar(examples, topic, k=5):
inputs = [e.inputs['topic'] for e in examples] + [topic]
vectors = client.embeddings.create(input=inputs, model="text-embedding-3-small")
vectors = [e.embedding for e in vectors.data]
vectors = np.array(vectors)
args = np.argsort(-vectors.dot(vectors[-1])[:-1])[:5]
examples = [examples[i] for i in args]
return examples

然后我们可以在应用程序中使用它

ls_client = Client()

def create_example_string(examples):
final_strings = []
for e in examples:
final_strings.append(f"Input: {e.inputs['topic']}\n> {e.outputs['output']}")
return "\n\n".join(final_strings)



client = openai.Client()

available_topics = [
"bug",
"improvement",
"new_feature",
"documentation",
"integration",
]

prompt_template = """Classify the type of the issue as one of {topics}.

Here are some examples:

{examples}

Begin!

Issue: {text}
>"""

@traceable(
run_type="chain",
name="Classifier",
)
def topic_classifier(
topic: str
):
examples = list(ls_client.list_examples(dataset_name="classifier-github-issues"))
examples = find_similar(examples, topic)
example_string = create_example_string(examples)

return client.chat.completions.create(
model="gpt-4o-mini",
temperature=0,
messages=[
{
"role": "user",
"content": prompt_template.format(
topics=','.join(available_topics),
text=topic,
examples=example_string,
)
}
],
).choices[0].message.content

此页是否对您有帮助?


您可以留下详细的反馈 在 GitHub 上.