本站资源收集于互联网,不提供软件存储服务,每天免费更新优质的软件以及学习资源!

使用Python_Pydantic和Langchain创建可维护的AI工作流程

网络教程 app 1℃

使用Python_Pydantic和Langchain创建可维护的AI工作流程

概述与核心概念

本教程演示如何利用Python和Pydantic构建易于维护的AI工作流。我们将重点创建一个可轻松修改和扩展的故事分析系统。

Pydantic模型是现代Python应用中类型安全数据处理的基石。它们允许我们定义数据的结构并自动验证数据,这在AI工作流中至关重要,因为它有助于保持一致性并在早期发现错误。

Pydantic模型是继承自BaseModel并定义数据预期结构的类。模型中的每个字段都可以带有类型提示,Pydantic用于验证。

构建故事分析系统

让我们构建一个简单的故事分析系统来实践这些概念。

你需要安装以下包:

pip install pydantic langchain-openai

模型定义

from pydantic import BaseModelfrom typing import Listclass Story(BaseModel): title: str content: str genre: str = "unknown"class StoryForChildren(Story): """ 专为儿童设计的童话故事。 适合2-6岁的儿童。 """ passclass StoryForBabies(Story): """ 专为婴儿设计的童话故事。 适合0-2岁的婴儿和幼儿。 特点: – 简洁、重复的语言 – 基本概念 – 短句 – 富有感官体验的描述 """ passclass StoryAnalysis(BaseModel): # 人物元素 character_names: List[str] character_descriptions: List[str] # 主题元素 main_theme: str supporting_themes: List[str] symbols: List[str] # 情节元素 exposition: str climax: str resolution: str key_events: List[str] # 风格和解读 writing_techniques: List[str] overall_interpretation: str

此模型定义了具有标题、内容和可选类型字段的故事的基本结构。请注意,AI将使用模型的文档字符串来生成正确的输出。通常,如果变量命名正确,LLM可以理解提示,但在某些情况下(例如儿童故事),我们需要明确告诉LLM我们想要什么。这是通过添加文档字符串(仅在class StoryForChildren(Story):下方)来实现的。

创建AI代理

我们创建一个专门的代理,可以在定义的模型之间转换内容。使用get_agent_function函数。

该函数接收输入模型、输出模型和温度参数。它返回一个新函数,可用于转换数据。

from langchain.chat_models import ChatOpenAIfrom typing import Union, Callablefrom pydantic import BaseModel, ValidationErrordef get_agent_function( input_model: Union[BaseModel, str], output_model: BaseModel, temperature: float = 0.3) -> Callable[[Union[str, BaseModel]], BaseModel]: llm = ChatOpenAI( model="gpt-4", temperature=temperature ) def run_llm(input_data: Union[str, BaseModel]) -> BaseModel: try:if isinstance(input_data, BaseModel): input_data = input_data.model_dump_json()llm_with_output = llm.with_structured_output(output_model)response = llm_with_output.invoke(input_data)return response except ValidationError as e:print(f"Validation Error: {e}")return None # or handle the error appropriately return run_llm

使用工作流

以下是模型和代理的协同使用方法:

# 创建专用代理parse_story = get_agent_function(str, Story)get_baby_friendly_story = get_agent_function(Story, StoryForBabies)analyze_story = get_agent_function(Story, StoryAnalysis)# 执行工作流story_text = "这是一个关于勇敢的小兔子的故事…" # 替换为你的故事文本story = parse_story(story_text)baby_friendly_story = get_baby_friendly_story(story)analysis = analyze_story(baby_friendly_story)print(analysis)

关键优势

    内置LLM提示: Pydantic模型中的文档字符串是LLM的直接提示。通过更新模型的文档字符串,我们自动更新LLM解释和生成内容的方式。

    单一数据源: Pydantic模型既作为文档,也作为功能代码,而不是维护单独的提示和数据结构。当需要更改AI行为时,只需更新模型的文档字符串;当需要更改数据结构时,只需更新模型字段。这消除了提示和代码不同步的常见问题。

    类型安全和验证: Pydantic自动验证所有流经AI工作流的数据。如果LLM生成无效输出,你将立即知道。这有助于在开发过程的早期发现错误。

    自文档化架构: 模型清晰地显示了你的数据结构和AI的预期行为。新团队成员可以通过阅读模型来理解整个工作流。

练习

复制此代码,尝试创建一个名为StoryForTeenagers的新故事类型,并修改工作流以生成适合青少年年龄的内容。考虑哪些特定领域或验证规则可能与该受众相关。

以上就是使用Python,Pydantic和Langchain创建可维护的AI工作流程的详细内容,更多请关注范的资源库其它相关文章!

转载请注明:范的资源库 » 使用Python_Pydantic和Langchain创建可维护的AI工作流程

喜欢 (0)