V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
shijizhi
V2EX  ›  程序员

我做了一个简洁但很灵活的 Python LLM agent workflow 库,欢迎试用

  •  
  •   shijizhi · Jan 22 · 1307 views
    This topic created in 99 days ago, the information mentioned may be changed or developed.

    学习 Agent 过程中做了个很小的 Python workflow 库,想请大家给些反馈

    最近在学习 Agent 相关的东西,用过 LangChain 、CrewAI 一段时间,但个人不是很适应它们的代码风格,
    所以自己摸索着设计了一个很小的 Python 库:PicoFlow

    目标是尽量用接近普通 async Python 的方式来表达 agent 的执行流程,而不是引入图结构或较重的框架抽象。

    项目地址:
    https://github.com/the-picoflow/picoflow


    基本用法

    每个步骤就是一个 async 函数,然后直接组合:

    from picoflow import flow, llm, create_agent
    
    LLM_URL = "llm+openai://api.openai.com/v1/chat/completions?model=gpt-4.1-mini&api_key_env=OPENAI_API_KEY"
    
    @flow
    async def mem(ctx):
        return ctx.add_memory("user", ctx.input)
    
    agent = create_agent(
        mem >> llm("Answer in one sentence: {input}", llm_adapter=LLM_URL)
    )
    
    print(agent.get_output("What is PicoFlow?", trace=True))
    
    

    底层就是 async function 的组合,ctx 是显式传递的共享上下文。 整体概念比较少,尽量保持接近普通函数组合的思路。

    目前还处在早期阶段,欢迎大家试用,帮我提提意见。 谢谢大家!

    No Comments Yet
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2267 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 29ms · UTC 01:20 · PVG 09:20 · LAX 18:20 · JFK 21:20
    ♥ Do have faith in what you're doing.