Anthropic 官方博客近日发布了一份极具价值的开发指南,题为《Writing effective tools for LLM agents—using LLM agents》,旨在为开发者提供系统化方法,通过 Model Context Protocol(MCP)为大型语言模型(LLM)Agent 设计高效实用的工具。该指南以“原型 – 评估 – 协作”的三步迭代流程为核心框架,并提炼出五大关键设计原则,全面覆盖工具的有效性、可用性及性能优化,为开发者构建智能 Agent 提供了清晰的行动指南。
在工具选择阶段,指南首先强调决策的严谨性。开发者需深入分析 Agent 的核心需求,从功能匹配度、调用频率、资源消耗等多维度权衡工具的适用性,避免盲目堆砌功能导致系统臃肿。同时,指南提出构建清晰命名空间的必要性,通过模块化设计区分不同工具的职责范围,避免命名冲突造成的逻辑混乱。例如,可参考”工具名:动词+名词”的规范,如”fetchWeather:获取天气信息”,确保开发者能直观理解工具功能。
针对工具的上下文返回机制,指南提出三大优化方向。首先,返回值需具备强相关性,剔除冗余信息,仅保留对 Agent 决策有直接指导意义的数据。其次,通过结构化设计提升信息密度,如采用 JSON 格式封装数据,并设置标准字段(如 status、error、data)增强可读性。最后,在 Token 效率方面,建议开发者采用分词优化技术,将长文本拆解为关键短语,既降低传输成本又保证信息完整性。Anthropic 的实验数据显示,通过这些优化,工具的响应效率可提升 40% 以上。
提示工程作为提升工具可用性的关键手段,在指南中占据重要篇幅。开发者需通过精准的指令设计,使工具说明既简洁又全面。建议采用场景化描述,如”当用户询问’明天北京天气如何’时,调用 fetchWeather 工具”,并设置错误处理预案。Anthropic 的 Claude Code 工具经过 5000+ 脚本重构验证,其自动生成的提示模板准确率达 92%,充分证明数据驱动的工程方法在提升工具质量方面的有效性。
在评估体系方面,指南创新性地引入了分层测试机制。基础阶段采用留出测试集的交叉验证,防止过拟合;进阶阶段则通过多轮 A/B 测试对比不同设计方案的性能差异。Anthropic 开源的工具评估 Cookbook 包含 100+ 案例代码,涵盖从数据采集到结果分析的完整流程。特别值得关注的是,MCP 协议的底层 LLM 升级将同步推动工具能力的迭代,未来版本将支持更复杂的任务分解与多工具协同。
完整指南:https://www.anthropic.com/engineering/writing-tools-for-agents