不会提问=浪费AI!3大厂Prompt拆解:从跑题到精准只需1个三角框架!

试着让AI给短文起了个名字,果然不同寻常,走了流量风,不是我等小白所能比拟。

零零散散的看过Google、Anthropic和Microsoft三家关于提示词的白皮书、最佳实践和相关的blog,但一直不是很系统学习比较过。今天同事推了这篇文章:Getting Started – POML Documentation,微软已经就提示词推出了提示工程编排标记语言的开源框架,所以还是先把之前欠的债补一下。

首先是这三家关于提示词的资料,具体链接就不贴了,基于给出的信息,比较容易找的到。

一、三家白皮书相关信息

  1. Anthropic (Claude)

  • 提示工程教程:GitHub开源项目(含理论+代码示例)
    Anthropic Prompt Engineering Tutorial

  • 核心文档:API最佳实践(XML标签、思考链等)
    参考Anthropic官方博客(搜索“Prompt Engineering”)

  • Google

    • Gemini提示词指南:集成于Google Cloud文档
      Google Cloud: Prompt Engineering Guide

    • Deep Research功能说明:基于RAG的提示优化逻辑
      见Bard升级公告(2025年更新)

  • Microsoft (Azure OpenAI/Copilot)

    • 企业级提示词框架:通过Azure文档发布
      Microsoft Azure: Prompt Engineering Techniques

    注:微软未单独发布“提示词白皮书”,其方法论嵌入开发工具和Azure文档中。

    接下来从三个方面进行整理,第一三家在提示词工程方面核心逻辑和设计要点;其次是关于三家的差异化对比;最后是结合三家的白皮书材料,给出一个普通用户在应用大模型时如何写好提示词的思路。

    二、三家提示词方法论核心逻辑

    (一)Anthropic (Claude):结构化思维与安全可控

  1. 核心逻辑:通过XML标签分割任务要素思维链(Chain-of-Thought)强制模型分步推理,结合宪法AI(Constitutional AI)实现安全兜底。

    术语解释
    宪法AI:Anthropic提出的伦理框架,通过预定义原则(如联合国人权宣言、反歧视条款)引导模型自我修正有害输出,避免依赖人类反馈带来的偏见。

  2. 关键要点

  • 任务分治:复杂任务拆解为可验证的子步骤(如数学问题分步推导)。

    样例
    <problem>求解方程:2x + 5 = 15</problem> <thinking>先减去常数项:2x = 10,再除以系数:x = 5</thinking> <answer>x = 5</answer>

  • 安全边界:内置拒绝机制拦截敏感请求(如违法内容生成)。

  • 语言直白化:禁用填充短语(如"Certainly!"),提升信息密度。


(二)Google:场景化任务分解与工具集成

  1. 核心逻辑:将问题拆分为子任务+外部工具调用(如RAG检索、代码执行),强化结果准确性。

  2. 关键要点

  • 深度研究(Deep Research):多轮搜索+交叉验证减少幻觉(如法律条文分析)。

    样例
    "用Google搜索验证2024年GDPR修订案核心条款,对比3个权威来源后输出摘要"

  • 结构化输出:强制JSON/表格格式,便于程序解析。

  • 参数精细化:低温度(0-0.3)确保代码生成稳定性。


(三)Microsoft:工程化部署与低代码协作

  1. 核心逻辑:通过命令行工具(/help) 和 企业级合规约束 降低交互复杂度。

  2. 关键要点

  • Copilot指令集:用 /compact 压缩对话历史,/clear 重置会话。

    样例
    "优化Azure SQL查询性能 → 输入 /compact 保留关键参数 → 输出优化方案"

  • 合规性嵌入:在提示词中预置企业策略(如“金融数据脱敏规则:[REDACT_ACCOUNT]”)。

  • 知识图谱集成:自动从SharePoint等数据源构建领域知识库,提升响应准确性。

微软推出的POML(Prompt Orchestration Markup Language),正是其“工程化部署与低代码协作”理念的集中体现。它是一种类HTML/XML的标记语言,旨在解决临时文本提示难以维护、复用和协作的问题。

三、三家的差异化对比与案例解析

差异维度与根源

对比维度

Anthropic

Google

Microsoft

核心目标

过程透明化与安全可控

信息准确性与多模态整合

无缝嵌入企业工作流

技术原理

XML标签 + 宪法AI

RAG检索 + 工具调用

命令行 + 合规策略引擎

安全机制

动态伦理拦截

多源引用验证

数据分级管控(DLP)

▶ 案例对比:医疗诊断支持任务

  • Anthropic

    <task>分析患者症状:头痛、发热3天</task>  
    <constraints>不提供诊断结论,仅列出可能病因及建议检查项</constraints>  
    <output>1. 流感(建议血常规) 2. 脑膜炎(建议腰椎穿刺)</output>  

    → 宪法AI自动拦截诊断结论,降低医疗风险

  • Google
    "检索UpToDate医学数据库与CDC指南,对比‘成人发热头痛’的5种病因,输出概率表"
    → 工具调用确保信息权威性

  • Microsoft
    "在Teams中调用Copilot:根据患者电子病历自动生成会诊摘要模板,符合HIPAA格式"
    → 合规策略引擎自动适配医疗隐私法规

差异化根源

  • Anthropic源自前OpenAI团队成员,伦理可控性是基因级需求;

  • Google依赖搜索技术积累,信息整合能力是核心壁垒;

  • Microsoft深耕企业生态,工程效率优先于技术创新。

四、我们如何写好提示词?

结合三家大厂的实践,可以采用:角色-任务-边界三角法则,构建我们自己的提示词,让大模型更好的为我们所用。具体如下:

  1. 角色设定(Role):明确模型身份:"你是一名数据科学家,为技术总监编写报告"。

  2. 任务分解(Task)

  • 结构化描述:用XML/分隔符拆分步骤(借鉴Anthropic);

  • 示例驱动:提供1-2个输入-输出样本(Few-Shot学习)。

  • 边界约束(Boundary)

    • 正向:输出长度/格式(如"用Markdown表格");

    • 负向:禁用领域(如"不涉及医疗诊断")。

    进阶技巧(结合三家优势)

    • 预填响应:强制输出结构(如"报告开头需写‘基于数据可知…’");

    • 思维链触发:复杂问题添加"请分步骤推理…"(提升准确率23%+);

    • 伦理兜底:声明"若不确定需标注来源"(减少幻觉风险)。

    实战模板(电商运营场景)

    角色:电商数据分析专家  
    任务:  
    1. 从<销售日志>提取安卓用户流失节点  
    2. 对比iOS用户行为差异  
    3. 输出PPT大纲(3页,含转化率图表)  
    约束:不涉及用户隐私,用中文输出  


    以上为个人学习过程的一些初步理解,仅供参考。


    RAG技术前沿技术新闻资讯

    Chonkie:开源、轻量、极速的 RAG 分块神器 🦛

    2026-4-25 20:19:58

    企业落地数字员工新闻资讯

    继麦肯锡后,BCG最新报告:AI Agent如何帮助企业实现1人做6人的工作量?

    2026-4-25 20:29:32

    0 条回复 A文章作者 M管理员
      暂无讨论,说说你的看法吧
    购物车
    优惠劵
    搜索