不被AI左右的人这样问:ChatGPT提示10个小技巧

不被AI左右的人这样问:ChatGPT提示10个小技巧

引言:ChatGPT为何在“聪明”的同时也会失败

ChatGPT会直接接收我们抛出的词语并返回“看似合适的最佳答案”。这虽然很方便,但如果提问方式不够严谨,得到的回答也会很随意——这一点常常被忽视。


ZDNET的文章传达的不是技巧,而是“防止AI误解的礼仪”。换句话说,更接近于给人类下属布置工作的指示技巧


从社交媒体的反应来看,既有“问题不在于ChatGPT,而在于我们的提问方式不当”的声音,也有“AI有时会自信地犯错”的声音。也就是说,需要“提高输出质量的技术”和“防止事故的技术”的结合。



1. 放弃抽象词语,使用“具体”

“不错的感觉”“易于理解”“看似合理”——这类词语对AI来说自由度太高。
具体化的技巧有三点。

  • 目的:用于什么(例如:公司内部提案、社交媒体发布、招聘面试)

  • 读者:针对谁(例如:初学者、决策者、现场负责人)

  • 期望标准:什么是“好”(例如:先结论、项目符号、附带依据、包含反驳)


例子
×「提出营销策略方案」
○「增加BtoB SaaS的免费试用注册。预算每月30万日元,期限6周。包括执行步骤、KPI和预期风险的5个方案」



2. “首先”提供前提条件和背景信息

ChatGPT会自动补充背景信息。补充正确则神奇,错误则事故。
因此,先固定“世界观”。

  • 现状(正在发生什么)

  • 限制(时间、预算、规则、可用手段)

  • 不希望出现的情况(NG例子或地雷)


增加背景信息会使内容变长,但最终减少重做次数,加快速度,这是关键。



3. 先指定输出格式

“用文章”“用表格”“结论→理由→具体例子”等,指定形式可以减少偏差。
特别有效的是以下指定。

  • 标题结构(相当于h2/h3)

  • 项目符号的数量(例如:每项最多3个)

  • 字数(例如:引言200字,每节400字)

  • 语气(例如:敬语、强烈断定、适合社交媒体)


格式确定后,AI可以毫不犹豫地进行填充。



4. 赋予角色(人物设定)以固定视角

“你是编辑者”“你是信息系统负责人”“你是CFO”等,赋予角色后,信息的获取方式、用词选择、风险敏感度会发生变化。


技巧是指定不仅仅是“头衔”,还包括经验年数和成果

例子
“你是SaaS企业中有10年经验的BtoB营销负责人,负责线索获取和培育。”



5. “明确”写出限制条件(包括不做的事情)

限制不仅不会降低质量,反而会提高。
原因很简单,没有限制,AI会给出“最广泛的正确答案”。

  • 可使用的媒体(X、note、新闻稿、YouTube等)

  • 预算上限

  • 不可使用的表达(夸大广告、断定、医疗功效等)

  • 法律和合规注意事项


“链接不放在正文中”等规则指定也可以在此处包含,以防崩溃。



6. 展示好例和坏例,分享评分标准

每个人对文章的喜好不同。AI只能猜测“你的喜好”。
因此,即使很短,也要提供例子以统一标准。

  • 好例(这种节奏,这种词汇,这种密度)

  • 坏例(不喜欢这种表达,抽象太多是NG)


这类似于实际工作中的“参考文章是这个”指示。



7. 不要一次完成。分步骤“安排”

“首先是结构方案”“然后是每个标题的要点”“最后是正文”——这种分割很强大。


AI如果试图一次性完成作品,中途可能会失去一致性,或者随意填补内容。


分步骤会产生可检查的中间成果物,修正也变得容易。



8. 先让AI提问(找出缺失信息)

这招虽然不起眼,但很有效。


只需说“在回答之前,先提出必要的问题”,AI就会列出不明之处。
结果是,我们也能整理需求,减少“反复询问的困境”



9. 以反复改进(重写指示)为前提

与其一次性追求完美,不如以“初稿→修正”为前提更快。
修正指示的以下格式很方便。

  • 不喜欢的地方(抽象、冗长、弱、硬)

  • 希望如何改进(具体化、简短、强烈结论、添加例子)

  • 保留什么(保留这个比喻,保持结构)



10. 让AI自我检验(检查错误、遗漏、前提)

在社交媒体上特别强调的是,“AI会毫不犹豫地混入看似合理的谎言”问题。
通过提示可以大大改善这一点。

  • “列出自己回答的三个弱点”

  • “区分事实和推测”

  • “前提崩溃的情况是?”

  • “不确定的点请明确标出”


只需在最后加入这种“自我审查”,就能减少危险的断定。



社交媒体的反应:称赞和警惕并存

ZDNET的文章在社交媒体上分享后,反应大致分为两种。

 


A. “最终取决于提示”派

在Reddit上,围绕AI的回答质量,有人回应说“这只是‘提问方式’不当吧?”,并贴上了提示改进文章的链接作为“依据”。也就是说,即使有不成功的体验,用户方面也有改进空间


B. “盲信有危险,必须结合搜索”派

在同一线程中,也有人反复警告AI可能会提出破坏系统的建议,或因幻觉而提供危险的命令。结论是“AI聊天+网络搜索+双重检查”是现实的操作方式。


C. 在LinkedIn上作为“工作技巧”分享

在LinkedIn上,有人将ZDNET的文章介绍为“在AI可能编造故事的前提下,为了获得更好结果的提示习惯”,并在业务使用的背景下(效率化、质量稳定化)进行了传播。



总结:10个技巧是“减少重做的技术”,而不是“速度”

ZDNET文章所说的“快速获得好结果”并不是缩短打字时间,而是减少重做次数
具体化、提供前提、指定格式、分步骤、最后进行自我检验。仅此而已,ChatGPT就从“方便的玩具”变成“能胜任实际工作的伙伴”。


同时,正如社交媒体所示,AI并非万能。即使通过提示变得聪明,最终仍需人类确认。越是牢记这一前提的人,似乎越能从AI中获得更大的好处。



出处URL