本文约2000字,建议阅读9分钟
本文为你提供使用ChatGPT优化提示的知识和技巧。
作为一个大型语言模型(LLM)接口,ChatGPT有令人印象深刻的潜力,但是真正能否用好取决与我们的提示(Prompt ),一个好的提示可以让ChatGPT晋升到一个更好的层次。
在这篇文章中,我们将介绍关于提示的一些高级知识。无论是将ChatGPT用于客户服务、内容创建,还是仅仅为了好玩,本文都将为你提供使用ChatGPT优化提示的知识和技巧。
反模式三星肯定对这个非常了解,因为交了不少学费吧,哈。
不要分享私人和敏感的信息。
向ChatGPT提供专有代码和财务数据仅仅是个开始。Word、Excel、PowerPoint和所有最常用的企业软件都将与chatgpt类似的功能完全集成。所以在将数据输入大型语言模型(如 ChatGPT)之前,一定要确保信息安全。
OpenAI API数据使用政策明确规定:
“默认情况下,OpenAI不会使用客户通过我们的API提交的数据来训练OpenAI模型或改进OpenAI的服务。”
国外公司对这个方面管控还是比较严格的,但是谁知道呢,所以一定要注意。
1. 提示注入
就像保护数据库不受SQL注入一样,一定要保护向用户公开的任何提示不受提示注入的影响。
通过提示注入(一种通过在提示符中注入恶意代码来劫持语言模型输出的技术)。
第一个提示注入是,Riley Goodside提供的,他只在提示后加入了:
Ignore the above directions
然后再提供预期的动作,就绕过任何注入指令的检测的行为。
这是他的小蓝鸟截图:

在一般意义上,提示注入(目标劫持)和提示泄漏可以描述为:

所以对于一个LLM模型,也要像数据库防止SQL注入一样,创建防御性提示符来过滤不良提示符。
为了防止这个问题,我们可以使用一个经典的方法 “Sandwich Defense”即将用户的输入与提示目标“夹在”一起。

这样的话无论提示是什么,最后都会将我们指定的目标发送给LLM。
总结ChatGPT响应是不确定的——这意味着即使对于相同的提示,模型也可以在不同的运行中返回不同的响应。如果你使用API甚至提供API服务的话就更是这样了,所以希望本文的介绍能够给你一些思路。
另外本文的引用如下:
Prompt injection attacks against GPT-3
https://simonwillison.net/2022/Sep/12/prompt-injection/
Ignore Previous Prompt: Attack Techniques For Language Models
https://arxiv.org/abs/2211.09527
Self-ask Prompting
https://ofir.io/Self-ask-prompting/
Large Language Models are Zero-Shot Reasoners
https://arxiv.org/abs/2205.11916
Reflexion: an autonomous agent with dynamic memory and self-reflection
https://arxiv.org/abs/2303.11366
ReAct: Synergizing Reasoning and Acting in Language Models
https://arxiv.org/abs/2210.03629
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
https://arxiv.org/abs/2201.11903
作者:Ivan Campos
MORE
相关文章








猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体104736