ChatGPT的出现给自然语言领域带来很大的打击,例如翻译、做摘要等。
但同时,ChatGPT 也带来了新的研究方向。
ChatGPT 不会读心术,要让 ChatGPT 生成我们想要的回答,需要进行催眠(学术界叫做 Prompting),即提出精确的需求。
错误用法(将 ChatGPT 简单当成了聊天机器人):
`我今天工作很累`
正确用法:
`请想像你是我的朋友,我会对你抱怨,希望你可以用中文提供安慰,并试图跟我聊聊,在对话过程中请展现出同理心,现在我们开始: 我今天工作很累`
网上已经有大量的 Prompt
然而,这些 Prompt 是由人们试出来的,这些是否是最有效的 Prompt 还不可知,未来也许会有更系统化的方法来自动找出 Prompt。
ChatGPT 的预训练资料只有到2021年,因此不能正确回答如`最近一次世界杯的冠军是哪一队`
的问题。
一个很直觉的想法是,如果问 `最近一次世界杯的冠军是哪一队`
,回答是`法国队`
时,人类老师给出反馈`错了,是阿根廷`
,然后ChatGPT更新相关的参数。然而,这样可能会导致模型弄错更多的答案。例如,更新参数时所学到的规则是:遇到带有”足球世界杯冠军“的问题时都回答”阿根廷“。导致问 `2018世界杯冠军是`
也回答成`阿根廷`
。
这是一个新的研究题目——Nerual Editing:如何让机器修改一个错误,不要弄成更多的错误。
训练侦测“是否由 AI 所生成"的模型的训练方式:
输入 | 输出 |
---|---|
AI生成的内容(文本、语音、影像) | Y(是AI生成) |
人生成的内容 | N(不是AI生成) |
但是,真的有这么容易吗?(课程中没有作深入讨论,只是提一下这种新的研究方向)
李宏毅老师认为
鼓励使用 ChatGPT 等 AI 来辅助生成报告、代码、论文等
ChatGPT是一个工具,是需要学习的技术,好比我们使用计算机和谷歌一样
从现在起没有人类的作文写得比 ChatGPT 差
ChatGPT 的出现将提升人类全体水平
ChatGPT 是否会学到不应该学到的东西。
在 GPT-2 时,问及某个单位时,会返回该单位的邮箱、电话等。
ChatGPT 会保密,但口风不紧(虽然下图给出的地址是错的):

Machine Unlearning
新的研究题目:如何让机器忘掉不该学的东西?