少量毒样本即可污染任意规模的大型语言模型
本研究聚焦于狭义后门(生成无意义文本),此类漏洞在前沿模型中尚不构成重大威胁。但我们仍公开这些发现,旨在揭示数据投毒攻击可能比预期更具可行性,并推动该领域防御机制的深入研究。
《重构》作者 Martin Fowler:关于大语言模型(LLMs)与软件开发的一些思考
据我观察,绝大多数大语言模型(LLMs)应用都停留在花哨的自动补全功能上,常通过Co-pilot实现。但真正从大语言模型(LLMs)中获益最多的人士认为自动补全价值有限
大语言模型(LLM)上的提示注入(Prompt injection)和越狱(jailbreaking )不是一回事
我经常看到有人在说 “越狱(jailbreaking ) “时使用 “提示注入(Prompt injection) “一词。这种错误现在太常见了,我不确定是否有可能纠正:语言的含义(尤其是最近创造的术语)来自语言的使用方式。但我还是要尝试一下,因为我认为这种区别真的很重要。
