少量毒样本即可污染任意规模的大型语言模型

本研究聚焦于狭义后门(生成无意义文本),此类漏洞在前沿模型中尚不构成重大威胁。但我们仍公开这些发现,旨在揭示数据投毒攻击可能比预期更具可行性,并推动该领域防御机制的深入研究。

《重构》作者 Martin Fowler:关于大语言模型(LLMs)与软件开发的一些思考

据我观察,绝大多数大语言模型(LLMs)应用都停留在花哨的自动补全功能上,常通过Co-pilot实现。但真正从大语言模型(LLMs)中获益最多的人士认为自动补全价值有限

用猫干扰推理大模型:面向推理模型的查询无关对抗触发方法

论文提出:即使添加无关文本(如“猫一生大部分时间在睡觉”),也可能导致模型错误率显著上升。

LLM 大语言模型人工智能应用十大安全威胁(OWASP)

清单的制定创建OWASP LLM申请前 10 名列表是一项艰巨的任务,它建立在由近 500 名专家和超过125 名积极贡献者组成的国际团队的集体专业知识的基础上。我们的贡献者来自不同的背景,包括人工智能公司、安全公司、ISV、云超大规模提供商、硬件提供商和学术界。

比 Rust 更难的都不足为惧

这种情况–陡峭的学习曲线问题–现在变得容易多了,这要归功于 LLM(Large Language Model,大型语言模型)。


京ICP备12002735号