你不需要 Anubis

我近期自建了Redlib,尽管未与他人共享实例,却因大量抓取爬虫试图获取优质Reddit内容而遭到Reddit限速。以下是我用12行Caddyfile解决该问题的方案

部署 Anubis:让 AI 网络爬虫寸步难行

Anubis 是一款基于工作量证明的中间件解决方案。它接收传入流量,进行特殊处理后,决定是否将请求转发至您的Web服务器。具体实现将在后文详述。本文旨在记录我的实践过程(供个人参考),并提供简明易懂的部署指南(供您参考)。

在 FreeBSD 上配置 Anubis 反 AI 爬虫工具

阿努比斯(Anubis)是由Techaro近期开发的卓越反人工智能软件产品。其运作原理是向连接计算机发起工作量证明挑战,设备必须完成解题才能访问请求内容。该项目正迅速普及,包括联合国,Linux 在内的机构均已采用。

Apache 中的 Anubis 实现真的需要3个虚拟主机吗?

由于我不喜欢这种做法,尝试了在保留两个虚拟主机的前提下实现的方法。

Anubis:利用工作量证明(Proof-of-Work, PoW)机制来阻止 AI 网站爬虫

“Anubis” 是一款利用工作量证明(Proof-of-Work, PoW)机制来阻止 AI 爬虫抓取网站内容的开源软件。它由开发者 Xe Iaso 创建,旨在应对当前大语言模型(LLM)训练数据抓取带来的挑战。


京ICP备12002735号