逆向 Windows Security Center:一次痛苦的假期项目
一位开发者分享了他在极端困难的环境下,逆向 Windows Security Center (WSC) API 的经历,旨在开发一个能干净禁用 Windows Defender 的工具。他最终通过注入系统进程并模拟系统行为,成功绕过了 WSC 的严格检查,实现了目标。这个过程和结果引发了社区关于绕过 Windows 安全机制、系统控制权以及不同禁用 Defender 方法的广泛讨论。
艰难的开发环境与 WSC API 的挑战
作者此前的工具因使用了第三方杀软代码被 DMCA 下架,促使他决定从零开始。然而,他在韩国度假期间,仅凭一台 ARM MacBook,通过 Parallels 虚拟机、Anydesk 和 Parsec 远程连接美国朋友的 PC 进行开发和调试,面临高达 210ms 的延迟,环境异常痛苦。
他发现 WSC API 对调用进程有严格要求,包括签名、PPL 保护和一个特定的 SID。模拟 WinDefend
的 SID 失败后,他转而研究系统进程的特性,发现如 Taskmgr.exe
(任务管理器) 等系统进程具备高权限、有效签名和特定的 PE 头部标志 (ForceIntegrity
)。
注入系统进程实现目标
经过反复尝试和调试环境切换(甚至使用了云电脑),作者最终找到了通过注入代码到符合条件的系统进程(如 Taskmgr.exe
),并修复了内部路径错误,成功地通过 WSC API 注册并更新了自己模拟的“杀毒软件”状态,从而达到了禁用 Windows Defender 的效果。尽管过程充满挑战,尤其是在奇葩的远程调试环境下,但最终工具得以完成。
评论区讨论:禁用 Defender 的方法与风险
评论区对如何禁用 Windows Defender 和 Windows Update 展开了热烈讨论。有人分享了更直接的方法,如使用 Linux Live USB 重命名或删除 Defender 文件,但也被指出可能被 Windows Update 或修复功能还原。使用组策略和注册表修改也被提及,但其持久性在 Windows 11 上受到质疑,且 Defender 会标记禁用实时监控的行为。讨论中提到先禁用“篡改防护”可能有助于设置的持久化。
关于 Windows 控制权与安全性的思考
讨论很快延伸到禁用更新和杀软的安全性问题。一些人认为,只要保持常用软件更新,禁用 Windows 更新和 Defender 的风险可能可控,因为许多攻击针对最新系统。但反对意见强调老系统和老漏洞依然是攻击目标,自动化攻击工具的存在使得利用变得容易。有人半开玩笑地将 Windows 比作一个“黑客发行版”,因为用户常需通过非官方手段才能实现自定义设置。评论区也澄清了作者之前项目被 DMCA 是因使用了第三方代码。总体而言,社区对 Windows 的控制权、安全机制及其绕过方法表现出浓厚兴趣。
INTELLECT-2:全球分布式强化学习训练大型语言模型
INTELLECT-2 是一个备受关注的新项目,号称是首个通过全球分布式强化学习训练的 320 亿参数语言模型。其核心创新在于不依赖中心化大型 GPU 集群,而是通过一个动态的全球贡献者网络进行异步训练。
关键技术与挑战
为了实现这一目标,项目团队从零构建了多项基础设施,包括用于异步分布式训练的 PRIME-RL 框架。他们还开发了 TOPLOC 工具来验证非受信参与者提交的工作,以及 SHARDCAST 用于高效分发更新后的模型权重。在训练算法层面,他们改进了标准的强化学习方法,引入了两侧 GRPO 裁剪和高级数据过滤技术,以确保训练的稳定性和有效性。模型主要在数学和编程任务上进行训练,相对于基础模型 QwQ-32B 显示出一定提升,但通用性能的显著飞跃仍需更好的基础模型或数据集。
去中心化 AI 训练的意义与未来展望
INTELLECT-2 被视为通过去中心化方式构建开放式前沿模型的第一步。项目团队计划未来整合更多工具并进行数据众包。这种模式探索了在不拥有巨型计算资源的情况下,聚合全球算力来训练大型 AI 模型的可能性。
评论区讨论:名称争议、分布式训练与 PoW
评论区讨论热烈。“Prime Intellect”这个名字本身引发了关于其与科幻小说联系的讨论。一个主要焦点是这种去中心化、无需信任的训练方法是否能作为一种“有用”的工作量证明(proof-of-work),替代某些加密货币中消耗大量能源的计算。然而,反对者认为传统 PoW 需要易于验证(O(1))且最好是经济上无用的,而训练 LLM 不符合这些特性。
模型性能与基础设施的权衡
关于如何确保非受信工作者不作恶的问题,文章中提到的 TOPLOC 工具被讨论,但其鲁棒性仍有疑问。许多评论者指出,相对于基础模型,INTELLECT-2 的性能提升并不巨大,这表明该项目的真正成就可能在于证明了去中心化训练的基础设施是可行的,而非模型本身的性能突破。将全球计算能力聚合用于 AI 的科幻设想引起了一些共鸣,认为这是将小说变为现实的一步。
Scraperr:一个流行的自托管网页抓取工具及其引发的讨论
Scraperr 是一个开源的自托管网页抓取工具,在 GitHub 上获得了广泛关注。它允许用户将抓取服务部署在自己的服务器上,而非依赖第三方平台。
项目介绍与技术特点
Scraperr 项目提供了一个完整的应用结构,包括后端 API、前端界面和 Docker 文件,方便开发者自行部署和使用。项目遵循 MIT 许可证,代码完全开源。其自托管特性吸引了那些希望完全控制抓取过程和数据流的用户。
评论区讨论:网站运营者对抗恶意爬虫的经验
Scraperr 的发布迅速将评论区的讨论引向了更广泛的网页抓取话题,特别是网站运营者如何应对“坏”爬虫的烦恼。许多人分享了他们的经验,例如不提供联系方式或唯一标识符的爬虫给封禁 IP 带来了困难,影响无辜用户。请求耗时页面但不等待结果的爬虫被认为是浪费服务器资源的行为。忽略 robots.txt
也是一个常见问题。
识别与封禁爬虫的挑战与方法
讨论中,有人认为在 User-Agent 中暴露身份反而容易被针对,而数据中心 IP 段的廉价性使得封禁 IP 效果有限。大家探讨了如何识别和自动化封禁恶意爬虫的方法,尽管有人认为随着 AI 发展,数据价值提升,爬虫活动会更频繁。
其他抓取工具与技术
评论区还分享了其他抓取工具,如基于 Pascal 的 xidel、使用 Selenium 的 crawler-buddy,以及将网页转为 Markdown 的 pure.md。使用大型语言模型 (LLM) 构建抓取脚本的可能性也被提出,尽管目前尚不稳定,但被认为是一个有趣的方向。
应对反爬措施
最后,讨论也涉及如何应对 Cloudflare 等反爬措施,例如使用验证码服务或高质量的 IP 池。总体而言,Scraperr 项目作为一个起点,激发了社区对网页抓取技术、反爬策略以及相关工具的深入交流。
高中“商店课”的复兴:熟练技工就业前景看好
一篇华尔街日报的文章指出,随着社会对水管工、电工、焊工、机械师等熟练技工需求的日益增长,许多公司开始直接向高中职业技术项目毕业生提供就业机会。这标志着社会观念的转变,挑战了过去普遍认为高中毕业必须上四年制大学的传统观念。
技工需求的增长与教育价值的再评估
文章强调,劳动力市场对具备实际动手能力和专业技能的熟练技工的需求正在上升。许多学校正在重振或加强其职业技术教育项目,并与当地企业建立紧密联系,为学生提供实习和就业机会。这些技术岗位通常提供不错的薪资,并且能帮助年轻人避免高额的大学贷款,提供了一条不同于传统学术路径的成功之路。这反映出社会对各类技能价值的重新认识。
评论区讨论:对技工教育趋势的看法
Hacker News 社区对此展开了热烈讨论。许多人赞扬这一趋势,认为这是对过度强调大学教育的纠偏,肯定了熟练技工的价值和尊严。他们分享了通过技术路线取得成功的例子,并对比了技术学校与四年制大学在成本和就业前景上的差异。
职业发展、自动化影响与社会分流的担忧
然而,也有评论提出了担忧,例如这些技术工作的长期职业发展空间、是否会受到自动化影响,以及工作环境和体力要求是否适合年轻人长期发展。有人从社会阶层角度讨论,认为这可能是一种“分流”,将一部分人导向技术岗位,而另一部分人继续追求高科技或管理职位。
教育价值与不同职业道路的思考
总的来说,讨论围绕教育的价值、不同职业道路的优劣以及社会对各类技能的需求和认可展开。社区普遍认为,社会需要重新平衡对学术教育和职业技术教育的重视程度,为年轻人提供更多元化的成功路径选择。
用 200 行 Clojure 代码构建一个最小的 LSP 客户端
一位作者展示了如何使用大约 200 行 Clojure 代码实现一个最小的 Language Server Protocol (LSP) 客户端。这个项目的目标是证明使用少量代码即可构建一个基本的 LSP 客户端,从而理解 LSP 的核心机制。
项目背景与技术实现
LSP 是一个标准协议,旨在解决编辑器与语言工具之间集成的“MxN”问题,通过一个通用的“M+N”接口实现高效对接。这个最小客户端专注于处理基础的通信层(基于字节流的 HTTP 头和 JSON 体)以及其上的 JSON-RPC 层,用于处理请求、响应和通知。作者利用 Clojure 语言,结合 Java 24 的虚拟线程实现并发