原作名为:《Nexus : A Brief History of Information Networks from the Stone Age to AI》。
阅读的天下文化出版的繁体字版本,可能因为没有太多生字的原因,又或者是一直有在玩繁体字游戏的原因,整体的阅读流畅度还是很高的。这本书是以色列作者哈拉瑞对人类社会的进一步思考,讲述了资讯对人类连结的影响,不同使用资讯的方式所能够产生不同的社会、政权,以及 AI 这一新技术革命所给人类连结带来的危险和福祉。
现在已经是 2026 年,经过过去一两年的发展,AI 基本已经进入了普通人的智能手机,每个人或多或少地都有在使用 AI 了。在国内,豆包、Kimi、元宝、千问等等手机 AI App 都在抢占用户。海外 ChatGPT、Google Gemini 等也在干同样的事情。AI 的普及给人或多或少带来了生活、资讯的便利,但背后也有这本书里面所担忧的内容。关于你个人的隐私的非隐私的资讯汇聚到商业巨头,变成企业的生产资料,用于训练比你更了解你自己的 AI 模型,构建应用程序。人与人的连结会被弱化,人与 AI 的连结会变得越来越多。如果这里面对 AI 的监管不利,又或者科技巨头唯利是图,用 AI 给你输出了不反映事实的资讯,那么对个人的危害是难以承受的。
作者在文中提到,现在的 AI 模型训练,需要工程师准备海量的数据、语料的投喂。这其实跟两千年前的古人选择把什么内容放到《圣经》里面是类似的。如果我们不加思考,不为我们的 AI 或者系统设计纠错、审查机制,把 AI 给到我们的内容视为正确,就如同古人把《圣经》的内容视为唯一答案,其危害也是极深的。
延伸开来。作为现今使用 AI 的平常大众,对于目前 AI 所展现出来的能力,可能是比较满意的。我看到了越来越多的人会向 AI 提问,采纳其给出的答案。向 AI 提出任务,接受其输出的内容。这里面的危险在于,我们不能放弃自己的思考、审查、验证的能力。在使用 AI 上,人要主导 AI,而非 AI 主导人类思考。比如在程序员中,vibe coding 越来越流行,让 AI 写代码完成产品越来越普遍。但系统、软件的设计,其中包含技术选型、架构设计、项目规范、代码风格还是得由程序员工程师来确定,最后再由 AI 来完成最后的编码工作。而现在一些营销文中宣传 vibe coding 一句话生成应用程序,只能让我摇一摇头。
这本书里面还涉及到一些国家、意识形态等较敏感内容,就不写在这里了。总的来说,这本书是今年读到的一本比较开智的书籍,值得阅读。