
信任的七条准则:为何它是当今最重要的超能力 吉米·威尔士布鲁姆斯伯里出版社 (2025)
吉米·威尔士是一位来自阿拉巴马州亨茨维尔的互联网企业家,现居伦敦,他最著名的成就是创建了维基百科,该网站于2001年1月上线。如今,这个在线百科全书拥有超过700万篇文章,并已成为人们获取信息的标准指南。
位于加利福尼亚州旧金山的非营利组织维基媒体基金会运营着这个项目,拥有约 700 名员工,但维基百科仍然完全依靠无偿志愿者来编写和编辑其文章:每月有数十万人根据一套由社区制定的规则为该网站做出贡献,这些规则旨在处理分歧、减少自我推销并达成共识。
威尔士的新书《信任的七条准则》 于十月出版,讲述了维基百科的起源故事,以及该项目如何凸显了赢得和维护信任的经验教训。威尔士在接受《自然》杂志采访时,谈到了科学透明度的重要性以及人工智能的崛起。
任何人都可以向维基百科贡献内容。这个网站是否缺乏对专业知识的尊重?
维基百科的一切都体现了对专业知识的推崇。我们有严格的引用规范,要求引用高质量的来源:报纸、杂志、学术期刊、同行评审的文献以及信誉良好的出版社出版的书籍。这与允许任何人随意发表观点截然不同。
的确,你不必是专家才能撰写维基百科条目。但是,对于很多主题来说,怀着业余的热情是一个很好的起点。这就像新闻写作:记者必须撰写自己并不熟悉的领域,但他们会咨询并引用专家的意见。这样,记者才能更好地理解内容。
你的七条信任原则是:注重人际关系;精诚合作;目标明确;以信任换取信任;保持礼貌;不偏袒任何一方;保持透明。哪一条与科学家最为相关?
“保持透明”非常重要。这并非是在告诫科学界需要变得更加透明——而是在陈述一个事实:科学界本身就已经非常透明了。当然,在某些方面还有改进的空间,但我认为这句话总体上是正确的。
有一项关于“撤稿惩罚”的研究发现,对科学论文进行更正比试图蒙混过关更有利于作者的引用次数(SF Lu et al . Sci. Rep. 3 , 3146; 2013)。我觉得这项研究非常有趣。结论合情合理,但很高兴看到科学研究证实了这一点。
维基百科以呈现平衡的观点而自豪。这很难吗?
这始终是个难题。我们一直在思考“维基之声”:何时该用维基百科的口吻说话?宣称“这就是事实”风险很高。
我们不仅在资料来源中寻求共识,也在维基百科社群中寻求共识。如果信誉良好的维基百科用户能够本着诚意进行讨论和编辑,并且没有人愿意站出来说“实际上,我认为证据仍然模棱两可”,那么就可以使用维基之声。
保持思想多元化至关重要。如果你问一个说英语的人飞机是谁发明的,他们会说是莱特兄弟——好像这是我们六岁时就都知道的常识。但如果你问一个法国人,他们的答案可能就不同了:一位住在法国的巴西发明家(阿尔贝托·桑托斯-杜蒙)。我们努力考虑问题的各个方面。如果我们对问题的各个方面都不了解,那就难上加难了。
如何增加维基百科作者和编辑的多样性?
我们举办“编辑马拉松”活动。这些活动成功地将更多女性科学家纳入维基百科。但这并非易事。我们必须认真考虑网站的环境:它是否开放?是否友好?
我没有相关统计数据;恐怕人口结构的变化还远远不够。我们经常讨论这个问题。我希望更多来自不同背景的人来编辑维基百科——所以,看到这篇文章的各位,请来帮助我们吧。
你在书中并没有提到“问责制”是信任的支柱之一。
这个理念是存在的。我们的作者可以使用笔名;许多人确实如此。但维基百科的运作依赖于问责文化,而非把关文化。你所做的所有编辑都与你的账户关联,其他人可以看到你的编辑记录和历史。如果你做得不好,人们会指出你的错误。问责制至关重要。
所有编辑都秉持诚信行事吗?
我们确实看到一些恶意人士冒充维基百科管理员(实际上并非如此)来招揽生意,声称可以帮助撰写片面的文章。我认为这对受害者来说比对维基百科本身更麻烦,因为维基百科要求提供来源,如果没有来源,编辑就无法生效。
你认为人工智能机器人能够写作之后,问题是否更多了?
我们需要对此保持警惕,但目前为止这还不是个大问题。维基百科的运作方式并非依靠大量的编辑。如果你开始每分钟编辑十次,你的账号会被立即封禁。这显然是机器人在进行恶意操作。
事实上,我们并不禁止使用人工智能。我们只是说,要非常谨慎地使用它,并且你要对你在维基百科上发布的内容负责。
很多人用非母语写作,所以他们会借助人工智能来辅助语法。我觉得这很棒——太好了,能吸引更多人参与。
你认为生成式人工智能会对信任构成威胁吗?
大型语言模型产生的幻觉问题——即生成包含无意义或捏造信息的回复——仍然非常严重。而且,主题越晦涩,幻觉就越严重。
聊天机器人生成的句子听起来非常可信,所以我认为这确实会造成信任危机。我希望人们对此的反应是重新燃起对新闻业、传统事实核查和人工监督的兴趣。如果人们认为主流新闻机构只是“阴谋的一部分”,那我们就真的完了。
人工智能能为建立信任带来什么帮助?
维基百科非常透明,但在某些方面,它的透明反而显得晦涩难懂。如果你想知道某个条目为什么这样写,可以去它的讨论页,那里有详细的解释。但是,有时候,讨论页上会有上百页的文字。谁有时间读完一百页呢?
所以,人工智能或许能帮助我们以清晰的方式总结辩论内容。它必须准确且公正。但这确实是一个有趣的设想。维基媒体基金会有一个机器学习团队正在研究这个问题以及其他相关想法。
世界政治分裂严重。科技能否帮助人们找到共识?
我们有很多与意见相左的人合作的经验,即使他们在根本问题上存在分歧,也能齐心协力高效工作。我们希望能够设计出不像很多社交媒体那样有害的系统,在那些社交媒体上,人们会因为制造话题而获得奖励。算法喜欢高互动率,因为这意味着更多的广告收入。但情况并非必须如此。
我有一个名为“信任咖啡馆”(Trust Café)的小型试点项目——它是一种社交媒体形式,旨在根据信任度优先推送内容。我们仍然需要考虑用户参与度,因为如果平台枯燥乏味,就不会有人使用。但是,我们能否奖励那些进行深入思考的对话呢?一个大型语言模型或许能有所帮助。我只向那些我认为拥有目标受众的媒体介绍这个项目。
你认为人们选择信任谁或什么的方式,与他们应该如何做出这种选择之间有什么区别吗?
我们看到了这一点,也看到了它带来的不良影响。这显而易见。关于疫苗,你会相信谁?科学家吗?很多人信任他们的医生,这无可厚非——毕竟他们和医生建立了信任关系。我们都知道政客们有自己的观点,我们不必认同他们的观点。通常我会说“相信权威”,但前提是权威本身也值得信赖。
我们都会理所当然地运用启发式方法——这些方法有时有效,有时无效——来做决定,我认为我们必须意识到这一点。你不仅要考虑“是谁说的”,还要考虑我是如何以及为什么会收到这些信息的?如果答案是因为它已经在社交媒体上疯传,因为它引起了广泛关注,人们正在争论不休,那么这并不是一个好的建议。
如果今天让你从零开始重建维基百科,你会怎么做?
可能不会。我是个病态的乐观主义者,所以总觉得一切都很好。这个模型从根本上来说仍然合理。
世界纷扰,我们正处于全球政治和民主一个不同寻常且危险的转折点。我们目睹世界各地威权主义的抬头和长期民主规范的瓦解。我们很容易感到绝望。但我们终究是人。我们才华横溢,但也一团糟。我们必须思考信任,如何值得信赖,以及如何建立互信关系。这正是本书的主旨所在。

信任的七条准则:为何它是当今最重要的超能力 吉米·威尔士布鲁姆斯伯里出版社 (2025)
吉米·威尔士是一位来自阿拉巴马州亨茨维尔的互联网企业家,现居伦敦,他最著名的成就是创建了维基百科,该网站于2001年1月上线。如今,这个在线百科全书拥有超过700万篇文章,并已成为人们获取信息的标准指南。
位于加利福尼亚州旧金山的非营利组织维基媒体基金会运营着这个项目,拥有约 700 名员工,但维基百科仍然完全依靠无偿志愿者来编写和编辑其文章:每月有数十万人根据一套由社区制定的规则为该网站做出贡献,这些规则旨在处理分歧、减少自我推销并达成共识。
威尔士的新书《信任的七条准则》 于十月出版,讲述了维基百科的起源故事,以及该项目如何凸显了赢得和维护信任的经验教训。威尔士在接受《自然》杂志采访时,谈到了科学透明度的重要性以及人工智能的崛起。
任何人都可以向维基百科贡献内容。这个网站是否缺乏对专业知识的尊重?
维基百科的一切都体现了对专业知识的推崇。我们有严格的引用规范,要求引用高质量的来源:报纸、杂志、学术期刊、同行评审的文献以及信誉良好的出版社出版的书籍。这与允许任何人随意发表观点截然不同。
的确,你不必是专家才能撰写维基百科条目。但是,对于很多主题来说,怀着业余的热情是一个很好的起点。这就像新闻写作:记者必须撰写自己并不熟悉的领域,但他们会咨询并引用专家的意见。这样,记者才能更好地理解内容。
你的七条信任原则是:注重人际关系;精诚合作;目标明确;以信任换取信任;保持礼貌;不偏袒任何一方;保持透明。哪一条与科学家最为相关?
“保持透明”非常重要。这并非是在告诫科学界需要变得更加透明——而是在陈述一个事实:科学界本身就已经非常透明了。当然,在某些方面还有改进的空间,但我认为这句话总体上是正确的。
有一项关于“撤稿惩罚”的研究发现,对科学论文进行更正比试图蒙混过关更有利于作者的引用次数(SF Lu et al . Sci. Rep. 3 , 3146; 2013)。我觉得这项研究非常有趣。结论合情合理,但很高兴看到科学研究证实了这一点。
维基百科以呈现平衡的观点而自豪。这很难吗?
这始终是个难题。我们一直在思考“维基之声”:何时该用维基百科的口吻说话?宣称“这就是事实”风险很高。
我们不仅在资料来源中寻求共识,也在维基百科社群中寻求共识。如果信誉良好的维基百科用户能够本着诚意进行讨论和编辑,并且没有人愿意站出来说“实际上,我认为证据仍然模棱两可”,那么就可以使用维基之声。
保持思想多元化至关重要。如果你问一个说英语的人飞机是谁发明的,他们会说是莱特兄弟——好像这是我们六岁时就都知道的常识。但如果你问一个法国人,他们的答案可能就不同了:一位住在法国的巴西发明家(阿尔贝托·桑托斯-杜蒙)。我们努力考虑问题的各个方面。如果我们对问题的各个方面都不了解,那就难上加难了。
如何增加维基百科作者和编辑的多样性?
我们举办“编辑马拉松”活动。这些活动成功地将更多女性科学家纳入维基百科。但这并非易事。我们必须认真考虑网站的环境:它是否开放?是否友好?
我没有相关统计数据;恐怕人口结构的变化还远远不够。我们经常讨论这个问题。我希望更多来自不同背景的人来编辑维基百科——所以,看到这篇文章的各位,请来帮助我们吧。
你在书中并没有提到“问责制”是信任的支柱之一。
这个理念是存在的。我们的作者可以使用笔名;许多人确实如此。但维基百科的运作依赖于问责文化,而非把关文化。你所做的所有编辑都与你的账户关联,其他人可以看到你的编辑记录和历史。如果你做得不好,人们会指出你的错误。问责制至关重要。
所有编辑都秉持诚信行事吗?
我们确实看到一些恶意人士冒充维基百科管理员(实际上并非如此)来招揽生意,声称可以帮助撰写片面的文章。我认为这对受害者来说比对维基百科本身更麻烦,因为维基百科要求提供来源,如果没有来源,编辑就无法生效。
你认为人工智能机器人能够写作之后,问题是否更多了?
我们需要对此保持警惕,但目前为止这还不是个大问题。维基百科的运作方式并非依靠大量的编辑。如果你开始每分钟编辑十次,你的账号会被立即封禁。这显然是机器人在进行恶意操作。
事实上,我们并不禁止使用人工智能。我们只是说,要非常谨慎地使用它,并且你要对你在维基百科上发布的内容负责。
很多人用非母语写作,所以他们会借助人工智能来辅助语法。我觉得这很棒——太好了,能吸引更多人参与。
你认为生成式人工智能会对信任构成威胁吗?
大型语言模型产生的幻觉问题——即生成包含无意义或捏造信息的回复——仍然非常严重。而且,主题越晦涩,幻觉就越严重。
聊天机器人生成的句子听起来非常可信,所以我认为这确实会造成信任危机。我希望人们对此的反应是重新燃起对新闻业、传统事实核查和人工监督的兴趣。如果人们认为主流新闻机构只是“阴谋的一部分”,那我们就真的完了。
人工智能能为建立信任带来什么帮助?
维基百科非常透明,但在某些方面,它的透明反而显得晦涩难懂。如果你想知道某个条目为什么这样写,可以去它的讨论页,那里有详细的解释。但是,有时候,讨论页上会有上百页的文字。谁有时间读完一百页呢?
所以,人工智能或许能帮助我们以清晰的方式总结辩论内容。它必须准确且公正。但这确实是一个有趣的设想。维基媒体基金会有一个机器学习团队正在研究这个问题以及其他相关想法。
世界政治分裂严重。科技能否帮助人们找到共识?
我们有很多与意见相左的人合作的经验,即使他们在根本问题上存在分歧,也能齐心协力高效工作。我们希望能够设计出不像很多社交媒体那样有害的系统,在那些社交媒体上,人们会因为制造话题而获得奖励。算法喜欢高互动率,因为这意味着更多的广告收入。但情况并非必须如此。
我有一个名为“信任咖啡馆”(Trust Café)的小型试点项目——它是一种社交媒体形式,旨在根据信任度优先推送内容。我们仍然需要考虑用户参与度,因为如果平台枯燥乏味,就不会有人使用。但是,我们能否奖励那些进行深入思考的对话呢?一个大型语言模型或许能有所帮助。我只向那些我认为拥有目标受众的媒体介绍这个项目。
你认为人们选择信任谁或什么的方式,与他们应该如何做出这种选择之间有什么区别吗?
我们看到了这一点,也看到了它带来的不良影响。这显而易见。关于疫苗,你会相信谁?科学家吗?很多人信任他们的医生,这无可厚非——毕竟他们和医生建立了信任关系。我们都知道政客们有自己的观点,我们不必认同他们的观点。通常我会说“相信权威”,但前提是权威本身也值得信赖。
我们都会理所当然地运用启发式方法——这些方法有时有效,有时无效——来做决定,我认为我们必须意识到这一点。你不仅要考虑“是谁说的”,还要考虑我是如何以及为什么会收到这些信息的?如果答案是因为它已经在社交媒体上疯传,因为它引起了广泛关注,人们正在争论不休,那么这并不是一个好的建议。
如果今天让你从零开始重建维基百科,你会怎么做?
可能不会。我是个病态的乐观主义者,所以总觉得一切都很好。这个模型从根本上来说仍然合理。
世界纷扰,我们正处于全球政治和民主一个不同寻常且危险的转折点。我们目睹世界各地威权主义的抬头和长期民主规范的瓦解。我们很容易感到绝望。但我们终究是人。我们才华横溢,但也一团糟。我们必须思考信任,如何值得信赖,以及如何建立互信关系。这正是本书的主旨所在。