
里德·霍夫曼(Reed Hoffman)和格雷格·比特(Greg Beatto)撰写的“ AI授权”是由卢·贾恩(Lu Jian)翻译的,该翻译由Zhijiang教育出版社出版,于2025年5月出版,以109.9 Yuanes的价格翻译。一个例子是新作品“授权”,该作品由LinkedIn前CO -FOUNDER和REED HOFFMAN的主管领导。这本书非常容易阅读,并且在亚马逊上获得了4.7的领先。这可能与作者的作者,风险资本家,播客演示者和作家的作者组合有关。一些读者评论说,这本书提供了路线图,以使用AI的整体和适应性方式改善我们的生活。这本书在2025年2月在《纽约时报》上排名第九,在非小说中排名。霍夫曼(Hoffman)是繁荣理论家与农业的繁荣理论家的作者,他是商业和技术界的舆论领导者,对政治有很大的影响。他的业务和财务播客MAS自2017年推出以来,Ter of Scable已采访了许多商业和政治领导人。2023年,一个播客与Coanfrerion一起与他的Ariya的主要手指打开了“ May”。霍夫曼(Hoffman)关于AI的第二本书。霍夫曼(Hoffman)在2023年3月出版了一本书“即兴:通过人工智能扩大人类”,当时Chatgpt变得流行,声称他在撰写本书时使用了主要语言Model GPT-4。下个月,这本书在《华尔街日报》的畅销书列表中。最近发表的“ AI的授权”反映了霍夫曼对AI发展及其社会影响的长期关注,包括“前言”,“ Postcript”和10章的主要文本。从阅读策略的角度来看,读者可以首先看到“序言”的末尾和“ Postglino”的开始。这将使您对整本书的上下文有一个大致的理解。 “序言”秋天的最后一部分反映了作者的写这本书时的目的和野心。他想讨论技术最终如何带来人类的繁荣。原始文本建立了:“一开始似乎是显而易见的缺陷并经常被人性化的技术最终引起了人们的极大兴趣。” “ Postscript”的开头总结了本书中详细介绍的四个中心原则。这与本书的结论相对应。也许受到此影响,中文版本“获得”了第1至10章的“获得”的“第1至10章”的标题,这是人工智能时代的十个生存和发展原则的原则,对中国行业官员和普通读者更具吸引力。回顾第一章,我们可以找到一个历史起点,自然的问题,未来趋势和整个书的基本位置。发现第1章的四个内容涉及这些方面并不难。 “起点”正在接近,并且增加在大型模型中会引起重要的变化。大多数人对AI的担忧确实是对人类倡议的关注。复合智能可以通过全速移动来再次实现指数飞跃。它是与人一起服务并与人合作的人,而不是那些超越他人的人。关于辛恩(Sinn)的主题,在展示AI之前,霍夫曼(Hoffman)有资格成为繁荣理论家,他将自己的立场与世界末日,悲观和乐观的共同点区分开来。在他看来,繁荣与乐观的人相似,但是与Z世代所代表的乐观人不同,他认为繁荣主义者可以在多个领域加速人类的进步,而Q Qthat繁荣强调,他们不能并且应该单方面地发展和展示,并且可以通过实践使用不断地使用变革性和多样化的技术。技术。他们没有完全反对政府法规,但他们也认为快速有效的发展在于开放和多样化的实践。与将AI视为剥削行业的悲观主义者相比,繁荣决定将AI与农业进行比较。始终通过种植,观察和适应来学习,并通过反馈不断改进。这个过程不是零风险,最终可以通过积累经验和技术优化而产生富有成果的结果。关于理想化和“伟大知识”的“合成智能”具有两个值得关注“合成智能”和“伟大知识者”的概念,即“伟大的知识”。让我们先谈谈合成智能。作者认为,综合能量和工业化已有几个世纪以来一直是人类的力量,为人们迈向更丰富,更多样化,更多样化和人性化生活的道路。今天的本质是一种合成智力,其历史重要性与合成器相似促进工业化的Etic能量。任何情况下,人工智能都在加强您的倡议,因为它可以帮助您采取行动瞄准空气实现所需的结果。无论如何,正在发生新的变化。随着18世纪蒸汽力量的兴起,合成智力(不仅仅是知识)首次变得灵活。 “正如工业革命创造了新的机会……最终,合成智能可以扩大人类的可能性,例如能量并刺激人类的举措。在这两次任命中,作者演讲的基本逻辑似乎是“无论该过程,最终结果是好的,最终结果是好的。但是,这些破坏性的技术。但是,在第6章中,他的论点是自1990年代以来,对网络历史和数字技术创新的评论。从这个意义上讲,对于人工智能治理,人工智能的伦理和其他协议领域的研究人员来说,这可能很困难。该书还提出,高科技(例如互联网和技术)在过去30年中已成为美国最具活力的行业的原因在某种程度上是因为它是由有意的机构设计或“欺诈性创新”创建的。鼓励创新的政治环境。亲自体验公司发展的中国人的互联网创新必须具有类似的经验。使AI政府的研究人员和人工智能的伦理甚至更加不舒服的原因是,作者在科学和技术道德和治理中表现出了更多的“传统武器”预防原则的不足,并指出“重复性发展”可以成为更好的方法。美国未来的生活协会和其他组织正在要求AI模型的完整高位,直到无法确定不良影响的可能性为止。在回应此呼吁时,作者说:“这种方法不仅是对经验无根据的法律的公关代理应用,而且是经验和预测性的判断。”董事会直接受到预防原则的袭击。 1970年代的预防原则的产生是由于缺乏数据。让我们谈谈“伟大知识”的概念。回顾1960年代的想法,终于被提交了,因为它被认为是“大哥”的原型。通过转换T的交换和使用整体知识资源的使用回音治理和认知方法。我们如何实现这一转变?除了引入人们经常称之为人工智能系统的可信赖机制外,作者还指出,当时对联邦数据中心的抵抗力破坏了先前在科学研究和政策开发中使用的公共数据资源的潜在好处。当今的人类信息的生产远远超出了其独特的有效处理能力,甚至可以说我们不知道我们知道的知识。因此,作者强调,他们采用的越多,就该认识到其产生的数据和信息越有效,从而加强了他们在几乎所有领域的举措的效率越多。一旦您认识到这一趋势,您就可以认知地意识到格式塔从“大哥”转换为“伟大的知识”。将“大数据”转换为“大知识”,您可以从人们那里购买。太理想了吗?是IA Empowerra,由于日益普及和互联网参与,未经授权的创新的监管作用变得越来越强大。在21世纪,尚未逃脱提倡自由和反复进行公共实验的尝试。通常会使产品更安全,更可靠。它可以影响自由的概念并释放我们的能力。我们制定了新的政策,以解决AI对责任和知识产权分配的影响,如果所有有关方面都信任AI,他们可以采取责任。这就像一个“安全气囊”,并提供了“道德缓冲”目标。随着其主动性与AI之间的差距的增长,未来是否会成为一般智能生态系统的“干燥”?它适用,但是B点也有意义。结合本书中的一些持不同政见的表情,作者在与AI的多轮对话中写作方面有经验,但是这些辩论风格辩论策略受到最大或鼓舞人心模型的语言风格的影响。似乎结论是受到影响并不是在开玩笑。如果可能的话,这种表达背后的基本表达可能是一个谜,即最大的模型比人类更具说服力。而且这种看似理性的表示,但是隐藏的东西可能是包括人类和AI在内的普通代理人高度智能互动能力的基本特征。 (作者是中国社会科学学院促进人工智能研究中心的研究人员)。