全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
AMD发布全新AI芯片:用更少的GPU训练更多模型
go
lg
...
越来越大,就需要多个GPU来运行最新的
大型
语言
模型
,而随着AMD芯片内存的增加,开发人员将不再需要那么多数量的GPU。此外,苏姿丰还表示,数据中心人工智能加速器的潜在市场总额将从今年的300亿美元增长到2027年的1500亿美元以上。
lg
...
金融界
2023-06-14
吵起来了?美国政府考虑加强人工智能监管,谷歌与微软意见不一
go
lg
...
他“不反对”设立一个新的监管机构来监督
大型
语言
模型
的许可,但他表示,政府应该“更全面地”看待这项技术。他说,国家标准与技术研究院已经做好了带头的准备。 谷歌和微软在监管问题上看似截然相反的观点表明人工智能领域的争论日益激烈,争论的范围远远超出了应该对这项技术进行多少监管,而是涉及到组织物流应该如何运作。 “有一个问题是,是否应该成立一个专门负责人工智能的新机构?”乔治城大学安全与新兴技术中心主任Helen Toner表示:“是应该与在特定领域工作的现有监管机构一起处理这个问题,还是应该对所有类型的人工智能进行集中管理?”
lg
...
Sue
2023-06-14
从提高生产力到噩梦场景:加密货币和人工智能可能重叠的10个领域
go
lg
...
难?) Qureshi 说,人工智能的
大型
语言
模型
使其“更容易攻击智能合约”。 与此同时,他补充说,也许人工智能也可以让智能合约“更容易防御”。 他还不知道会向哪个方向倾斜——没有人知道。 唯一可以肯定的是,AI 将被坏人武器化,被防御者用作盾牌;究竟谁赢了是一个悬而未决的问题。 然后是骗子。 “涉及人工智能的加密诈骗要复杂得多,”技术研究员和加密怀疑论者Pete Howson说。“例如,名人代言的‘深度造假’视频正在鼓励傻瓜投资下一个垃圾币。” 这不仅仅是猜测,它已经发生了。 Howson 继续说道:“2022 年 11 月,一个经过验证的 Twitter 账户冒充 Sam Bankman-Fried 发布了一段深度伪造视频,向 FTX 用户提供‘损失赔偿’,这是一个旨在耗尽他们加密钱包存款的网络钓鱼骗局。 欺诈者正在使用人工智能平台创建虚假交易网站。” 7.人工智能可以刺激元宇宙的发展 恕我直言 Apple 的 Vision Pro,元宇宙的基础设施仍然是一个有问题的半成品。 该空间需要更好的用户界面、更好的图像、更好的内容、更好的社区。 人工智能可以帮助解决所有这些问题,人工智能将大幅缩短构建沉浸式世界所需的时间,它甚至可以让这些世界充满类似人类的角色。 Nvidia 最近在游戏开发者社区中融入了面孔,例如,通过展示 AI 如何为与 NPC(非玩家角色)的实时对话提供动力,从而释放了构建世界的各种潜力。 “AI 可以帮助这些游戏变得更吸引人、更快,”Yilmaz 说。 8.人工智能可能会加剧加密货币对环境的担忧 好吧,也许这不是为了让任何事情“变得更好”,但我们应该承认环境影响的担忧和风险。 “就像加密货币一样,生成式人工智能平台也会消耗大量的能量”Howson 说。 “ChatGPT 的训练每小时消耗 1,287 兆瓦的电力,产生 550 吨二氧化碳。 这相当于一个人在纽约和旧金山之间往返 550 次。” 9. 人工智能代理可以使用加密货币 这是我最喜欢的。 Qureshi 设想,在未来,随着像 ChatGPT 这样的机器人变得更加先进,它们基本上将可以充当您的个人助理或代理。 他们可以为您预订航班、为您下即时购物车订单,或者在恰到好处的时候召唤您的 Uber。 (三年前,我采访了一位 Web3 企业家 Dele Atanda,他正是描述了这种情况。) 当然,其中一些可能适合当前的财务框架,但是当我的 AI 代理开始与您的 AI 代理进行交易呢? 或者,如果 AI 代理花钱的方式变得太复杂以至于法律或银行无法跟上怎么办? “他们需要钱,”Qureshi说,“摩根大通要为人工智能开设银行账户的想法是无稽之谈。” Qureshi 怀疑“法律不会及时跟上”,但加密货币已经是一种可以立即实施的功能性解决方案。 Whittemore也说过类似的话。他给出了一个假设:想象一下,你想开一家乐队标志钥匙扣的在线商店,而 AutoGPT(或你的 AI“代理”)设计了一组任务,其中一个可能是弄清楚它是如何变成 3D 的 打印钥匙扣。 “它可以将比特币发送到在后台自主运行的 3D 打印 AI 代理吗?” 如果 3D 打印代理遍布全球——这种情况经常发生——那么比特币将是比美元更优雅的解决方案。 因此,最终,经过多年寻求“采用”之后,第一个在大众市场使用加密货币进行交易的可能不是人类,而是机器。 10. 人工智能可以利用加密来实现噩梦场景 我们将讨论另一种不太乐观的可能性。 (“不太乐观”是轻描淡写。) 如果你一直对 AI 充满好奇,那么现在你可能已经听说过一个令人振奋的统计数据,即在一项针对 AI 研究人员的调查中,超过一半的人认为 AI 至少有 10% 的机会消灭人类。 (旁注:这个统计数据有点夸张,而且有些被误报,因为调查回复率仅为 4%,并不是真正具有代表性的科学家样本。但无论是 1% 的机会还是 10% 的机会,“噩梦场景” ”在很大程度上仍然是一个场景。) 加密货币可以在这场噩梦中发挥作用。 “随着对数字资产的更大依赖,人工智能代理可以轻松地改变金融机构,影响管理机构,或者在任何人都不知道的情况下推翻政府,”未来学家 Raczynski 说,他还认为人工智能可以在元宇宙中造成严重破坏。 Raczynski 担心人工智能的进步将使其很快超越人类的能力,“而区块链是一个推动因素。” 最后的想法 让我们总结一些不太像世界末日的事情。 尽管 AI 现在得到了风投的青睐,但与我交谈过的专家并不担心资金对 Web3 的影响。 “担心是一件愚蠢的事情,”Qureshi 说,他承认大量资金正以“天价”涌入 AI,但预计这不会对 Web3 生态系统造成实质性损害。 “美国有很多资本,”Qureshi 补充说,没有人可以直截了当地说,“我们没有足够的钱”。 最终,从更有希望的角度来看,Ahmed 认为人工智能和加密货币不存在竞争,而只是“工具箱中的工具”。 他们是免费的。 “他们之间并没有互相争斗,”Ahmed说。 “最终他们将被连接起来,就像电力被用来为互联网提供动力一样。” 来源:金色财经
lg
...
金色财经
2023-06-13
云服务巨头甲骨文公布第四季度财报 收入及预测均超华尔街预期 盘后股价一度飙升5%
go
lg
...
过20亿美元的甲骨文第二代云容量,用于
大型
语言
模型
(LLM)开发," 甲骨文董事长兼技术主管Larry Ellison表示该公司将推出一项与初创公司Cohere合作的生成式人工智能云服务,并使用Oracle的云基础设施。微软与初创公司OpenAI合作,提供Azure OpenAI服务,允许组织部署
大型
语言
模型
以接收人类输入并生成类似人类的回复。 Larry Ellison表示:“这项新服务保护我们企业客户的训练数据的隐私,使这些客户能够安全地使用自己的私有数据来训练自己的专业
大型
语言
模型
。”他表示,甲骨文已经开始在内部使用这个工具。 在本季度,甲骨文表示其更多的云服务已获得美国国防和情报机构的批准供其使用。 除了盘后交易的波动外,甲骨文股票今年迄今已上涨近43%,而标普500指数上涨约13%。 该股票在常规交易中上涨6%,为一年来表现最佳的一天,此前Wolfe Research分析师根据改善的财务状况以及公司在人工智能领域的地位,将该股票的评级从“持有”提升为“买入”。
lg
...
埃尔文
2023-06-13
没有AI的Web3没有灵魂 ZKML如何重塑AI与区块链的关系
go
lg
...
艰巨的。这些挑战涵盖了多个方面,从保护
大型
语言
模型
(LLMs)输入的版权,到避免其输出中出现错误的偏见,再到我们目前无法准确区分真实内容和由人工智能创造的虚假信息所带来的“说谎者红利”。要确保人类不受人工智能的负面影响,没有简单的解决方法可言。任何解决方案都不能依赖于过时的20 世纪监管和技术框架来解决这些问题。我们迫切需要一个去中心化的治理系统,以应对在这个新时代如何生产、验证和分享信息的挑战。 无论目前的Web3是否能提供所需的解决方案,区块链技术确实在解决这些问题方面发挥了一定的作用。不可篡改的账本使我们能够追踪图像和其他内容的来源,从而防止深度伪造。这种技术也可以用于验证机器学习人工智能产品数据集的完整性。加密货币提供了一种无边界的数字支付方式,可用于向全球为人工智能培训做出贡献的人们提供报酬,如Bittensor等项目正在努力建立代币化的区块链-政府社区,以激励人工智能开发者构建对人类友好的模型。与此相反,私营公司拥有的人工智能系统通常将股东利益置于用户权益之上。 在这些想法能够实现并规模化之前,我们还有很长的路要走。我们将需要整合一系列其他技术,例如零知识证明(ZK)、同态加密、安全计算、数字身份和去中心化凭证(DID)、物联网等。此外,我们还需要解决隐私保护、惩罚不良行为、鼓励以人为本的创新智能以及多方立法监管等诸多挑战。 二、ZKML如何架起AI和区块链的桥梁 近期,源自零知识证明和机器学习的新兴结合体ZKML被广泛讨论。目前,机器学习(ML)的部署变得越来越复杂。很多企业主要依赖于亚马逊、谷歌、微软等服务提供商来部署复杂的机器学习模型。然而,这些服务变得越来越难以审计和理解。作为AI服务的消费者,我们如何相信这些模型所提供预测的有效性呢? ZKML作为人工智能和区块链之间的桥梁,解决了AI模型和输入的隐私保护问题,同时确保了推理过程的可验证性。它提供了一种解决方案,使得可以在验证私有数据时使用公共模型,或在验证私有模型时使用公共数据。通过添加机器学习功能,智能合约能够变得更加自主和动态,使其能够根据实时链上数据而不是静态规则进行处理。这样一来,智能合约将更具灵活性,能够适应更多场景,甚至是那些在最初创建合约时可能没有预料到的场景。 当前,机器学习算法在区块链上广泛采用的困难之一是其高昂的计算成本。由于百万级别的浮点运算无法直接在以太坊虚拟机(EVM)上执行,因此在链上运行这些模型成为一个挑战。另外,机器学习模型的信任问题也是一个障碍,因为模型的参数和输入数据集通常是私有的,而模型的算法和运行过程又如同一个不透明的“黑匣子”,这可能引发模型拥有者和模型使用者之间的信任问题。然而,通过ZKML技术,我们可以克服这些问题。ZKML允许任何人在链下运行一个模型,并生成一个简洁且可验证的证明,证明该模型确实产生了特定的结果。这个证明可以在链上发布,并由智能合约进行验证。这意味着模型使用者可以验证模型的结果,而无需了解模型的具体参数和运行细节,从而解决了信任问题。 通过上述图表,我们可以看到ZKML技术兼具计算完整性、启发式优化和隐私保护等特点。这种技术在Web3领域有着广泛的应用前景,并且正在快速发展。越来越多的团队和个人加入了这个领域,推动着各种潜力巨大的ZKML项目的开发。 三、ZKML项目分析 以下是一些潜力ZKML项目。 1 、Worldcoin Worldcoin正在应用ZKML,试图建立一个保护隐私的人格证明协议。World ID 用户将能够在他们的移动设备的加密存储中自我保管其生物特征(如虹膜),下载用于生成 IrisCode 的 ML 模型并在本地创建零知识证明,接收的智能合约可以证明其 IrisCode 已成功创建。 然后,可用于执行有用的操作,如成员资格认证和投票。他们目前使用具有安全enclave的可信运行环境来验证摄像头签名的虹膜扫描,但他们最终的目标是使用ZKP来证明神经网络对加密级别安全保障的正确推理,并且保证ML模型的输出不会泄露用户的个人数据。 2 、Modulus Labs Modulus Labs是ZKML领域中最多样化的项目之一,致力于相关研究的同时也在积极构建链上AI应用范例,Modulus Labs通过RockyBot(链上交易机器人)和Leela vs. the World(一种国际象棋游戏,所有人与经验证的Leela国际象棋引擎实例对决)展示了zkML的用例。该团队还涉足研究领域,撰写了The Cost of Intelligence(智能的成本)一文,对不同大小模型的各种验证系统的速度和效率进行了基准测试。 3 、Giza Giza是一种可以以一种完全无需信任的方法在链上部署AI模型的协议。它使用的技术栈包括用于机器学习模型的ONNX格式,用于将这些模型转换为Cairo程序格式的Giza Transpiler,用于以可验证和确定性的方式执行模型的ONNX Cairo Runtime,以及用于部署和执行链上模型的Giza Model智能合约。Giza总体上属于机器学习模型到证明的链上编译器,为链上AI的发展提供一个替代路径。 4 、Zkaptcha Zkaptcha 专注于 Web3 中的机器人问题,为智能合约提供captcha(验证码)服务,保护智能合约免受机器人攻击,使用零知识证明来创建抗女巫攻击的智能合约。目前,该项目使终端用户通过完成captcha验证码来产生一个人类工作的证明,captcha由链上验证者验证,并通过几行代码由智能合约访问。未来,Zkaptcha 将继承 zkML,推出类似于现有的 Web 2 验证码服务,甚至可以分析鼠标运动等行为,以确定用户是否为真人。 目前看来,zkML赛道还处于初级阶段,但我们有理由相信会 zkML 的力量可以给 crypto 带来更好的前景和发展,也期待该领域能出现更多样的产品,zk 技术和 crypto 为 ML 的运行提供安全可信的环境,而未来除了产品的创新之外,还可能会催生 crypto 商业模式的创新,因为在这个狂野和无政府的 Web 3 世界中,去中心化、crypto 技术和信任才是最最基础的设施。 结语 在日益复杂和不确定的数字世界中建立信任,一直是人工智能和Web3所面临的核心挑战。然而,将人工智能与Web3相融合却为建立一个信任、安全的去中心化未来带来了巨大希望。对于开发者、技术专家、政策制定者和整个社会而言,共同塑造人工智能和Web3的未来至关重要,我们或许可以创造出一个超乎想象的智能互联网时代。 Reference https://worldcoin.org/blog/engineering/intro-to-zkml#motivation-and-current-efforts-in-zkml https://github.com/worldcoin/awesome-zkml https://www.coindesk.com/consensus-magazine/2023/05/19/why-web3-and-the-ai-internet-belong-together/ 版权声明:如需转载欢迎加小助理微信沟通,未经允许转载、洗稿、我方将保留追究法律责任的权利。 免责声明:市场有风险,投资需谨慎。请读者在考虑本文中的任何意见、观点或结论时严格遵守所在地法律法规,以上内容不构成任何投资建议。 来源:金色财经
lg
...
金色财经
2023-06-11
没有AI的Web3没有灵魂 ZKML如何重塑AI与区块链的关系
go
lg
...
艰巨的。这些挑战涵盖了多个方面,从保护
大型
语言
模型
(LLMs)输入的版权,到避免其输出中出现错误的偏见,再到我们目前无法准确区分真实内容和由人工智能创造的虚假信息所带来的“说谎者红利”。要确保人类不受人工智能的负面影响,没有简单的解决方法可言。任何解决方案都不能依赖于过时的20世纪监管和技术框架来解决这些问题。我们迫切需要一个去中心化的治理系统,以应对在这个新时代如何生产、验证和分享信息的挑战。 无论目前的Web3是否能提供所需的解决方案,区块链技术确实在解决这些问题方面发挥了一定的作用。不可篡改的账本使我们能够追踪图像和其他内容的来源,从而防止深度伪造。这种技术也可以用于验证机器学习人工智能产品数据集的完整性。加密货币提供了一种无边界的数字支付方式,可用于向全球为人工智能培训做出贡献的人们提供报酬,如Bittensor等项目正在努力建立代币化的区块链-政府社区,以激励人工智能开发者构建对人类友好的模型。与此相反,私营公司拥有的人工智能系统通常将股东利益置于用户权益之上。 在这些想法能够实现并规模化之前,我们还有很长的路要走。我们将需要整合一系列其他技术,例如零知识证明(ZK)、同态加密、安全计算、数字身份和去中心化凭证(DID)、物联网等。此外,我们还需要解决隐私保护、惩罚不良行为、鼓励以人为本的创新智能以及多方立法监管等诸多挑战。 二、ZKML如何架起AI和区块链的桥梁 近期,源自零知识证明和机器学习的新兴结合体ZKML被广泛讨论。目前,机器学习(ML)的部署变得越来越复杂。很多企业主要依赖于亚马逊、谷歌、微软等服务提供商来部署复杂的机器学习模型。然而,这些服务变得越来越难以审计和理解。作为AI服务的消费者,我们如何相信这些模型所提供预测的有效性呢? ZKML作为人工智能和区块链之间的桥梁,解决了AI模型和输入的隐私保护问题,同时确保了推理过程的可验证性。它提供了一种解决方案,使得可以在验证私有数据时使用公共模型,或在验证私有模型时使用公共数据。通过添加机器学习功能,智能合约能够变得更加自主和动态,使其能够根据实时链上数据而不是静态规则进行处理。这样一来,智能合约将更具灵活性,能够适应更多场景,甚至是那些在最初创建合约时可能没有预料到的场景。 当前,机器学习算法在区块链上广泛采用的困难之一是其高昂的计算成本。由于百万级别的浮点运算无法直接在以太坊虚拟机(EVM)上执行,因此在链上运行这些模型成为一个挑战。另外,机器学习模型的信任问题也是一个障碍,因为模型的参数和输入数据集通常是私有的,而模型的算法和运行过程又如同一个不透明的“黑匣子”,这可能引发模型拥有者和模型使用者之间的信任问题。 然而,通过ZKML技术,我们可以克服这些问题。ZKML允许任何人在链下运行一个模型,并生成一个简洁且可验证的证明,证明该模型确实产生了特定的结果。这个证明可以在链上发布,并由智能合约进行验证。这意味着模型使用者可以验证模型的结果,而无需了解模型的具体参数和运行细节,从而解决了信任问题。 通过上述图表,我们可以看到ZKML技术兼具计算完整性、启发式优化和隐私保护等特点。这种技术在Web3领域有着广泛的应用前景,并且正在快速发展。越来越多的团队和个人加入了这个领域,推动着各种潜力巨大的ZKML项目的开发。 三、ZKML项目分析 以下是一些潜力ZKML项目。 1、Worldcoin Worldcoin正在应用ZKML,试图建立一个保护隐私的人格证明协议。World ID 用户将能够在他们的移动设备的加密存储中自我保管其生物特征(如虹膜),下载用于生成 IrisCode 的 ML 模型并在本地创建零知识证明,接收的智能合约可以证明其 IrisCode 已成功创建。 然后,可用于执行有用的操作,如成员资格认证和投票。他们目前使用具有安全enclave的可信运行环境来验证摄像头签名的虹膜扫描,但他们最终的目标是使用ZKP来证明神经网络对加密级别安全保障的正确推理,并且保证ML模型的输出不会泄露用户的个人数据。 2、Modulus Labs Modulus Labs是ZKML领域中最多样化的项目之一,致力于相关研究的同时也在积极构建链上AI应用范例,Modulus Labs通过RockyBot(链上交易机器人)和Leela vs. the World(一种国际象棋游戏,所有人与经验证的Leela国际象棋引擎实例对决)展示了zkML的用例。该团队还涉足研究领域,撰写了The Cost of Intelligence(智能的成本)一文,对不同大小模型的各种验证系统的速度和效率进行了基准测试。 3、Giza Giza是一种可以以一种完全无需信任的方法在链上部署AI模型的协议。它使用的技术栈包括用于机器学习模型的ONNX格式,用于将这些模型转换为Cairo程序格式的Giza Transpiler,用于以可验证和确定性的方式执行模型的ONNX Cairo Runtime,以及用于部署和执行链上模型的Giza Model智能合约。Giza总体上属于机器学习模型到证明的链上编译器,为链上AI的发展提供一个替代路径。 4、Zkaptcha Zkaptcha 专注于 Web3 中的机器人问题,为智能合约提供captcha(验证码)服务,保护智能合约免受机器人攻击,使用零知识证明来创建抗女巫攻击的智能合约。目前,该项目使终端用户通过完成captcha验证码来产生一个人类工作的证明,captcha由链上验证者验证,并通过几行代码由智能合约访问。未来,Zkaptcha 将继承 zkML,推出类似于现有的 Web 2 验证码服务,甚至可以分析鼠标运动等行为,以确定用户是否为真人。 目前看来,zkML赛道还处于初级阶段,但我们有理由相信会 zkML 的力量可以给 crypto 带来更好的前景和发展,也期待该领域能出现更多样的产品,zk 技术和 crypto 为 ML 的运行提供安全可信的环境,而未来除了产品的创新之外,还可能会催生 crypto 商业模式的创新,因为在这个狂野和无政府的 Web 3 世界中,去中心化、crypto 技术和信任才是最最基础的设施。 结语 在日益复杂和不确定的数字世界中建立信任,一直是人工智能和Web3所面临的核心挑战。然而,将人工智能与Web3相融合却为建立一个信任、安全的去中心化未来带来了巨大希望。对于开发者、技术专家、政策制定者和整个社会而言,共同塑造人工智能和Web3的未来至关重要,我们或许可以创造出一个超乎想象的智能互联网时代。 Reference https://worldcoin.org/blog/engineering/intro-to-zkml#motivation-and-current-efforts-in-zkml https://github.com/worldcoin/awesome-zkml https://www.coindesk.com/consensus-magazine/2023/05/19/why-web3-and-the-ai-internet-belong-together/ 来源:金色财经
lg
...
金色财经
2023-06-10
Outlier Ventures Base Camp加速器最新一期6个项目速览
go
lg
...
terr Assisterr是一个使用
大型
语言
模型
和GPT模型的AI助手,通过社交、新闻、链上和金融数据源生成用户定制的研究报告和市场洞察,专注于为经验丰富的交易者生成加密市场分析和定制的投资组合市场表现报告。他们的技术利用
大型
语言
模型
和GPT模型,从社交、新闻、链上和金融数据源获取信息,生成用户定制的研究报告和市场洞察。他们提供免费和付费的服务模式,为标准、高级和专业交易者提供不同层次的软件即服务。 Bubble Bubble是一个连接Web3社区与各种Web3应用和通信协议的通信层。他们的全渠道方法使社区管理人员能够通过Web3应用、钱包、市场以及Web2平台(如电子邮件、Twitter和Discord)向其社区广播消息,包括社区公告、抽奖和发行信息等。他们专注于商业模式。 Continuum Continuum是一个通过短期课程和奖励使职业学习变得快速、有趣和社交化的学习平台。Continuum与Web3品牌合作,在其网站上构建和发布引人入胜的教育内容。学习者可以在与品牌相关的领域提高自己的技能,并以加密货币、代币和NFT的形式获得奖励。这种方法结合了教育、游戏化和激励机制,鼓励学习者参与内容并在链上发展他们的技能。 OkTY OkTY是一个数据驱动的平台,为品牌逆转用户流失、提高转化率并增加用户黏性;同时帮助其Z世代用户将数据变现,用于购买他们喜爱的品牌的产品和服务。为了实现这一目标,OkTY创建了一套产品,包括独特的以你的数据支付的工具,为品牌提供更高的投资回报率。OkTY能够无缝集成到在线商店和订阅合作伙伴中,让客户选择分享他们的数据并将其转化为价值(现金/数字货币),用于在其偏爱的零售商、创作者或订阅平台进行购买。通过这样做,OkTY优化了品牌的广告支出,最大限度地提高了客户参与度,并增加了销售业绩。 Contented Contented为品牌提供了一种更好、更快、更经济高效的方式来吸引和奖励创作者。它的去中心化生态系统促进合作,利用人工智能增强创意才能,并将更多的权力和利润交到专业和新兴创意人才手中。这个社区驱动的平台将成为买家、创意人和Web3建设者的首选内容平台。 Neuron Neuron是一个Web3协议,允许软件应用发现和连接物联网设备。该协议奖励设备贡献者,降低开发者进入门槛,并旨在符合所有社区成员的利益。 来源:金色财经
lg
...
金色财经
2023-06-08
微软宣布为美国Azure政府平台客户提供GPT-4及GPT-3两种人工智能模型
go
lg
...
平台客户现在可以使用OpenAI的两种
大型
语言
模型
,包括这家初创公司最新、最强大的模型GPT-4及通过微软Azure OpenAI服务的早期模型GPT-3。 总部位于华盛顿雷德蒙德的OpenAI公司计划于周三发布一篇博客文章,尽管没有透露预计在发布会上使用
大型
语言
模型
的具体美国机构的名字,但国防部、能源部和美国国家航空航天局都是Azure政府平台的联邦政府客户。 国防技术信息中心是国防部的一部分,专注于收集和分享军事研究,将通过微软的新产品对OpenAI模型进行试验,一名DTIC官员证实。 微软已经向其商业客户提供了OpenAI模型,最近几个月Azure OpenAI服务增长迅速。微软5月份表示,该服务的客户从上一季度的2500个大幅增加到4500个,其中包括沃尔沃(Volvo AB)、宜家(Ikea)、梅赛德斯-奔驰集团(Mercedes-Benz Group AG)和壳牌(Shell Plc),周三宣布的这一举措是一家大公司首次将聊天机器人技术广泛应用于美国政府。 自2022年底OpenAI的ChatGPT聊天机器人公开发布以来,人们对
大型
语言
模型
的兴趣激增。
大型
语言
模型
是在大量互联网数据上进行训练的,这样它们就可以预测并对用户提示产生类似人类的反应。从那以后,大大小小的科技公司开始向用户提供功能强大的聊天机器人,国会也爆发了关于是否以及如何监管人工智能的讨论。 微软的Bill Chappell在博客中写道,联邦、州和地方政府的客户可以使用OpenAI的GPT-4和GPT-3模型来完成诸如生成研究问题的答案、生成计算机代码和总结现场报告等任务。一位微软发言人证实,虽然他们将能够使用具有聊天界面的模型,但Azure政府用户将无法访问ChatGPT。ChatGPT通常通过Azure OpenAI服务提供,Chappell此前曾在美国国防高级研究计划局(DARPA)工作。 微软在商业云计算空间中托管OpenAI模型,这与Azure政府平台客户使用的云是分开的,Azure政府平台遵守各种特定的安全和数据遵从规则。 Chappell写道,由于微软在Azure基础设施中托管这些模型,发送给它们的任何数据都保留在Azure OpenAI服务中,并补充说,来自Azure政府客户的数据不会用于训练人工智能模型。
lg
...
Sue
2023-06-08
a16z创始人万字长文:为什么AI会拯救世界
go
lg
...
现在还有像ChatGPT这样的人工智能
大型
语言
模型
,而且从现在开始,它将迅速加速——如果我们允许的话。 在我们的人工智能新时代中: • 每个孩子都将拥有一个无穷耐心、无穷同情、无穷知识、无穷帮助的人工智能导师。这个人工智能导师将在每个孩子的成长过程中一直陪伴在他们身边,帮助他们充分发挥自己的潜力,提供无尽的爱。 • 每个人都将拥有一个无穷耐心、无穷同情、无穷知识、无穷帮助的人工智能助手/教练/导师/训练师/顾问/治疗师。这个人工智能助手将在人生的各种机遇和挑战中一直存在,最大程度地提高每个人的成果。 • 每个科学家都将拥有一个能够大大扩展他们科学研究和成就范围的人工智能助手/合作者/伙伴。每个艺术家、工程师、商人、医生和护理人员的世界也将如此。 • 每个领导者——CEO、政府官员、非营利组织主席、运动教练、教师——也将如此。领导者的更好决策所产生的放大效应是巨大的,因此智能增强可能是最重要的。 • 整个经济的生产率增长将大大加速,推动经济增长、新产业的创造、新工作的创造和工资增长,从而实现地球上物质繁荣的新时代。 • 科学突破、新技术和新药物将大幅扩展,因为人工智能帮助我们进一步解码自然法则并将其用于我们的利益。 • 创意艺术将进入黄金时代,因为受到人工智能增强的艺术家、音乐家、作家和电影制作人能够以比以往更快、更大规模实现他们的愿景。 • 我甚至认为人工智能将改善战争,当它不得不发生时,通过大大降低战时死亡率。每场战争都以非常有限的人类领导者在极度压力和信息有限的情况下做出可怕的决策为特征。现在,军事指挥官和政治领导人将有人工智能顾问,帮助他们做出更好的战略和战术决策,最小化风险、错误和不必要的流血。 • 简而言之,人们今天用自己的自然智能做的任何事情,通过人工智能都能做得更好,我们将能够接手那些没有人工智能无法解决的新挑战,从治愈所有疾病到实现星际旅行。 • 而且这不仅仅涉及智能!人们最低估的人工智能质量也许是它的人性化。人工智能艺术给那些本来缺乏技术技能的人自由创作和分享他们的艺术思想。与富有同理心的人工智能朋友交谈确实能提高他们应对逆境的能力。而且,与人类对比,人工智能医疗聊天机器人已经更富同情心。无限耐心和同情心的人工智能将使世界变得更加温暖、更加友好。 这里的利害关系重大,机遇深远。人工智能很可能是我们文明有史以来最重要、最好的事物,至少与电力和微芯片不相上下,甚至可能更超越它们。 发展和普及人工智能——并远离我们应该害怕的风险——是我们对自己、对我们的孩子和对我们的未来的道义义务。 我们应该生活在一个有了人工智能的更好的世界,现在我们可以实现这个目标。 那么,为什么会引发恐慌? 与这种积极的观点相反,目前关于人工智能的公众对话充斥着恐慌和偏执。 我们听到各种声称人工智能将毁灭我们所有人、破坏我们的社会、夺走我们的工作、导致严重的不平等,并使坏人做出可怕的事情。 为什么在潜在的结果中存在着这种从接近乌托邦到可怕的反乌托邦的分歧呢? 从历史上看,每一项重要的新技术,从电灯到汽车、从收音机到互联网,都引发了道德恐慌——一种社会传染,让人们相信新技术将摧毁世界,或者社会,或者两者都会毁灭。悲观主义档案馆的优秀人员已经记录了这些几十年来由技术驱动的道德恐慌事件;他们的历史清晰地显示出这种模式。事实证明,现在对于人工智能的恐慌甚至不是第一次出现。 现在,确实有许多新技术导致了不良后果——通常是那些对我们福利有巨大好处的技术。所以,并不是说道德恐慌的存在就意味着没有任何需要担心的事情。 但是,道德恐慌本质上是非理性的——它将可能是合理关切的问题夸大成一种歇斯底里的程度,讽刺的是,这使得我们更难以面对真正严重的问题。 现在我们正处于对人工智能的一场全面的道德恐慌中。 这场道德恐慌已经被多种行为者利用为推动政策行动——推动制定新的人工智能限制、规定和法律。这些行为者正在公开发表关于人工智能危险的极端戏剧化的言论——它们以此滋养并进一步煽动道德恐慌——它们都自诩为无私的公益捍卫者。 但他们真的是这样吗? 他们是对还是错? 人工智能的浸礼会和私酒贩子 经济学家观察到,在这类改革运动中存在一种长期以来的模式。这些运动中的行动者可以分为两类——“浸礼会”和“私酒贩子”,这是基于20世纪20年代美国禁酒令的历史例子: • “浸礼会”是真正的信徒社会改革者,他们深深而情感上(尽管不一定是理性上)相信,需要采取新的限制、规章和法律来防止社会灾难。对于禁酒令来说,这些行动者通常是真诚的基督徒,他们认为酒精正在破坏社会的道德结构。对于人工智能风险来说,这些行动者是真正相信人工智能会带来一种或另一种生存风险的人——如果将他们绑在测谎仪上,他们是真心相信的。 • “私酒贩子”是自利的机会主义者,他们在新的限制、规章和法律实施后可以从中获利,并使自己免受竞争对手的影响。对于禁酒令来说,这些人是指那些在合法酒类销售被禁止时,通过非法销售酒精赚取巨额财富的走私者。对于人工智能风险来说,这些人是指那些如果建立起一种由政府批准的人工智能供应商组成的垄断联盟,并受到新创企业和开源竞争的保护,那么他们可以赚更多钱的首席执行官们——这是“太大而不能失败”的银行的软件版本。 愤世嫉俗的人可能会认为,一些表面上的浸礼会也是私酒贩子——特别是那些受他们的大学、智库、活动组织和媒体机构支付薪水或获得拨款来攻击人工智能的人。如果你获得薪水或拨款来煽动人工智能恐慌,你很可能是个走私者。 私酒贩子的问题在于他们会取得胜利。浸礼会是天真的意识形态信奉者,私酒贩子是愤世嫉俗的运作者,因此,这类改革运动的结果通常是私酒贩子得到了他们想要的——获得监管控制、免受竞争的保护、形成垄断,而浸礼会则对社会改善的推动感到困惑。 我们刚刚经历了一个令人震惊的例子——2008年全球金融危机后的银行改革。浸礼会告诉我们,我们需要新的法律和规章来解散“太大而不能失败”的银行,以防止类似危机再次发生。因此,美国国会通过了2010年的多德-弗兰克法案,这被宣传为满足洗礼者目标的法案,但实际上被走私者——大银行——利用了。结果是,2008年那些“太大而不能失败”的银行现在变得更加庞大。 因此,在实践中,即使浸礼会是真诚的,即使浸礼会是正确的,他们也会被狡猾和贪婪的走私者利用,以使自己受益。 这正是当前推动人工智能监管的情况。 然而,仅仅识别行动者并对其动机进行指责是不够的。我们应该根据浸礼会和私酒贩子的论点进行评估。 AI风险 1:人工智能会杀死我们吗? 第一个和最早的人工智能末日风险是人工智能将决定杀死人类的担忧。 我们对技术自身将会崛起并摧毁我们的恐惧在我们的文化中根深蒂固。希腊人通过普罗米修斯神话表达了这种恐惧——普罗米修斯给人类带来了破坏性的火焰力量,更一般地说是技术("techne"),因此普罗米修斯被神永远地折磨。后来,玛丽·雪莱在她的小说《弗兰肯斯坦》中为现代人创造了我们自己的这个神话版本,其中我们开发了永生的技术,然后这个技术崛起并试图摧毁我们。当然,关于人工智能的恐慌报纸报道中必不可少的是詹姆斯·卡梅隆的《终结者》电影中一个闪闪发光的红眼杀人机器人的静止图像。 这个神话的假设进化目的是激励我们认真考虑新技术的潜在风险——毕竟,火确实可以用来烧毁整个城市。但是,就像火同时也是现代文明的基础一样,用来保暖和保护我们在寒冷和充满敌意的世界中,这个神话忽视了大多数甚至可能所有新技术的更大优势,并实际上引起了破坏性情绪而不是理性分析。只因为古人像这样恐慌不安,并不意味着我们也要恐慌;我们可以运用理性。 我认为人工智能会决定杀死人类的想法是一个深刻的范畴错误。人工智能不是经历了数十亿年演化来参与适者生存之争的活生生的存在,如同动物和我们自己。它是数学——代码——计算机,由人类构建、拥有、使用和控制。认为它会在某个时刻发展出自己的思想,并决定它有导致它试图杀死我们的动机是一种迷信的挥手。 简而言之,人工智能没有意愿、没有目标,它不想杀死你,因为它不是活的。人工智能是一台机器——不会比你的烤面包机更有生命。 现在,显然,有些人对人工智能杀手深信不疑——浸入它们的可怕警告的媒体报道突然疯狂增加,其中一些人声称他们研究这个主题已经几十年了,现在对他们所了解的内容感到恐惧不安。其中一些真正相信者甚至是技术的实际创新者。这些人主张对人工智能实施各种离奇而极端的限制,从禁止人工智能的发展一直到对数据中心进行军事空袭和核战争。他们主张,因为像我这样的人无法排除人工智能未来可能造成的灾难性后果,我们必须采取一种预防性的立场,可能需要大量的实体暴力和死亡,以防止潜在的存在风险。 我的回应是,他们的立场是非科学的——有什么可测试的假设?什么样的事实可以证明这个假设是错误的?我们如何知道我们何时进入了危险区域?这些问题基本上得不到回答,除了"你无法证明它不会发生!"实际上,这些浸礼会的立场是如此非科学和极端——一个关于数学和代码的阴谋论——他们已经呼吁实施物理暴力,所以我将做一件我通常不会做的事情,质疑他们的动机。 具体而言,我认为有三件事情正在发生: 首先,回想一下约翰·冯·诺伊曼对罗伯特·奥本海默关于他在创造核武器方面的担忧的回应——这有助于结束了第二次世界大战并阻止了第三次世界大战。他说:"有些人为了声称他们的罪行而承认罪行。"什么是以夸张的方式声称自己工作的重要性而不显得过于自夸的最好方式呢?这解释了那些实际上正在建造和资助人工智能的浸礼会的言行不一致——观察他们的行动,而不是他们的言辞。(杜鲁门在与奥本海默会面后更加严厉地说:"别让那个爱哭鬼再进来。") 其次,一些浸礼会实际上是私酒贩子。有一个完整的职业称为"人工智能安全专家"、"人工智能伦理学家"、"人工智能风险研究员"。他们的工作是成为末日预言者,并且应该适当地对待他们的陈述。 第三,加利福尼亚州以众多的邪教而闻名,从EST到人民寺庙,从天堂之门到曼森家族。其中许多,尽管不是所有,邪教是无害的,甚至为在其中找到归宿的疏离感的人提供了帮助。但有些非常危险,邪教往往很难在导致暴力和死亡的那条线上徘徊。 而现实情况是,显然对湾区的每个人都很明显,"人工智能风险"已经演变成一个邪教,突然出现在全球媒体的关注和公众讨论中。这个邪教不仅吸引了一些边缘人物,还吸引了一些真正的行业专家和不少富裕的捐助者——包括直到最近的Sam Bankman-Fried。它发展出了一套完整的邪教行为和信仰。 这个邪教不是什么新鲜事——有一个长期存在的西方传统称为千禧年主义,它产生了启示录邪教。"人工智能风险"邪教具有千年主义启示录邪教的所有特征。从维基百科来看,我做了一些补充: "千禧年主义是一种由一组或运动[人工智能风险预言者]相信社会即将发生根本性转变[人工智能的到来]的信仰,在此之后,一切都将改变[人工智能的乌托邦、反乌托邦或世界末日]。只有戏剧性的事件[对人工智能的禁令、对数据中心的空袭、对非受控人工智能的核打击]被认为能够改变世界[阻止人工智能],而这种变革被认为将由一群虔诚和忠诚的人带来或幸存下来。在大多数千禧年主义情节中,即将到来的灾难或战斗[人工智能的启示或预防]将在之后紧随着一个新的、洁净的世界[人工智能的乌托邦]。” 这种世界末日教派的模式是如此明显,以至于我很惊讶为什么更多的人没有看到。 不要误会,教派是有趣的,他们的书面材料通常很有创意和吸引力,他们的成员在晚宴和电视上也很有魅力。但是他们的极端信仰不应决定法律和社会的未来-显然不应如此。 AI风险2:AI会摧毁我们的社会吗? 广为流传的第二个AI风险观点是,AI将通过产生“有害”的结果(以此类末日论者的说法)来毁灭我们的社会,即使我们并非真正被杀害。 简而言之:如果机器杀手没有伤害我们,仇恨言论和错误信息也会伤害我们。 这是一个相对较新的末日论关注点,它从上面我描述的“AI风险”运动中分支出来,并在一定程度上占据主导地位。实际上,AI风险的术语最近从“AI安全”(由那些担心AI会真正杀死我们的人使用的术语)变为“AI对齐”(由那些担心社会“危害”的人使用的术语)。原始的AI安全人士对这种转变感到沮丧,尽管他们不知道如何将其收回,但他们现在主张将实际的AI风险主题更名为“AI不杀伤所有人主义”(AI notkilleveryoneism),尽管这个术语尚未被广泛采用,但至少很明确。 AI社会风险主张的提示是其自己的术语“AI对齐”。与什么对齐?人类价值观。哪些人类价值观?哦,这就是事情变得棘手的地方。 恰好,我亲眼目睹了类似情况——社交媒体“信任和安全”战争。显而易见的是,多年来,社交媒体服务一直受到政府和活动家的巨大压力,要求他们禁止、限制、审查和压制各种内容。而且“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的担忧直接从社交媒体背景转移到了“AI对齐”的新领域。 我从社交媒体战争中学到的重要经验是: 一方面,不存在绝对的言论自由立场。首先,包括美国在内的每个国家都将至少某些内容视为非法。其次,有某些类型的内容,比如儿童色情和煽动现实世界暴力,几乎被几乎所有社会普遍认为是禁区的内容——无论其是否合法。因此,任何促进或生成内容-言论-的技术平台都将有一些限制。 另一方面,滑坡效应不是谬见,而是必然。一旦建立了对甚至极为糟糕的内容进行限制的框架——例如对仇恨言论,对某些有伤害性的词汇,或对错误信息,显然虚假的主张(比如“教皇去世了”)——各种政府机构、活动家压力团体和非政府实体将迅速行动起来,要求越来越大的审查和压制对他们认为对社会和/或他们个人偏好构成威胁的言论。他们会以包括公然犯罪在内的方式这样做。这种循环在实践中似乎可以永远进行下去,得到我们精英权力结构中充满热情的官方监控员的支持。社交媒体领域的这种情况已经持续了十年,并且除了某些例外情况外,这种情况也在不断加剧。 因此,现在“AI对齐”周围形成了这种动态。其拥护者声称拥抱对社会有益的工程化AI生成的言论和思想的智慧,并禁止对社会有害的AI生成的言论和思想。其反对者声称,思想警察极度傲慢和专横,并且通常是公然犯罪,至少在美国是如此,并且实际上试图成为一种新的由政府-企业-学术融合的权威言论独裁,直接来到乔治·奥威尔的《1984》。 由于“信任和安全”以及“AI对齐”的支持者都集中在以美国沿海精英为特征的全球人口非常狭窄的一部分中,其中包括许多在科技行业工作和撰写文章的人。因此,我的很多读者会发现自己有条件争辩,认为需要对AI输出进行大规模限制以避免破坏社会。我现在不会试图说服你们,我只会简单地说这就是需求的本质,世界上大多数人既不同意你的意识形态,也不希望看到你们胜利。 如果你不同意当前通过不断加剧的言论规范对社交媒体和AI施加的狭窄道德观念,你还应该意识到,AI被允许说什么/生成什么的斗争将比对社交媒体审查的斗争更重要,远远更重要。AI极有可能成为世界上一切的控制层。它被允许如何运作将可能比任何其他事情都更重要。你应该意识到,一小撮孤立的党派社会工程师正在试图在追求保护你的旧说辞的掩护下决定现在的AI应该如何操作。 简而言之,不要让思想警察压制AI。 AI风险3:AI会抢走我们所有的工作吗? 由于机械化、自动化、电脑化或人工智能等各种形式的机器取代人力劳动,人们一直担心失去工作的问题。这种担忧已经持续了数百年,自从出现了机械织布机等机械装置以来。尽管每一项新的重大技术在历史上都会带来更多的高薪工作,但每一波恐慌的出现都伴随着“这一次与以往不同”的说法——这一次会发生,这一次是技术终将给人类劳动以致命打击的时候。然而,这种情况从未发生过。 在最近的过去,我们经历了两次技术驱动的失业恐慌周期——2000年代的外包恐慌和2010年代的自动化恐慌。尽管在这两个十年中,许多传媒人士、专家和甚至技术行业高管都不断敲打桌子,声称大规模失业即将来临,但在2019年年底——也就是COVID爆发之前——世界上的工作机会比历史上任何时候都要多,而且工资也更高。 然而,这个错误的想法却不会消失。 果不其然,它又回来了。 这一次,我们终于拥有了能夺走所有工作并使人类劳动变得无关紧要的技术——真正的人工智能。当然,这一次历史不会简单重复,这一次是:人工智能将导致大规模失业,而不是经济迅速增长、就业机会增多和工资水平上升。对不对? 不是这样,这种情况肯定不会发生,如果允许人工智能在整个经济中得以发展和推广,它可能会导致有史以来最激动人心和持续时间最长的经济繁荣,相应地带来创纪录的就业机会和工资增长——恰恰与人们的担忧相反。原因如下。 自动化杀死就业论者一直在犯的核心错误被称为“劳动总量谬误”。这种谬误是指在任何特定时间内经济中需要完成的劳动量是固定的,要么由机器完成,要么由人类完成,如果由机器完成,那么人们就没有工作可做。 劳动总量谬误是自然而然地从直觉产生的,但这种直觉是错误的。当技术应用于生产时,我们获得了生产力增长——通过减少输入产生的产出增加。结果是商品和服务的价格下降。随着商品和服务价格的下降,我们支付的费用也减少了,这意味着我们现在有额外的消费能力来购买其他东西。这增加了经济中的需求,推动了新的生产——包括新产品和新产业——从而为被机器替代的人们创造了新的工作机会。结果是经济规模扩大,物质繁荣增加,产业增加,产品增加,就业机会增多。 但好消息不仅如此。我们还获得了更高的工资。这是因为在个体工人的层面上,市场根据工人的边际生产力确定报酬。在技术融入的行业中,一名工人的生产力比传统行业的工人更高。雇主要么会根据工人的提高生产力而支付更多的钱,要么另一家雇主会出于纯粹的自利而这样做。结果是,引入技术的行业不仅会增加就业机会,而且会提高工资。 总之,技术使人们能够更加高效地工作。这导致现有商品和服务的价格下降,工资上涨。这反过来又促进了经济增长和就业增长,并激励了新的工作和新产业的创造。如果市场经济能够正常运行,技术能够自由引进,这将是一个永无止境的向上循环。正如弗里德曼所观察到的那样,“人类的欲望和需求是无穷无尽的”——我们总是想要比我们拥有的更多。拥抱技术的市场经济是我们更接近实现每个人都可以想象到的一切,但永远无法完全实现的方式。这就是为什么技术不会摧毁就业岗位,永远不会。 对于那些尚未接触过这些想法的人来说,这些都是令人震惊的思想,可能需要一些时间来理解。但我发誓我并没有编造它们——实际上,你可以在标准经济学教科书中阅读到所有这些观点。我推荐亨利·哈兹利特《一课经济学》中的《机械的诅咒》一章,以及弗雷德里克·巴斯夏的讽刺性作品《蜡烛制造商的请愿书》,这些蜡烛制造商因太阳对照明产业进行了不公平竞争而抗议太阳。我们也有我们这个时代的现代版本。 但你可能会认为这一次与以往不同。这一次,随着人工智能的出现,我们拥有了可以替代所有人类劳动的技术。 但是,按照我上面描述的原则,想象一下如果所有现有的人类劳动都被机器取代会意味着什么。 这将意味着经济生产力增长的起飞速度将是绝对天文数字,远远超过任何历史先例。现有商品和服务的价格将全面下降到几乎为零。消费者福利将飙升。消费者的消费能力将飙升。经济中的新需求将激增。企业家将创建令人眼花缭乱的新产业、新产品和新服务,并尽可能快地雇佣尽可能多的人工智能和工人来满足所有新的需求。 假设人工智能再次取代了这些工人呢?这个循环将重复,推动消费者福利、经济增长和就业与工资增长更高。这将是一种直线式的向上螺旋,将人们带向亚当·斯密和卡尔·马克思从未敢于梦想的物质乌托邦。 我们应该如此幸运。 AI风险4:人工智能是否会导致严重的不平等? 谈到卡尔·马克思,对于人工智能夺走工作岗位的担忧直接引出了下一个声称的人工智能风险,那就是,好吧,Marc,假设人工智能确实夺走了所有的工作,无论是出于好还是出于坏。那么,作为人工智能的所有者获得了所有的经济回报,普通人一无所获,这难道不会导致巨大而且严重的财富不平等吗? 恰好,这是马克思主义的一个核心论点,即生产资料的所有者——资产阶级——不可避免地会从实际劳动的人们——无产阶级——那里窃取所有的社会财富。无论现实如何一再证明这是一个错误,这个谬论似乎永远无法消亡。但让我们无论如何驳斥它。 这个理论的缺陷在于,作为一件技术的所有者,保留不分享它并不符合你自身的利益——事实上恰恰相反,你的利益是将它销售给尽可能多的客户。世界上最大的市场是全世界的市场,包括80亿人口。因此,在现实中,每一项新技术——即使开始时是向高薪大公司或富裕消费者销售——都会迅速普及,直到它落入尽可能大的大众市场的手中,最终覆盖整个地球上的人。 这个经典的例子是埃隆·马斯克在2006年发布的所谓“秘密计划”——他当然公开发布的——关于特斯拉的计划: 第一步,制造[昂贵的]跑车; 第二步,用第一步挣的钱造一辆价格实惠的车; 第三步,用第二步挣的钱造一辆更实惠的车。 这当然是他所做的事情,结果成为世界首富。 最后一点是关键的。如果今天他只卖车给有钱人,马斯克会更富有吗?不会。如果他只为自己造车,他会比现在更富有吗?当然不会。不,他通过销售给尽可能大的市场全世界,来最大化自己的利润。 简而言之,每个人都能够拥有这个东西,正如我们过去在汽车、电力、无线电、计算机、互联网、移动电话和搜索引擎等领域所看到的。制造这些技术的公司高度积极地降低价格,直到地球上的每个人都能够负担得起。这正是人工智能领域已经发生的事情——这就是为什么你今天可以在微软Bing和谷歌Bard等形式的免费或低成本的最先进的生成式人工智能上使用它——而且这将继续发生。不是因为这些供应商愚蠢或慷慨,而恰恰是因为他们贪婪——他们希望最大化市场规模,从而最大化利润。 因此,发生的情况与技术推动财富集中的理论相反——技术的个体用户,最终包括地球上的每个人,反而被赋予权力,并获得了大部分产生的价值。与之前的技术一样,构建人工智能的公司——假设它们必须在自由市场中运作——将竞相努力使这一点成为现实。 马克思当时错了,现在也错了。 这并不是说不平等在我们社会中不是一个问题。它是一个问题,只是它不是由技术驱动的,而是相反,是由那些对新技术最抵制、政府干预最多以阻止采用人工智能等新技术的经济部门驱动的,具体来说是住房、教育和医疗保健。人工智能和不平等的实际风险不在于人工智能会导致更多的不平等,而在于我们不允许使用人工智能来减少不平等。 AI风险5:人工智能是否会导致坏人做坏事? 到目前为止,我已经解释了五个最常提出的人工智能风险中有四个实际上并不真实的问题——人工智能不会活过来杀死我们,人工智能不会摧毁我们的社会,人工智能不会导致大规模失业,人工智能不会导致破坏性的不平等增加。但是现在让我们来讨论第五个,这也是我实际上同意的一个:人工智能会让坏人更容易做坏事。 从某种意义上说,这是一个循环论证。技术是一种工具。从火和石头开始,工具可以用来做好事——烹饪食物和建造房屋——也可以用来做坏事——烧伤人和殴打人。任何技术都可以被用于好的或坏的目的。可以理解。而人工智能会让罪犯、恐怖分子和敌对政府更容易做坏事,毫无疑问。 这让一些人提出,好吧,既然这样,那么在这种情况下,让我们在坏事发生之前禁止人工智能。不幸的是,人工智能不是一种难以获得的玄妙物质,比如钚。恰恰相反,它是世界上最容易获得的材料——数学和代码。 显然,AI猫已经出了包。你可以通过数千个免费在线课程、书籍、论文和视频学习如何构建人工智能,而且每天都有杰出的开源实现在不断增加。人工智能就像空气一样——它将无处不在。为了抓捕它,所需要的极权压迫程度将是如此严厉——一个监视和控制所有计算机的世界政府?戴着黑色直升机的武装警察突袭流氓GPU?——我们将没有一个社会来保护。 因此,我们有两种非常直接的方式来应对坏人利用人工智能做坏事的风险,而这正是我们应该关注的。 首先,我们已经制定了法律来让使用人工智能干坏事的大多数行为犯罪化。黑入五角大楼?那是犯罪。从银行偷钱?那是犯罪。制造生物武器?那是犯罪。实施恐怖袭击?那是犯罪。我们只需专注于在可能时预防这些犯罪,并在不能时予以起诉。我们甚至不需要新的法律——我不知道是否有一个已经被提出的恶意利用人工智能的实际案例不是已经是非法的。如果发现了新的坏用途,我们禁止那些用途。证毕。 但是你会注意到我刚才提到的——我说我们应该首先专注于在坏事发生之前防止人工智能辅助犯罪——这难道不意味着要禁止人工智能吗?好吧,还有另一种方法可以防止这样的行为,那就是将人工智能作为一种防御性工具。让拥有坏目标的坏人具备能力的人工智能,同样也在好人手中具有强大的力量——特别是那些负责防止坏事发生的好人。 例如,如果你担心人工智能生成虚假人物和虚假视频,答案是构建新的系统,使人们可以通过加密签名验证自己和真实内容。在人工智能之前,数字化创造和修改真实和虚假内容已经存在;答案不是禁止文字处理器和Photoshop——或者人工智能——而是利用技术构建一个真正解决问题的系统。 因此,第二个方法是,让我们大力利用人工智能进行善意、合法和防御性的目的。让我们在网络防御、生物防御、追踪恐怖分子以及我们为保护自己、社区和国家所做的一切其他方面利用人工智能。 当然,政府内外已经有许多聪明人正在做这样的工作——但是如果我们将目前那些专注于无效的禁止人工智能的努力和智力用于使用人工智能来防止坏人做坏事,我相信一个充斥着人工智能的世界将比我们今天生活的世界更加安全。 不以最大力量和速度开展人工智能的真实风险 还有一个最终而真实的人工智能风险可能是最令人恐惧的: 人工智能不仅在相对自由的西方社会中得到开发,也在中国得到开发。 中国对人工智能有着与我们截然不同的愿景。他们对此甚至并不保密,他们非常明确地表示,他们已经在追求他们的目标。而且,他们不打算将人工智能战略限制在中国境内——他们打算在他们提供5G网络、提供“一带一路”贷款、提供像TikTok这样的友好消费应用作为他们集中控制和指挥的人工智能前端的地方,将其传播到全世界的每一个角落。 人工智能的最大风险就是中国在全球人工智能主导地位上取得胜利,而我们——美国和西方——却没有取得胜利。 我提出了一个简单的策略来应对这个问题——事实上,这也是罗纳德·里根总统在与苏联赢得第一次冷战时采取的策略。 “我们赢,他们输。” 与其被围绕着关于人工智能杀手、有害人工智能、破坏就业岗位的人工智能和产生不平等的人工智能等毫无根据的恐慌放在被动位置,我们美国和西方应该尽可能全力投入人工智能。 我们应该争取全球人工智能技术优势的竞赛,并确保中国不会取得胜利。 在这个过程中,我们应该尽可能快速、尽可能大力地将人工智能引入我们的经济和社会,以最大化其对经济生产力和人类潜能的利益。 这是抵消真正人工智能风险和确保我们的生活方式不被中国愿景所取代的最佳方式。 我们该怎么办? 我提出了一个简单的计划: • 大型人工智能公司应该被允许尽快、尽可能激进地构建人工智能——但不能实现监管垄断,不能建立一个由政府保护的卡特尔,由于对人工智能风险的不正确宣称而免于市场竞争。这将最大限度地发挥这些公司惊人能力的技术和社会回报,它们是现代资本主义的宝石。 • 初创人工智能公司应该被允许尽快、尽可能激进地构建人工智能。它们既不应该面对大公司获得政府授予的保护,也不应该获得政府援助。它们应该只被允许竞争。如果初创公司不成功,它们在市场上的存在也将不断激励大公司发挥出色——我们的经济和社会无论如何都是赢家。 • 开源人工智能应该被允许自由传播和与大型人工智能公司和初创公司竞争。开源应该没有任何监管壁垒。即使开源没有战胜公司,其广泛可用性也对世界各地想要学习如何构建和使用人工智能以成为技术未来一部分的学生们是一个福音,并确保无论他们是谁、有多少钱,人工智能都对他们可用。 • 为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作应该积极参与潜在风险领域的每一个方面,利用人工智能最大化社会的防御能力。这不应仅限于人工智能风险,而是包括更一般的问题,如营养不良、疾病和气候问题。人工智能可以是解决问题的极其强大的工具,我们应该将其视为这样的工具。 • 为了防止中国取得全球人工智能主导地位的风险,我们应该充分利用我们的私营部门、科研机构和政府的力量,共同推动美国和西方人工智能在全球范围内的绝对主导地位,最终甚至在中国境内也如此。我们赢,他们输。 这就是我们如何利用人工智能拯救世界。 是时候行动了。 传奇与英雄 我以两个简单的陈述来结束。 人工智能的发展始于上世纪40年代,与计算机的发明同时开始。第一篇关于神经网络的科学论文——即我们今天拥有的人工智能的架构——发表于1943年。在过去的80年中,整个一代人的人工智能科学家出生、上学、工作,很多情况下去世,他们没有看到我们现在所获得的回报。他们是传奇,每一个人。 如今,越来越多的工程师——其中许多人年轻,可能有祖父母甚至曾祖父母参与了人工智能背后思想的创造——正努力将人工智能变为现实,尽管有一堵试图将他们描绘成鲁莽的恶棍的恐慌和悲观主义的墙。我不认为他们鲁莽或者是恶棍。他们是英雄,每一个人。我和我的公司非常高兴支持尽可能多的他们,我们将100%地支持他们和他们的工作。 "多年来,千年主义者经常[人工智能风险预言者不断地]试图预测这种未来事件的确切时间,通常是通过各种标志和先兆的解释。然而,历史上的预测几乎都以失败告终[目前没有可靠的证据表明人工智能会杀死人类]。然而,他们的[人工智能风险预言者的]粉丝通常会试图修正解释,以便与事件发生时[人工智能未来的潜在风险]相对应。" 那些热衷于"人工智能风险"邪教的人可能会不同意我的观点,他们可能会坚称他们是理性的、基于科学的,并且我是一个被洗脑的追随者。但请注意,我并没有声称"人工智能绝对不会成为人类的威胁"。我只是指出,迄今为止没有证据支持"人工智能将杀死我们"这一论点。我们应该根据现有的证据进行理性的评估,而不是沉溺于邪教般的恐慌和反应。 来源:金色财经
lg
...
金色财经
2023-06-07
Coinbase 表示 加密货币和区块链技术可能是帮助防止 AI 失控的关键工具
go
lg
...
ChatGPT 等聊天机器人提供动力的
大型
语言
模型
的出现而出现的五个问题,以及区块链和加密货币可能能够解决的每个问题的解决方案: 1.对数据资源的需求 ——由于生成式 AI 依赖于庞大的通用数据库来为其
大型
语言
模型
提供动力,“令牌激励和惩罚系统可以确保数据满足这些模型所需的足够质量标准。” 2.对计算资源的需求 ——生成式人工智能需要大量的计算能力,而区块链可以通过创建一个资源共享的系统来提供帮助。“去中心化的计算能力网络可以奖励那些自愿使用闲置 GPU 来帮助减轻部分计算负担的用户。” 3.错误信息和虚假信息——对人工智能驱动的错误信息活动的恐惧已经上升,因为
大型
语言
模型
有可能消化虚假声明并将其作为事实吐给用户。“区块链和不可替代令牌 (NFT) 技术可以通过确定图像、视频、音乐和其他媒体的来源来帮助解决这个问题。” 4.可审计性 ——人工智能决策对普通用户来说可能是不透明的,其算法也难以理解。“将区块链技术集成到人工智能模型中可以帮助使这些过程更加透明,并允许用户仔细检查人工智能产生的结果的逻辑和可靠性。” 5. 人工智能开发和使用民主化 ——最后,Duong 写道,加密货币可以让人们更大规模地参与人工智能的使用和开发,从而使人工智能更容易获得。“加密平台可以帮助获得更多样化的贡献,并重新分配访问权限,以便更多用户可以利用它的好处(例如医疗保健建议或电子商务)。” 声明:潮外音编译作品,内容仅代表作者立场,且不构成任何投资建议,请谨慎对待,如文章/素材有侵权,请联系官方客服处理。 来源:金色财经
lg
...
金色财经
2023-06-07
上一页
1
•••
87
88
89
90
91
•••
114
下一页
24小时热点
特朗普刚刚重磅表态!与习近平举行了“了不起”的会晤 中美达成一项贸易协议
lg
...
中美元首会晤,特朗普一句话引发行情!美股期货上涨 金价自日高回落50美元
lg
...
中美领导人会晤具体时间定了!彭博:特朗普与习近平将正式达成贸易休战协议
lg
...
【黄金收评】鲍威尔一句话掀翻市场!美联储降息前景“大变脸” 金价惊现暴跌
lg
...
特朗普-习近平会谈结果早已被定价!细节不多难消市场怀疑,黄金强势站上4000
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链界盛会#
lg
...
135讨论
#VIP会员尊享#
lg
...
1989讨论
#比特日报#
lg
...
9讨论