全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
AI最大融资之一来袭!Inflection融资13亿美元,盖茨、霍夫曼亲自投资
go
lg
...
金标准,并为OpenAI的GPT-3等
大型
语言
模型
提供支持。 微软首席技术官兼人工智能负责人凯文·斯科特(KevinScott)和英伟达首席执行官黄仁勋(JensenHuang)在声明中宣布支持Inflection,黄仁勋表示,Inflection的“世界级团队”将帮助迎来“令人惊叹的个人数字助理”。 所有这些都意味着更多的资金即将到来。苏莱曼表示,“我预计我们将继续以更快的速度筹集资金,但不要指望Inflection会从风险投资公司那里筹集资金。” 苏莱曼补充道,面对潜在的历史性增长机遇,Inflection的最佳选择是“闪电式扩张”并贪婪地筹集资金,以尽可能快地增长,尽管其中存在风险。 “你知道,‘小即是美’,我们在不到一年的时间里就证明了这一点,”苏莱曼说。“这是旅程的开始,实际上只是起跑线。”
lg
...
金融界
2023-07-01
人工智能时代来临 Jefferies钦点这几支股票
go
lg
...
023年迷住了华尔街。 OpenAI的
大型
语言
模型
ChatGPT的出现,刺激了投资者对人工智能的兴奋,帮助那些直接或被认为与人工智能有关的股票飙升。 事实上,Jefferies Equity Research在最近的一份报告中甚至将当前支撑市场的经济背景称为 "AI时代"。 今年上半年,人工智能股票领涨股市,领先的人工智能芯片制造商Nvidia在5月触及1万亿美元的市值。英特尔和微软今年也出现了暴涨,涨幅分别约为25%和39%。 "虽然全面整合生成性人工智能可能至少还需要几年时间,但这个概念已经进入了公众的视野,各类公司的管理团队已经开始阐述人工智能的实施方式," Jefferies的说明说。 这家华尔街银行补充说,虽然数据隐私和知识产权等与人工智能有关的重大障碍仍有待解决,但人工智能仍有 "巨大的转型潜力",触及市场的各个角落。 考虑到这一点,Jefferies的分析师们寻找了那些准备从人工智能进入企业计算的浪潮中受益的股票和行业。 Nvidia被列入Jefferies的名单并不令人惊讶。 分析师Mark Lipacis认为该公司是人工智能热潮的直接受益者,并将该股票评为买入,目标价为每股500美元。这一预测意味着从周三的收盘价来看,有大约22%的上升空间。 " Mark继续认为Nvidia是人工智能拐点的最大受益者,因为它的全栈硬件和软件系统解决方案仍然是人工智能工作负载的首选生态系统,"该说明说。 谷歌的母公司Alphabet(GOOG)也是今年人工智能热潮的一大受益者。 该公司在去年11月推出ChatGPT后不久就宣布了自己的
大型
语言
模型
Bard。Jefferies维持对Alphabet股票的买入评级,目标股价为150美元,或比周三的120.18美元收盘价有约25%的上涨空间。 Jefferies分析师Brent Thill表示,鉴于Alphabet已经开发了不止一个
大型
语言
模型
来帮助改善其一系列产品,Alphabet "将成为消费者人工智能机会的领导者"。虽然Alphabet为了限制 "声誉风险 "而迟迟不向公众发布其LLM套件,但Jefferies表示,到目前为止,该公司 "对其生成性人工智能战略提出了更为一致的信息,其更新内容涉及消费者和商业使用案例。" Jefferies的研究还强调了人工智能的间接受益者,如石油生产商Chevron(CVX)。 该银行表示,人工智能可以帮助能源部门 "优化勘探、设计、生产和回收率"。 Chevron已经在计划使用人工智能来 "检测和防止排放,同时进行及时维修,"Jefferies说。以Lloyd Byrne为首的该公司能源分析师对Chevron的评级为持有,目标股价为175美元,这意味着比周三154.92美元的收盘价有近13%的上升空间。 Jefferies认为买入评级的Meta Platforms(META)是社交媒体领域领先的人工智能受益者。 该银行对Facebook母公司的目标股价为280美元,或比周三285.29美元的收盘价低约2%。 Jefferies的报告说,"相信META在与社交同行TikTok和Snap的竞争中,最能把握住人工智能的机会"。"他指出,这些人工智能投资大多集中在Instagram、WhatsApp与Messenger上,这反映了巨大的未来货币化机会,而这些机会还没有完全反映在股价上。
lg
...
金融界
2023-07-01
庞大的13亿美元融资,协助Inflection AI开创AI领域新纪元,再创独角兽传奇
go
lg
...
其是那些正在创造当前人工智能热潮核心的
大型
语言
模型
(LLM)的公司。但 Inflection AI 获得超过10亿美元的融资也反映了创建这些人工智能模型的巨大成本,这是因为这类模型必须在大型数据中心中使用昂贵的专用计算芯片进行训练。 “人工智能革命的一个强大优势是能够使用自然的、对话式语言与超级计算机进行交互,从而简化我们的日常生活。” NVIDIA 创始人兼首席执行官Jensen Huang在一份声明中表示。“Inflection AI 的顶尖的团队正在引领这项开创性的工作,利用 NVIDIA 的人工智能技术开发、训练和部署大规模地生成式人工智能模型,实现了惊人的个人数字助手。” Inflection AI 是由穆斯塔法·苏莱曼(Mustafa Suleyman)和其他联合创始人共同创立的,他现在担任该初创公司的首席执行官。Suleyman与哈萨比斯(Hassabis)于2012年共同创立了先进的人工智能研究实验室 DeepMind。Google于2014年以约6.5亿美元的价格收购了 DeepMind。Suleyman在2019年暂时离开了 DeepMind,但后来又短暂地返回,之后他加入Google担任负责人工智能产品管理和政策的副总裁。随后,他在2022年完全离开Google,加入风险投资公司 Greylock Partners,Inflection AI 就是在那里被孵化出来的。Greylock 合伙人里德·霍夫曼(Reid Hoffman)是 PayPal 和 LinkedIn 的共同创始人,也是 OpenAI 的早期资助者(backer),他也是 Inflection AI的联合创始人之一。 许多风险投资家还预测了人工智能个人助理与日常生活的融合。 亿万富翁、Andreessen Horowitz创始人马克·安德森(Marc Andreessen)在他的一篇文章中写道,像Pi这样的聊天机器人将会在从创意艺术到政府的各个领域中普及。“每个人都将拥有一个无限耐心、无限同情、无限知识和无限帮助的人工智能助手、教练、导师、训练师、顾问、心理治疗师,” Andreessen还写道。“这个人工智能助手将在生活的所有机遇和挑战中存在,最大限度地提升每个人的生活品质。” Inflection AI的首款产品是一个名为Pi的聊天机器人,它比其他个人助理的功能要有限得多。事实上,它比许多竞争对手的聊天机器人更有限,如OpenAI的ChatGPT和Google的Bard。Inflection AI的首席执行官Suleyman表示,Pi的设计目的仅仅是成为一个富有同理心的倾听者和善于对话的伙伴,而不是用于完成撰写研究报告、提供头脑风暴市场营销思路或编写软件代码等任务,而这些正是许多竞争对手的聊天机器人都可以完成的任务。“个人人工智能将是我们一生中所面临的最具变革性的工具。这真的是一个拐点,” Suleyman说,“我们很高兴与NVIDIA、微软、CoreWeave以及Eric、Bill和其他许多人合作,将这一愿景变为现实。” 根据Inflection AI对外的说法,Pi是一个“ 教师、教练、知己、创作伙伴和倾听者”,在实时与用户交流方面非常有用。 但是Inflection AI的雄心远不止于此。该公司称为Pi提供动力的人工智能系统,即公司所称的Inflection-1,在许多任务上的表现优于一些竞争对手的
大型
语言
模型
(LLM),包括OpenAI的GPT-3.5(驱动ChatGPT的免费版本)和Meta的人工智能研究员创建的开源AI系统LLaMA。不过,在性能方面,Inflection-1目前仍落后于最强大的LLM,如OpenAI的GPT-4和Google的PaLM 2模型。 在宣布最新融资轮的新闻稿中,Inflection AI表示筹集到的资金将用于与芯片制造商Nvidia和计算基础设施公司CoreWeave合作,建造一台超级计算机,以用于训练大规模的人工智能模型。 这台超级计算机将由22,000颗Nvidia最强大的人工智能应用计算芯片H100 Tensor Core组成,这将是世界上最强大的GPU集群之一。 这台超级计算机最近在11分钟内完成了一个MLPerf参考训练任务,该任务一个评估人工智能和其他技术的训练和性能的基准。
lg
...
Heidi
2023-06-30
英伟达与云计算巨头Snowflake达成合作
go
lg
...
使用他们自己的专有数据安全地构建定制的
大型
语言
模型
。这位高管表示,这笔交易不同于英伟达与ServiceNow的合作。上个月,英伟达宣布与ServiceNow合作,为IT管理、客户服务和人力资源应用提供更加标准化的服务。 相反,每个Snowflake的模型将由每个客户单独构建、训练和微调,并存储在Snowflake的数据云上。 Snowflake将整合英伟达的人工智能软件和芯片,为这项服务提供动力。英伟达没有具体说明新功能将于何时发布。
lg
...
金融界
2023-06-27
美国出口管制发酵!中国黑市抢购处理器研发AI 英伟达:违反协议将采取“适当行动”
go
lg
...
训练才能发挥作用,生成式AI基于所谓的
大型
语言
模型
,这意味着它需要接受大量语言的训练,以便能够理解并响应用户的提示。 这些数据的处理需要大量由特定半导体驱动的计算能力,例如美国公司英伟达销售的半导体,该公司被视为此类芯片的市场领导者。 美国目前的部分限制措施旨在切断中国与英伟达部分关键芯片的联系,这反过来可能会阻碍中国AI的发展。美国还在进行对外投资审查,这将为美国对外国公司的投资制定规则。 “即将出台的对外投资审查行政令,将包括限制美国对部分人工智能相关技术的投资,这将是拜登政府最后两年美国技术管制走向的重要标志。”特里奥洛表示。
lg
...
小萧
2023-06-27
晚间必读 | Cosmos 对传统区块链的威胁
go
lg
...
:生成式人工智能领域的 4 个突破点
大型
语言
模型
(LLMs)已经成为科技行业的热点,为我们提供了一些令人称奇的体验——从几秒钟内编写一周的代码,到生成比与人类进行的对话更富有共情的对话。通过使用成千上万个GPU进行数万亿令牌的数据训练,LLMs展示了出色的自然语言理解能力,并改变了文案和代码等领域,将我们推进了全新、令人兴奋的生成式AI时代。与任何新兴技术一样,生成式AI也受到了一些批评。尽管这些批评在一定程度上反映了LLMs当前能力的局限性,但我们将这些阻碍视为进一步创新的机会,而不是技术本质性的缺陷。点击阅读 4.LSDfi群雄割据 谁将成为“汉中王”? 如今,LSDfi 是捕获 Binance 目光的最新叙事,这里有一个潜在的价值 169 亿美元的市场,并且在三周内已经增长了 102%!在这场 LSDfi 战争中,谁将获胜?Mochi 使用 DuneAnalytics 的数据进行分析,帮助大家找出答案!点击阅读 5.Cosmos 对传统区块链的威胁 单一块链在它们存在的时候确实很好,然而,它们最终遇到了区块链三难(去中心化、可扩展性、安全性)问题,因为它们试图在每个节点上完成所有事情(共识、数据可用性、结算和执行)。使用模块化区块链来避免这个问题,是通过将区块链的许多角色分割成不同的层次来完成。因此,区块链可以以一种最小化权衡的方式来扩展。点击阅读 来源:金色财经
lg
...
金色财经
2023-06-25
中美科技霸权争夺战:这一领域可能成为“新战场”!
go
lg
...
据的训练才能工作。生成式AI基于所谓的
大型
语言
模型
,这意味着它需要用大量语言训练,才能了解并响应用户的提问。 这些数据的处理需要大量的计算能力,而这些计算能力是由特定的半导体驱动的,比如美国公司英伟达(Nvidia)销售的半导体,该公司被视为此类芯片的市场领导者。 美国目前的部分限制措施旨在阻止中国获得英伟达的一些关键芯片,从而可能会阻碍中国的人工智能发展。 美国也正在展开境外投资审查,这将为美国对外国公司的投资制定规则。 Triolo说:“即将出台的境外投资审查行政命令将包括限制美国对一些AI相关技术的投资,这将是拜登政府最后两年美国技术控制方向的一个重要标志。”
lg
...
天马行空
2023-06-23
Etherscan AI工具Code Reader官方教程
go
lg
...
生成答案:这些响应由 OpenAI 的
大型
语言
模型
(LLM) 生成,仅供参考。始终验证它们的准确性,不要仅仅依赖它们作为证据或提交漏洞赏金。 生成提示:要使用该工具,你需要有效的OpenAI API 密钥和足够的 OpenAI 使用限制。此工具不存储你的 API 密钥。 聊天完成模式:该工具目前仅支持一次性提示,不允许连续对话。 Code Reader 5步使用法 1、首先输入你的 OpenAI API 密钥。 2、粘贴你想探索的合约地址。 3、该工具将自动获取与提供的合约相关的所有文件。 4、检索到合约文件后,你可以选择要通读的特定源代码文件。此外,你可以在与 AI 共享之前直接在 UI 中修改源代码。 5、根据选定的源代码,你可以生成 AI 提示与代码进行交互并提出问题以加深理解。 用例示范 代码概述:为特定部分代码或函数生成 AI 提示,让你更深入地了解那部分代码。利用有针对性的问题获得 AI 生成的解释,使你能够深入研究代码的内部工作原理。当第一次与智能合约交互时,此功能特别有价值,因为它提供了对其操作和功能的透彻理解。此外,利用此功能生成文档以供参考。 检索读/写函数:获取与读写以太坊数据相关的智能合约函数的完整列表,以及它们各自功能的详细说明。有了这些信息,你可以就如何直接在相应的合约地址页面上的“读取合约”或“写入合约”选项卡下与这些功能进行交互做出明智的决定。 探索 dApp 集成:深入研究代码,全面了解如何将所选智能合约与你的去中心化应用程序 (dApp) 无缝集成。 代理合约的限制 粘贴代理合约地址时,工具不会自动获取执行合约的合约文件。要访问相关的执行合约,你可以进入代理合约的地址页面,勾选“Read/Write as Proxy”选项卡并复制地址: 如果“Read/Write as Proxy”选项卡不可用,你可以导航至下方按钮,在Proxy Contract Verification页面点击“Verify”,复制找到的实现地址: 单击“这是代理吗?” 按钮 来源:金色财经
lg
...
金色财经
2023-06-20
人工智能遇上大麻烦了! 产出内容全是“垃圾” 科学家警告AI训练AI将产生“模型崩溃”
go
lg
...
溃”。 ChatGPT和OpenAI等
大型
语言
模型
通常被认为是基于从互联网上获取的大量数据进行训练的,而这些数据直到最近都是主要由人类生成的。 但随着我们对这些工具的使用增加,人工智能生成的内容正在大规模地添加到未来语言模型将学习的在线数据池中。 科学家们表示,经过几代的训练,这意味着错误和无意义的情况将会不断增加,使得后续的人工智能无法区分事实和虚构。这些人工智能将会“开始错误地解释他们认为是真实的事物,从而强化他们自己的信念”。 Anderson使用莫扎特及其不那么有才华的同时代作曲家安东尼奥·萨列里的作品来说明这个问题。他写道:“如果你用莫扎特训练一个音乐模型,你会得到一些有点像莫扎特但缺乏亮点的输出结果—我们称之为'萨列里'。如果现在由萨列里训练下一代,依此类推,第五代或第六代会是什么样子?” 论文的首席作者、牛津大学的Ilia Shumailov博士表示,问题出在AI在之前的AI上进行训练后对概率的理解。不太可能发生的事件在其输出中越来越不太可能反映出来,这限制了下一代AI在理解上一代AI输出的可能性。 论文中给出的一个例子是,将一个由人类生成的关于中世纪建筑的文本输入到一个AI语言模型中,然后使用该模型的输出来训练后续几代的AI。 原始文本中对竞争的建筑理论进行了熟练的处理,经过多次循环后,第九代的文本变成了无意义的内容。 Anderson将其比喻为大规模的污染,写道:“正如我们将海洋填满了塑料垃圾,大气层充斥着二氧化碳一样,我们即将用无聊的内容填满互联网。” 人工智能生成的内容已经大规模地在网上出现。在线虚假信息监测机构NewsGuard在5月份警告称,他们发现了49个新闻网站,看起来完全是由人工智能编写的。 而根据《华盛顿邮报》的报道,营销和公关机构越来越多地将它们的文案交给聊天机器人,使人类作家失去了工作机会。 但是,在Shumailov和Anderson的研究结果出来之后,希望不被AI超越的人类作家们还不能太过自满。 Shumailov表示,人类生成的数据并不是训练AI所必需的绝对要素,人类生成的数据之所以有用,是因为它们包含了自然变化、错误和不太可能的结果。“所以人类肯定会提供帮助,但同时也不意味着人类数据是一个重大要求。”
lg
...
楼喆
2023-06-20
到了2030年 GPT会发展成什么样?
go
lg
...
很快成具备超级智能。这两项工作都利用了
大型
语言
模型
的大型上下文窗口,现在这个规模已经超过 100000 token 并且还在增长。 更一般而言,机器学习模型的技能情况跟人类不一样,因为人类与机器学习适应的是非常不同的数据源(人类通过进化,机器学习通过海量互联网数据)。当模型在视频识别等任务上达到人类水平时,它们很可能就能在许多其他任务(如数学、编程以及黑客攻击)中表现出超人水平。此外,由于模型变得更大数据变得更好,随着时间的推移可能会出现其他的强大功能,预期模型功能“维持”或低于人类水平没有充分的理由。虽然当前的深度学习方法有可能在某些领域达不到人类水平,但它们也有可能会超越人类,甚至显著超越人类水平也说不定,尤其是在人类在进化上不擅长的数学等领域。 2. 推理速度 (感谢 Lev McKinney 为本节运行性能基准测试。) 为了研究机器学习模型的速度,我们测量了机器学习模型生成文本的速度,以每分钟 380 个单词的人类思维速度为基准。使用 OpenAI 的chat completions API,我们估计 gpt-3.5-turbo 每分钟可以生成 1200 个单词 (words per minute,wpm),而 gpt-4 是 370 wpm(截至 2023 年 4 月初)。规模较小的开源模型,如 pythia-12b ,用 A100 GPU 跑用开箱即用的工具,至少可达到 1350 wpm,通过进一步优化似乎可以再翻一番。 因此,如果以截至 4 月份的 OpenAI 模型为参照,人工智能的速度要么大约是人类速度的 3 倍,要么等于人类速度。我预测模型在未来的推理速度会更快,因为在加速推理方面存在很大的商业与实践压力。事实上,根据 Fabien Roger 的跟踪数据,在这篇文章发表之前的一周,GPT-4 的速度已经增加到约 540wpm(12 个token/秒);这表明存在持续的改进空间与意愿。 我的预测中值是模型的 wpm 将是人类的 5 倍(范围:[0.5x, 20x]),因为这之后会出现边际收益递减的情况,尽管有一些考虑会指向更高或较低的数字。 重要的是,机器学习模型的速度不是固定的。模型的串行推理速度可以以吞吐量减少 k 倍为代价将速度提高 k 平方倍(换句话说,一个模型 k 立方倍的并行副本可以替换为速度快 k 平方倍的一个模型)。这可以通过并行平铺法来实现,理论上甚至适用于比 k 平方还要大的情况,可能至少是 100 甚至更多。因此,通过把 k 设为 5 的话,可以将 5 倍于人类速度的模型加速到 125 倍于人类速度。 重要提醒,速度与质量未必匹配:如第 1 节所述,GPT 2030 的技能组合跟人类不一样,机器在某些我们认为很容易的任务上会失败,而在某些我们感觉困难的任务却很精通。因此,我们不应把 GPT 2030 看作是“高速版人类”,而应将其看作是具有违反直觉的技能的,“高速版员工”。 尽管如此,把加速因素纳入考虑仍然很有参考意义,尤其是当加速值很大时。如果语言模型获得了 125 倍的加速,假设其处于 GPT 2030 的技能范围内,需要我们一天时间的认知动作,GPT 就可以在几分钟内完成。以前面的黑客攻击为例,机器学习系统可以快速建立起对我们来说生成速度较慢的漏洞利用或攻击。 3. 吞吐量与并行副本 模型可以根据可用的计算和内存情况任意复制。这样任何可以并行化的工作都可以快速完成。此外,一旦一个模型被微调到特别有效,改变就可以立即传播到其他实例。模型也可以针对专门的任务进行提炼,从而跑得更快、成本更低。 一旦模型经过训练,可能就会有足够的资源来跑模型的多个副本。这是因为训练一个模型需要运跑它的很多个并行副本,而训练这个模型的组织在部署的时候仍将拥有这些资源。因此,我们可以通过估算训练成本来降低副本数量。 举个例子说明一下这种逻辑,训练 GPT-3 的成本足以让它执行 9 x 10^11 次前向传播。换句话说,人类每分钟的思考量是 380 个单词,一个单词平均为 1.33 个 token,因此 9 x 10^11 次前向传播相当于以人类速度工作约 3400 年。因此,用人类的工作速度该组织可以跑 3400 个模型的并行副本一整年,或者以 5 倍于人类的速度跑相数量的副本 2.4 个月。 我们接下来为未来的模型设计同样的“训练悬垂”(训练与推理成本的比率)。这个比率应该会更大:主要原因是训练悬垂与数据集大小大致成正比,而数据集会随着时间的推移而增加。随着自然产生的语言数据被我们用完,这种趋势将会放缓,但新的模式以及合成或自生成的数据仍将推动它向前发展。我预测 2030 年的模型可使用足够的资源进行训练,去执行相当于人类速度 1800000 年的工作[范围:400k-10M]。 请注意,Cotra (2020) 与 Davidson (2023) 估计的数量相似,得出的数字比我得预测更大;我想主要区别在于我对自然语言数据耗尽所产生影响得建模方式不一样。 上面的预测有些保守,因为如果组织购买额外的计算资源的话,模型可使用得资源可能会多于训练时所用资源。粗略估计表明,GPT-4 使用了全球计算资源的约 0.01% 进行训练,不过我预计未来的训练占用全球计算总量的份额会更大,因此在训练后进一步扩展的空间会更小。尽管如此,如果组织有充分理由去扩展资源的话,仍然可以将所运行的副本数量提高到另一个数量级。 4. 知识分享 (感谢 Geoff Hinton 首先向我提出了这个观点。) 模型的不同副本可以共享参数更新。比方说,ChatGPT 可以部署到数百万用户那里,从每次交互中学到一些东西,然后将梯度更新(gradient updates)传播到中央服务器,在做过平均处理后再应用到模型的所有副本上。通过这种方式,ChatGPT 在一个小时内观察到的人性比人类一辈子(100 万小时 = 114 年)看过的东西还要多。并行学习也许是模型最重要的优势之一,因为这意味着它们可以快速学习任何自己缺失的技能。 并行学习的速率取决于一次跑多少个模型副本,它们获取数据的速度有多快,以及数据是否可以高效地并行利用。最后这一点,即使是极端的并行化也不会对学习效率造成太大影响,因为数百万的批量大小在实践中很常见,并且梯度噪声尺度(McCandlish 等人,2018 年)预测学习性能在某个“临界批量大小”以下劣化程度最小。因此,我们将聚焦在并行副本和数据采集上。 我会提供两个估计,这两个估计都表明以人类的速度并行学习至少约 100 万份模型是可行的。也即是说,机器一天的学习量相当于人类学 2500 年,因为 100 万天 = 2500 年。 第一个估计用到了第 3 节中的数字,得出的结论是训练模型的成本足以模拟模型 180 万年的工作(根据人类速度进行调整)。假设训练运行本身持续了不到 1.2 年(Sevilla 等人,2022 年),这意味着训练模型的组织有足够的 GPU 以人类速度运行 150 万个副本。 第二个估计考虑了部署该模型的组织所占市场份额。比方说,如果一次有 100 万用户向模型发起查询,则组织必然有资源来服务 100 万个模型副本。大致而言,截至 2023 年 5 月,ChatGPT 拥有 1 亿用户(并非同时全部活跃),截至 2023 年 1 月,其每天有 1300 万活跃用户。我假设典型用户的请求量相当于模型几分钟的生成文本,因此 1 月份的数字可能意味着每天大概只有 5 万人日的文本。不过,未来的 ChatGPT 式的模型似乎很可能会达到其 20 倍之多,日活用户可以达到 2.5 亿更多,因此每天将会有 100 万人日的数据。相比之下,Facebook 的日活用户数是 20 亿。 5. 多模态、工具与执行器 从历史上看,GPT 风格的模型主要是基于文本和代码进行训练,除了通过聊天对话之外,与外界互动的能力有限。然而,这种情况正在迅速改变,因为模型正在接受图像等其他模态的训练,正在接受使用工具的训练,并开始与物理执行器交互。此外,模型不会局限于文本、自然图像、视频和语音等以人类为中心的模态——它们也可能会接受网络流量、天文图像或其他海量数据源等人类不熟悉的模态的训练。 工具。最近发布的模型开始利用了外部工具,如 ChatGPT 插件等。文本与工具使用相结合足以编写出可执行的代码,说服人类让机器替他们采取行动,进行 API 调用,交易,甚至执行网络攻击都有可能。工具的使用具备经济用途,因此会有进一步发展这种能力的强烈动机。 ChatGPT 是被动的:用户说 X,ChatGPT 回应 Y。风险存在但有限。很快就会有主动系统 - 一个助手会替你回复电子邮件,代表你采取行动等。这样风险会更高。 - Percy Liang (@percyliang) 2023 年 2 月 27 日 新模态。现在有大型开源视觉语言模型,如 OpenFlamingo,在商业方面,GPT-4 和 Flamingo 都接受了视觉和文本数据的训练。研究人员还在试验更多奇异的模态对,例如蛋白质和语言(Guo 等人,2023 年)。 我们应该期望大型预训练模型的模式会继续扩展,原因有二。首先,在经济上,将语言与不太熟悉的模态(如蛋白质)配对有它的用处,这样用户就可以从解释并有效地进行编辑中受益。预测会用蛋白质、生物医学数据、CAD 模型以及与主要经济部门相关的任何其他模态进行多模态训练。 其次,我们将开始用完语言数据,因此模型开发人员得搜索新类型的数据,从而可以继续受益于规模。除了传统的文本和视频之外,现有数据源当中天文数据(很快将达到每天艾字节得规模)和基因组数据(大约 0.1 艾字节/天)是规模最大之一。这些以及其他得海量数据源可能会被用于训练 GPT 2030。 使用外来模态意味着 GPT 2030 可能会具备非直觉的能力。它可能比我们更了解恒星和基因,即尽管它现在处理基本的物理任务都比较困难。这可能会带来惊喜,比方说设计出新的蛋白质,这是我们基于 GPT 2030 那种“一般”智能水平预料不到的。在思考 GPT 2030 的影响时,重要的是要思考由于这些奇异的数据源而可能形成的超人能力。 执行器。模型也开始使用物理的执行器:ChatGPT 已经用于机器人控制,OpenAI 正在投资一家人形机器人公司。不过,在物理域收集数据要比在数字域收集数据昂贵得多,而且人类在进化上也更适应物理域(因此机器学习模型与我们竞争的门槛更高)。因此,与数字工具相比,我预计人工智能掌握物理执行器的速度会更慢,而且我不确定我们是否该在 2030 年之前做到这一点。量化而言,我认为在 2030 年实现自主组装一辆按比例复制的法拉利的概率是 40%。 6. GPT-2030 的影响 接下来我们将分析像 GPT 2030 这样的系统对社会意味着什么。具备 GPT 2030 特征的系统至少会显著加速某些领域的研究,同时被滥用的规模也大得很。 我会从分析 GPT 2030 的一些一般优势和局限性开始,然后用来作为分析加速和滥用的视角。 优势。GPT 2030 代表的是一支庞大、适应性强、高产出的劳动力队伍。回忆一下吧,多个 GPT 2030 副本并行工作,按照 5 倍于人类的运行速度,可以完成 180 万年的工作。这意味着我们可以(受到并行性的限制)模拟 180 万个代理,每个代理在 2.4 个月内即可完成一年的工作。如上所述,对于 FLOP (浮点运算),我们可以开出 5 倍的费用,从而换取额外 25 倍的加速(这将达到人类速度的 125 倍),因此我们还可以模拟出 14000 个代理,这些代理每个都能在 3 天内完成一年的工作。 限制。利用这种数字劳动力存在三个障碍:技能情况、实验成本以及自主性。首先,GPT 2030 将拥有与人类不同的技能组合,导致它在某些任务上表现更差(但在其他任务上表现更好)。其次,模拟人工仍然需要与物理世界对接,以便收集数据,这个本身需要时间和计算成本。最后,在自主性方面,如今的模型在被“卡住”之前只能通过思维链生成几千个 token,进入到没法生成高质量输出的状态。在将复杂任务委托给模型之前,我们需要显著提高其可靠性。我预计可靠性会提高,但并非没有限制:我(非常粗略)的猜测是 GPT 2030 可以稳定运行数天(与人类等效的时间),然后就得重新设置或交给外部反馈控制。如果模型以 5 倍的速度运行的话,这意味着它们每隔几个小时就需要人工监督的介入。 因此,GPT 2030 影响最大的任务应该具备以下特性: 利用了 GPT 2030 相对于人类具备优势的技能。 只需要外部经验数据(收集应该很轻松快速,与昂贵的物理实验相反)的任务。 可以先验分解为可靠执行的子任务,或者具有清晰且可自动化的反馈指标来帮助引导模型的任务。 加速。有项任务这三条标准都很容易满足,那就是数学研究。首先,GPT 2030 可能具备超人的数学能力(第 1 节)。这第二条和第三条,数学可以纯粹通过思考和写作来完成,而且什么时候定理得到证明我们是知道。此外,全球的数学家总共也没多少(比方说美国就只有 3000 人左右),因此 GPT 2030 也许每隔几天模拟一次产出就能超过所有数学家的年产。 机器学习研究的一些重要部分也符合上述标准。GPT 2030 在编程方面能力超人,其中包括实施和运行实验。鉴于 GPT-4 擅长以通俗易懂的方式解释复杂的主题(并且市场对此也有很大需求),我猜它也能很好地呈现和解释实验结果。因此,届时机器学习研究可能会简化成构思出好的实验来运行,并与高质量(但可能不可靠)的结果报告进行交互。因此,到 2030 年时,研究生拥有的资源堪比今天带领几名优秀学生的教授手上的资源。 部分社会科学也可以得到显著加速。很多论文大部分的工作是对具备科学有趣性的数据源进行追查、分类和标记,并从中析取出重要模式。这满足了第 3 条要求,因为分类和标记可以分解为简单的子任务,并且也满足第 2 条要求,只要数据在互联网上能找到,或者可以通过在线调查收集到即可。 滥用。加速只是一方面,另一方面也会存在严重的滥用风险。最直接的案例是表现出网络攻击性的黑客能力。检查特定目标是否存在特定类型的漏洞可能会得到可靠执行,并且很容易就能检查漏洞利用是否成功(前提是能够与代码交互),因此第 3 条要求是都可以满足的。在第 2 条要求上,GPT 2030 需要与目标系统交互去了解漏洞利用是否有效,这会带来一些成本,但不足以构成重大瓶颈。此外,该模型可以在本地设计好,以开源代码作为训练数据源,去测试漏洞利用,因此它可以提前练好黑客攻击技能,然后再与外部系统进行交互。也就是说,GPT 2030 可以针对大量并行目标快速执行复杂的网络攻击。 滥用的第二个来源是操纵。如果 GPT 2030 同时与数百万用户进行交互的话,那么它在一个小时内获得的人机交互体验比人一生(100 万小时 = 114 年)获得的交互体验都要多。如果它利用这些交互来学习如何操纵,那么它就可以获得远超人类的操纵技能——打个比方,骗子擅长欺骗受害者,因为他们之前已经在数百人身上练习过,而 GPT 2030 可以将这项技能提高几个数量级。因此,它可能非常擅长在一对一对话中操纵用户,或者擅长撰写新闻文章来影响公众舆论。 因此,总而言之,GPT 2030 可以将几乎所有的数学研究以及其他研究领域的重要组成部分自动化,并且可能成为网络攻击和说服/操纵等滥用行为的强大载体。其大部分影响将受到“监督瓶颈”的限制,因此如果人工智能可以长时间自主运行的话,那么它的影响可能会更大。 来源:金色财经
lg
...
金色财经
2023-06-19
上一页
1
•••
86
87
88
89
90
•••
115
下一页
24小时热点
特朗普刚刚重磅表态!与习近平举行了“了不起”的会晤 中美达成一项贸易协议
lg
...
特朗普-习近平会谈结果早已被定价!细节不多难消市场怀疑,黄金强势站上4000
lg
...
【直击亚市】中美领导人会晤结束、历时约100分钟!日本央行按兵不动刺激日元
lg
...
中美突发重磅!尽管特朗普与习近平达成协议 美国对中国的关税调查仍将继续
lg
...
习特会似乎并未带来实质性突破!黄金大涨超70美元重上4000大关,买盘回归?
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链界盛会#
lg
...
135讨论
#VIP会员尊享#
lg
...
1989讨论
#比特日报#
lg
...
9讨论