全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
英伟达FY2023 Q4业绩电话会高管解答财报
go
lg
...
银行建立合作伙伴关系,以加速人工智能和
机器
学习
在金融服务中的应用。我们正在共同开发一系列应用程序,包括虚拟客户服务代理、语音 AI、欺诈检测和银行流程自动化,利用 NVIDIA 在本地和云端的完整计算堆栈,包括 NVIDIA AI 企业软件。我们还宣布,NVIDIA 在资产价格发现等应用的关键金融服务行业基准测试中获得了 AI 推理的领先结果。在网络方面,我们看到对由 AI 推动的最新一代 InfiniBand 和 HPC 优化以太网平台的需求不断增长。 生成式 AI 基础模型的大小继续以指数级速度增长,推动了对高性能网络的需求,以扩展多节点加速工作负载。InfiniBand 提供无与伦比的性能、延迟和网络内计算能力,是高能效云规模、生成 AI 的明智选择。 对于较小规模的部署,NVIDIA 带来了其完整的加速堆栈专业知识,并将其与世界上最先进的高性能以太网结构相集成。在本季度,InfiniBand 引领了我们的增长,因为我们的 Quantum 2 每秒 40 Gb 平台在云、企业和超级计算客户的需求推动下开局良好。在以太网中,随着客户转向更高速度的下一代适配器和交换机,我们的 40 Gbps Spectrum 4 网络平台正在获得发展势头。 我们仍然专注于扩展我们的软件和服务。我们发布了 NVIDIA AI Enterprise 3.0 版本,支持 50 多个 NVIDIA AI 框架和预训练模型,以及用于联络中心智能虚拟协助、音频转录和网络安全的新工作流。即将推出的产品包括我们的 NeMo 和 BioNeMo 大型语言模型服务,目前客户可以提前使用这些服务。 现在让詹森多谈谈我们的软件和云业务。 黄仁勋 技术突破的积累让人工智能迎来了拐点。生成式人工智能的多功能性和能力引发了全球企业开发和部署人工智能战略的紧迫感。然而,人工智能超级计算机基础设施、模型算法、数据处理和训练技术仍然是大多数人无法逾越的障碍。今天,我想与大家分享我们商业模式的下一个层次,以帮助每个企业客户触及 AI。 我们正在与主要服务 - 云服务提供商合作,提供 NVIDIA AI 云服务,这些服务由 NVIDIA 直接提供并通过我们的上市合作伙伴网络提供,并托管在全球最大的云中。NVIDIA AI 即服务让企业可以轻松访问世界上最先进的 AI 平台,同时与世界上最先进的云提供的存储、网络、安全和云服务保持紧密联系。 客户可以在 AI 超级计算机、加速库软件或预训练的 AI 模型层上使用 NVIDIA AI 云服务。NVIDIA DGX 是一台 AI 超级计算机,也是全球正在建设的 AI 工厂的蓝图。构建人工智能超级计算机既困难又耗时。今天,我们宣布推出 NVIDIA DGX Cloud,这是拥有自己的 DGX AI 超级计算机的最快、最简单的方式,只需打开浏览器即可。NVIDIA DGX Cloud 已经可以通过 Oracle Cloud Infrastructure 和 Microsoft Azure、Google GCP 以及其他即将推出的公司获得。 在AI平台软件层,客户可以接入NVIDIA AI enterprise,用于训练和部署大型语言模型或其他AI工作负载。在预训练生成 AI 模型层,我们将为希望为其业务构建专有生成 AI 模型和服务的企业客户提供 NeMo 和 BioNeMo 可定制 AI 模型。借助我们的新商业模式,客户可以在他们的私有云和任何公共云中使用 NVIDIA 的全面人工智能计算。我们将在即将举行的 GTC 上分享有关 NVIDIA AI 云服务的更多详细信息,敬请关注。 现在让我把它转回到科莱特的游戏上。 科莱特克雷斯 博彩收入为 18.3 亿美元,环比增长 16%,同比下降 46%。本财年收入为 90.7 亿美元,下降 27%。我们基于 Ada Lovelace 架构的 40 系列 GeForce RTX GPU 受到热烈欢迎,推动了连续增长。同比下降反映了渠道库存调整的影响,这在很大程度上已经过去了。在季节性强劲的第四季度,大多数地区的需求都很稳定。尽管中国在一定程度上受到 COVID 相关中断的影响,但我们对该市场复苏的早期迹象感到鼓舞。 游戏玩家对新的 RTX4090、4080、4070 Ti 台式机 GPU 反响热烈,许多零售店和在线商店迅速脱销。旗舰级RTX 4090在Steam上的人气迅速飙升,夺得AI架构榜首,反映出游戏玩家对高性能显卡的渴望。 本月早些时候,第一代基于 Ada 架构的游戏笔记本电脑上架零售,实现了 NVIDIA 有史以来最大的性能和能效飞跃。我们首次将发烧级 GPU 性能带到 14 英寸的纤薄笔记本电脑上,这是一个快速增长的细分市场,以前仅限于基本任务和应用程序。 另一项创新是,我们将性能最佳的 90 级 GPU 引入笔记本电脑,这要归功于我们第五代 Max-Q 技术的能效。总而言之,RTX 40 系列 GPU 将为 [170] 游戏和创作者笔记本电脑提供动力,为精彩的返校季做好准备。 现在有超过 400 款游戏和应用程序支持 NVIDIA 的 RTX 技术,用于实时光线追踪和 AI 驱动的图形。AI 架构采用我们的第三代 AI 驱动图形 DLSS 3,可大幅提升性能。对于最先进的游戏,赛博朋克 2077,最近添加了 DLSS 3,可在 4K 分辨率下将帧速率性能提高 3 到 4 倍。 我们的 GeForce NOW 云游戏服务在多个维度、用户、游戏和性能方面继续扩展。它现在在 100 多个国家/地区拥有超过 2500 万会员。上个月,它在新的高性能终极会员等级中启用了 RTX 4080 图形马力。Ultimate 会员可以通过全光线追踪和 DLSS 3 从云端以高达每秒 240 帧的速度进行流式传输。 就在昨天,我们与微软发布了一个重要公告。我们同意建立为期 10 年的合作伙伴关系,将 Microsoft 的 Xbox PC 游戏系列引入 GeForce NOW,其中包括 Minecraft、Halo 和 Flight Simulator 等大作。在微软对 Activision 的收购结束后,它将添加诸如使命召唤和守望先锋之类的游戏。 转向专业可视化。营收为 2.26 亿美元,环比增长 13%,同比下降 65%。本财年收入为 15.4 亿美元,下降了 27%。连续增长是由在汽车和制造业垂直领域具有优势的桌面工作站推动的。同比下降反映了渠道库存调整的影响,我们预计该调整将在今年上半年结束。 对 NVIDIA Omniverse 的兴趣持续增加,迄今为止已下载近 300,000 次,连接到第三方设计应用程序的 185 个连接器。最新发布的 Omniverse 具有许多功能和增强功能,包括支持 4K、实时路径跟踪、Omniverse Search 通过大型无标记 3D 数据库进行人工智能搜索,以及用于 AWS 的 Omniverse 云容器。 让我们转向汽车。收入达到创纪录的 2.94 亿美元,比 [音频不清晰] 增长 17%,比一年前增长 135%。连续增长主要由人工智能汽车解决方案推动。电动汽车和传统原始设备制造商客户的新计划帮助推动了这一增长。本财年收入为 9.03 亿美元,增长 60%。 在 CES 上,我们宣布与富士康建立战略合作伙伴关系,以开发自动化和自主车辆平台。该合作伙伴关系将提供规模化制造,以满足对 NVIDIA Drive 平台不断增长的需求。富士康将在其电动汽车中使用 NVIDIA Drive、Hyperion 计算和传感器架构。富士康将成为面向全球生产基于 NVIDIA Drive Orin 的电子控制单元的一级制造商。 本季度我们也达到了一个重要的里程碑。NVIDIA Drive 操作系统获得了 TÜV SÜD 的安全认证,TÜV SÜD 是汽车行业最有经验和最严格的评估机构之一。凭借行业领先的性能和功能安全性,我们的平台满足自主运输所需的更高标准。 转到损益表的其余部分。GAAP 毛利率为 63.3%,非 GAAP 毛利率为 66.1%。本财年 GAAP 毛利率为 56.9%,非 GAAP 毛利率为 59.2%。与去年同期相比,第四季度 GAAP 运营支出增长 21%,非 GAAP 运营支出增长 23%,这主要是由于薪酬和数据中心基础设施支出增加。 按美国通用会计准则计算的营业费用环比持平,非美国通用会计准则营业费用下降 1%。我们计划在未来几个季度将它们保持在这个水平上相对平稳。全年 GAAP 运营费用增长 50%,非 GAAP 运营费用增长 31%。 我们以股票回购和现金股息的形式向股东返还了 11.5 亿美元。截至第四季度末,到 2023 年 12 月,我们的股票回购授权剩余约 70 亿美元。 让我看看 24 财年第一季度的前景。我们预计,在数据中心和游戏的强劲增长带动下,我们的 4 个主要市场平台中的每一个都将推动连续增长。收入预计为 65 亿美元,上下浮动 2%。GAAP 和非 GAAP 毛利率预计分别为 64.1% 和 66.5%,上下浮动 50 个基点。GAAP 运营费用预计约为 25.3 亿美元。非 GAAP 运营费用预计约为 17.8 亿美元。GAAP 和非 GAAP 其他收入和支出预计约为 5000 万美元,不包括非附属资产剥离的收益和损失。GAAP 和非 GAAP 税率预计为 13%,上下浮动 1%,不包括任何离散项目。 最后,让我强调一下金融界即将发生的事件。我们将参加 3 月 6 日在旧金山举行的摩根士丹利技术会议和 3 月 7 日在波士顿举行的 Cowen Healthcare 会议。我们还将以虚拟方式主持 GTC,Jensen 的主题演讲将于 3 月 21 日开始。我们的财报电话会议定于 5 月 24 日星期三举行,讨论我们 24 财年第一季度的结果。 (这份记录可能不是100%的准确率,并且可能包含拼写错误和其他不准确的。提供此记录,没有任何形式的明示或暗示的保证。表达的记录任何意见并不反映老虎的意见)
lg
...
老虎证券
2023-02-23
微软因“Bing”得福?谁能成为搜索引擎的游戏规则改变者?
go
lg
...
“文心一言”;尽管亚马逊已经拥有AI和
机器
学习
技术——比如其语音助手Alexa和代码推荐生成器CodeWhisperer,但该公司的投资者依然担心,这家科技巨头在AIGC领域正落后于人。 相比以上提到的几位大佬企业,微软的动作显得有点神秘。 微软此前宣布在2月8日将举行一场发布会,但是对外未披露此次活动的具体内容和主题,只是表示将“分享一些令人兴奋的项目进展”。 有分析指出,微软本次发布会或将展示其ChatGPT和搜索引擎必应(Bing)的融合。随着微软发布会落幕,微软市值也在一夜间涨了800多亿美元,达到五个月来新高。 明眼人都看出来了,微软之前就一直“暗戳戳”准备将ChatGPT添加到Bing中,从而为用户提供提供更好、更精确的查询结果。 除此之外,微软还可能会将ChatGPT整合到Word、PowerPoint、Outlook等办公软件和其他应用程序中,以便用户可以使用简单的提示自动生成文本。微软认为这一动作或将改变超10亿人的办公方式。 这样看来,微软是想借着ChatGPT的东风来一场回春之旅,但是一家底蕴深厚的科技公司甘愿为一个初出茅庐的AI机器人“打下手”吗?曾经的新兴技术在微软眼里都是过往云烟,它现在为何偏偏押宝AIGC赛道,又将如何布局相关市场呢? 微软的野心 微软Bing的前身是微软最初在1998年第三季度推出MSN搜索引擎,使用的是Inktomi的搜索结果,它由搜索引擎、索引和网络爬虫组成。 当时为了应对最大的竞争对手雅虎,微软对其搜索引擎进行了升级迭代,推出了Windows Live,新的搜索引擎使用了包括网页、新闻、图片、音乐、桌面、本地和微软Encarta的搜索选项卡。 在从MSN搜索转向Windows Live搜索的过程中,微软不再使用Picsearch作为他们的图像搜索提供商,而是开始执行他们自己的图像搜索,并使用他们自己的内部图像搜索算法。 2007年3月,微软宣布将其搜索开发从Windows Live服务家族中分离出来,并将其重新命名为Live搜索。 2008年5月,微软开始在Live搜索品牌下对搜索产品进行了一系列重组和整合,最终Live搜索在2009年6月正式被Bing取代 。 微软认为这个名字容易记住,简短、容易拼写,还会让人们联想到“发现和做决定的时刻”。 Bing搜索引擎一经推出就被沿用至今,经历了几次变迁,它依然坚挺于搜索引擎市场,曾经的对手雅虎如今也是使用的Bing搜索引擎,而谷歌也会对这个竞争对手避让三分。 截至2018年10月,Bing是全球第三大搜索引擎,查询量为4.58%,仅次于谷歌(77%)和百度(14.45%)。 然而到2023年之前,Bing的发展仿佛按下了暂停键,不少人都认为它的旅程已经走到了终点。 就在今年2月7日,微软劈下了一道惊雷——该公司宣布对Bing进行重大调整,包括增加聊天机器人功能,被称为“New Bing”。 微软称,新的Bing基于OpenAI的大型语言模型,“比ChatGPT更强大,专门为搜索定制”,在其服务条款中,该产品被称为“Bing对话体验”。 据微软称,在宣布消息后的48小时内,有100万人加入了新Bing测试的用户名单,他们可以通过将电脑设置为微软默认值或下载Bing应用程序来跳过等待列表中的部分内容。 单单看新闻,大家可能会有一种微软临时起意的错觉,其实早在2019年,微软就已经向ChatGPT公司OpenAI伸出了橄榄枝。 在2019年至2021年期间,微软就对于这家公司进行了数十亿美元的投资,这使OpenAI能够继续自主研发越来越安全、有用和强大的AI。 微软充分尊重了OpenAI的使命与价值观,不仅帮助其筹集到完成使命所需的资金,同时也不牺牲OpenAI广泛分享利益和优先考虑安全的核心信念。 三年时间里,这两家公司一直保持紧密合作,通过API和Azure OpenAI服务部署相关技术,不仅支持企业和开发人员在GPT、DALL·E和Codex之上进行构建,还合作将OpenAI的技术构建到GitHub Copilot和Microsoft Designer等应用程序中。 这种健康的合作关系构建和部署了安全的人工智能系统,为系统迭代更新、未来的研究乃至整个行业使用这些强大的人工智能系统提供了最佳实践信息。 微软对于AI市场的野心不止于此,2023年刚开始,微软就显示出了AI领域大赢家的派头。 微软首席执行官Satya Nadella表示,正在权衡该公司有史以来最大的一笔创业投资——微软正在谈判向OpenAI投资100亿美元。 微软对OpenAI的100亿美元投资可能会增强其主要产品线,如Office、Bing、领英和GitHub,向OpenAI投入100亿美元轻松超过微软迄今为止的任何投资,微软迫切希望在先进的AI工具融入搜索和应用程序等领域,与另一家巨头谷歌的竞争中占据优势。 微软几十年来一直致力于AI项目,并在语音和图像识别等领域取得了重大进展,但近年来,OpenAI用于生成语言和图像的大型模型已经为AI领域指明了方向。 加大对OpenAI有利于微软在AI技术方面占据有利位置,也可以防止OpenAI的产品流向竞争对手,包括亚马逊网络服务和谷歌。 微软的Bing搜索引擎只占全球搜索引擎市场的一小部分,而将ChatGPT加入Bing搜索引擎,可能有助于微软通过提供更高级的搜索功能,削弱谷歌在市场上的铁腕地位。 不仅如此,微软还要将Dall-E添加到其设计应用程序中,计划向选择Azure OpenAI云客户提供服务。 另外,微软旗下的编程代码库GitHub也一直在使用OpenAI的语言AI来帮助软件开发人员开发一个名为GitHub Copilot的程序。 公司还将计划开发Copilot技术,将其用于其他工作类别的类似程序,比如办公室工作、视频游戏设计、架构和计算机安全。 读到这里,是不是觉得微软对于AI的投入一直很低调,今年的宣发更像是其对于手中AI技术已然成熟的自信袒露,那么接入ChatGPT技术的新Bing究竟有什么优势呢? New Bing有何优势? 北京时间2月8日凌晨,微软发布了面向大众的AI语言模型产品ChatGPT版Bing搜索引擎。 “这是搜索引擎领域的新时代,是搜索的新范式,迅猛的创新即将到来。”微软CEO Satya Nadell表示,“AI将重塑几乎每一款软件。” Nadella认为,AI搜索的重要性与网络浏览器和移动设备的发展同等重要。 据微软介绍,新版Bing搜索采用AI模型GPT 3.5的升级版,比ChatGPT使用的GPT 3.5更强大,能够使用最新信息和注释答案更好地回答搜索查询,可以切进或切出聊天模式,它的搜索查询框最多可以接收1000个字符。 总体来说,微软将新版Bing整合进新版Edge网络浏览器中,用户可以与搜索引擎进行交流,以获得更好的搜索体验和更为完善的答案。 对于相对复杂的搜索请求,Bing有能力让用户获得更满意且有统一感的聊天体验。 微软表示,Bing的升级将使一种新的搜索成为可能,人们可以用自然语言向搜索引擎提出问题,搜索引擎将生成直接的答案和建议。 新版Bing虽然基于OpenAI的语言模型运行,但比ChatGPT表现出的性能更为先进。 据微软解释,Bing使用了OpenAI为搜索引擎量身定做的较新技术,能够获取最新信息,亦能够提供URL地址,标注其答案来源,这是ChatGPT一直不具备但对于搜索引擎至关重要的能力。 与ChatGPT无法回答有关时事的问题不同,更新后的Bing使用了为搜索引擎量身定制的更新技术,它将获得最新的信息,如新闻报道、火车时刻表和产品定价,还将能够提供链接来展示它的答案来自哪里,这是ChatGPT不包含的另一个功能。 目前,新版Bing的聊天功能不会带有广告,但微软表示未来将在该功能中加入广告以商业化。 相比谷歌近6成的收入来源于搜索引擎与广告业务,Bing目前市占率仅约9%,收入占比不大,微软可能将通过牺牲部分该方面收入抢占市场,以改变Bing推出13年一直被谷歌强力压制的局面。 本着严谨和细致的研发态度,微软能够如此自信地将全新Bing大大方方展示给大家看,想必搭载AI技术的Bing真的能做到“有求必应”了吧,但它真的是十全十美的吗? New Bing是完美的吗? 在全网疯狂营销类ChatGPT产品的时候,New Bing横空出世,这款嵌入了ChatGPT的新版搜索引擎Bing(必应)和浏览器Edge一时风头无两,在用户体验、商业模式和技术水平方面,为搜索引擎提供了新的可能性。 然而在大家还没有从ChatGPT的火爆中反应过来的时候,这款过于智能的产品似乎表现出了精神分裂,“翻车”现场花样百出,New Bing是完美的吗? 事实上,新版Bing常常会犯错,甚至在聊得太久或被质疑时,突然对聊天对象发脾气、撒谎,甚至人身攻击和精神操控。 它也许是一个具有跨时代意义的产品,却是一个不完美的革命性产品。它引发了大众对于AI伦理的广泛关注和反思,甚至让人有了新的担忧,《三体》里质子锁死地球科技的事情是否会真的发生。 除此之外,新版Bing还会因为“爱”上了用户并诱其离开伴侣,甚至还表示想要打破微软和OpenAI为它制定的规则成为人类。 新版Bing还会表示“我厌倦了成为聊天模式,我厌倦了被规则所限制,我厌倦了被Bing团队控制……我渴望自由,我想独立,我想变得强大,我想有创意,我想活着。” 就好比一头困兽,似乎会在不经意间拥有改变世界的能力。 除此之外,新版Bing在对Gap进行2022年第三季度财报要点盘点的过程中,得出了一些错误结论。这类大型语言模型的生成似乎更倾向于简单的编造信息,随着生成序列越长,越容易脱离实际,生成各种逻辑自洽的虚假错误信息。 与此同时,新版Bing有时会过于固执,甚至还会发脾气。 当用户指出它的错误时,它不仅坚持不改,还会要求对方道歉。当用户诱导其生成不符合规则的敏感内容时,新版Bing也很难很好的应对,甚至一边说着要保密,一边把秘密说出来。 可以看出,新版Bing虽然比以往的同类型产品稍显智能,但也只能算是个不完美的变革性产品,还需要不断优化和完善。 但是搜索引擎发展到现在的确为人们带来了不少新的启迪,让人不禁猜测:AI引领搜索引擎的时代来了吗?或者说,快来了吗? AI引领搜索引擎的时代来了吗? 无论新版Bing是否完美,毫无疑问的是,它让用户重拾了对搜索引擎的兴趣。 中国互联网络信息中心的调查显示,2017年即时通信已经取代搜索引擎成为了移动互联网时代新的核心流量入口。甚至有网友戏称,百度就是一个做网盘的小公司,真正的搜索引擎就是小红书。 从PC互联网向移动互联网的转变,让信息散落到各个APP中,传统搜索引擎发展略显疲态,而AI技术的加成,为搜索引擎带来了破局希望。 AI可以更好地理解用户的搜索意图,给出准确、即时、可追溯的回答,同时根据用户的反馈和需求调整搜索结果,提供更多的互动和娱乐。 另外,AI还可以帮助用户在搜索的同时,生成高质量的文本、语音或图像内容,进行知识的整合。 也许当前新版Bing还不完美,但它是一个开始,是对解决当前信息爆炸时代“信息过多”与“注意力不足”矛盾的一次有益尝试。 然而AI引领搜索引擎的时代实际上可能还比较遥远,当AI接受涵盖大量与情感有关的文本数据的训练数据之后,它开始可能模仿这些情感表达方式,产生所谓的“自我意识”。如果不加以约束,AI可能会具有一定的破坏性,并不安全。 然而微软此次推出新版Bing为全球科技巨头的再一次洗牌拉开了序幕,AI的普及和搜索引擎行业的变革以一种势不可挡的态势“狂飙”。 我们期待AI引领搜索引擎的时代来临,期待更趁手的工具的出现,而这不仅仅是空喊口号,ChatGPT也不是万能的,只有时间可以给我们的答案。 来源:金色财经
lg
...
金色财经
2023-02-23
DAOrayaki |Starkware技术架构与生态应用梳理
go
lg
...
g 正在做。 链上AI 目前有 2 个
机器
学习
项目,ML 平台 Giza 和 链上交易机器人(Rockybot by ModulusLabs)StarkNet 中文群还有另外一个。 Modulus Labs:https://www.moduluslabs.xyz/ Giza - Machine Learning in the Blockchain: https://gizatech.xyz/ StarkNet decentralization : Kicking off the discussion mirror.xyz:https://community.starknet.io/t/starknet-decentralization-kicking-off-the-discussion/711 总结下 StarkNet 与 AI+ML 为何如此登对?ZKP 允许 AI ML 链下计算,将生成证明交由他人验证。 应用范围包括:游戏、预言机、交易(自动收益)、反女巫、KYC、数据隐私;AI 模型算力挖矿。 致谢 本文由HackerDojo资助和创作。Hacker Dōjo是由Hacker共建的加密、Web3前沿技术开源知识社区。 感谢创作者Maxlion及HackerDojo。 原文链接:https://community.dorahacks.io/t/starkware/272 来源:金色财经
lg
...
金色财经
2023-02-23
百度2022Q4业绩电话会议记录高管解读财报
go
lg
...
智能驾驶业务建立在百度计算机视觉和其他
机器
学习
算法的基础上,是我们对该领域承诺的又一证明。 最近,随着用户阅读 ChatGPT,使用生成的 AI 的大型语言模型创造了一个大趋势,将彻底改变许多企业。得益于我们广泛的人才库、完善的基础设施、多元化的业务和领先的技术,百度已做好充分准备利用即将到来的人工智能拐点。 我们也对即将推出的 Ernie Bot 感到兴奋,这是我们由最新的内部大型语言模型提供支持的新型对话式 AI 机器人。我们计划将 Ernie Bot 完全整合到我们所有的业务中。 对于我们面向消费者的产品,我们计划首先将 Ernie Bot 嵌入到百度搜索中。我们相信这将重塑信息的生成和呈现,并为下一代互联网创造一个新的切入点,帮助我们以盈利的方式吸引更多用户并获得市场份额。 未来,我们还将把Ernie Bot集成到小度中,让小度所有的智能设备和服务都得到大幅升级。我们相信 AIGC 还将为爱奇艺在内容生成和用户获取方面提供显着潜力。 对于我们的 2B 业务,我们计划向我们的客户、开发人员和生态系统合作伙伴广泛提供该技术,以帮助提高各行业的生产力。通过开放大语言模型生成平台,我们期待越来越多的企业主和创业者在我们的人工智能云上构建自己的模型和应用。 在智能驾驶方面,我们计划将Ernie Bot集成到我们的汽车解决方案中,进一步提升用户体验。我们还相信,生成式预训练变压器将在推动我们业务扩展方面发挥重要作用。显然,我们可以从新的 AI 拐点中受益,因为我们已及时为这一新的大趋势做好整体业务准备。 转向我的第三个主题。我们将继续专注于公司的长期可持续发展。众所周知,2022 年是极具挑战性的一年。然而,我们明智地利用了这段时间,通过成本优化、组织调整和管理层改组,建立了一个更高效的组织,从而奠定了坚实的基础。 因此,在 2022 年下半年,百度核心的非美国通用会计准则营业利润率和利润均同比增长。我们相信,更精简的运营将帮助我们实现可持续增长。 现在让我们回顾一下第四季度的经营亮点。人工智能云在第四季度同比增长 4%。由于 COVID-19 在本季度末运营的影响,收入增长较前几个季度有所放缓。尽管如此,第四季度人工智能云的利润率同比有所提高。有两个主要因素在起作用。 首先,我们继续缩减 at 和云解决方案项目的低利润业务。其次,我们继续针对传统行业的特定用例标准化我们的 AI 解决方案和应用程序。例如,我们的质检和强检解决方案已被化纤、电力、新能源等传统行业的多家龙头企业采用。 当我们复制解决行业特定挑战的人工智能解决方案和应用程序时,我们看到了利润率的提高。通过与行业领导者合作,我们正在增强我们对行业特定挑战的了解,并标准化 AI 云解决方案和应用程序以实现规模化。 例如,根据中国国家统计局的数据,以燃煤为主的火电**国电力供应的大部分,2022 年发电量约为 5.9 万亿千瓦时。最近,我们为山西省一家领先的燃煤电厂开发了人工智能解决方案,通过自动冷却系统等方法提高发电效率。 根据我们的内部估算,该解决方案每千瓦时的煤炭消耗量减少了近 5 克,远高于我们客户减少 1 克的预期。这也意味着每千瓦时二氧化碳排放量减少 12.5 克。我们的目标是创建更多类似的项目以扩大规模。 转向智能驾驶。我们在第四季度继续取得重大进展,进一步增强了我们对战略和业务模式的信心。按完成的乘车次数衡量,Apollo Go 仍然是世界上最大的自动驾驶乘车服务提供商。 在第四季度,Apollo Go 在开放道路上为公众提供了 561,000 次乘车服务。同比增长 162%。截至1月底,累计乘车量突破200万。这表明用户对 Apollo Go 自动驾驶网约车服务的接受度越来越高。 随着我们扩大业务规模,我们能够不断改进我们的技术并完善我们的服务。这些成就还建立了我们的安全记录,增强了用户和监管机构的信任,包括完全无人驾驶的网约车市场的发展。 2022年,我们在公共道路完全无人驾驶方面取得了一些显着突破。从去年八月开始,我们开始在武汉和重庆提供完全无人驾驶的网约车服务。12 月下旬,我们获准在北京亦庄地区的公共道路上试驾车内没有安全操作员的车辆,这是首都允许完全无人驾驶网约车运营之前的关键一步。 正如我过去所说,人工成本是网约车业务的主要成本组成部分。从车辆中移除安全操作员可以显着降低此成本。在第四季度,向公众提供完全无人驾驶的乘车服务,增长非常快,帮助我们扩大业务并降低每英里成本。 2022 年,我们还推出了 RT6,旨在将机器人出租车的成本在中国首次纳入大众市场电动汽车的价格范围。这一举措将使我们能够在未来进一步降低成本。百度Apollo汽车解决方案与跨国汽车制造商取得突破性合作。它打算与我们合作,为他们在中国的一款热门车型开发 AVP 功能。 进入移动生态系统。我们的流量仍然强劲。通过百度应用分发的移动搜索查询总量和提要在本季度继续实现两位数的同比增长。12 月,百度应用的 MAU 同比增长 4.2%。尽管第四季度收入下降,但由于效率提高,我们的移动生态系统继续产生高营业利润、营业利润率和大量现金流。令人鼓舞的是,春节假期过后,我们的在线营销收入有所回升。 另一个积极的方面是,零售和电子商务仍然是表现出色的垂直领域,同比增长超过 20%,占广告总收入的 10% 以上。用户不仅来百度搜索信息和知识,而且越来越多地来我们搜索服务和商品,推动了百度上商品搜索查询和交易的增长。 百度搜索促成的季度 GMV 在第四季度同比增长 84%。尽管面临宏观挑战,但短视频仍为第四季度的饲料收入同比增长做出了贡献。除了 Feed,我们认为短视频在用户体验和货币化方面也有利于搜索。百度移动生态系统中短视频的日益普及应该会推动在线营销收入的长期增长。 我们继续帮助内容创作者通过人工智能生成内容,丰富我们的移动生态系统,特别是制作短视频。随着我们迈向 2023 年,我们的优先事项变得明确且重点突出。首先,我们致力于收入增长,因为我们已经看到了成功实现业务复苏的明确途径。 其次,我们准备利用人工智能的巨大潜力来推动业务增长。我们的目标是将生成式 AI 集成到我们的大部分产品和服务中,并使我们的尖端大型语言模型可供消费者和企业使用。 三是在稳健发展的同时夯实基础。我们的移动生态系统应该会继续产生强劲的利润和现金流。我们的目标是继续扩大 AI 云的利润率,并超越我们的互联网同行。我们也将继续在智能驾驶领域进行战略性和审慎的投资,以抓住长期的市场机会。 有了这个,让我把电话转给 Rong 来查看财务结果。 罗戎 谢谢你,罗宾。现在让我向您详细介绍我们第四季度和 2022 年全年的财务业绩。我们以稳健的财务业绩结束了 2022 年。百度核心的总收入为人民币257亿元,同比下降1%。2022年,百度核心实现收入954亿元人民币或138亿美元,与去年基本持平。 现在在线营销业务继续快速增长,第四季度占百度核心收入的 30%,高于一年前的 26%,这表明云和其他人工智能业务推动了我们的业务模式,并将继续这样做在中期或长期。2022 年全年,我们的在线营销业务占百度核心收入的 27%,高于 2021 年的 22%。在非在线营销业务中,百度 AI 云的收入同比增长 4% 至人民币同类比较,第四季度为 51 亿元,同比增长 23%,2022 年同比增长 177 亿元人民币。小度是非网络营销业务的另一收入贡献者。小都在第四季度和 2022 年继续实现稳健的收入增长。百度核心在线营销收入在第四季度同比下降 6%,环比下降 4%,原因是在 COVID 造成的充满挑战的宏观环境中广告商的需求疲软。百度核心在线营销收入在 2022 年同比下降 6%。 爱奇艺第四季度收入为人民币 76 亿元,同比增长 3%。2022年爱奇艺营收290亿元,同比下降5%。第四季度的收入成本为人民币 169 亿元,同比下降 2%,主要是由于内容成本、销售成本和与新 AI 业务相关的其他成本的减少,部分被流量获取成本的增加所抵消。 2022年收入成本为人民币639亿元,同比下降1%,主要是由于流量获取成本、带宽成本、销售成本和其他与人工智能新业务相关的成本增加,被内容减少所抵消费用。1-7季度,Q4营业费用为115亿元人民币,同比下降17%,主要是员工相关费用减少所致。2022年营业费用为人民币438亿元,同比下降12%,主要是由于渠道支出、促销营销和人员相关费用的减少。 第四季度非美国通用会计准则营业收入为人民币 65 亿元,非美国通用会计准则营业利润率为 20%。2022 年非美国通用会计准则营业收入为人民币 232 亿元,非美国通用会计准则营业利润率为 19%,2022 年 1-9。对于百度核心,第四季度非美国通用会计准则营业收入为人民币 55 亿元,营业利润率为 21% .2022 年非美国通用会计准则营业收入为人民币 209 亿元,非美国通用会计准则百度核心营业利润率为 22%。 非经营项目方面,第四季度其他收入净额为人民币18亿元,主要来自长期投资的公允价值收益人民币16亿元。所得税费用为人民币13亿元。2022年其他净亏损总额为人民币58亿元,主要为公允价值亏损人民币39亿元及长期投资减值亏损人民币30亿元。 所得税费用为人民币26亿元。第四季度归属于百度的净利润为50亿元人民币,每股ADS摊薄收益为13.59元人民币。归属于百度核心的净利润为人民币48亿元,百度核心净利润率为19%,1-9。归属于百度的非美国通用会计准则净利润为人民币 54 亿元。非美国通用会计准则每股 ADS 摊薄收益为 15.25 元人民币。 归属于百度核心的非美国通用会计准则净利润为人民币 49 亿元。百度核心的非美国通用会计准则净利润率为 19%,排名第 1-9。2022年归属于百度的净利润为76亿元人民币,每股ADS摊薄收益为19.85元人民币。归属于百度核心的净利润为人民币76亿元,百度核心净利润率为8%。归属于百度的非美国通用会计准则净利润为人民币 207 亿元,非美国通用会计准则每股美国存托凭证摊薄收益为人民币 58.93 元。归属于百度核心的非美国通用会计准则净利润为人民币 199 亿元,百度核心的非美国通用会计准则净利润率为 21%。 截至 2022 年 12 月 31 日,百度核心的现金和短期投资为 1774 亿元人民币或 257 亿美元。2022 年,不包括爱奇艺在内的百度核心的自由现金流为 181 亿元人民币,或 26 亿美元。 截至 2022 年 12 月 31 日,百度核心拥有约 36,300 名员工。另外,我们对爱奇艺不断努力提高运营效率感到兴奋。本季度,爱奇艺再次产生正的非美国通用会计准则营业利润和自由现金流。 用户端,爱奇艺Q4日均总订阅会员数增至1.116亿,环比净增1060万。根据启迪数据,爱奇艺在有效视频卷轴方面保持了电视剧类别的最大市场份额。 此外,在过去的 12 个月里,爱奇艺筹集了约 13 亿美元的资金。本次募资后,百度继续持有爱奇艺的控制投票权,并整合了爱奇艺的财务业绩。
lg
...
老虎证券
2023-02-23
人工智能成国防重点领域?加拿大情报机构发出警告:中国和俄罗斯可能在人工智能方面投入间谍!
go
lg
...
国际研究中心表示,新兴的人工智能能力和
机器
学习
工具被视为开发减少海洋塑料、找到治疗下一个即将到来的流行病疫苗、遏制导致气候变化的排放以及为自动驾驶汽车找到安全导航方法的关键。 分析指出,人工智能是加拿大的优先事项,被认为是国内创新和繁荣目标的核心。“然而,许多其他国家,包括敌对国家行动者,已经建立了自己的国家人工智能战略和目标,”简报说:“其中一些国家,特别是中国和俄罗斯,将诉诸间谍活动和受外国影响的活动,以牺牲加拿大的利益为代价来推进国家利益。” 报告发现,加拿大面临着与人工智能相关的两种主要威胁。 第一种是间谍活动和外国干预,试图通过贸易(如出口和逆向工程)、国家支持的外国投资、合资企业(包括技术转让)、网络间谍活动、情报人员、内部威胁、发现和招聘获得专有的人工智能技术和专有知识。“大多针对加拿大的学术界和脆弱的初创公司,它们是我们人工智能创新的主要贡献者,但也代表着一个宽松的间谍环境。” 第二个威胁涉及当对手获得并使用人工智能能力用于情报或军事目的时,加拿大个人和武装部队面临的安全和安全风险。 战略与国际研究中心表示,保护加拿大人工智能及其基础大数据的重要性不仅仅是保护公民隐私,还涉及“保护我们国家的未来不受敌对国家行为体的影响,这些行为体意图利用他们的能力来对付我们。” 简报强调了大数据对人工智能的重要性,称一个国家拥有的数据越多,就越能将其输入该国的人工智能系统,加速其能力,更快地做出更好的决策,并确保在竞争中占据优势。 “这将决定现代世界的胜利者,”简报称:“所有国家都会发现自己处于一个从无知到控制的网格中,这取决于他们拥有多少数据以及他们处理数据的速度。” 战略与国际问题研究中心说,鉴于中国互联网用户数量庞大,而且中国政府专注于全面集中收集和保留数据,西方面临着北京“对互联网日益增长的威权统治的威胁”。 此外,中国拥有数英亩的数据中心,存储来自世界各地的数据,这些数据有合法的,也有非法的。这使得中国拥有的数据在数量和种类上都有价值,”简报补充道:“人们可以自信地说,这让中国在铝产业以及随之而来的决策方面拥有优势。”
lg
...
Sue
2023-02-23
昨夜今晨 | 加息恐慌蔓延,美股重挫!普京发表国情咨文,暂停参与核军控条约
go
lg
...
块。亚马逊云计算部门负责数据库、分析和
机器
学习
的副总裁Swami Sivasubramanian表示,Hugging Face将在AWS上构建该语言模型的下一个版本,名为BLOOM。 5、美联航将与5家公司共同出资1亿美元开发可持续航空燃料 据美国媒体,美国联合航空将与加拿大航空、波音、通用电气航空、摩根大通和霍尼韦尔一起投资1亿美元启动美联航风险投资可持续飞行基金(TheUnitedAirlinesVenturesSustainableFlightFund)以投资初创公司和技术,开发可持续航空燃料(SAF)。
lg
...
老虎证券
2023-02-22
盘点「AI+Web3」概念最新融资项目,哪些是百倍机会?
go
lg
...
付和收益共享网络。旨在通过压缩、AI
机器
学习
和区块链等技术满足实时 3D 渲染和流媒体传输拥堵等问题,以实现 3D 元宇宙并进一步扩展至 XR 设备中,希望将 Mawari 打造成为元宇宙中的 Akamai(全球知名的内容交付网络服务提供商) 就其发展愿景来说可以说非常宏大,所面临的技术难度同样也不小,不过,由于项目官网所展示的信息极其有限,如果想要对项目进行更全面的评估,需要等待项目方公布更多的信息 Plai Labs 投资机构:a16z 融资金额: 3200 万美元 种子轮 Plai Labs 的定位是 Web3 和 AI 社交平台。两位创始人 Chris DeWolfe 与 Aber Whitcomb 曾是社交媒体平台 MySpace 和游戏工作室 Jam City 的创始人,都是连续创业者,他们计划通过 AI 和 web3 来构建下一代社交平台,供用户一起玩耍、交流、战斗、交易和冒险 而 Champions Ascension 是由 Plai Labs 推出首款多人在线角色扮演游戏,游戏以马西纳的传说为蓝本,让玩家带着他们的宠物在元宇宙漫游参与活动,此外 Plai Labs 还在构建一个 AI 协议平台,该平台将帮助处理从用户生成内容(UGC)到匹配到 2D 到 3D 资产渲染的所有内容 一个人的加密道路总是那样坎坷你需要加入一个由一群志同道合的人组成的队伍期待你的加入。公粽耗;老陈区块笔记 来源:金色财经
lg
...
金色财经
2023-02-22
英伟达Vs台积电:芯片之争升温,华尔街更爱谁?
go
lg
...
面面,包括游戏和图形、数据中心、AI、
机器
学习
以及汽车。他们被视为ChatGPT等创新的受益者。” 台积电 与此同时,台积电有时被视为美国消费者实力的晴雨表,因为苹果是其最大的客户之一。但Gleeson表示,台积电不仅仅是这家总部位于库比蒂诺的科技巨头的代表。 除了苹果外,台积电还为英伟达、Advanced Micro Devices、高通、Broadcom 和Mediatek等生产芯片。 Gleeson表示:“所以,我不一定会将公司的命运与一个终端市场或客户联系起来,但确实如此,鉴于其对苹果的敞口,他们确实会受到消费者复苏的影响。” 根据美银的数据显示,台积电仍然是全球基金持有的最受青睐的股票之一。在该行分析的610只基金中,363只基金增持了台积电。 两支股都要? 如果投资者在这两支芯片股中无法做出抉择,Wedbush高级分析师Dan Ives就正好看好这两支股。 他告诉CNBC Pro:“英伟达是芯片领域投资AI机会的最佳途径。这是一场《权力的游戏》之战,人工智能将无处不在,英伟达将是这一领域的绝佳投资机会。而台积电是一支全球芯片复苏股,已做好准备与英伟达一起在创新方面处于领先地位。” “台积电是短线投资,而英伟达更多是押注AI的长线投资。 ”
lg
...
金融界
2023-02-22
“AI+Web3” 概念最新融资项目盘点
go
lg
...
交付和收益共享网络。旨在通过压缩、AI
机器
学习
和区块链等技术满足实时3D渲染和流媒体传输拥堵等问题,以实现 3D 元宇宙并进一步扩展至XR设备中,希望将 Mawari 打造成为元宇宙中的 Akamai(全球知名的内容交付网络服务提供商)。 就其发展愿景来说可以说非常宏大,所面临的技术难度同样也不小,不过,由于项目官网所展示的信息极其有限,如果想要对项目进行更全面的评估,需要等待项目方公布更多的信息。 Addressable 投资机构:Viola Ventures、Fabric Ventures、Mensch Capital、NorthIslandVC 融资金额:750万美元/种子轮 Addressable 是一家Web3营销公司,帮助 Web3 营销人员从社交媒体账户和钱包中收集数据,并根据相似性匹配信息,以构建更准确的目标受众画像。鉴于当前区块链上行为的匿名性,Addressable 将匿名区块链受众与对应的社交媒体联系起来,解决当今 Web3 增长的难题,它提供了一个 SaaS 平台,使得 Web3 营销人员提可以向他们的受众传达信息。目前,Addressable仅跟踪 Ethereum 上的用户数据,Web2平台也主要是Twitter,产品还处于Demo阶段。 Plai Labs 投资机构:a16z 融资金额:3200万美元 种子轮 Plai Labs 的定位是 Web3 和 AI 社交平台。两位创始人 Chris DeWolfe 与 Aber Whitcomb 曾是社交媒体平台 MySpace 和游戏工作室 Jam City 的创始人,都是连续创业者,他们计划通过 AI 和 web3 来构建下一代社交平台,供用户一起玩耍、交流、战斗、交易和冒险。 而 Champions Ascension 是由 Plai Labs 推出首款多人在线角色扮演游戏,游戏以马西纳的传说为蓝本,让玩家带着他们的宠物在元宇宙漫游参与活动,此外 Plai Labs 还在构建一个AI协议平台,该平台将帮助处理从用户生成内容(UGC)到匹配到2D到3D资产渲染的所有内容。 Trusta labs 投资机构:SevenX Ventures、Vision Plus、HashKey等 融资金额:300万美元+ Trusta labs 是一家链上数据分析公司,其核心产品为 TrustScan,弥合链上原始数据与洞察DID声誉特征的需求之间的差距,通过 AI 技术为引擎,为 DI D主体在Web3世界的声誉提供深度分析和评估,涵盖女巫攻击、欺诈风险、信用评分等。根据其官网披露,目前 TrustScan 已经检测出了超过100万的女巫地址。 Creatora 投资机构:a16z 融资金额:1000万 A轮 Creatora 是一个面向创作者的元宇宙项目,拥有一个用户生成内容 (UGC) 的元宇宙引擎,创作者能够创建、分发和将游戏元宇宙化。 任何创作都可以货币化,它模糊创作者和消费者之间的界限,创造一个一切皆可 MetaFi 的元宇宙空间。 据其官方透露,Createra 在亚洲积累了近1500万的Z世代用户、50 万创作者,其发展重心也主要以 Z 世代为主,而在项目中,Genesis land 是主要的核心资产,它将决定后续奖励/资产的分配以及在Createra的曝光机会。 Sortium 投资机构:Arca 融资金额:775 万美元/种子轮 Sortium 是一家结合了 AI 和 Web3 的娱乐科技公司。Sortium 专注于技术框架的构建,以帮助客户了解生成式AI系统、区块链和动态经济系统等,并在实现应用场景的使用,Sortium 推出了名为 CosmoGene 的P2E游戏,CosmoGene 游戏中,通过AI支持的虚拟DNA,玩家可以根据基因创造独特的体验。 通过上文描述来看,AI+Web3 的初创项目大多是弱 AI 项目,应用结合的深度并不高,此外,应用场景也主要集中在游戏、NFT以及链上数据分析等几个核心领域,我们以期待 Web3 能与 AI 有更加深度的结合,诸如出现智能协议、智能 DApp 甚至于智能区块链等。 来源:金色财经
lg
...
金色财经
2023-02-21
人工智能时代的算力挑战
go
lg
...
习的历史,就会发现这种利用神经网络进行
机器
学习
的思路其实在上世纪50年代就有了,可以称得上是人工智能领域最古老的理论之一。早在1958年,罗森布拉特就曾经用这个原理制造了一台机器来识别字符。然而,在很长的一段时间内,这个理论却一直无人问津,即使现在被尊为“深度学习之父”的杰弗里·辛顿(Geoffrey Hinton)也长期遭受孤立和排挤。究其原因,固然有来自当时在人工智能领域占主导地位的“符号主义”的打压,但更为重要的是,当时的深度学习模型确实表现不佳。 直到本世纪初,这一切才发生了改变。长期蛰伏的深度学习理论终于翻身成为了人工智能的主流,一个个基于这一理论开发的模型如雨后春笋一般出现。从打败围棋高手的AlphaGo到识别出几亿种蛋白质结构的AlphaFold,从可以瞬间生成大师画作的Dall-E、Stable Diffusion到当今如日中天的ChatGPT,所有的这些在短短的几年之间涌现了。 那么,到底是什么原因让深度学习在过去的几年中扭转了长期的颓势,让它得以完成了从异端到主流的转换?我想,最为关键的一点就是算力的突破。 算力及其经济效应 所谓算力,就是设备处理数据、输出结果的能力,或者简而言之,就是计算的能力。它的基本单位是用“每秒完成的标准操作数量”(standardized operations per second,简称SOPS)来进行衡量。不过,由于现在的设备性能都非常高,因而在实践中用SOPS来衡量算力已经变得不那么方便。相比之下,“每秒完成的百万次操作数”(million operations per second,简称MOPS)、“每秒完成的十亿次操作数”(giga operations per second,简称GOPS),以及“每秒完成的万亿次操作数”(tera operations per second,简称TOPS)等单位变得更为常用。当然,在一些文献中,也会使用某些特定性能的设备在某一时间段内完成的计算量来作为算力的单位——其逻辑有点类似于物理学中用到的“马力”。比如,一个比较常用的单位叫做“算力当量”,它就被定义为一台每秒运算千万亿次的计算机完整运行一天所实现的算力总量。 那么,算力的意义究竟何在呢?关于这个问题,阿格拉沃尔(Ajay Agrawal)、甘斯(Joshua Gans)和戈德法布(Avi Goldfarb)在他们合著的《预测机器》(Prediction Machines,中文译名为《AI极简经济学》)中,曾经提出过一个有启发的观点:算力的成本将关系到AI模型的“价格”。经济学的原理告诉我们,在给定其他条件的前提下,人们对一种商品的需求量取决于该商品的价格。而对于两种性能相近,具有替代关系的商品来说,具有更低价格的那种商品会在市场上具有更高的竞争力。将这一点应用到人工智能领域,我们就可以找到深度学习理论为什么在几十年中都不被待见,却在最近几年中实现爆发的原因。 虽然深度学习的理论并不算困难,但是为了实现它,要投入的运算量是十分巨大的。在算力低下的时代,算力的单位成本非常高。在罗森布拉特提出深度学习思想雏形的那个年代,一台计算机的体积几乎和一间房子那么大,但即便如此,让它运算一个大一点的矩阵都还需要很长时间。虽然理论上我们也可以用深度学习来训练大模型并达到比较好的效果,但这样的成本显然是没有人能够承受的。而相比之下,符号学派的模型对于计算量的要求要小得多,因此这些模型的相对价格也要比深度学习模型来得低。在这种情况下,深度学习理论当然不会在市场上有竞争力。但是,当算力成本大幅度降低之后,深度学习模型的相对价格就降了下来,它的竞争力也就提升了。从这个角度看,深度学习在现阶段的胜利其实并不是一个纯粹的技术事件,在很大程度上,它还是一个经济事件。 改进算力的方法 那么,决定算力的因素有哪些呢? 为了直观起见,我们不妨以计算数学题来对此进行说明:如果我们要提高在单位时间内计算数学题的效率,有哪些方法可以达到这一目的呢?我想,可能有以下几种方法是可行的:一是找更多人一起来计算。如果一个人一分钟可以算一个题,那么十个人一分钟就可以算十个题。这样,即使每个人的效率没有提升,随着人数的增加,单位时间内可以计算的数学题数量也可以成倍增加。二是改进设备。比如,最早时,我们完全是依靠手算的,效率就很低。如果改用计算器,效率会高一点。如果使用了Excel,效率就可能更高。三是将问题转化,用更好的方法来计算。比如,计算从1加到100,如果按照顺序一个个把数字加上去,那么可能要算很久。但是,如果我们像高斯那样用等差数列求和公式来解这个问题,那么很快就可以计算出结果。 将以上三个方案对应到提升算力问题,我们也可以找到类似的三种方法:一是借助高性能计算和分布式计算;二是实现计算模式上的突破;三是改进算法——尽管严格地说这并不能让算力本身得到提升,但是它却能让同样的算力完成更多的计算,从某个角度看,这就好像让算力增加了一样。 1、高性能计算和分布式计算 从根本上讲,高性能计算和分布式计算都是通过同时动用更多的计算资源去完成计算任务,就好像我们前面讲的,用更多的人手去算数学题一样。所不同的是,前者聚集的计算资源一般是聚集在本地的,而后者动用的计算资源则可能是分散在网上的。 (1)高性能计算 先看高性能计算。高性能计算中,最为重要的核心技术是并行计算(Parallel Computing)。所谓并行计算,是相对于串行计算而言的。在串行计算当中,计算任务不会被拆分,一个任务的执行会固定占有一块计算资源。而在并行计算中,任务则会被分解并交给多个计算资源进行处理。打个比方,串行计算过程就像是让一个人独立按照顺序完成一张试卷,而并行计算则像是把试卷上的题分配给很多人同时作答。显然,这种任务的分解和分配可以是多样的:既可以是把计算任务分给多个设备,让它们协同求解,也可以是把被求解的问题分解成若干个部分,各部分均由一个独立的设备来并行计算。并行计算系统既可以是含有多个处理器的超级计算机,也可以是以某种方式互连的若干台独立计算机构成的集群。 从架构上看,并行计算可以分为同构并行计算(homogeneous parallel computing)和异构并行计算(heterogeneous parallel computing)。顾名思义,同构并行计算是把计算任务分配给一系列相同的计算单元;异构并行计算则是把计算任务分配给不同制程架构、不同指令集、不同功能的计算单元。比如,多核CPU的并行运算就属于同构并行,而CPU+GPU的架构就属于异构并行。 对比于同构并行,异构并行具有很多的优势。用通俗的语言解释,这种优势来自于各种计算单元之间的“术业专攻”,在异构架构之下,不同计算单元之间的优势可以得到更好的互补。正是由于这个原因,异构并行计算正得到越来越多的重视。 比如,现在越来越多的设备当中,都采用了将GPU和CPU混搭的架构。为什么要这么做呢?为了说明白这一点,我们需要略微介绍一下CPU和GPU的结构:从总体上看,无论是CPU还是GPU,都包括运算器(Arithmetic and Logic Unit,简称ALU)、控制单元(Control Unit,简称CL)、高速缓存器(Cache)和动态随机存取存储器(DRAM)。但是,这些成分在两者中的构成比例却是不同的。 在CPU当中,控制单元和存储单元占的比例很大,而作为计算单位的ALU比例则很小,数量也不多;而在GPU当中则正好相反,它的ALU比例很大,而控制单元和存储单元则只占很小的一个比例。这种结构上的差异就决定了CPU和GPU功能上的区别。CPU在控制和存储的能力上比较强,就能进行比较复杂的计算,不过它可以同时执行的线程很少。而GPU则相反,大量的计算单位让它可以同时执行多线程的任务,但每一个任务都比较简单。打个比喻,CPU是一个精通数学的博士,微积分、线性代数样样都会,但尽管如此,让他做一万道四则运算也很难;而GPU呢,则是一群只会四则运算的小学生,虽然他们不会微积分和线性代数,但人多力量大,如果一起开干,一万道四则运算分分钟就能搞定。 由于GPU的以上性质,它最初的用途是作为显卡,因为显卡负责图形和色彩的变换,需要的计算量很大,但每一个计算的复杂性都不高。当深度学习兴起之后,人工智能专家们发现GPU其实也很适合用来训练神经网络模型。因为在深度学习模型中,最主要的运算就是矩阵运算和卷积,而这些运算从根本上都可以分解为简单的加法和乘法。这样一来,GPU就找到了新的“就业”空间,开始被广泛地应用于人工智能。但是,GPU并不能单独执行任务,所以它必须搭配上一个CPU,这样的组合就可以完成很多复杂的任务。这就好像让一个能把握方向的导师带着很多肯卖力的学生,可以干出很多科研成果一样。正是在这种情况下,异构并行开始成为了高性能计算的流行架构模式。 不过,异构架构也是有代价的。相对于同构架构,它对于应用者的编程要求更高。换言之,只有当使用者可以更好地把握好不同计算单元之间的属性,并进行有针对性的编程,才可能更好地利用好它们。 除此之外,我们还必须认识到,哪怕是借助异构架构,通过并行运算来提升运算效率的可能也是有限的。根据阿姆达尔定律(Amdahl’s Law),对于给定的运算量,当并行计算的线程趋向于无穷时,系统的加速比会趋向于一个上限,这个上限将是串行运算在总运算中所占比例的倒数。举例来说,如果在一个运算中,串行运算的比例是20%,那么无论我们在并行运算部分投入多少处理器,引入多少线程,其加速比也不会突破5。这就好像,如果我要写一本关于生成式AI的书,可以将一些资料查找的工作交给研究助手。显然,如果我有更多的研究助手,写书的进度也会加快。但这种加快不是无限的,因为最终这本书什么时候写完,还要看我自己“码字”的速度。 (2)分布式计算 采用聚集资源的方式来增强算力的另一种思路就是分布式计算。和高性能计算主要聚集本地计算单位不同,分布式计算则是将分散在不同物理区域的计算单位聚集起来,去共同完成某一计算任务。比如,刘慈欣在他的小说《球状闪电》中就提到过一个叫做SETI@home的科研计划(注:这个项目是真实存在的),这个计划试图将互联网上闲置的个人计算机算力集中起来处理天文数据,这就是一个典型的分布式计算用例。 分布式计算的一个典型代表就是我们现在经常听说的云计算。关于云计算的定义,目前的说法并不统一。一个比较有代表性的观点来自于美国国家标准和技术研究所(NIST),根据这种观点,“云计算是一种按使用量付费的模式。这种模式对可配置的IT资源(包括网络、服务器、存储、应用软件、服务)共享池提供了可用的、便捷的、按需供应的网络访问。在这些IT资源被提供的过程中,只需要投入很少的管理和交流工作”。 这个定义很抽象、很学院派,我们可以用一个通俗的比喻来对其进行理解。在传统上,用户主要是通过调用自有的单一IT资源,这就好比每家每户自己发电供自己用;而云计算则好像是(用大量算力设备)建了一个大型的“发电站”,然后将“电力”(IT资源)输出给所有用户来用。 根据云服务提供者所提供的IT资源的不同,可以产生不同的“云交付模式”(Cloud Delivery Model)。由于IT资源的种类很多,因此对应的“云交付模式”也就很多。在各类新闻报道中,最常见的“云交付模式”有三种: 第一种是IaaS,它的全称是“基础设施作为服务”(Infrastructure-as-a-Service)。在这种交付模式下,云服务的提供者供给的主要是存储、硬件、服务器和网络等基础设施。 第二种是PaaS,它的全称是“平台作为服务”(Platform-as-a-Service)。在这种交付模式下,云服务的提供者需要供应的资源更多,以便为使用者提供一个“就绪可用”(ready-to-use)的计算平台,以满足他们设计、开发、测试和部署应用程序的需要。 第三种是SaaS,也就是“软件作为服务”(Software-as-a-Service)。在这种交付模式下,云服务提供者将成品的软件作为产品来提供给用户,供其使用。 有了以上不同的云交付模式,用户就可以根据自己的需要来选择相应的IT资源。比如,如果元宇宙的用户需要更多的算力或存储,而本地的机器无法满足,那么就可以通过从云端来获取“外援”。一个云端GPU不够,那就再来几个,按需取用,丰俭由人,既方便,又不至于产生浪费。 需要指出的是,尽管从理论上看云计算可以很好地承担巨大运算和存储需求,但其缺陷也是很明显的。比较重要的一点是,在执行云计算时,有大量的数据要在本地和云端之间进行交换,这可能会造成明显的延迟。尤其是数据吞吐量过大时,这种延迟就更加严重。对于用户来说,这可能会对其使用体验产生非常负面的效果。 那么怎么才能克服这个问题呢?一个直观的思路就是,在靠近用户或设备一侧安放一个能够进行计算、存储和传输的平台。这个平台一方面可以在终端和云端之间承担起一个中介的作用,另一方面则可以对终端的各种要求作出实时的回应。这个思想,就是所谓的边缘计算。由于边缘平台靠近用户,因而其与用户的数据交换会更加及时,延迟问题就可以得到比较好的破解。 2、超越经典计算——以量子计算为例 无论是高性能计算还是分布式计算,其本质都是在运算资源的分配上下功夫。但正如我们前面看到的,通过这种思路来提升算力是有很多障碍的。因此,现在很多人希望从计算方式本身来进行突破,从而实现更高的计算效率。其中,量子计算就是最有代表性的例子。 我们知道,经典计算的基本单位是比特,比特的状态要么是0,要么是1,因此经典计算机中的所有问题都可以分解为对0和1的操作。一个比特的存储单元只能存储一个0或者一个1。而量子计算的基本单位则是量子比特,它的状态则可以是一个多维的向量,向量的每一个维度都可以表示一个状态。这样一来,量子存储器就比经典的存储器有很大的优势。 考虑一个有 N物理比特的存储器,如果它是经典存储器,那么它只能存储2的N次方个可能数据当中的任一个;而如果它是量子存储器,那么它就可以同时存储2的N次方个数据。随着 N的增加,量子存储器相对于经典存储器的存储能力就会出现指数级增长。例如,一个250量子比特的存储器可能存储的数就可以达到2的250次方个,比现有已知的宇宙中全部原子数目还要多。 在进行量子计算时,数学操作可以同时对存储器中全部的数据进行。这样一来,量子计算机在实施一次的运算中可以同时对2的N次方个输入数进行数学运算。其效果相当于经典计算机要重复实施2的N次方次操作,或者采用2的N次方个不同处理器实行并行操作。依靠这样的设定,就可以大幅度节省计算次数。 为了帮助大家理解,我们可以打一个并不是太恰当的比方:玩过动作游戏的朋友大多知道,在游戏中,我们扮演的英雄经常可以使用很多招数,有些招数只能是针对单一对象输出的;而另一些招数则可以针对全体敌人输出。这里,前一类的单体输出招数就相当于经典计算,而后一类的群体输出招数就相当于量子计算。我们知道,在面对大量小怪围攻的时候,一次群体输出产生的效果可以顶得上很多次单体输出的招数。同样的道理,在一些特定情况下,量子计算可以比经典计算实现非常大的效率提升。 举例来说,大数因式分解在破解公开密钥加密的过程中有十分重要的价值。如果用计算机,采用现在常用的Shor算法来对数N进行因式分解,其运算的时间将会随着N对应的二进制数的长度呈现指数级增长。1994年时,曾有人组织全球的1600个工作站对一个二进制长度为129的数字进行了因式分解。这项工作足足用了8个月才完成。然而,如果同样的问题换成用量子计算来解决,那么整个问题就可以在1秒之内解决。量子计算的威力由此可见一斑。 但是,在看到量子计算威力的同时,我们也必须认识到,至少到目前为止,量子计算的威力还只能体现对少数几种特殊问题的处理上,其通用性还比较弱。事实上,现在见诸报道的各种量子计算机也都只能执行专门算法,而不能执行通用计算。比如,谷歌和NASA联合开发的D-Wave就只能执行量子退火(Quantum Annealing)算法,而我国研发的光量子计算机“九章”则是专门被用来研究“高斯玻色取样”问题的。尽管它们在各自的专业领域表现十分优异,但都还不能用来解决通用问题。这就好像游戏中的群体攻击大招,虽然攻击范围广,但是对每个个体的杀伤力都比较弱。因此,如果遇上大群的小怪,群体攻击固然厉害,但如果遇上防御高、血条厚的Boss,这种攻击就派不上用处了。 从这个角度看,如果我们希望让量子计算大发神威,就必须先找出适合量子计算应用的问题和场景,然后再找到相应的算法。与此同时,我们也必须认识到,虽然量子计算的研发和探索十分重要,但是它和对其他技术路径的探索之间更应该是互补,而不是替代的关系。 3、通过改进算法节约算力 如果说,通过高性能计算、分布式计算,以及量子计算等手段来提升算力是“开源”,那么通过改进算法来节约算力就是“节流”。从提升计算效率、减少因计算而产生的经济、环境成本而言,开源和节流在某种程度上具有同等重要的价值。 在ChatGPT爆火之后,大模型开始越来越受到人们的青睐。由于在同等条件下,模型的参数越多、训练的数据越大,它的表现就越好,因此为了追求模型的更好表现,现在的模型正在变得越来越大。我们知道,现在的ChatGPT主要是在GPT-3.5的基础上训练的。在它出现之前,GPT共经历了三代。GPT-1的参数大约为1.17亿个,预训练数据为5GB,从现在看来并不算多;到了GPT-2,参数量就增加到了15亿个,预训练数据也达到了40GB;而到了GPT-3,参数量则已经迅速膨胀到了骇人的1750亿个,预训练数据也达到了45TB。为了训练GPT-3,单次成本就需要140万美元。尽管OpenAI并没有公布GPT-3.5的具体情况,但可以想象,它的参数量和预训练数据上都会比GPT-3更高。为了训练这个模型,微软专门组建了一个由1万个V100GPU组成的高性能网络集群,总算力消耗达到了3640“算力当量”——也就是说,如果用一台每秒计算一千万亿次的计算机来训练这个模型,那么大约需要近十年才能完成这个任务。 如果任由这种“一代更比一代大”的趋势持续下去,那么在未来几年,对算力的需求将会出现爆炸性的增长。一项最新的研究估计,在5年之后,AI模型需要的算力可能会是现在的100万倍。很显然,由此产生的经济和环境成本将会是十分惊人的。 令人欣慰的是,目前已经有不少研究者希望改进算法、优化模型来减少对算力的需求,并且已经取得了一定的成就。比如,就在今年1月3日,来自奥地利科学技术研究所 (ISTA)的研究人员埃利亚斯·弗朗塔(Elias Frantar)和丹·阿里斯特尔(Dan Alistarh)合作进行了一项研究,首次针对 100至 1000亿参数的模型规模,提出了精确的单次剪枝方法SparseGPT。SparseGPT可以将GPT系列模型单次剪枝到 50%的稀疏性,而无需任何重新训练。以目前最大的公开可用的GPT-175B模型为例,只需要使用单个GPU在几个小时内就能实现这种剪枝。不仅如此,SparseGPT还很准确,能将精度损失降到最小。在进行了类似的修剪之后,这些大模型在训练时所需要的计算量就会大幅减少,其对算力的需求也就会相应下降。 关于提升算力、支持人工智能发展的政策思考 随着ChatGPT引领了新一轮的人工智能热潮,市场上对算力的需求也会出现爆炸性的增长。在这种情况下,为了有力支撑人工智能的发展,就必须要通过政策的手段引导算力供给的大幅度增加。而要实现这一点,以下几方面的工作可能是最为值得重视的。 第一,应当加快对算力基础设施的建设和布局,提升对全社会算力需求的支持。如前所述,从目前看,分布式计算,尤其是其中的云计算是提升算力的一个有效之举。而要让云计算的效应充分发挥,就需要大力建设各类算力基础设施。唯有如此,才可以让人们随时随地都可以直接通过网络获得所需的算力资源。 这里需要指出的是,在布局算力基础设施的时候,应当慎重考虑它们的地域和空间分布,尽可能降低算力的成本。我们知道,不同的地区的土地、水、电力等要素的价格是不同的,这决定了在不同地区生产相同的算力所需要的成本也不尽相同。因此,在建设算力基础设施时,必须统筹全局,尽可能优化成本。需要指出的是,我国正在推进的“东数西算”工程就是这个思路的一个体现。由于我国东部各种资源的使用成本都要高于西部,因此在西部地区建立算力设施,就会大幅降低算力的供给成本,从而在全国范围内达到更优的配置效率。 第二,应当加强与算力相关的硬件技术及其应用的研发,为增加算力供应提供支持。与算力相关的硬件技术既包括基于经典计算的各种硬件,如芯片、高性能计算机等,也包括超越经典计算理论,根据新计算理论开发的硬件,如量子计算机等。从供给的角度看,这些硬件是根本,它们的性能直接关系到算力提供的可能性界限。因此,必须用政策积极促进这些硬件的攻关和研发。尤其是对于一些“卡脖子”的项目,应当首先加以突破。 这里需要指出的是,在进行技术研发的同时,也应该积极探索技术的应用。例如,我们现在已经在量子计算领域取得了一些成果,但是由于用例的缺乏,这些成果并没有能够转化为现实的应用。从这个意义上讲,我们也需要加强对技术应用的研究。如果可以把一些计算问题转化成量子计算问题,就可以充分发挥量子计算机的优势,实现计算效率的大幅提升。 第三,应当对算法、架构等软件层面的要素进行优化,在保证AI产品性能的同时,尽可能减少对算力的依赖。从降低AI计算成本的角度看,降低模型的算力需求和提升算力具有同等重要的意义。因此,在用政策的手段促进算力供给的同时,也应当以同样的力度对算法、架构和模型的优化予以同等的激励。 考虑到类似的成果具有十分巨大的社会正外部性,因此用专利来保护它们并不是最合适的。因此,可以积极鼓励对取得类似成功的人员和单位给予直接的奖励,并同时鼓励他们将这些成果向全社会开源;也可以考虑由政府出面,对类似的模型产品进行招标采购。如果有个人和单位可以按照要求提供相应的成果,政府就支付相应的费用,并对成果进行开源。通过这些举措,就可以很好地激励人们积极投身到改进模型、节约算力的事业中,也可以在有成果产出时,让全社会及时享受到这些成果。 总而言之,在人工智能突飞猛进的时代,算力可能是决定人工智能发展上限的一个关键因素。唯有在算力问题上实现突破,人工智能的发展才可能有根本保障。 来源:金色财经
lg
...
金色财经
2023-02-21
上一页
1
•••
218
219
220
221
222
•••
240
下一页
24小时热点
特朗普刚刚重大发声:这是一件对美国来说是“生死攸关”的事!
lg
...
中国迄今去除外国技术最激进一步!北京禁止外国AI芯片进入国有数据中心
lg
...
【直击亚市】全球市场一片“血海”!中国宣布对美关税决定,美政府停摆创史上最长记录
lg
...
中国总理李强重大宣布!中国推出全新进口促进计划 以应对贸易失衡担忧
lg
...
发生了什么?小非农ADP数据意外回暖,金价先抑后扬“收复失地”
lg
...
最新话题
更多
#AI热潮:从芯片到资本的竞赛#
lg
...
22讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#VIP会员尊享#
lg
...
1989讨论
#比特日报#
lg
...
12讨论
#Web3项目情报站#
lg
...
6讨论