全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
全球AI龙头英伟达飙涨超7%,市值重返1.08万亿美元!纳指100ETF(159660)跳空高开涨1.6%,溢价高达0.64%!
go
lg
...
英伟达的强势崛起,一众科技股集体走强。
AI
芯片
霸主英伟达飙涨超7%,创5月26日以来最大单日涨幅,市值重返1.08万亿美元!纳指芯片板块集体大涨,迈威尔科技、超威半导体均大涨超4%,博通大涨近3%,纳指M7其他科技巨头也多数上涨,亚马逊、脸书Meta、谷歌纷纷涨超1%,微软、苹果均涨0.94%,贝宝(PayPal)、奥多比、英特尔、应用材料涨超2%;跌幅方面,电商平台美客多(Mercado Libre)跌超2%,特斯拉、Ebay跌超1%,高通、开市客微跌。中概股涨跌不一,京东收涨0.82%,拼多多微跌。 热门ETF方面,主打低费率的纳指100ETF(159660)跳空高开大涨1.60%,溢价明显,目前溢价率高达0.64%,反映买盘强势!福利提示:纳指100ETF管理费0.5%/年,托管费0.15%/年,明显低于市场主流费率! 统计截至2023.8.15 10:43 值得重点关注的是,低费率的纳指100ETF(159660)近期资金面火爆,获得场内资金大幅增仓,最新规模已超3.1亿元!上交所数据显示,纳指100ETF(159660)连续2日获资金净流入,合计952万元,近20个交易日内共14日获资金增仓,净申购额累计近1.4亿元,近60个交易日获资金增仓近2.3亿元,净流率高达275%! 此外,还值得注意的是,目前纳指100ETF(159660)是在同类产品中单日申购不设上限的稀缺品种!纳指100ETF联接基金(A类:018966;C类:018967)已经成立,汇添富基金信心自购超1000万元!目前该联接基金已经在全网打开申购赎回,偏好场外申购、定投的投资者可密切关注这一纳指100场外投资工具,目前已经在全网主流基金销售平台上线,欢迎关注这一7X24小时纳指100场外布局利器! 【
AI
芯片
巨头地位稳固,多家机构看多英伟达】 东方证券指出,无论是Open AI还是谷歌、META等,所有的生成式AI都极度依赖英伟达的
AI
芯片
来训练。自ChatGPT引领生成式AI浪潮以来,NVIDIA GPU已成为支持生成式AI和大模型训练的大算力
AI
芯片
首选。随着此次GH200超级
AI
芯片
的升级以及多款GPU、服务器产品的推出,英伟达展现了在AI基础设施领域的绝对主导地位。 消息面上,摩根士丹利昨日表示,此前英伟达股价的下跌是投资者的一个“良好切入点”,下周英伟达将公布最新财报,预计英伟达业绩仍将大幅增长,更重要的是,未来3-4个季度将有强劲的可见性,英伟达仍是该公司在半导体领域的首选。此外,知名资管巨头GQG Partners此前提交给监管部门的文件显示,公司在今年第二季度大幅增持了英伟达股票。 【机构:AI提振科技公司业绩,助推纳指跑赢美股大盘!】 根据统计,今年以来美股纳斯达克市场表现优异。截至8月14日,纳斯达克指数年内涨31.74%,纳斯达克100指数更是涨38.99%,领涨全球主要指数! 天风证券宏观研究员表示,今年以来,美股整体表现不错。在FOMC持续加息、市场对美国经济衰退存在担忧的背景下,美股面临业绩和估值的双重压力,但实际上的表现好于预期。三大股指中,以科技股为主的纳斯达克综合指数较标普500指数和道琼斯工业平均指数表现更好,主要原因在于AI提振了纳指中权重较大的几家公司业绩,其业绩增长预期较分母端的美债10年期收益率上行幅度更大。 【科技巨头最新财报陆续发布,多数业绩亮眼】 中报业绩方面,整体来看,美股科技巨头二季度业绩表现亮眼。 特斯拉二季度营收劲增47%,亚马逊二季度净营收同比增长11%至1343.8亿美元,高于市场预期的1316.3亿美元,谷歌、Meta业绩亮眼,微软营收净利同比也录得增长。随着美国科技股反弹的势头不断延续,积极的观点认为科技股已经进入了新一轮牛市。 具体到美股互联网科技公司的业绩及经营情况,光大证券表示,2023二季度美股互联网公司业绩普遍超预期: 1)Meta:净利润同比上升16.5%,时隔六个季度转正;DAU和ARPU驱动广告收入强劲复苏,Reels提供潜在广告收入增量;24年计划加大AI相关资本支出。 2)微软:智能云部门收入同比增长14.7%增速放缓,24财年资本支出将逐渐增长;Copilot商业版定价,Azure收入占比提升,AIGC在业绩端的潜力尚未完全体现。 3)谷歌:广告收入同比上升3.3%增速转正,云业务增长强劲,23M5谷歌I/O大会密集发布AI进展,AI与谷歌应用生态紧密结合。 4)亚马逊:降本增效下资本支出持续下降,AWS的利润驱动力从优化支出逐渐转向差异化的AI功能部署。 (来源:光大证券《美国互联网科技公司跟踪专题报告(三):23Q2美股互联网巨头财报-AIGC应用各自争先,业绩潜力尚待释放》) 根据方正证券的统计,2010年以来纳斯达克指数、标普500指数和道琼斯工业指数年化收益率分别为13.5%、10.3%和9.2%。分解来看,盈利稳定增长是美股长牛的根基,2010年以来纳斯达克指数、标普500指数和道琼斯工业指数盈利年化增幅分别为14.3%、8.7%和6.3%。 数据来源:方正证券 从资产配置角度来看,投资全球科技巨头一定程度上可以帮助国内投资者有效分散风险;短期在CPI回落、FOMC紧缩货币政策拐点的背景下,美科技股行情值得期待。纳指100ETF(159660)及联接A(018966)、联接C(018967)是一键布局美科技股的有效工具。 纳指100ETF(159660)跟踪纳斯达克100指数,在人工智能的时代浪潮之下,目前全世界AI领域布局和积淀最领先、最深厚的科技巨头仍然集中在纳斯达克,比如微软、谷歌、英伟达、Meta等等,这些AI巨头无一例外都是纳斯达克100指数的前十大权重股,纳斯达克100指数前十大权重占比超59%,龙头属性集中。纳指100ETF(159660)管理费0.5%/年,托管费0.15%/年,明显低于市场主流的费率结构,费率优势明显,省到就是赚到。 (风险提示:以上指数成份股仅作展示,不代表任何形式的个股推荐!) 【始于纳斯达克,更胜于纳斯达克!】 根据公开资料,纳斯达克指数包含100家在纳斯达克上市的非金融公司,纳斯达克市场自诞生以来成功孵化出了一大批科技巨头,被广泛认为是培育创新型、科技型、成长型公司最成功的投资市场之一。作为纳斯达克市场的旗舰指数,纳斯达克100指数长期涨幅明显跑赢纳斯达克指数。自1991年起,纳斯达克100指数30多年来年化收益14.13%,明显高于纳斯达克的11.65%。(数据截至2023.6.30) 数据统计区间1991.1.1-2023.6.30 风险提示:基金有风险,投资需谨慎。本资料仅为宣传材料,不作为任何法律文件。基金的过往业绩不预示未来表现,基金管理人管理的其他基金业绩并不构成基金业绩表现的保证。基金管理人依照恪尽职守、诚实信用、谨慎勤勉的原则管理和运用基金财产,但不保证投资于本基金一定盈利,也不保证最低收益。投资人应当仔细阅读《基金合同》、《招募说明书》及《产品资料概要》等法律文件以详细了解产品信息。纳指100ETF属于中等风险等级(R3)产品,适合经客户风险等级测评后结果为平衡型(C3)及以上的投资者。标的指数并不能完全代表整个股票市场。标的指数成份股的平均回报率与整个股票市场的平均回报率可能存在偏离。请投资者关注指数化投资的风险以及集中投资于纳斯达克100指数成份股的持有风险,请关注部分指数成份股权重较大、集中度较高的风险,请关注指数化投资的风险、ETF运作风险、投资特定品种的特有风险、参与转融通证券出借业务的风险等。 风险提示:界面有连云呈现的所有信息仅作为参考,不构成投资建议,一切投资操作信息不能作为投资依据。投资有风险,入市需谨慎!
lg
...
有连云
2023-08-15
科创芯片ETF华安(588290)今日震荡回调,成交额达1.23亿元,市场交投活跃
go
lg
...
AI大模型带动算力需求成指数级增长,对
AI
芯片
性能要求大幅增加,半导体制造工艺制程接近物理极限,通过半导体制程提升
AI
芯片
性能难度越来越大,先进封装技术成为提升芯片性能的最佳方案之一。Chiplet适用于大规模计算和异构计算,将助力于算力升级浪潮;Chiplet需要采用先进封装技术形成片上系统芯片,算力芯片需求爆发也将成为推动先进封装市场增长的重要动力。 风险提示:界面有连云呈现的所有信息仅作为参考,不构成投资建议,一切投资操作信息不能作为投资依据。投资有风险,入市需谨慎!
lg
...
有连云
2023-08-14
2023年
AI
芯片
公司正被夺命三连问
go
lg
...
2023年,投资机构与股民们,正向
AI
芯片
领域的上市公司,发起夺命三连问: 你做存算一体芯片了吗? (投资者向澜起科技提问 图源:同花顺财经) 存算一体芯片进度如何? (投资者向东芯股份提问 图源:同花顺财经) 存算一体芯片前景如何? (投资者向恒烁股份提问 图源:同花顺财经) 以上的一系列发问,意味着存算一体不再“停留”于学界与产界,俨然火到了二级市场:股民、券商机构正加班加点狂补存算一体的课,于是传统芯片大厂从2023年初至今,一直被“拷问”存算一体的布局情况。 一个自然而然的疑问是,存算一体为何突然变得如此火爆? 7.14发布新存储产品OceanStor A310的华为,给出了自己的答案。华为数据存储产品线总裁周跃峰表示,在通用大模型与行业大模型的训练推理中面临着诸多数据难题:海量数据跨域归集慢、预处理与训练中数据交互效率低、数据安全流动难。 AI大模型对存储带来了新的挑战,比如稳定性相较于传统AI更差,同时有大量的数据预处理和准备工作,需要用近存计算(存算一体的一种)来系统性处理这个问题。 那么,这里“大量的数据”究竟有多少?据偲睿洞察测算,现阶段 ChatGPT 日活一亿,若每日有5%的人每秒同时提问,将会吞噬三峡大坝近一年的发电量。 换言之,大模型正疯狂索取算力,而以存算一体为代表的新兴解决方案能够解决大模型带来的诸多挑战。而事实上,大模型除了对算力提出严苛要求外,也给了
AI
芯片
厂商“不少糖吃”。 本文试图探究,大模型背景下,给了
AI
芯片
厂商怎样的好处?被ChatGPT“带火”的存算一体厂商,未来格局如何? PART-01 “福祸相依”的
AI
芯片
厂商 大模型的风还在呼啸,有关大模型的讨论仍在如火如荼地进行。 8月初,在中国计算机学会(CCF)人工智能会议分论坛——“见疆见昆仑·AI大模型算力前沿”上,专家学者们一致表示,大模型时代,智能算力成为“稀缺资产”,如何善用算力资源,发挥其最大效益,已经成为每个参与者必须面对的挑战。 而光是GPT-3对算力索取量,保守情况下,需三峡大坝彻夜“打工”才能满足: 假设有1亿人同时在线,每日有5%的人每秒同时提问,每个prompt占30个token,便需要1530万颗H100芯片来提供其推理算力;而每颗H100的功耗在750W左右,若每天运行10个小时,这些H100芯片所在的数据中心一年的耗电量将达到840亿kW*h,而三峡大坝一年的发电量是882亿kW*h。 让
AI
芯片
厂商更为焦虑的是,这还只是ChatGPT一个大模型在推理阶段的耗电量,百家大模型全阶段、全部运作的耗电量,难以估量。 于是,一系列新兴的解决方案纷纷被厂商挖掘出来:存算一体、chiplet、HBM等等。在这之中,由于存算一体推翻了传统冯诺依曼架构下的存储墙,实实在在做到了降本增效,成为今年的“紫微星”。 (图源:偲睿洞察《AI大算力芯片行业报告-百舸争流,创新者先》) 除了新兴方案涌现让
AI
芯片
厂商喘了一口气之外,大模型也为芯片厂商尤其是初创芯片厂商,带来一个利好消息:软件生态重要性正在下降。 早先技术不够成熟之时,研究者们只能从解决某个特定问题起步,参数量低于百万的小模型由此诞生。例如谷歌旗下的AI公司DeepMind,让AlphaGO对上百万种人类专业选手的下棋步骤进行专项“学习”。 而小模型多了之后,硬件例如芯片的适配问题迫在眉睫。故,当英伟达推出统一生态CUDA之后,GPU+CUDA迅速博得计算机科学界认可,成为人工智能开发的标准配置。 现如今纷纷涌现的大模型具备多模态能力,能够处理文本、图片、编程等问题,也能够覆盖办公、教育、医疗等多个垂直领域。这也就意味着,适应主流生态并非唯一的选择:在大模型对芯片需求量暴涨之时,芯片厂商或许可以只适配1-2个大模型,便能完成以往多个小模型的订单。 也就是说,ChatGPT的出现,为初创芯片厂商们提供了弯道超车的机会。这就意味着,
AI
芯片
市场格局将发生巨变:不再是个别厂商的独角戏,而是多个创新者的群戏。 当算力成为稀缺货,同时适应主流生态不再成为必选项时,存算一体难掩光芒。此时,要不要投入,要投入多少,成为摆在
AI
芯片
厂商面前的第二道难题。 对此,“过来人”芯片巨头NVIDIA摸爬滚打多年给出的答案是,勇于创新,重金投入: 每一个新兴技术的研发厂商,在前期无疑要面临技术探索碰壁,下游厂商不认同等各个层面的问题。而在早期,谁先预判到未来的发展趋势,并勇于迈出探索的脚步,铺下合理的资源去尝试,就会抢到先机。 当数据中心浪潮还未铺天盖地袭来、人工智能训练还是小众领域之时,英伟达已经投入重金,研发通用计算GPU和统一编程软件CUDA,为英伟达谋一个好差事——计算平台。 而在当时,让GPU可编程,是“无用且亏本”的:不知道其性能是否能够翻倍,但产品研发会翻倍。为此,没有客户愿意为此买单。但预判到单一功能图形处理器不是长远之计的英伟达毅然决定,在所有产品线上都应用CUDA。 在芯东西与英伟达中国区工程和解决方案高级总监赖俊杰博士的采访中,赖俊杰表示:“为了计算平台这一愿景,早期黄仁勋快速调动了英伟达上上下下非常多的资源。” 远见+重金投入,在2012年,英伟达拿到了创新者的奖励:2012年,深度学习算法的计算表现轰动学术圈,作为高算力且更为通用、易用的生产力工具,GPU+CUDA迅速风靡计算机科学界,成为人工智能开发的“标配”。 在AI大算力芯片的征途上,存算一体芯片迎来了自己的“黄金期”,超前投入,是为正解。 PART-02 非技术、资金雄厚者,勿进 窥见到存算一体的种种好处,现阶段,存算一体芯片玩家阵营日益庞大。 (图源:偲睿洞察《AI大算力芯片行业报告-百舸争流,创新者先》) 据偲睿洞察不完全统计,自2019年起,新增的
AI
芯片
厂商,多数在布局存算一体:在2019-2021年新增的
AI
芯片
厂商有20家,在这之中,有10家选择存算一体路线。 这无一不说明着,存算一体将成为继GPGPU、ASIC等架构后的,一颗冉冉升起的新星。而这颗新星,并不是谁都可以摘。 在学界、产界、资本一致看好存算一体的境况下,强劲的技术实力、扎实的人才储备以及对迁移成本接受度的精准把控,是初创公司在业内保持竞争力的关键,也是挡在新玩家面前的三大门槛。 强劲的技术实力,永远是芯片领域的最高山。 首先是存算一体“涉猎广泛”,涉及到芯片制造的全环节:从最底层的器件,到电路设计,架构设计,工具链,再到软件层的研发;其次是其“牵一发而动全身”:在每一层做相应改变的同时,还要考虑各层级之间的适配度。 我们一层一层来看,一颗存算一体芯片被造出来,有怎样的技术难题。 首先,在器件选择上,厂商就“如履薄冰”:存储器设计决定芯片的良率,一旦方向错误将可能导致芯片无法量产。 其次是电路设计层面。电路层面有了器件之后,需要用其做存储阵列的电路设计。而目前在电路设计上,存内计算没有EDA工具指导,需要靠手动完成,无疑又大大增加了操作难度。 紧接着,架构层面有电路之后,需要做架构层的设计。每一个电路是一个基本的计算模块,整个架构由不同模块组成,存算一体模块的设计决定了芯片的能效比。模拟电路会受到噪声干扰,芯片受到噪声影响后运转起来会遇到很多问题。 这种情况下,需要芯片架构师足够了解模拟存内计算的工艺特点,同时针对这些特点去设计架构,在此基础上,还要考虑到架构与软件开发的适配度。软件层面架构设计完成后,还需要开发相应的工具链。 (图源:偲睿洞察《AI大算力芯片行业报告-百舸争流,创新者先》) 而由于存算一体的原始模型与传统架构下的模型不同,编译器要适配完全不同的存算一体架构,确保所有计算单元能够映射到硬件上,并且顺利运行。 一条完整的技术链条下来,考验着器件、电路设计、架构设计、工具链、软件层开发各个环节的能力,与协调各个环节的适配能力,是耗时耗力耗钱的持久战。 同时,根据以上环节操作流程可以看到,存算一体芯片亟需经验丰富的电路设计师、芯片架构师。 鉴于存算一体的特殊性,能够做成存算一体的公司在人员储备上需要有以下两点特征: 1、带头人需有足够魄力。在器件选择(RRAM、SRAM等)、计算模式(传统冯诺依曼、存算一体等)的选择上要有清晰的思路。这是因为,存算一体作为一项颠覆、创新技术,无人引领,试错成本极高。能够实现商业化的企业,创始人往往具备丰富的产业界、大厂经验和学术背景,能够带领团队快速完成产品迭代。 2、在核心团队中,需要在技术的各个层级中配备经验丰富的人才。例如架构师,其是团队的核心。架构师需要对底层硬件,软件工具有深厚的理解和认知,能够把构想中的存算架构通过技术实现出来,最终达成产品落地; 3、此外,据量子位报告显示,国内缺乏电路设计的高端人才,尤其在混合电路领域。存内计算涉及大量的模拟电路设计,与强调团队协作的数字电路设计相比,模拟电路设计需要对于工艺、设计、版图、模型pdk以及封装都极度熟悉的个人设计师。 而这一系列的人才与技术,都要以落地效果为终极目标——落地才是第一生产力。在交付时,客户考量的并不仅仅是存算一体技术,而是相较于以往产品而言,存算一体整体SoC的能效比、面效比和易用性等性能指标是否有足够的提升,更重要的是,迁移成本是否在承受范围内。 如果选择新的芯片提升算法表现力需要重新学习一套编程体系,在模型迁移上所花的人工成本高出购买一个新GPU的成本,那么客户大概率不会选择使用新的芯片。 因此,存算一体在落地过程中是否能将迁移成本降到最低,是客户在选择产品时的关键因素。 在大模型背景下,存算一体芯片凭借着低功耗但高能效比的特性,正成为芯片赛道,冉冉升起的一颗新星。现如今,存算一体市场风云未定,仍处于“小荷才露尖尖角”阶段。 但我们不可否认的是,存算一体玩家已然构筑了三大高墙,非技术实力雄厚,人才储备扎实者,勿进。 来源:金色财经
lg
...
金色财经
2023-08-12
【一周科技动态】为啥他们仨领跌大科技?
go
lg
...
度的结论只能在指数水平上得出 英伟达是
AI
芯片
的代表,也是这波AI行情的主导,像MSCI美国IMI机器人与人工智能选择净美元指数这样的更广泛的人工智能基准涨幅度约47%,就要逊色得多。 "TANMAM"的投资策略 我们将这权重最大的7家公司合成一个投资组合,称之为“TANMAM”组合。 以等权重、每季度重新调整权重的方式对这个组合进行回测,那么从2015年以来表现是远超标普500的,总回报达到了1313.89%,同期 $标普500ETF(SPY)$ 回报153.24%。 年初以来,该组合总回报为86.8%,夏普比率为6.6,而同期SPY总回报17.5%。 过去一周组合表现为-1.7%,SPY为-0.7%。
lg
...
老虎证券
2023-08-11
科创芯片ETF华安(588290)今日盘中溢价频现,成交额超1.2亿元,市场交投活跃
go
lg
...
阔。AIGC产业的发展需要大算力,我国
AI
芯片
和AI服务器市场迎来发展机遇,相关芯片和服务器厂商将深度受益。我们坚定看好AIGC产业链的投资机会。 风险提示:界面有连云呈现的所有信息仅作为参考,不构成投资建议,一切投资操作信息不能作为投资依据。投资有风险,入市需谨慎!
lg
...
有连云
2023-08-11
亚马逊为AWS而战!
go
lg
...
德鲁 · 贾西宣称公司已经提供了自家的
AI
芯片
: “客户对由NVIDIA H100 GPU驱动的Amazon EC2 P5实例进行训练大型模型和开发生成式AI应用非常兴奋。然而,迄今市场上仅有一种可行的选择,供应也非常有限。 这,再加上我们过去几年来积累的芯片专业知识,促使我们几年前开始研发我们自己的定制
AI
芯片
,称为Trainium,以及用于推理的Inferentia芯片,它们已经进入第二代,并且对于构建和运行大型语言模型的客户来说是非常具有吸引力的性价比选择。我们对未来许多大型语言模型的训练和推理都将在AWS的Trainium和Inferentia芯片上运行充满信心。” 投资者认为AWS在AI竞赛中落后于微软Azure和谷歌云,但这种悲观情绪过于夸大。与微软Azure不同,AWS在ChatGPT引发的生成式AI热潮之前就已经开始设计自己的
AI
芯片
。虽然目前英伟达的H100 GPU仍然是训练和推理AI模型的最佳选择,但亚马逊确实将努力鼓励客户将更多工作负载转移到自己的Trainium和Inferentia芯片上,并在这方面领先于微软Azure。 这些
AI
芯片
显然不是AWS首次涉足设计自己芯片领域。多年来,这家科技巨头还提供了Graviton CPU芯片,旨在满足AWS的广泛计算需求。在上次的财报电话会议上,CEO 安德鲁 · 贾西宣布: “几年前,我们从客户那里一直听到,他们想要找到更多性价比高的通用计算方式。为了实现这一目标,我们意识到需要从硅芯开始重新思考各种事情,于是着手设计了我们自己的通用CPU芯片。” 目前,超过5万家客户正在使用AWS的Graviton芯片和AWS计算实例,包括我们前100名的Amazon EC2客户中的98家,而这些芯片的性价比约比其他主要的x86处理器提高了40%。同样的重新构想正在生成式AI领域发生。” 亚马逊已经在使用自己的芯片,这确实令人鼓舞,但Trainium和Inferentia
AI
芯片
并不像英伟达的H100 GPU那样强大。鉴于Azure在没有自己芯片的情况下更依赖于英伟达的GPU,同时能够提供业界领先的大型语言模型。Azure目前被认为更有能力吸引各行各业的云客户,这些客户正在寻求通过AI来转变他们的业务。 此外,鼓励客户从由英伟达芯片驱动的云服务迁移到由亚马逊自己的芯片驱动的服务将是一个挑战。首先,亚马逊需要提升其
AI
芯片
,进而从性价比角度竞争英伟达的GPU。 此外,英伟达的GPU的竞争力也是由其伴随的CUDA软件包和围绕其芯片发展起来的软件生态系统所培养的。这个生态系统使得第三方开发者越来越多地构建适用于英伟达芯片的AI应用程序,不断增加了英伟达GPU对客户的吸引力。因此,英伟达确实通过广泛的网络效应在其AI解决方案周围建立了强大的护城河,将开发者和客户都牢牢地困在其生态系统中。 然而,亚马逊多年来在云计算行业的领先地位,也形成了围绕AWS发展的广泛合作伙伴生态系统,亚马逊将努力利用这一生态系统,鼓励第三方开发者围绕其AI云服务和芯片构建应用程序。 此外,即使Trainium和Inferentia芯片不如英伟达的芯片强大,AWS仍然可以通过定制化优势提供更好的性价比。此外,通过设计和生产自己的芯片,亚马逊可以根据其自己云服务的特定需求来定制Trainium/Inferentia芯片。这种流程集成优势使亚马逊能够优化性能,降低客户的延迟。 关于AWS如何努力在其云客户群中促使更多的人采用Trainium/Inferentia芯片,这家科技巨头用于诱导迁移到其Graviton CPU的策略确实可以提供一些线索。 一个可能阻碍客户迁移的关键问题是需要修改或重新编写他们的应用程序以在AWS的芯片上运行。这可能是一个很大的切换成本,特别是对于较大的应用程序来说。为了促进向Graviton的转变,亚马逊已经努力确保许多受欢迎的应用程序和软件包与Graviton兼容,减少了客户需要修改或重新编写其应用程序的需求。除此之外,亚马逊提供了工具和服务,帮助客户将其应用程序迁移到Graviton,包括AWS应用迁移服务和AWS模式转换工具。因此,亚马逊将确实采取类似的策略,以便更轻松地从英伟达的GPU迁移到用于训练/推断工作负载的Trainium/Inferentia芯片。 如果亚马逊能够在AI革命中成功地鼓励人们转向自己的芯片,它将在几个方面使AWS受益。我们之前已经介绍了定制的好处,使AWS能够提供更好的性能和更低的延迟,因为这些芯片将专门针对其自己的云解决方案进行定制。此外,生产自己的芯片使亚马逊能够创新和开发新的功能和能力,这些功能和能力可能无法用英伟达和AMD的现成芯片来实现。这可以帮助亚马逊进一步将其云服务与竞争对手区分开来,并为客户提供额外价值。因此,这些优势可以使AWS更好地吸引云客户,推动收入增长并捍卫其领导地位。 虽然使用内部构建的芯片也带来了成本效益。通过生产和部署自己的芯片,亚马逊可以节省购买英伟达芯片的成本,毕竟,现在英伟达的芯片真的太贵了。此外,根据上述定制化优势,运行由其自己芯片驱动的云服务也可以使其更具成本效益地提供此类解决方案。这可以使亚马逊降低成本并向客户提供更具竞争力的定价。 财务指导和绩效 在上次的盈利电话会议上,当一位分析师问及高管们预计AI相关的AWS增长时间表时,他们不愿提供具体细节: Brent Thill: “就AI的货币化问题,你能谈谈你们认为何时会开始在AWS业务中看到这种增长吗?是在2024年吗?在后半年,你觉得这会对业务产生更大的影响吗?” 安德鲁 · 贾西: “…我认为当你谈到大规模潜在爆发的生成式AI时,包括我们在内,每个人都对此感到兴奋,我认为我们现在处于非常早期的阶段。在我看来,我们在马拉松比赛中已经走了几步。我认为这将是革命性的,我认为它将从根本上改变我们所知的几乎每一种客户体验…但现在还为时过早。所以我期待这将会非常庞大,但那将在未来发生。” 相比之下,微软已经能够提供与Azure的AI相关增长有关的指导,它在财报电话会议上表示,对于2024财年第一季度,它预计: “在Azure中,我们预计在恒定货币下的收入增长率将为25%至26%,其中大约有2个百分点来自所有Azure AI服务。” 亚马逊需要在未来提供更具体的增长预期,以维持投资者对AWS的AI前景的信心。 在过去的几年里,AWS的营收增长明显放缓,类似于其最大的竞争对手。 数据来源:公司文件 尽管AI预计将重新点燃所有云服务提供商的营收增长率,但首先必须应对巨额的前期成本。首席执行官安德鲁·贾西提供了有关未来AI相关资本支出的指导: “展望2023年整年,我们预计资本支出将略高于500亿美元,而2022年为590亿美元。我们预计履行和运输资本支出将同比下降,部分抵消了增加的基础设施资本支出,以支持我们AWS业务的增长,包括与生成式AI和大语言模型工作相关的额外投资。” 随着亚马逊投资于扩大其在AWS中的AI基础设施,这将对短期的利润率产生压力。这家科技巨头需要同时投资于第三方解决方案,比如英伟达的H100芯片,以能够提供行业领先的解决方案来满足客户当前的AI需求,同时还要投资于Trainium和Inferentia芯片的设计进展。 此外,亚马逊还将努力构建更有竞争力的大型语言模型,作为其客户的AI应用开发的基础。正如首席执行官安德鲁 · 贾西所提到的:“开发这些大型语言模型需要数十亿美元和多年时间”,这意味着投资者可以预期在可预见的未来会有大规模的资本支出。 与AI相关的巨额资本支出确实将对AWS的利润率产生短期压力。尽管随着AWS基础设施的扩大,能够更好地满足客户对AI服务日益增长的需求,但从长期来看,随后的营收增长应该会支撑利润率,这取决于它与微软Azure和谷歌云的竞争能力。 数据来源:公司文件 根据Seeking Alpha的数据,亚马逊的股票目前以超过65倍的未来盈利估值交易。这个估值也反映了亚马逊的电子商务业务。AWS在2023年第二季度的总收入中仅占约16%。然而,鉴于AWS是亚马逊利润最丰厚的业务部门,它是公司利润的主要贡献者,因此是其未来盈利倍数的重要驱动因素。 考虑到在接下来的一年里,亚马逊将进行大规模的资本支出,这将对其利润率产生压力,分析师认为这是一个昂贵的股票价格。 同时要考虑到65倍的未来盈利估值明显比其顶级云对手更昂贵,微软的估值超过30倍,谷歌的估值接近24倍。因此,虽然AWS确实有可能成为AI时代的强大参与者,但Nexus Research认为,投资者可以通过估值较低的竞争对手更好地接触到与AI相关的云计算增长。 $亚马逊(AMZN)$
lg
...
老虎证券
2023-08-10
美股连续回调,
AI
芯片
龙头英伟达跌近5%,纳指100ETF(159660)跌逾1%,此前连续3日吸金!
go
lg
...
12%,两连阴。 大型科技股多数下跌,
AI
芯片
霸主英伟达跌4.72%,博通、特斯拉跌超3%,超威半导体、Meta、奈飞、英特尔跌超2%,亚马逊、微软、谷歌、奥多比、贝宝(PayPal)跌超1%,苹果、思科(Cisco)、Booking、百事微跌;涨幅方面,莫德纳、飞塔涨超2%,Enphase Energy、T-mobile涨超1%,Palo Alto Networks、开市客等涨幅居前。中概股普跌,拼多多跌0.29%,京东跌1%。 热门ETF方面,主打低费率的纳指100ETF(159660)低开现跌1.08%,早盘溢价明显,溢价率达0.34%!福利提示:纳指100ETF管理费0.5%/年,托管费0.15%/年,明显低于市场主流费率! 统计截至2023.8.10 10:31 值得重点关注的是,低费率的纳指100ETF(159660)近期资金面火爆,获得场内资金大幅增仓,最新规模已超3亿元!上交所数据显示,纳指100ETF(159660)此前连续3日吸金,合计达2660万元!近20个交易日内共13日获资金增仓,净申购累计超1.56亿元,近60个交易日获资金增仓近2.29亿元,净流率高达325%! 根据统计,今年以来美股纳斯达克市场表现优异。截至8月9日,纳斯达克指数年内涨31.10%,纳斯达克100指数更是涨38.04%,领涨全球主要指数! 值得注意的是,目前纳指100ETF(159660)是在同类产品中单日申购不设上限的稀缺品种!纳指100ETF联接基金(A类:018966;C类:018967)已经成立,汇添富基金信心自购超1000万元!目前该联接基金已经在全网打开申购赎回,偏好场外申购、定投的投资者可密切关注这一纳指100场外投资工具,目前已经在全网主流基金销售平台上线,欢迎关注这一7X24小时纳指100场外布局利器! 今晚,美股将迎来重大考验,7月的CPI数据即将出炉!市场预计CPI同比涨幅将从6月份的3%回升至3.3%,核心CPI率预计将稳定在4.8%。CPI数据将是FOMC进行9月份利率决定的关键因素。市场目前普遍认为联邦利率可能会保持在5.25%-5.5%,FOMC再次加息的可能性很小。 消息面上,媒体称百度、字节跳动、腾讯和阿里巴巴四家公司合计向英伟达订购了价值50亿美元的
AI
芯片
。国内大厂抢购英伟达芯片已是常事,此前针对海外出口管制英伟达推出专供中国市场的A800芯片。而今年6月末,海外正酝酿实行新的芯片出口限制。英伟达A800系列芯片原本在中国市场就供应紧缺。传出上述媒体消息后,国内一再传出英伟达芯片大涨价的消息。 【科技巨头最新财报陆续发布,多数业绩亮眼】 中报业绩方面,整体来看,科技巨头二季度业绩表现亮眼。 特斯拉二季度营收劲增47%,亚马逊二季度净营收同比增长11%至1343.8亿美元,高于市场预期的1316.3亿美元,谷歌、Meta业绩亮眼,微软营收净利同比也录得增长。随着美国科技股反弹的势头不断延续,积极的观点认为科技股已经进入了新一轮牛市。 具体到美股互联网科技公司的业绩及经营情况,光大证券表示,2023二季度美股互联网公司业绩普遍超预期: 1)Meta:净利润同比上升16.5%,时隔六个季度转正;DAU和ARPU驱动广告收入强劲复苏,Reels提供潜在广告收入增量;24年计划加大AI相关资本支出。 2)微软:智能云部门收入同比增长14.7%增速放缓,24财年资本支出将逐渐增长;Copilot商业版定价,Azure收入占比提升,AIGC在业绩端的潜力尚未完全体现。 3)谷歌:广告收入同比上升3.3%增速转正,云业务增长强劲,23M5谷歌I/O大会密集发布AI进展,AI与谷歌应用生态紧密结合。 4)亚马逊:降本增效下资本支出持续下降,AWS的利润驱动力从优化支出逐渐转向差异化的AI功能部署。 (来源:光大证券《美国互联网科技公司跟踪专题报告(三):23Q2美股互联网巨头财报-AIGC应用各自争先,业绩潜力尚待释放》) 根据方正证券的统计,2010年以来纳斯达克指数、标普500指数和道琼斯工业指数年化收益率分别为13.5%、10.3%和9.2%。分解来看,盈利稳定增长是美股长牛的根基,2010年以来纳斯达克指数、标普500指数和道琼斯工业指数盈利年化增幅分别为14.3%、8.7%和6.3%。 数据来源:方正证券 纳指100ETF(159660)跟踪纳斯达克100指数,在人工智能的时代浪潮之下,目前全世界AI领域布局和积淀最领先、最深厚的科技巨头仍然集中在纳斯达克,比如微软、谷歌、英伟达、Meta等等,这些AI巨头无一例外都是纳斯达克100指数的前十大权重股,纳斯达克100指数前十大权重占比超59%,龙头属性集中。纳指100ETF(159660)管理费0.5%/年,托管费0.15%/年,明显低于市场主流的费率结构,费率优势明显,省到就是赚到。 (风险提示:以上指数成份股仅作展示,不代表任何形式的个股推荐!) 【始于纳斯达克,更胜于纳斯达克!】 根据公开资料,纳斯达克指数包含100家在纳斯达克上市的非金融公司,纳斯达克市场自诞生以来成功孵化出了一大批科技巨头,被广泛认为是培育创新型、科技型、成长型公司最成功的投资市场之一。作为纳斯达克市场的旗舰指数,纳斯达克100指数长期涨幅明显跑赢纳斯达克指数。自1991年起,纳斯达克100指数30多年来年化收益14.13%,明显高于纳斯达克的11.65%。(数据截至2023.6.30) 数据统计区间1991.1.1-2023.6.30 风险提示:基金有风险,投资需谨慎。本资料仅为宣传材料,不作为任何法律文件。基金的过往业绩不预示未来表现,基金管理人管理的其他基金业绩并不构成基金业绩表现的保证。基金管理人依照恪尽职守、诚实信用、谨慎勤勉的原则管理和运用基金财产,但不保证投资于本基金一定盈利,也不保证最低收益。投资人应当仔细阅读《基金合同》、《招募说明书》及《产品资料概要》等法律文件以详细了解产品信息。纳指100ETF属于中等风险等级(R3)产品,适合经客户风险等级测评后结果为平衡型(C3)及以上的投资者。标的指数并不能完全代表整个股票市场。标的指数成份股的平均回报率与整个股票市场的平均回报率可能存在偏离。请投资者关注指数化投资的风险以及集中投资于纳斯达克100指数成份股的持有风险,请关注部分指数成份股权重较大、集中度较高的风险,请关注指数化投资的风险、ETF运作风险、投资特定品种的特有风险、参与转融通证券出借业务的风险等。 风险提示:界面有连云呈现的所有信息仅作为参考,不构成投资建议,一切投资操作信息不能作为投资依据。投资有风险,入市需谨慎!
lg
...
有连云
2023-08-10
【ETF盘前早报】昨日A股缩量收跌,半导体ETF(512480)全天交投活跃,收盘成交额达11.70亿元
go
lg
...
下一个超级周期催化剂,相关高端处理器和
AI
芯片
先进封测需求(对2.5D/3D封装)有望持续增长。 风险提示:界面有连云呈现的所有信息仅作为参考,不构成投资建议,一切投资操作信息不能作为投资依据。投资有风险,入市需谨慎!
lg
...
有连云
2023-08-10
关于英伟达财报的一些预测
go
lg
...
伟达的这次财报,可以说是万众瞩目!作为
AI
芯片
的龙头,AI热能否延续,就看这次的财报能否继续给力了。有国外分析师也对此做了一些预测,让我们来看看他的逻辑吧!(不作为投资建议) 作者:A.J. Button 英伟达计划于8月23日发布财报。这次财报受到了密切关注,因为它将向投资者提供关于
AI
芯片
需求的线索。英伟达的A100
AI
芯片
处于行业领先地位,能够处理复杂的AI工作负载。其他公司也在研发竞争芯片,但目前,如果想在线运行尖端的AI应用程序,就需要使用A100和H100芯片。 A100/H100芯片对现代AI应用程序开发的必要性对英伟达来说是一个重要的利好。在其最近的季度财报中,英伟达预计第二季度的营收将达到110亿美元,这将是去年同期增长64%。在第一季度财报发布之前,市场预计该公司第二季度的营收将达到70亿美元,但英伟达的指引超出预期,多了40亿美元。 英伟达即将发布的财报非常重要,不仅对英伟达股东重要,对整个市场也重要。因为它将展示过去8个月来席卷市场的AI热潮是否能真正带来经济价值。尽管谷歌和微软上季度实现了正增长的盈利,但他们并未将增长的盈利归功于AI。相反,他们将其归因于已有业务的盈利增长。微软的更多个人计算业务部门上季度的营收下降了4%——其中包括AI驱动的Bing。谷歌的搜索营收上季度增加,但很可能不是由于Bard,因为谷歌尚未将Bard作为默认搜索功能,就像微软对Bing所做的那样。 因此,如果AI将开始真正带来成果,那么英伟达将受益匪浅。英伟达销售全球使用最广泛的
AI
芯片
,每个芯片售价为1万美元,但科技公司正在数以万计地抢购这些芯片。此外,分析师预计该公司第二季度每股收益将为2.07美元,较去年同期的每股收益(0.51美元)增长305%。除此之外,英伟达最近推出了比A100还要强大的H100 GPU。 所有这些对英伟达公司都是利好。问题是,即使股票的估值飙升,它是否仍然值得购买?根据Seeking Alpha Quant的数据,英伟达目前的估值为调整后盈利的146倍,GAAP盈利的222倍,销售额的43倍,和账面价值的45倍。这是一个相当高昂的估值。当然,英伟达的预期增长也是非常高的。如果该公司实现其营收指引,其营收增长率将达到64%。如果实现盈利指引,其盈利增长率将达到305%。如果以305%的年均增长率增长几年,就可以迅速赶上看似极端的估值。 问题是英伟达是否能够继续保持其增长?谷歌已经在开发自己的芯片,据了解,一个使用4000个这些芯片组成的系统能够击败运行A100芯片的等效系统。 英伟达独享
AI
芯片
领域的情况不会持续很久,竞争终将会出现。正因如此,分析师认为应重点关注英伟达的竞争地位,以及即将发布的财报可能对其产生的影响。 英伟达:竞争地位 目前,英伟达拥有的一个优势是在
AI
芯片
领域缺乏竞争。其他公司虽然也在开发
AI
芯片
,但是都比不上英伟达的产品。在MLCommons最近的推断数据中心基准测试竞赛中,几乎所有表现最佳的系统都是在A100芯片上运行的。远远落后的是运行高通 AI 100芯片的系统。 这充分说明了英伟达技术的领先,在
AI
芯片
领域甩开竞争对手一大截。这是一个重要的优势,但不能保证永远不变。其他公司正在开发
AI
芯片
,而高通的产品似乎至少具备可用性。 此外还有AMD。目前为止,尚未有任何AMD芯片参加过MLCommons的基准测试,但如果查看AMD Instinct 2100系列的网站描述,它似乎描述了与英伟达的A100竞争的产品。这些芯片被描述为“AI数据中心加速器”,与英伟达的A100芯片的功能相同:即通过促进并行处理来优化CPU的性能。最后,AMD CEO 苏姿丰在公司第二季度财报电话会议上多次提到了AI,表明她对
AI
芯片
的重视。 所有这些因素一起表明,英伟达的竞争地位虽然强劲,但可能会在未来削弱。竞争对手看到了英伟达正在涉足的庞大市场,也想进去分一杯羹。目前,竞争对手的进展速度较慢,英伟达在中短期内应该会在
AI
芯片
领域拥有宽阔的护城河。然而,在较长时间内,这个护城河可能会减弱。英伟达在
AI
芯片
领域的护城河并不是建立在品牌认知度或知识产权上,而是其芯片在技术上明显优越于竞争对手。因此,只有竞争对手在研发方面投入足够的资金,才有可能在AI领域赶超英伟达。 运营指标 在估算英伟达的长期营收和盈利趋势时,我们需要关注公司的供应商的表现。这可以让我们了解公司为了生产其A100芯片而下的订单数量。 在这里,可以参考的最佳指标是台积电的最新财报。台积电是英伟达最大的供应商,因此其业绩可以为我们提供有关英伟达自身表现的一些线索。 在最近一个季度,台积电实现了: ·156.8亿美元的营收,下降10%。 ·53.1亿美元的净利润,下降23.3%。 ·稀释后每股收益为1.14美元,下降23.3%。 虽然财报超出预期,但增长是负面的。尽管在盈利方面表现出色,台积电的股价在财报发布后下跌。原因是其未来业绩展望远低于分析师的预期,这在整个半导体行业引起了震动,甚至使强大的英伟达本身陷入了困境。 不过,更值得一提的是,台积电对其AI业务有一些积极的展望。 在发布财报后的财报电话会议上,台积电表示, AI 相关收入占其总收入的6%。该公司表示,预计这部分收入在未来五年内以50%的年复合增长率增长。因此,有理由认为英伟达的110亿美元的Q2营收指引将会实现。如果台积电的AI收入在未来五年内以50%的年复合增长率增长,那么在一年内实现64%的增长是完全可行的。随着时间的推移,增长通常会减缓,因为基期的大数字使未来的增长变得更加困难。因此,在一个长期50%年复合增长率的时期内,预计在早期阶段会有类似64%的增长。 盈利预测 总体而言,分析师预计英伟达将达到其Q2营收指引。其主要供应商预计其AI业务板块将有类似的增长,而在过去的8个月中,我们已经看到很多新闻报道称,大型科技公司正在大量订购A100和H100芯片。因此,没有理由怀疑英伟达Q2指引。分析师预计营收将达到110亿美元或更高。 然而,盈利情况则不同。台积电最近宣布将其价格上调3%至6%,它肯定有足够的定价权来这样做。没有其他晶圆厂拥有台积电的制造能力。 台积电的涨价消息是在英伟达发布Q1财报后公布的。这个涨价将在2024年开始生效,但在2023年早些时候,已经有一个5%至9%的涨价。此前的涨价是在五月宣布的。出于这个原因,分析师认为台积电有可能会在收入持平或更好的情况下错过收益。制造成本呈上升趋势,尽管英特尔和其他公司在代工领域取得了长足进步,但英伟达仍然严重依赖台积电。 总结 毫无疑问,英伟达是目前全球最成功的科技公司之一,而
AI
芯片
可能会在Q2为其带来110亿美元的营收。但当一家公司的市盈率达到222倍,销售倍数为43倍时,很难不认为它被高估了。考虑到不同因素之间的矛盾信号,对于那些今年早些时候购买的人来说,英伟达票可能足够安全,但并不是最适合在今天投入新资金的资产。 $英伟达(NVDA)$ $台积电(TSM)$ $美国超微公司(AMD)$
lg
...
老虎证券
2023-08-09
ChatGPT爆火这半年:热钱、巨头与监管
go
lg
...
工智能应用方面的企业,尽管涉及到一部分
AI
芯片
企业,但是数量并不多,涉及大模型方面的企业几乎没有,并且大厂所投资的人工智能相关的公司大多与其业务息息相关。 大厂投资机构 投资企业数 平均持股比例 最高持股比例 100%持股企业数 阿里巴巴 23 36.25% 100% 5 百度风投 25 5.50% 15% 0 腾讯投资 54 17.54% 100% 2 三家互联网大厂投资AI相关公司情况|数据来源:企查查 2017年阿里达摩院成立,研究对象涵盖机器智能、智联网、金融科技等多个产业领域,将人工智能的能力赋能到阿里的各个业务线中。2018年,百度提出了“All in AI”的战略。 有所不同的是,生成式AI的出现,似乎是一个转折点。对于拥有数据、算力和算法资源优势的科技巨头来说,人工智能对他们已经不光是赋能场景,而是需要承担基础设施的角色,毕竟,生成式AI的出现,意味着针对人工智能产业的分工已经开始。 以百度、阿里、华为、腾讯,四家云供应商为代表的大厂,虽然都宣布了各自的AI策略,但明显各有侧重。 在过去的半年时间里,巨头纷纷发布自己的大模型产品。对于百度、阿里这样的大厂来说,他们入局大模型的时间并不算晚,基本在2019年。 百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。阿里的通义千问大模型也是始于2019年。除了百度和阿里的通用大模型,6月19日,腾讯云发布了行业大模型的研发进展。7月7日,华为云发布了盘古3.0行业大模型产品。 这些侧重也与各家的整体业务,云战略,以及在AI市场里的长期布局有所呼应。 百度的主线业务盈利能力在过去的5年中,出现了较大波动。百度很早就看到了基于搜索的广告业务在国内市场中的问题,对此,百度选择了大力投入AI技术寻找新机会。这些年来,百度不仅邀请过吴恩达、陆奇等业界大佬出任高管,在自动驾驶上投入热情也远超其他大厂。如此关注AI的百度,势必会在这波大模型之争里重手投注。 阿里对通用大模型同样表现出了极大的热情。一直以来,阿里云一直被寄予厚望,阿里希望走通技术路线创造集团的第二增长曲线。在电商业务竞争日趋激烈,市场增长放缓的大环境下,依云而生的AI产业新机遇,无疑是阿里云在国内云市场上再发力的好机会。 相比百度和阿里,腾讯云在大模型方面选择了优先行业大模型,而华为云则公开表示只会关注行业大模型。 对于腾讯来说,近年来主营业务增长稳中向好。在通用大模型的前路尚不明朗的阶段,腾讯对于AI大模型的投注相对谨慎。马化腾在此前的财报电话会上谈及大模型时曾表示:“腾讯并不急于把半成品拿出来展示,关键还是要把底层的算法、算力和数据扎扎实实做好,而且更关键的是场景落地。” 另一方面,从腾讯集团的角度看,腾讯目前有4所AI Lab,去年也发布了万亿参数的混元大模型,腾讯云投身行业大模型方面的动作,更像是一种“不把鸡蛋放在同一个篮子里”的投注策略。 对于华为来说,一直以来都是重手投注研发,过去10年里华为在研发方面的总投入超过9000亿元。但由于手机业务遇到发展障碍,华为在很多技术研发上的整体策略或也正在面临调整。 一方面手机业务是华为C端技术最大的出口,如果手机业务不为通用大模型买单的话,那么华为研发通用大模型的动力就会明显下降。而对于华为来说,把赌注押在能快速落地变现的行业大模型,似乎是这场AI博弈当中的最优解。正如华为云CEO张平安所说“华为没有时间作诗”。 不过,对科技巨头来说,无论赌注多大,只要能赌对,就能够先一步抢占基础设施的市场份额,从而在人工智能时代获得话语权。 拿着锤子找钉子 对于商业公司来说,所有的决策仍然落到经济账上。 即便是一笔不小的投入,越来越多有远见的公司创始人也意识到,这是一项未来必须要做的事情,即便前期投入可能完全看不到回报。 AI大模型的研发需要一笔不小的投入,但越来越多企业创始人、投资人都认为,这是一项”必要投入”,即便眼下完全看不到回报。 由此,很多在上一波AI浪潮下诞生的人工智能公司,都在沉寂良久之后看到了新的曙光。 “3年前,大家都说GPT-3是通向通用人工智能的可能性。”李志飞在2020年就开始带着一班人马研究GPT-3,彼时出门问问正处在一个发展的转折点,他们希望探索新业务,但经过一段时间的研究之后,李志飞的大模型项目中止了,原因之一是当时模型不够大,另外就是找不到商业落地场景。 不过,2022年底ChatGPT问世以后,李志飞仿佛被扎了一剂强心针,因为他和所有人一样,看到了大模型的新机会。今年4月,出门问问发布了自研的大模型产品——序列猴子。眼下,他们准备拿着新发布的大模型“序列猴子”冲刺港交所,出门问问已在5月末递交了招股书。 另一家老牌AI公司也在跟进,去年7月,思必驰向科创板递交了IPO申请,在今年5月被上市审核委员会否决。 俞凯坦言,就连OpenAI,在GPT2阶段也是用微软的V100训练了将近一年的时间,算力和A100差好几个量级。思必驰在大模型前期积累阶段,也是用更为经济的卡做训练。当然,这需要时间作为代价。 相比于自研大模型,一些应用型公司有自己的选择。 一家在线教育公司的总裁张望(化名)告诉虎嗅,过去半年,他们在大模型应用场景的探索上不遗余力,但他们很快发现在落地过程中存在诸多问题,例如成本与投入。这家公司的研发团队有50人-60人,开始做大模型研究以来,他们扩充了研发团队,新招了一些大模型方面的人才,张望说,偏底层模型方面的人才很贵。 张望从未想过从头开发大模型,考虑到数据安全和模型稳定性等问题,他也不打算直接接入API做应用。他们的做法是参考开源大模型,用自己的数据做训练。这也是很多应用公司目前的做法——在大模型之上,用自己的数据做一个行业小模型。张望他们从70亿参数的模型开始,做到100亿,现在在尝试300亿的模型。但他们也发现,随着数据量增多 ,大模型训练会出现的情况是,可能新版本不如上一个版本,就要对参数逐一调整,“这也是必须要走的弯路。”张望说。 张望告诉虎嗅,他们对于研发团队的要求就是——基于公司的业务探索AI大模型场景。 这是一种拿着“锤子”找“钉子”的方法,但并不容易。 “目前最大的难题是找到合适的场景。其实有很多场景,即便用了AI,效果也提升不了太多。”张望说,例如在上课的场景中,可以用AI大模型赋能一些交互模式,包括提醒学员上课功能、回答问题和打标签等,但他们试用了AI大模型之后,发现精准度不行,理解能力和输出能力并不理想。张望的团队尝试过一段时间后,决定在这个场景里暂时放弃AI。 另一家互联网服务商小鹅通,也在AI大模型爆发后第一时间开展了相关业务的探索。小鹅通的主要业务是为线上商家提供数字化运营工具,包括营销、客户管理以及商业变现。 小鹅通联合创始人兼COO樊晓星告诉虎嗅,今年4月,当越来越多的应用基于生成式AI诞生时,小鹅通看到了这个技术背后的潜力,“例如MidJourney,生成式AI对于设计图像生成方面的提效确实有目共睹。”樊晓星她们在内部专门组织了AI研究的业务线,寻找与自身业务相关的落地案例。 樊晓星说,在将大模型接入业务的过程中,她所考虑的就是成本和效率,“大模型的投入成本还是蛮高的。”她说。 互联网行业的“钉子”算是好找的,AI落地真正的难点还是在工业、制造这样的实体产业。 俞凯告诉虎嗅,这一波AI浪潮仍然是螺旋式上升、波浪式前进,在产业落地上面的矛盾一点都没变化,只是换了一个套壳而已。所以从这个意义上看,这两次AI浪潮的规律是相同的,最好的办法就是学习历史——“上一波AI浪潮的教训,这次就别再犯了。” 虽然很多厂商在AI大模型的落地方面都喊出了“产业先行”的口号,但很多实体产业的场景真的很难与目前的AI大模型相匹配。比如在一些工业检测场景应用的AI视觉检测系统,即便对AI模型的需求没有高到10亿参数的量级,但初期的训练数据仍然捉襟见肘。 以一个简单的风电巡检场景为例,一个风场的巡检量达到七万台次,但同样的裂痕数据,可能只会出现一次,机器可以学习的数据量是远远不够的。扩博智能风电硬件产品总监柯亮告诉虎嗅,目前风机叶片的巡检机器人还做不到100%的精确分析叶片裂痕,因为可供训练和分析的数据量太小了,要形成可靠的全自动巡检和识别,还需要大量的数据积累和人工分析。 不过,在工业数据积累较好的场景中,AI大模型已经可以做到辅助管理复杂的三维模型零件库了。国内某飞机制造企业的零件库就已经落地了一款基于第四范式“式说”大模型的零件库辅助工具。可以在十万余个三维建模零件中,通过自然语言实现三维模型搜索,以三维模型搜三维模型,甚至还能完成三维模型的自动装配。这些功能,在很多卡住制造业脖子的CAD、CAE工具中都需要经过多步操作才能完成。 今天的大模型和几年前的AI一样面临落地难题,一样要拿着锤子找钉子。有人乐观地相信,今天的锤子和过去完全不一样了,但到了真金白银地为AI付费时,结果却有些不同。 彭博社在7月30日发布的Markets Live Pulse调查显示,在514名受调投资者中,约77%的人计划在未来六个月内增加或保持对科技股的投资,且只有不到10%的投资者认为科技行业面临严重的泡沫危机。然而这些看好科技行业发展的投资者中,却只有一半人对AI技术持开放的接受态度。 50.2%的受访者表示,目前还不打算为购买AI工具付费,多数投资公司也没有计划将AI大范围应用到交易或投资中。 卖铲子的人 “如果你在1848年的淘金热潮里去加州淘金,一大堆人会死掉,但卖勺子和铲子的人,永远可以赚钱。”陆奇在一次演讲时说。 高峰(化名)想当这样的“卖铲子的人”,准确地说,是能够“在中国卖好铲子的人”。 作为一名芯片研究者,高峰大部分科研时间都在
AI
芯片
上。过去一两个月,他感到了一种急迫性——他想做一家基于RISC-V架构的CPU公司。在一家茶室,高峰向虎嗅描绘了未来的图景。 然而,要从头开始做
AI
芯片
,无论是在芯片界,还是在科技圈,都像是一个“天方夜谭”。 当AI大模型的飞轮飞速启动时,背后的算力逐渐开始跟不上这一赛道中玩家的步伐了。暴涨的算力需求,使英伟达成了最大的赢家。但GPU并非解决算力的全部。CPU、GPU,以及各种创新的
AI
芯片
,组成了大模型的主要算力提供中心。 “你可以把CPU比喻为市区,GPU就是开发的郊区。”高峰说,CPU和
AI
芯片
之间,需要通过一个叫做PCIE的通道连接,数据传给
AI
芯片
,然后
AI
芯片
再把数据回传给CPU。如果大模型的数据量变大,一条通道就会变得拥挤,速度就上不去,因此需要拓宽这条路,而只有CPU能够决定这条通路的宽窄,需要设置几车道。 这意味着,中国在大模型上,即便突破了
AI
芯片
,仍有最关键的CPU难以破局。哪怕是在AI训练上,越来越多的任务可以被指派给GPU承担,但CPU依旧是最关键的“管理者”角色。 2023WAIC大模型展区展出的部分国产芯片 自1971年英特尔造出世界上第一块CPU至今50余年,在民用服务器、PC市场,早已是英特尔和AMD的天下,英特尔更是建立起涵盖知识产权、技术积累、规模成本、软件生态于一体的整个商业模式壁垒,且这种壁垒从未衰退。 要完全抛开X86架构和ARM架构,基于一个全新架构研发完全自主的CPU芯片,可以说是“九十九死一生”,基于MIPS指令集的龙芯,在这条路上走了20多年,更不用说是 RISC-V这样未被充分开垦和验证过的开源架构。 指令集,就像一块块土地,基于指令集开发芯片,就相当于是买地盖房子。X86的架构是闭源的,只允许Intel生态的芯片,ARM的架构需要支付IP授权费,而RISC-V是免费的开源架构。 产业界和学术界已经看到了这样的机会。 2010年,加州伯克利两位教授的研究团队从零开始开发了一个全新的指令集,就是RISC-V,这个指令集完全开源,他们认为CPU的指令集不应该属于任何一家公司。 “RISC-V或许是中国CPU的一道曙光。”高峰说。2018年,他在院所孵化了一家
AI
芯片
公司,彼时他表示,自己不想错过 AI浪潮发展的机会,这一次,他依然想抓住,而这个切入点,就是RISC-V。在大模型以及如今国产替代的时代,这个需求显得更为紧迫,毕竟,极端地考虑一下,如果有一天,中国公司用不了A100了,又该怎么办。 “如果要取代ARM和X86,RISC-V的CPU需要性能更强,也需要和Linux上做商业操作系统的人参与到代码的开发中。”高峰说。 高峰不是第一个意识到这个机会的人,一位芯片行业投资人告诉虎嗅,他曾与一家芯片创业公司创始人聊起,用RISC-V的架构去做GPU的机会。如今,在中国已有一些基于RISC-V架构做GPU的公司,但生态依旧是他们面临的最大的问题。 “Linux已经示范了这条路是可以走通的。”高峰说,在Linux这套开源操作系统中,诞生了红帽这样的开源公司,如今许多云服务都建立在Linux系统上。“需要足够多的开发者。”高峰提出了一个方法。这条路很难,但走通了,将是一条光明的道路。 飞轮转得太快了 大模型的“应激反应”下,感到急迫的不光是高峰。 国内某AI大模型公司联创告诉虎嗅,今年初他们也曾短暂上线过一款对话大模型,但随着ChatGPT的升温,有关部门提高了对大模型安全性的重视,并对他们提出了很多整改要求。 “在没有特别明确的监管政策出来之前,我们不会轻易把产品开放给普通用户,主要还是To B的逻辑。”左手医生CEO张超认为,在《管理办法》出台之前,贸然将生成式AI产品开放给C端用户,风险很大。“现阶段,我们一方面在持续迭代优化,另外一方面也在持续关注政策、法规,保证技术的安全性。” “生成式AI的监管办法还不明确,大模型公司的产品和服务普遍很低调。”一家数字化技术供应商,在6月发布了一款基于某云厂商通用大模型开发的应用产品,在发布会上,该公司技术负责人向虎嗅表示,他们被这家云厂商要求严格保密,如果透露使用了谁的大模型,他们会被视为违约。而对于为何要对案例保密,这位负责人分析,可能很大一部分原因是要规避监管风险。 在全球都对AI提高警惕的当下,任何市场都不能接受监管的“真空期”。 7月13日,网信办等七个部门正式发布了《生成式人工智能服务管理暂行办法》(下文简称“《管理办法》”),该办法自2023年8月15日起施行。 “《管理办法》出台后,政策会从问题导向转为目标导向发展就是我们的目标。”观韬中茂律师事务所合伙人王渝伟认为,新规是重“疏”而不重“堵”。 浏览美国的风险管理库,是王渝伟每天必需的功课,“我们正在为利用GPT等大模型进行细分行业的商业应用提供风控合规的方案,建立一套合规治理框架。”王渝伟说。 美国的AI巨头们正排着队向国会表忠心。7月21日,谷歌、OpenAI、微软、Meta、亚马逊、AI创业公司Inflection、Anthropic,七家最具影响力的美国AI公司,就在白宫签署了一份自愿承诺。保证在向公众发布AI系统前允许独立安全专家测试他们的系统。并与政府和学术界分享有关他们系统安全的数据。他们还将开发系统,当图像、视频或文本是由AI生成时向公众发出警告,采用的方法是“加水印”。 7家美国AI巨头排代表在白宫签署AI承诺 此前,美国国会听证会上,OpenAI的创始人山姆·奥特曼表示,需要为人工智能模型创建一套安全标准,包括评估其危险能力。例如,模型必须通过某些安全测试,例如它们是否可以“自我复制”和“渗透到野外”。 或许山姆·奥特曼自身也没有想到,AI的飞轮会转得这么快,甚至有失控的风险。 “我们一开始还没有意识到这件事情这么紧迫。”王渝伟说,直到上门来咨询的公司创始人越来越多。他感到,这一次的人工智能浪潮正在发生与过去截然不同的变化。 今年年初,一家最早接入大模型的文生图公司找到王渝伟,这家公司希望把自己的业务引入中国,因此,他们想了解这方面的数据合规业务。紧接着,王渝伟发现,这类的咨询越来越多,更明显的变化是,前来咨询的不再是公司的法务,而是创始人。“生成式AI的出现,原有的监管逻辑已经很难适用。”王渝伟说。 从事大数据法律工作多年的王渝伟发现,生成式AI与上一波AI浪潮正在呈现更加底层的变化。例如,上一次的AI更多是基于算法进行推荐,还有就是一些人脸识别,都是针对一个场景,针对一些小模型,在具体应用场景当中进行训练,涉及的法律问题不外乎知识产权、隐私保护的问题。而在这个生成式AI生态之上的不同角色,例如提供底层大模型的公司,在大模型之上接入做应用的公司,存储数据的云厂商等,对应的监管都不尽相同。 目前大模型所带来的伴生风险已经有了共识,业界明白,商业化应用势必会放大这种风险,要想保持业务的连续性,就需要重视监管。 难点就是,“如何找到一条既能做好监管,又能不影响行业发展的路径。”王渝伟说。 结语 对于整个行业来说,在对技术加深探讨的同时,也正在引发更为深远的思考。 在AI逐渐占据科技产业的主导地位之时,要如何确保技术的公正、公平和透明性?当头部公司紧紧掌控技术和资金流向时,如何确保中小企业和初创公司不被边缘化?大模型的开发和应用蕴含巨大潜力,但盲目跟风是否会导致我们忽视其他创新技术? “从短期来看AI大模型正在被严重高估。但从长期看,AI大模型被严重低估了。” 半年时间里,AI热浪翻涌。然而对于中国的创业公司和科技巨头来说,在热炒的市场氛围中,如何保持清醒的判断,做出长远的规划和投资,将是检验其真正实力和远见的关键。 来源:金色财经
lg
...
金色财经
2023-08-04
上一页
1
•••
413
414
415
416
417
•••
456
下一页
24小时热点
特朗普刚刚重大发声:这是一件对美国来说是“生死攸关”的事!
lg
...
“大空头”再出手!全球市场集体跳水:美股、比特币、黄金、原油竞相下跌
lg
...
中美突发重磅!特朗普正式敲定与习近平的芬太尼及对等关税削减协议
lg
...
【黄金收评】令人震惊的行情!金价暴跌近70美元 黄金猛烈回调的原因在这
lg
...
【直击亚市】全球市场一片“血海”!中国宣布对美关税决定,美政府停摆创史上最长记录
lg
...
最新话题
更多
#AI热潮:从芯片到资本的竞赛#
lg
...
21讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#VIP会员尊享#
lg
...
1989讨论
#比特日报#
lg
...
12讨论
#Web3项目情报站#
lg
...
6讨论