全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
科大讯飞:2月22日接受机构调研,创金合信、农银汇理等多家机构参与
go
lg
...
上用户增长最快的 应用程序。请公 司在
大
模型
上的优势和现有布局如何,有没有推出相关产品的 里程碑计划? 答:在 ChatGPT 引发的 I 技术新一轮热潮背景下,讯飞基于国家唯一的 认知智能全国重点实验室,已在核心算法、行业数据和应用、算力支撑等方面建 立了优势保障。公司有信心实现认知
大
模型
的技术突破性进步,我们的信心来源 于以下几方面 1、核心算法积累优势讯飞多年来在 Transformer 深度神经网络算法方面 拥有丰富经验,已广泛应用于科大讯飞的语音识别、图文识别、机器翻译等任务 并达到国际领先水平,2022 年累计获得了常识阅读理解挑战赛 OpenBookQ 等 13 项世界冠军;还开源了 6 个大类、超过 40 个通用领域的系列中文预训练 语言模型,在 Github 平台获得星标数位列同类中文预训练语言模型第一并远超 第二名。 2、数据积累和应用优势在严格遵守适用法律法规前提下,在多年认知智 能系统研发推广中积累了超过 50TB 的行业语料和每天超 10 亿人次用户交互的 活跃应用,为训练实现达到人类专家水平的行业认知
大
模型
提供了海量行业文本 语料和用户反馈数据。科大讯飞在教育、医疗、智慧城市、办公、汽车等领域拥 有领先同行的应用规模,也为基于
大
模型
的创新推广提供了应用场景保障。 3、算力支撑讯飞在总部自建有业界一流的数据中心,为
大
模型
训练平台 建设奠定了很好的硬件基石。此外,在工程技术方面实现了百亿参数
大
模型
推理 效率的近千倍加速,为未来更大更多认知智能
大
模型
技术经济实惠规模化应用提 供了可能。 基于上述优势,科大讯飞将于 2022 年 12 月份进一步启动生成式预训练
大
模型
任务攻关,讯飞 I 学习机、讯飞听见等产品将成为该项技术率先落地的产 品,预计于 2023 年 5 月 6 日进行产品级发布。 问:课后服务市场作为双减政策后新的增量市场,请该业务目前的进展以及市 场份额如何? 答:作为双减后新的增量市场,随着政策逐步落地,客户需求日趋强烈。讯 飞 22 年已占位 280 个市区县平台,市场份额第一,并承建国家课后服务平台。 作为课后服务平台的重要组成部分的素质课已开始全国规模化推广,目前已有 260 门课程在全国超过 5000 所学校开课。 科大讯飞(002230)主营业务:语音支撑软件、行业应用产品/系统、信息工程和运维服务等。 科大讯飞2022三季报显示,公司主营收入126.61亿元,同比上升16.5%;归母净利润4.2亿元,同比下降42.34%;扣非净利润4.27亿元,同比下降17.04%;其中2022年第三季度,公司单季度主营收入46.38亿元,同比上升1.95%;单季度归母净利润1.42亿元,同比下降54.17%;单季度扣非净利润1.48亿元,同比下降51.54%;负债率46.28%,投资收益302.62万元,财务费用-6163.24万元,毛利率40.18%。 该股最近90天内共有20家机构给出评级,买入评级19家,增持评级1家;过去90天内机构目标均价为54.36。 以下是详细的盈利预测信息: 融资融券数据显示该股近3个月融资净流入5.84亿,融资余额增加;融券净流入3.4亿,融券余额增加。根据近五年财报数据,证券之星估值分析工具显示,科大讯飞(002230)行业内竞争力的护城河良好,盈利能力一般,营收成长性良好。财务相对健康,须关注的财务指标包括:应收账款/利润率。该股好公司指标3.5星,好价格指标1.5星,综合指标2.5星。(指标仅供参考,指标范围:0 ~ 5星,最高5星) 以上内容由证券之星根据公开信息整理,与本站立场无关。证券之星力求但不保证该信息(包括但不限于文字、视频、音频、数据及图表)全部或者部分内容的的准确性、完整性、有效性、及时性等,如存在问题请联系我们。本文为数据整理,不对您构成任何投资建议,投资有风险,请谨慎决策。
lg
...
证券之星
2023-02-22
2月22日晚间要闻盘点:农行“连心贷”出圈,加强还款能力!杭州拟向三孩家庭一次性补助2万元
go
lg
...
变云计算市场的游戏规则;此外,文心一言
大
模型
还将搭载到Apollo智舱系列产品,并与小度进行集成。(科创板日报) 佛慈制药:实际控制人筹划控制权变更 股票延期复牌 佛慈制药公告,此前公告,公司实际控制人兰州市人民政府国有资产监督管理委员会筹划控制权变更,公司股票延期复牌,即自2月23日(星期四)开市起继续停牌,预计不超过3个交易日。 芳源股份:拟投资不超过20亿元磷酸铁锂电池回收及正极材料生产项目 芳源股份公告,拟投资年报废30万吨磷酸铁锂电池回收、年产8万吨磷酸铁锂正极材料项目,总投资金额不超过20亿元人民币。 中科环保:拟收购衡阳粤丰55%股权 中科环保公告,公司拟受让粤丰科维持有的常宁市生活垃圾焚烧发电项目公司暨衡阳粤丰环建电力有限公司55%股权。
lg
...
金融界
2023-02-22
李彦宏:计划将多项主流业务与文心一言整合
go
lg
...
谈论人工智能的颠覆性影响。生成式AI和
大
模型
的智能涌现,是全新的计算范式带来的新机会。这意味着,AI技术已经发展到一个临界点,各行各业都不可避免地被改变。中国AI市场即将迎来爆发性的需求增长,其商业价值的释放将是前所未有的、指数级的。而百度作为中国人工智能市场长期增长的最佳代表,正站在浪潮之巅。 人类进入人工智能时代,IT技术的技术栈发生了根本性的变化。过去基本分为三层:芯片层,操作系统层和应用层。现在可以分为四层:芯片层、框架层、模型层和应用层。百度是全球为数不多、进行全栈布局的人工智能公司,从高端芯片昆仑芯,到飞桨深度学习框架,再到文心预训练
大
模型
,各个层面都有领先业界的关键自研技术,可以实现端到端优化,大幅提升效率。 我们计划将多项主流业务与文心一言整合。文心一言与搜索整合,将引领搜索体验的代际变革。除了提供更好的搜索和答案,我们还会提供全新的交互和聊天体验,以及独特的生成内容,极大地丰富内容生态和供给,吸引更多用户,并有机会形成新的流量入口。文心一言也将通过百度智能云对外提供服务。之前选择云厂商更多看算力、存储等基础云服务。未来,更多会看框架好不好、模型好不好,以及模型、框架、芯片、应用之间的协同。这会根本性地改变云计算市场的游戏规则。文心一言
大
模型
搭载到Apollo智舱系列产品,会让智能汽车具备领先一代的人车交互体验。文心一言与小度进行集成,将显著提升小度与用户进行多轮对话的体验,更加聪明和善解人意。小度将成为用户身边更加全能的智能助手。 最近这几年,我不断跟同学们讲困难和挑战,为的是当机会来临时,我们能够抓住机会,勇敢创新。因为只有创新能够驱动增长。让我们牢记使命,“用科技让复杂的世界更简单”,坚持做正确的事,帮助实现人工智能的终极理想,“为人类带来更多的自由与可能”。同学们,你们准备好了吗? Robin
lg
...
金融界
2023-02-22
AI领域新里程碑 ChatGPT究竟改变了什么?
go
lg
...
认为,考虑到ChatGPT级别的预训练
大
模型
跑一次的成本是千万美元级别,而将其商业化部署,落地多用户高并发任务中,成本只会更高。这就意味着国内有能力的参与者的仅为少数,大部分的初创企业很难有机会。 尽管当前国内大部分公司还没有大规模训练的布局,但AI商业化最大的困难是商业模式,而前期拥有落地场景的公司有望强者恒强,现在的收入、场景有助于支撑公司继续探索新一代AI技术的落地和变现,我们也将持续关注立足NLP自然语言处理相关技术的人工智能公司以及上下游。 文中ChatGPT概念指数数据来自万得信息,近1年为“2022年2月15日至2023年2月14日”。 以上观点不代表任何投资建议,市场有风险,基金投资须谨慎。
lg
...
金融界
2023-02-22
深度解析对比中国和硅谷的AIGC赛道
go
lg
...
Gitee上开源,比如中科院的紫东太初
大
模型
。Gitee社区也吸引到了超过800万开发者用户。可见Gitee社区和国产框架都成为了中国AIGC发展不可或缺的软件设施。 在硬件层面,国产的芯片也称为了训练AIGC模型的常见之选。在训练2000亿参数的超大盘古模型的过程中,来自华为的团队调用了超过2000块华为昇腾910芯片。而2600亿参数的百度ERNIE 3.0 Titan还有千亿参数紫东太初模型也是在华为昇腾系列的芯片上训练出来的。 AIGC模型十大开发机构 从预训练语言模型的参数量来看,很多中国的模型其实并不比西方逊色。但是站在用户体验的角度,ChatGPT确实要领先于中国的语言模型,还有西方其他公司的模型。中国的开发者总能够赶上西方的领头羊,但是这个技术追赶的过程却需要2-3年。比如,OpenAI在2020年6月推出GPT-3模型,中国的智源、华为、百度在差不多一年之后才研发出了体量与之相当的模型,又用了一段时间才让模型的技能和GPT-3相媲美。 预训练语言模型参考量 在一定程度上,中国的AIGC底层技术也受益于西方的开源运动。在StabilityAI发布Stable Diffusion模型之后不久,国内的IDEA研究院封神榜团队很快就训练出了名为“太乙”的中文版Stable Diffusion。与原版的Stable Diffusion不同,太乙Stable Diffusion可以更好地理解中文的语言文化环境。 蓝海vs红海:中美AIGC的发展阶段 在之前的一篇文章里,我们分析过美国的AIGC产业,提到了希望很多AIGC垂直领域已经杀成了一片红海。比如,文案编辑和市场营销领域的文字生成类产品已经有数十家创业公司在做了。图像生成类的产品在Stable Diffusion和DALLE-2出现之后也迅速开始卷了起来。 然而,中国的AIGC产业大多还是一片蓝海。两张市场地图对比不难看出中国的AIGC公司要比西方少得多,有些领域甚至还没有出现很多初创公司。 中国的AIGC市场地图 西方的AIGC产业是不是比国内要拥挤很多? 这一方面是由于中国的底层技术要比美国落后几年,还不足以支持商业化落地。就在几年前,李开复老师在《AI Superpowers》一书里指出,中国虽然在AI技术层面不及美国,但是在应用端却走在了美国的前面。或许这一说法适用于预测型AI(“predictive AI”,比如人脸识别、推荐算法)的时代,但是在生成型AI(“generative AI”)的时代,应用和底层技术结合得更紧密,中国在应用方面也可能要追赶美国的步伐。 中国在应用层的滞后也是由国内B2B产业的特性决定的。西方的文字和图像生成类产品主要都是面向2B的市场的,而中国的B2B市场要比西方小很多,中国企业往往不愿意在软件上花钱,而更愿意去购买服务。这就极大地降低了初创公司想要进入2B类文字、图像生成SaaS赛道的意愿。我们未来在国内可能看到企业打着卖服务的旗号卖软件--用户的体验和买服务无异,而后端的服务却是由AI软件提供的。 另外,与美国横向SaaS模式不同,中国的AIGC的SaaS很有可能会采取纵向的发展模式。这种模式的特点在于,聚焦于特定的应用领域,比如电商、短视频、金融,而不是追求产品的通用化。这种发展模式弥补了中国在模型通用能力上的不足,也利用了在垂直领域积累的大量的专业数据。 同一个科技,不同的垂直应用 中国市场的独特性也决定了中国会发展出和西方不一样的AIGC生态系统和不一样的垂直应用。 这意味着中国的AIGC应用虽然比美国慢了一步,但是简单粗暴的“复制到中国”(“copy-to-China”)模式并行不通。还是拿文字生成领域来讲,中国高质量的数据集少、市场营销以视频形式为主、企业不愿意在软件上花钱,这就意味着类似于美国的Jasper.ai和copy.ai这样的文字生成的通用SaaS,在中国就很难获得很大的2B市场。 中国文字生成产品主要在做2C的业务,并且业务的性质也和美国很不一样。学术类写作、英文写作还有翻译成了中国文字类AIGC产品的重点。众多产品都提供这种服务,比如火龙果写作、秘塔科技还有写作狐。 在2B领域,中国的初创公司选择了专攻垂直领域,而不是追究产品的通用性。一个典型的例子就是澜舟科技。在研发出了孟子
大
模型
之后,澜舟科技并没有继续追求模型的通用性,而是专攻金融领域的NLP分析服务。 中国的AIGC的另一个独特之处就是在AI视频领域有着比较强的竞争力。特别是虚拟人和短视频方面,中国的公司更加懂得结合实用性和娱乐性,而西方的公司的产品往往只有实用性。 我们就拿中国的小冰和英国的Synthethia虚拟人公司来做个对比。Synthethia做出来的虚拟人跟普通公司白领无异,而小冰生成的万科虚拟员工崔筱盼却长着一副明星脸。 中国的虚拟人产业近几年逐渐人们的视野。不论是清华大学首位虚拟学生“华智冰”,还是冬奥会上谷爱凌的虚拟分身,每次虚拟人的亮相都能够引起舆论关注。比起专注于2B赛道的西方公司,中国的AIGC公司因为要做2C的业务,所以特别懂得吸睛引流。 咪咕的谷爱凌虚拟人分身在2022年冬奥会上首秀 虽然目这个产业的商业模式还不成熟,但是技术上一旦有了突破,中国公司的市场营销能力将成为其强大的国际竞争力。 但与此同时,中国在AIGC开发工具领域的初创公司甚少,比如在AI代码生成,还有零代码、少代码的工具领域基本上没有什么创业公司。这可能是因为开发工具领域语言、文化隔阂小、政策约束少,像GitHub这样的西方公司可以比较容易进入中国市场。而中国企业在B2B、B2D产品制作能力上的不足也让中国的开发工具产品很难和西方大厂竞争。 中国的AIGC将何去何从? 说了这么多,我们在最后想对中国的AIGC产业做出三大预测,供大家参考。 一是,中国会重点发展AIGC的底层技术,形成自主的模型和基础设施。近些年美国政府对华的一系列科技制裁,让国内的各大公司担忧自己哪一天会不会也成为美国的打击对象。想要维持AIGC领域的发展,中国的企业和学术研究院必须要投入更多的研发费用,投入到真正的核心技术研发上,形成独立的产业链。 二是,由于中国国内市场的局限性,出海是很多2B的AIGC企业的必然之选。在AIGC领域,已经有一些初创公司打造出了国际化的企业形象,进入了东南亚、欧洲、北美等海外市场。AI语音助手创业公司赛舵科技研发出了多语种的AI语音生成系统,涵盖了超过20种东南亚语言和方言。而高领资本和GGV投的AI模特公司ZMO.ai在中国成立,相继在美国和加拿大成立了办公室,打入北美市场。 ZMO.ai生成的AI模特 ZMO.ai生成的AI模特 ZMO.ai生成的AI模特 三是,政策监管和法律伦理问题将成为AIGC发展的一个重要挑战。去年12月,国家互联网办公室发布《互联网信息服务深度合成管理规定》,进一步规范AIGC产出的文字、图像和视频内容,规范了个人信息在深度合成中的应用。此前,不少AIGC公司都陷入了侵犯产权、个人信息和产出虚假内容的尴尬境地,包括OpenAI的代码生成软件Codex也因为抄袭GitHub开发者的代码而被告上法庭。如何能在发展技术的同时,遵守法律法规、伦理原则,成为AIGC企业面对的一大难题。 写在最后 硅谷之外,中国的AIGC产业已经开始崛起。不论是从技术发展还是投资创业的角度来看,中国的AIGC产业相当活跃。中国的AIGC公司面临着和西方公司同样的挑战,比如寻找成熟的商业模式、发展下一代AIGC技术,还有遵循法规伦理。与此同时,中国的AIGC也要面对额外的压力,比如美国政策的打击还有技术层面的不足。 跟互联网和移动手机时代一样,中国的AIGC生态必定和西方不一样。当美国的AIGC公司重点发展B2B业务的同时,中国公司很有可能会首先进入电商、物流还有大消费市场,并且很有可能在国际市场上和西方企业一争高下。 中国的AIGC还处于萌芽期。未来,AIGC产业必将改变我们的生活,中国企业也一定能够加入这股浪潮。 注:本文作者为硅谷Leonis Capital风险投资基金Jenny Xiao (肖文泉) 和Jay Zhao 来源:金色财经
lg
...
金色财经
2023-02-22
基金早班车|海外投资者看好A股!高盛:预计中国房地产将呈现“L”型恢复
go
lg
...
司于去年12月份进一步启动生成式预训练
大
模型
任务攻关,科大讯飞AI学习机、讯飞听见等产品将成为该项技术率先落地的产品,预计于2023年5月6日进行产品级发布。 五、新发基金
lg
...
金融界
2023-02-22
首批Azure OpenAI服务落地万科
大
模型
商业化进程持续加速
go
lg
...
penAI技术与微软业务融合不断加深,
大
模型
商业化落地进度有望加速。数字化浪潮席卷了时代的每一个人。万科与Azure OpenAI的合作只是一个开始,伴随着openAI技术与微软自身业务融合不断加深,更多AI功能嵌入到微软全线业务,GPT系列语言
大
模型
的商业化落地进度有望持续加速,带动上下游生态快速成长丰富。 世纪华通(002602)近年来在上海、深圳等地相继投建了大型数据中心,打造算力底座的同时,开展数据安全、绿色能源等增值服务。 首都在线(300846)推出的“云算力解决方案”为AIGC场景提供了云端算力基础设施,形成了具备行业优势的弹性计算、全球网络、IDC服务、数据处理和安全等在内的云网一体化产品和服务。
lg
...
金融界
2023-02-22
科大讯飞:ChatGPT是一个里程碑式技术革命 预计于2023年5月6日进行产品级发布
go
lg
...
022年12月份进一步启动生成式预训练
大
模型
任务攻关,科大讯飞AI学习机、讯飞听见等产品将成为该项技术率先落地的产品,预计于2023年5月6日进行产品级发布。
lg
...
金融界
2023-02-21
中国算力“卖水者”望成AI时代基站网络!中国电信布局ChatGPT引发股价暴涨,运营商链受益上市公司梳理
go
lg
...
,据财联社独家报道,中国电信日前表示,
大
模型
研发取得阶段性成果,积极关注产业版ChatGPT。值得一提的是,这是业内目前首个公布这一业务最新进展的运营商。 国盛证券宋嘉吉2月20日研报中表示,数据要素是AI训练与迭代的核心资源,后续AIGC应用加速落地,数据将成为AI时代最宝贵的基础资源。三大运营商作为中国算力与数据传输能力的“卖水者”,随着运营商云在国内云计算市场地位提升,有望承接海量的中国AIGC运行需求,成为AI时代的“基站网络”。 中信建投阎贵成2月19日研报中表示,AIGC所需要的算力、网络、数据均与电信运营商高度相关,应当重新审视电信运营商“网云数”的价值,预计国内云计算产业景气度有望回升,建议关注云计算相关产业链投资机会。 公开资料显示,2021年以来,三大运营商聚焦公有云业务,进入2022年四季度后,随着“大安全”背景下,国有云渗透率加速提升,运营商云逐渐成长为我国公有云中不可或缺的重要力量。宋嘉吉指出,强大的公有云业务,在AIGC时代,是运行、储存、交互AI数据的重要基建。如OpenAI与ChatGPT就运行于微软的Azure公有云之上。 浙商证券张建民研报中表示,2022-2026,中国公有云市场会以复合增长率30.9%继续高速增长,预计到2026年,市场规模将达到1057.7亿美元。中泰证券陈宁玉等研报中预测,2025年中国移动和中国电信的云计算业务收入有望突破1000亿,中国联通云计算业务有望超过600亿。 陈宁玉表示,算力网络资本开支主要包括业务网、IT云、数据中心的直接投资及传输网、汇聚机房部分分摊投资,从传统统计口径来看,传输网及业务支撑网占比显著提升。重点关注与运营商在该领域合作较为深度的供应商结构性增长机会,数据中心服务商:润泽科技、宝信软件等。 网络设备商:中兴通讯、紫光股份、锐捷网络等;数据中心暖通设备:英维克、佳力图、依米康等;光纤光缆:长飞光纤、亨通光电、中天科技等。此外,运营商数据链包括,中新赛克、浩瀚深度、恒为科技、东方国信、天源迪科。 具体来看,中兴通讯服务于全球电信运营商、政企客户和消费者,公司业务覆盖 160 多个国家和地区,服务全球 1/4 以上人口。 锐捷网络在中国以太网交换机市场份额排名第三、Wi-Fi6产品出货量排名第一、中国企业级终端VDI市场份额排名第一、中国本地计算IDV云桌面市场占有率第一。 中新赛克在网络内容安全领域,公司升级网络态势分析系统,研发疫情通行大数据分析系统、运营商网络流量质量监测系统,并得到规模部署。 浩瀚深度是国内领先的互联网流量智能化方案提供商,产品供应国内三大运营商,与中国移动保持长期合作关系。DPI系统在处理性能、设备集成度、设备能耗比等方面均处于国内领先水平。
lg
...
金融界
2023-02-21
人工智能时代的算力挑战
go
lg
...
。虽然理论上我们也可以用深度学习来训练
大
模型
并达到比较好的效果,但这样的成本显然是没有人能够承受的。而相比之下,符号学派的模型对于计算量的要求要小得多,因此这些模型的相对价格也要比深度学习模型来得低。在这种情况下,深度学习理论当然不会在市场上有竞争力。但是,当算力成本大幅度降低之后,深度学习模型的相对价格就降了下来,它的竞争力也就提升了。从这个角度看,深度学习在现阶段的胜利其实并不是一个纯粹的技术事件,在很大程度上,它还是一个经济事件。 改进算力的方法 那么,决定算力的因素有哪些呢? 为了直观起见,我们不妨以计算数学题来对此进行说明:如果我们要提高在单位时间内计算数学题的效率,有哪些方法可以达到这一目的呢?我想,可能有以下几种方法是可行的:一是找更多人一起来计算。如果一个人一分钟可以算一个题,那么十个人一分钟就可以算十个题。这样,即使每个人的效率没有提升,随着人数的增加,单位时间内可以计算的数学题数量也可以成倍增加。二是改进设备。比如,最早时,我们完全是依靠手算的,效率就很低。如果改用计算器,效率会高一点。如果使用了Excel,效率就可能更高。三是将问题转化,用更好的方法来计算。比如,计算从1加到100,如果按照顺序一个个把数字加上去,那么可能要算很久。但是,如果我们像高斯那样用等差数列求和公式来解这个问题,那么很快就可以计算出结果。 将以上三个方案对应到提升算力问题,我们也可以找到类似的三种方法:一是借助高性能计算和分布式计算;二是实现计算模式上的突破;三是改进算法——尽管严格地说这并不能让算力本身得到提升,但是它却能让同样的算力完成更多的计算,从某个角度看,这就好像让算力增加了一样。 1、高性能计算和分布式计算 从根本上讲,高性能计算和分布式计算都是通过同时动用更多的计算资源去完成计算任务,就好像我们前面讲的,用更多的人手去算数学题一样。所不同的是,前者聚集的计算资源一般是聚集在本地的,而后者动用的计算资源则可能是分散在网上的。 (1)高性能计算 先看高性能计算。高性能计算中,最为重要的核心技术是并行计算(Parallel Computing)。所谓并行计算,是相对于串行计算而言的。在串行计算当中,计算任务不会被拆分,一个任务的执行会固定占有一块计算资源。而在并行计算中,任务则会被分解并交给多个计算资源进行处理。打个比方,串行计算过程就像是让一个人独立按照顺序完成一张试卷,而并行计算则像是把试卷上的题分配给很多人同时作答。显然,这种任务的分解和分配可以是多样的:既可以是把计算任务分给多个设备,让它们协同求解,也可以是把被求解的问题分解成若干个部分,各部分均由一个独立的设备来并行计算。并行计算系统既可以是含有多个处理器的超级计算机,也可以是以某种方式互连的若干台独立计算机构成的集群。 从架构上看,并行计算可以分为同构并行计算(homogeneous parallel computing)和异构并行计算(heterogeneous parallel computing)。顾名思义,同构并行计算是把计算任务分配给一系列相同的计算单元;异构并行计算则是把计算任务分配给不同制程架构、不同指令集、不同功能的计算单元。比如,多核CPU的并行运算就属于同构并行,而CPU+GPU的架构就属于异构并行。 对比于同构并行,异构并行具有很多的优势。用通俗的语言解释,这种优势来自于各种计算单元之间的“术业专攻”,在异构架构之下,不同计算单元之间的优势可以得到更好的互补。正是由于这个原因,异构并行计算正得到越来越多的重视。 比如,现在越来越多的设备当中,都采用了将GPU和CPU混搭的架构。为什么要这么做呢?为了说明白这一点,我们需要略微介绍一下CPU和GPU的结构:从总体上看,无论是CPU还是GPU,都包括运算器(Arithmetic and Logic Unit,简称ALU)、控制单元(Control Unit,简称CL)、高速缓存器(Cache)和动态随机存取存储器(DRAM)。但是,这些成分在两者中的构成比例却是不同的。 在CPU当中,控制单元和存储单元占的比例很大,而作为计算单位的ALU比例则很小,数量也不多;而在GPU当中则正好相反,它的ALU比例很大,而控制单元和存储单元则只占很小的一个比例。这种结构上的差异就决定了CPU和GPU功能上的区别。CPU在控制和存储的能力上比较强,就能进行比较复杂的计算,不过它可以同时执行的线程很少。而GPU则相反,大量的计算单位让它可以同时执行多线程的任务,但每一个任务都比较简单。打个比喻,CPU是一个精通数学的博士,微积分、线性代数样样都会,但尽管如此,让他做一万道四则运算也很难;而GPU呢,则是一群只会四则运算的小学生,虽然他们不会微积分和线性代数,但人多力量大,如果一起开干,一万道四则运算分分钟就能搞定。 由于GPU的以上性质,它最初的用途是作为显卡,因为显卡负责图形和色彩的变换,需要的计算量很大,但每一个计算的复杂性都不高。当深度学习兴起之后,人工智能专家们发现GPU其实也很适合用来训练神经网络模型。因为在深度学习模型中,最主要的运算就是矩阵运算和卷积,而这些运算从根本上都可以分解为简单的加法和乘法。这样一来,GPU就找到了新的“就业”空间,开始被广泛地应用于人工智能。但是,GPU并不能单独执行任务,所以它必须搭配上一个CPU,这样的组合就可以完成很多复杂的任务。这就好像让一个能把握方向的导师带着很多肯卖力的学生,可以干出很多科研成果一样。正是在这种情况下,异构并行开始成为了高性能计算的流行架构模式。 不过,异构架构也是有代价的。相对于同构架构,它对于应用者的编程要求更高。换言之,只有当使用者可以更好地把握好不同计算单元之间的属性,并进行有针对性的编程,才可能更好地利用好它们。 除此之外,我们还必须认识到,哪怕是借助异构架构,通过并行运算来提升运算效率的可能也是有限的。根据阿姆达尔定律(Amdahl’s Law),对于给定的运算量,当并行计算的线程趋向于无穷时,系统的加速比会趋向于一个上限,这个上限将是串行运算在总运算中所占比例的倒数。举例来说,如果在一个运算中,串行运算的比例是20%,那么无论我们在并行运算部分投入多少处理器,引入多少线程,其加速比也不会突破5。这就好像,如果我要写一本关于生成式AI的书,可以将一些资料查找的工作交给研究助手。显然,如果我有更多的研究助手,写书的进度也会加快。但这种加快不是无限的,因为最终这本书什么时候写完,还要看我自己“码字”的速度。 (2)分布式计算 采用聚集资源的方式来增强算力的另一种思路就是分布式计算。和高性能计算主要聚集本地计算单位不同,分布式计算则是将分散在不同物理区域的计算单位聚集起来,去共同完成某一计算任务。比如,刘慈欣在他的小说《球状闪电》中就提到过一个叫做SETI@home的科研计划(注:这个项目是真实存在的),这个计划试图将互联网上闲置的个人计算机算力集中起来处理天文数据,这就是一个典型的分布式计算用例。 分布式计算的一个典型代表就是我们现在经常听说的云计算。关于云计算的定义,目前的说法并不统一。一个比较有代表性的观点来自于美国国家标准和技术研究所(NIST),根据这种观点,“云计算是一种按使用量付费的模式。这种模式对可配置的IT资源(包括网络、服务器、存储、应用软件、服务)共享池提供了可用的、便捷的、按需供应的网络访问。在这些IT资源被提供的过程中,只需要投入很少的管理和交流工作”。 这个定义很抽象、很学院派,我们可以用一个通俗的比喻来对其进行理解。在传统上,用户主要是通过调用自有的单一IT资源,这就好比每家每户自己发电供自己用;而云计算则好像是(用大量算力设备)建了一个大型的“发电站”,然后将“电力”(IT资源)输出给所有用户来用。 根据云服务提供者所提供的IT资源的不同,可以产生不同的“云交付模式”(Cloud Delivery Model)。由于IT资源的种类很多,因此对应的“云交付模式”也就很多。在各类新闻报道中,最常见的“云交付模式”有三种: 第一种是IaaS,它的全称是“基础设施作为服务”(Infrastructure-as-a-Service)。在这种交付模式下,云服务的提供者供给的主要是存储、硬件、服务器和网络等基础设施。 第二种是PaaS,它的全称是“平台作为服务”(Platform-as-a-Service)。在这种交付模式下,云服务的提供者需要供应的资源更多,以便为使用者提供一个“就绪可用”(ready-to-use)的计算平台,以满足他们设计、开发、测试和部署应用程序的需要。 第三种是SaaS,也就是“软件作为服务”(Software-as-a-Service)。在这种交付模式下,云服务提供者将成品的软件作为产品来提供给用户,供其使用。 有了以上不同的云交付模式,用户就可以根据自己的需要来选择相应的IT资源。比如,如果元宇宙的用户需要更多的算力或存储,而本地的机器无法满足,那么就可以通过从云端来获取“外援”。一个云端GPU不够,那就再来几个,按需取用,丰俭由人,既方便,又不至于产生浪费。 需要指出的是,尽管从理论上看云计算可以很好地承担巨大运算和存储需求,但其缺陷也是很明显的。比较重要的一点是,在执行云计算时,有大量的数据要在本地和云端之间进行交换,这可能会造成明显的延迟。尤其是数据吞吐量过大时,这种延迟就更加严重。对于用户来说,这可能会对其使用体验产生非常负面的效果。 那么怎么才能克服这个问题呢?一个直观的思路就是,在靠近用户或设备一侧安放一个能够进行计算、存储和传输的平台。这个平台一方面可以在终端和云端之间承担起一个中介的作用,另一方面则可以对终端的各种要求作出实时的回应。这个思想,就是所谓的边缘计算。由于边缘平台靠近用户,因而其与用户的数据交换会更加及时,延迟问题就可以得到比较好的破解。 2、超越经典计算——以量子计算为例 无论是高性能计算还是分布式计算,其本质都是在运算资源的分配上下功夫。但正如我们前面看到的,通过这种思路来提升算力是有很多障碍的。因此,现在很多人希望从计算方式本身来进行突破,从而实现更高的计算效率。其中,量子计算就是最有代表性的例子。 我们知道,经典计算的基本单位是比特,比特的状态要么是0,要么是1,因此经典计算机中的所有问题都可以分解为对0和1的操作。一个比特的存储单元只能存储一个0或者一个1。而量子计算的基本单位则是量子比特,它的状态则可以是一个多维的向量,向量的每一个维度都可以表示一个状态。这样一来,量子存储器就比经典的存储器有很大的优势。 考虑一个有 N物理比特的存储器,如果它是经典存储器,那么它只能存储2的N次方个可能数据当中的任一个;而如果它是量子存储器,那么它就可以同时存储2的N次方个数据。随着 N的增加,量子存储器相对于经典存储器的存储能力就会出现指数级增长。例如,一个250量子比特的存储器可能存储的数就可以达到2的250次方个,比现有已知的宇宙中全部原子数目还要多。 在进行量子计算时,数学操作可以同时对存储器中全部的数据进行。这样一来,量子计算机在实施一次的运算中可以同时对2的N次方个输入数进行数学运算。其效果相当于经典计算机要重复实施2的N次方次操作,或者采用2的N次方个不同处理器实行并行操作。依靠这样的设定,就可以大幅度节省计算次数。 为了帮助大家理解,我们可以打一个并不是太恰当的比方:玩过动作游戏的朋友大多知道,在游戏中,我们扮演的英雄经常可以使用很多招数,有些招数只能是针对单一对象输出的;而另一些招数则可以针对全体敌人输出。这里,前一类的单体输出招数就相当于经典计算,而后一类的群体输出招数就相当于量子计算。我们知道,在面对大量小怪围攻的时候,一次群体输出产生的效果可以顶得上很多次单体输出的招数。同样的道理,在一些特定情况下,量子计算可以比经典计算实现非常大的效率提升。 举例来说,大数因式分解在破解公开密钥加密的过程中有十分重要的价值。如果用计算机,采用现在常用的Shor算法来对数N进行因式分解,其运算的时间将会随着N对应的二进制数的长度呈现指数级增长。1994年时,曾有人组织全球的1600个工作站对一个二进制长度为129的数字进行了因式分解。这项工作足足用了8个月才完成。然而,如果同样的问题换成用量子计算来解决,那么整个问题就可以在1秒之内解决。量子计算的威力由此可见一斑。 但是,在看到量子计算威力的同时,我们也必须认识到,至少到目前为止,量子计算的威力还只能体现对少数几种特殊问题的处理上,其通用性还比较弱。事实上,现在见诸报道的各种量子计算机也都只能执行专门算法,而不能执行通用计算。比如,谷歌和NASA联合开发的D-Wave就只能执行量子退火(Quantum Annealing)算法,而我国研发的光量子计算机“九章”则是专门被用来研究“高斯玻色取样”问题的。尽管它们在各自的专业领域表现十分优异,但都还不能用来解决通用问题。这就好像游戏中的群体攻击大招,虽然攻击范围广,但是对每个个体的杀伤力都比较弱。因此,如果遇上大群的小怪,群体攻击固然厉害,但如果遇上防御高、血条厚的Boss,这种攻击就派不上用处了。 从这个角度看,如果我们希望让量子计算大发神威,就必须先找出适合量子计算应用的问题和场景,然后再找到相应的算法。与此同时,我们也必须认识到,虽然量子计算的研发和探索十分重要,但是它和对其他技术路径的探索之间更应该是互补,而不是替代的关系。 3、通过改进算法节约算力 如果说,通过高性能计算、分布式计算,以及量子计算等手段来提升算力是“开源”,那么通过改进算法来节约算力就是“节流”。从提升计算效率、减少因计算而产生的经济、环境成本而言,开源和节流在某种程度上具有同等重要的价值。 在ChatGPT爆火之后,
大
模型
开始越来越受到人们的青睐。由于在同等条件下,模型的参数越多、训练的数据越大,它的表现就越好,因此为了追求模型的更好表现,现在的模型正在变得越来越大。我们知道,现在的ChatGPT主要是在GPT-3.5的基础上训练的。在它出现之前,GPT共经历了三代。GPT-1的参数大约为1.17亿个,预训练数据为5GB,从现在看来并不算多;到了GPT-2,参数量就增加到了15亿个,预训练数据也达到了40GB;而到了GPT-3,参数量则已经迅速膨胀到了骇人的1750亿个,预训练数据也达到了45TB。为了训练GPT-3,单次成本就需要140万美元。尽管OpenAI并没有公布GPT-3.5的具体情况,但可以想象,它的参数量和预训练数据上都会比GPT-3更高。为了训练这个模型,微软专门组建了一个由1万个V100GPU组成的高性能网络集群,总算力消耗达到了3640“算力当量”——也就是说,如果用一台每秒计算一千万亿次的计算机来训练这个模型,那么大约需要近十年才能完成这个任务。 如果任由这种“一代更比一代大”的趋势持续下去,那么在未来几年,对算力的需求将会出现爆炸性的增长。一项最新的研究估计,在5年之后,AI模型需要的算力可能会是现在的100万倍。很显然,由此产生的经济和环境成本将会是十分惊人的。 令人欣慰的是,目前已经有不少研究者希望改进算法、优化模型来减少对算力的需求,并且已经取得了一定的成就。比如,就在今年1月3日,来自奥地利科学技术研究所 (ISTA)的研究人员埃利亚斯·弗朗塔(Elias Frantar)和丹·阿里斯特尔(Dan Alistarh)合作进行了一项研究,首次针对 100至 1000亿参数的模型规模,提出了精确的单次剪枝方法SparseGPT。SparseGPT可以将GPT系列模型单次剪枝到 50%的稀疏性,而无需任何重新训练。以目前最大的公开可用的GPT-175B模型为例,只需要使用单个GPU在几个小时内就能实现这种剪枝。不仅如此,SparseGPT还很准确,能将精度损失降到最小。在进行了类似的修剪之后,这些
大
模型
在训练时所需要的计算量就会大幅减少,其对算力的需求也就会相应下降。 关于提升算力、支持人工智能发展的政策思考 随着ChatGPT引领了新一轮的人工智能热潮,市场上对算力的需求也会出现爆炸性的增长。在这种情况下,为了有力支撑人工智能的发展,就必须要通过政策的手段引导算力供给的大幅度增加。而要实现这一点,以下几方面的工作可能是最为值得重视的。 第一,应当加快对算力基础设施的建设和布局,提升对全社会算力需求的支持。如前所述,从目前看,分布式计算,尤其是其中的云计算是提升算力的一个有效之举。而要让云计算的效应充分发挥,就需要大力建设各类算力基础设施。唯有如此,才可以让人们随时随地都可以直接通过网络获得所需的算力资源。 这里需要指出的是,在布局算力基础设施的时候,应当慎重考虑它们的地域和空间分布,尽可能降低算力的成本。我们知道,不同的地区的土地、水、电力等要素的价格是不同的,这决定了在不同地区生产相同的算力所需要的成本也不尽相同。因此,在建设算力基础设施时,必须统筹全局,尽可能优化成本。需要指出的是,我国正在推进的“东数西算”工程就是这个思路的一个体现。由于我国东部各种资源的使用成本都要高于西部,因此在西部地区建立算力设施,就会大幅降低算力的供给成本,从而在全国范围内达到更优的配置效率。 第二,应当加强与算力相关的硬件技术及其应用的研发,为增加算力供应提供支持。与算力相关的硬件技术既包括基于经典计算的各种硬件,如芯片、高性能计算机等,也包括超越经典计算理论,根据新计算理论开发的硬件,如量子计算机等。从供给的角度看,这些硬件是根本,它们的性能直接关系到算力提供的可能性界限。因此,必须用政策积极促进这些硬件的攻关和研发。尤其是对于一些“卡脖子”的项目,应当首先加以突破。 这里需要指出的是,在进行技术研发的同时,也应该积极探索技术的应用。例如,我们现在已经在量子计算领域取得了一些成果,但是由于用例的缺乏,这些成果并没有能够转化为现实的应用。从这个意义上讲,我们也需要加强对技术应用的研究。如果可以把一些计算问题转化成量子计算问题,就可以充分发挥量子计算机的优势,实现计算效率的大幅提升。 第三,应当对算法、架构等软件层面的要素进行优化,在保证AI产品性能的同时,尽可能减少对算力的依赖。从降低AI计算成本的角度看,降低模型的算力需求和提升算力具有同等重要的意义。因此,在用政策的手段促进算力供给的同时,也应当以同样的力度对算法、架构和模型的优化予以同等的激励。 考虑到类似的成果具有十分巨大的社会正外部性,因此用专利来保护它们并不是最合适的。因此,可以积极鼓励对取得类似成功的人员和单位给予直接的奖励,并同时鼓励他们将这些成果向全社会开源;也可以考虑由政府出面,对类似的模型产品进行招标采购。如果有个人和单位可以按照要求提供相应的成果,政府就支付相应的费用,并对成果进行开源。通过这些举措,就可以很好地激励人们积极投身到改进模型、节约算力的事业中,也可以在有成果产出时,让全社会及时享受到这些成果。 总而言之,在人工智能突飞猛进的时代,算力可能是决定人工智能发展上限的一个关键因素。唯有在算力问题上实现突破,人工智能的发展才可能有根本保障。 来源:金色财经
lg
...
金色财经
2023-02-21
上一页
1
•••
922
923
924
925
926
•••
939
下一页
24小时热点
美国军事干预猜测四起:特朗普最后一秒决定!全球市场又转向,英国央行来袭
lg
...
中美重大信号!彭博:台湾“前所未有”将华为列入黑名单后 中美科技争端加剧
lg
...
特朗普立场突现“让步”!特朗普就袭击伊朗问题释新信号 黄金原油联袂下跌
lg
...
传特朗普已批准攻击伊朗计划!美联储偏鹰救了美元,黄金冲击这一关键阻力
lg
...
【直击亚市】特朗普直言在最后一秒做决定!美国正准备打击伊朗,市场动荡不安
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论