全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
比尔·盖茨:AI将为每人创造一个私人助手 科技市场面临洗牌?
go
lg
...
hatGPT爆火以后,硅谷大厂们开启了
生成
式
AI
“军备竞赛”,都在争相推出能生成文字或影像的人工智能工具,科技圈或将迎来大变局。 在这场变局中,微软似乎已拔得头筹。微软首席执行官表示,“搜索引擎迎来了新时代”,随后推出由ChatGPT支持的最新版本人工智能搜索引擎必应和Edge浏览器。谷歌也第一次意识到,可能正在失去在搜索市场的部分控制权。 不久,谷歌便匆忙推出了旗下聊天机器人Bard,然而却出师不利,一个错误致使公司市值蒸发1100亿美元。随后谷歌表示,将推出由人工智能驱动的新搜索和地图功能,包括通过图片来提问,这是在全球竞相商业化该技术的最新举措。 对谷歌是否落后于微软的过度关注表明,人工智能之争已成为科技行业的核心焦点。随着谷歌卷入这场竞争,该公司面或将临着人工智能如何影响搜索领域竞争格局的新问题。 凭借其超过2800亿美元的年收入和91%的全球网络搜索市场份额,谷歌一直是多届政府反垄断机构关注的焦点。一些人说,ChatGPT的出现只会延续谷歌的市场主导地位,虽然Bard还只在有限范围内发布,但它进入搜索引擎市场时仍具有巨大的优势;而另一些人则表示,ChatGPT是一个新兴赛道,鉴于谷歌最近的失误,可能将面临越来越多的竞争与挑战。 不过,万维网发明人蒂姆·伯纳斯-李阐认为,未来互联网的掌控权将落到个人手上,不再被互联网巨头垄断。比尔·盖茨也秉持着同样的观点,“人工智能技术会给每个人创造一个私人助手,这个助手会根据需求为人们提供建议,而谷歌、亚马逊、微软和苹果这些科技巨头所控制的市场将重新洗牌。” “人工智能是我一生都在思考的问题,想知道它有多难,以及我们将如何实现。直到去年左右,我说它的进展比我预期得要慢一些。但现在令我感到惊讶的是,我们有这种加速度,人工智能将是这十年中最大的事情。”盖茨在节目中说道。 总结 随着科技的发展,人工智能技术一次又一次地超越了人们的认知。现在,ChatGPT拉扯冲撞着人们惯有的参与生产生活的模式和框架,且继续“狂飙”在超越人类的赛道上……或许未来,我们真的会拥有属于自己的私人助手。 来源:金色财经
lg
...
金色财经
2023-02-22
李彦宏:计划将多项主流业务与文心一言整合
go
lg
...
,李彦宏重点介绍了百度将在三月份推出的
生成
式
AI
产品文心一言(ERNIE Bot),宣布计划将多项主流业务与文心一言整合。 李彦宏表示:“中国AI市场即将迎来爆发性的需求增长,其商业价值的释放将是前所未有的、指数级的。而百度作为中国人工智能市场长期增长的最佳代表,正站在浪潮之巅。” 李彦宏强调:“人类进入人工智能时代,IT技术的技术栈发生了根本性的变化。过去基本分为三层:芯片层,操作系统层和应用层。现在可以分为四层:芯片层、框架层、模型层和应用层。” 以下为内部信全文: 各位百度同学, 今天,百度发布了截至2022年12月31日的第四季度及全年未经审计的财务报告。2022年,百度实现营收1236.75亿元,归属百度的净利润(非美国通用会计准则)206.8亿元,同比增长10%。第四季度,百度实现营收330.77亿元,归属百度的净利润(非美国通用会计准则)53.71亿元,同比增长32%。2022财年,百度核心连续四个季度业绩超市场预期。在严峻的市场环境下,我们努力提高了经营健康度,营业利润和利润率实现同比提升。我们还通过组织调整和管理重组,建立了一个更高效的组织。 第四季度,百度智能云利用AI技术,为行业提供标准化的解决方案,提高了利润率。2022年,凭借云智一体的优势,百度智能云连续四年稳居AI云服务市场第一。以累计合同金额超过千万元人民币订单计算,我们的智能交通解决方案,已经被69个城市采用,并在落地城市的缓堵保畅中,发挥了关键作用。2023年春节期间,保定、株洲、阳泉、重庆等多个城市,市内出行强度创5年来新高,而通行效率提升均达到15%以上。 智能驾驶方面,我们看到,全球自动驾驶行业正在加速呈现两极分化,“无人化”落地是关键分水岭。百度完全无人驾驶运营取得了突破,开始在武汉和重庆提供全无人出行服务,并获准在北京开展全无人驾驶测试。截至2023年1月底,萝卜快跑累计订单量超过200万,保持了全球最大的自动驾驶出行服务商地位。 移动生态方面,百度移动端搜索查询次数和信息流分发量,都实现了两位数的同比增长。百度展现出一个信息服务平台的责任和价值。在防疫政策放开之后,我们迅速调动资源,推出了疫情指数,实时更新中国的情况,让用户在关键时刻可以获得准确权威的信息。2022年12 月,百度 App月活用户数达到6.48亿,同比增长4%。此外,小度在2022年前九个月,位居中国智能屏和智能音箱出货量第一。 大家都知道,我们即将在3月份推出百度新一代的大语言模型“文心一言”,它也是继文心一格之后百度的又一个
生成
式
AI
产品。百度官宣之后,一名中国科幻作家来问,文心一言是不是可以让他的创作效率提升,让他的科幻小说更充满想象力。一大批媒体、客户、合作伙伴,第一时间宣布将接入文心一言。这是信任、是期待,更是责任。此时此刻,我们很多同学正在枕戈待旦,全力冲刺。 今天,人人都在谈论人工智能的颠覆性影响。
生成
式
AI
和大模型的智能涌现,是全新的计算范式带来的新机会。这意味着,AI技术已经发展到一个临界点,各行各业都不可避免地被改变。中国AI市场即将迎来爆发性的需求增长,其商业价值的释放将是前所未有的、指数级的。而百度作为中国人工智能市场长期增长的最佳代表,正站在浪潮之巅。 人类进入人工智能时代,IT技术的技术栈发生了根本性的变化。过去基本分为三层:芯片层,操作系统层和应用层。现在可以分为四层:芯片层、框架层、模型层和应用层。百度是全球为数不多、进行全栈布局的人工智能公司,从高端芯片昆仑芯,到飞桨深度学习框架,再到文心预训练大模型,各个层面都有领先业界的关键自研技术,可以实现端到端优化,大幅提升效率。 我们计划将多项主流业务与文心一言整合。文心一言与搜索整合,将引领搜索体验的代际变革。除了提供更好的搜索和答案,我们还会提供全新的交互和聊天体验,以及独特的生成内容,极大地丰富内容生态和供给,吸引更多用户,并有机会形成新的流量入口。文心一言也将通过百度智能云对外提供服务。之前选择云厂商更多看算力、存储等基础云服务。未来,更多会看框架好不好、模型好不好,以及模型、框架、芯片、应用之间的协同。这会根本性地改变云计算市场的游戏规则。文心一言大模型搭载到Apollo智舱系列产品,会让智能汽车具备领先一代的人车交互体验。文心一言与小度进行集成,将显著提升小度与用户进行多轮对话的体验,更加聪明和善解人意。小度将成为用户身边更加全能的智能助手。 最近这几年,我不断跟同学们讲困难和挑战,为的是当机会来临时,我们能够抓住机会,勇敢创新。因为只有创新能够驱动增长。让我们牢记使命,“用科技让复杂的世界更简单”,坚持做正确的事,帮助实现人工智能的终极理想,“为人类带来更多的自由与可能”。同学们,你们准备好了吗? Robin
lg
...
金融界
2023-02-22
深度解析对比中国和硅谷的AIGC赛道
go
lg
...
022年9月,红杉资本发布了一篇叫做《
生成
式
AI
:一个创造性的新世界》的文章,指出AIGC应用将在未来几年大量落地,AI生成的文字、图片、视频将逐渐走入人们的生活。 今年春节刚过,腾讯研究院又推出《AIGC发展趋势报告2023:迎接人工智能的下一个时代》,预测未来五年10%-30%的互联网图像将由AI生成,AIGC市场到2030年可能达到1100亿美元的规模。 不少业内人士认为中国的AIGC产业处于发展的初期,底层技术和应用层面和国外还有较大的差距。虽然国内众多厂商开始布局AIGC,但是目前的商业模式还不成熟。技术层面的不足也限制了应用端的发展。 但事实上,中国是美国市场之外唯一一个拥有完整的AIGC产业链的国家。中国的AIGC产业很可能发展出和硅谷完全不一样的生态系统。 今天,我们就带大家来深入解析对比中国和硅谷的AIGC赛道,看看国内的AIGC行业和国外到底有什么区别,未来又会有什么样的发展趋势。 中国的AIGC底层技术 当全世界把目光放到了ChatGPT上时,中国的AIGC模型也正在飞速发展。 从AIGC模型数量上来看,全世界前十的AIGC模型研发者中,中国机构占了四个。其中有学院派的BAAI智源研究院和清华大学,也有产业界的百度和阿里巴巴研究院。顶级的西方AI机构谷歌、Meta还有OpenAI当然也榜上有名。值得一提的是,除了英美之外,虽然以色列有AI21,加拿大有Cohere,只有中国有多家机构在研发AI模型。 中国企业近几年在自主研发上下的功夫也为AIGC产业打下了基础。比如,百度的飞桨PaddlePaddle和华为MindSpore开源框架。这些框架和国外常用框架(比如TensorFlow和PyTorch)的不兼容可能会限制国产框架的发展,但是例如Ivy这样的框架转换器或许能成为中西方AI框架的桥梁。 在社区层面,在2013年开发出来的Gitee成为了号称“中国GitHub”的开源技术社区。如今,很多大模型都在Gitee上开源,比如中科院的紫东太初大模型。Gitee社区也吸引到了超过800万开发者用户。可见Gitee社区和国产框架都成为了中国AIGC发展不可或缺的软件设施。 在硬件层面,国产的芯片也称为了训练AIGC模型的常见之选。在训练2000亿参数的超大盘古模型的过程中,来自华为的团队调用了超过2000块华为昇腾910芯片。而2600亿参数的百度ERNIE 3.0 Titan还有千亿参数紫东太初模型也是在华为昇腾系列的芯片上训练出来的。 AIGC模型十大开发机构 从预训练语言模型的参数量来看,很多中国的模型其实并不比西方逊色。但是站在用户体验的角度,ChatGPT确实要领先于中国的语言模型,还有西方其他公司的模型。中国的开发者总能够赶上西方的领头羊,但是这个技术追赶的过程却需要2-3年。比如,OpenAI在2020年6月推出GPT-3模型,中国的智源、华为、百度在差不多一年之后才研发出了体量与之相当的模型,又用了一段时间才让模型的技能和GPT-3相媲美。 预训练语言模型参考量 在一定程度上,中国的AIGC底层技术也受益于西方的开源运动。在StabilityAI发布Stable Diffusion模型之后不久,国内的IDEA研究院封神榜团队很快就训练出了名为“太乙”的中文版Stable Diffusion。与原版的Stable Diffusion不同,太乙Stable Diffusion可以更好地理解中文的语言文化环境。 蓝海vs红海:中美AIGC的发展阶段 在之前的一篇文章里,我们分析过美国的AIGC产业,提到了希望很多AIGC垂直领域已经杀成了一片红海。比如,文案编辑和市场营销领域的文字生成类产品已经有数十家创业公司在做了。图像生成类的产品在Stable Diffusion和DALLE-2出现之后也迅速开始卷了起来。 然而,中国的AIGC产业大多还是一片蓝海。两张市场地图对比不难看出中国的AIGC公司要比西方少得多,有些领域甚至还没有出现很多初创公司。 中国的AIGC市场地图 西方的AIGC产业是不是比国内要拥挤很多? 这一方面是由于中国的底层技术要比美国落后几年,还不足以支持商业化落地。就在几年前,李开复老师在《AI Superpowers》一书里指出,中国虽然在AI技术层面不及美国,但是在应用端却走在了美国的前面。或许这一说法适用于预测型AI(“predictive AI”,比如人脸识别、推荐算法)的时代,但是在生成型AI(“generative AI”)的时代,应用和底层技术结合得更紧密,中国在应用方面也可能要追赶美国的步伐。 中国在应用层的滞后也是由国内B2B产业的特性决定的。西方的文字和图像生成类产品主要都是面向2B的市场的,而中国的B2B市场要比西方小很多,中国企业往往不愿意在软件上花钱,而更愿意去购买服务。这就极大地降低了初创公司想要进入2B类文字、图像生成SaaS赛道的意愿。我们未来在国内可能看到企业打着卖服务的旗号卖软件--用户的体验和买服务无异,而后端的服务却是由AI软件提供的。 另外,与美国横向SaaS模式不同,中国的AIGC的SaaS很有可能会采取纵向的发展模式。这种模式的特点在于,聚焦于特定的应用领域,比如电商、短视频、金融,而不是追求产品的通用化。这种发展模式弥补了中国在模型通用能力上的不足,也利用了在垂直领域积累的大量的专业数据。 同一个科技,不同的垂直应用 中国市场的独特性也决定了中国会发展出和西方不一样的AIGC生态系统和不一样的垂直应用。 这意味着中国的AIGC应用虽然比美国慢了一步,但是简单粗暴的“复制到中国”(“copy-to-China”)模式并行不通。还是拿文字生成领域来讲,中国高质量的数据集少、市场营销以视频形式为主、企业不愿意在软件上花钱,这就意味着类似于美国的Jasper.ai和copy.ai这样的文字生成的通用SaaS,在中国就很难获得很大的2B市场。 中国文字生成产品主要在做2C的业务,并且业务的性质也和美国很不一样。学术类写作、英文写作还有翻译成了中国文字类AIGC产品的重点。众多产品都提供这种服务,比如火龙果写作、秘塔科技还有写作狐。 在2B领域,中国的初创公司选择了专攻垂直领域,而不是追究产品的通用性。一个典型的例子就是澜舟科技。在研发出了孟子大模型之后,澜舟科技并没有继续追求模型的通用性,而是专攻金融领域的NLP分析服务。 中国的AIGC的另一个独特之处就是在AI视频领域有着比较强的竞争力。特别是虚拟人和短视频方面,中国的公司更加懂得结合实用性和娱乐性,而西方的公司的产品往往只有实用性。 我们就拿中国的小冰和英国的Synthethia虚拟人公司来做个对比。Synthethia做出来的虚拟人跟普通公司白领无异,而小冰生成的万科虚拟员工崔筱盼却长着一副明星脸。 中国的虚拟人产业近几年逐渐人们的视野。不论是清华大学首位虚拟学生“华智冰”,还是冬奥会上谷爱凌的虚拟分身,每次虚拟人的亮相都能够引起舆论关注。比起专注于2B赛道的西方公司,中国的AIGC公司因为要做2C的业务,所以特别懂得吸睛引流。 咪咕的谷爱凌虚拟人分身在2022年冬奥会上首秀 虽然目这个产业的商业模式还不成熟,但是技术上一旦有了突破,中国公司的市场营销能力将成为其强大的国际竞争力。 但与此同时,中国在AIGC开发工具领域的初创公司甚少,比如在AI代码生成,还有零代码、少代码的工具领域基本上没有什么创业公司。这可能是因为开发工具领域语言、文化隔阂小、政策约束少,像GitHub这样的西方公司可以比较容易进入中国市场。而中国企业在B2B、B2D产品制作能力上的不足也让中国的开发工具产品很难和西方大厂竞争。 中国的AIGC将何去何从? 说了这么多,我们在最后想对中国的AIGC产业做出三大预测,供大家参考。 一是,中国会重点发展AIGC的底层技术,形成自主的模型和基础设施。近些年美国政府对华的一系列科技制裁,让国内的各大公司担忧自己哪一天会不会也成为美国的打击对象。想要维持AIGC领域的发展,中国的企业和学术研究院必须要投入更多的研发费用,投入到真正的核心技术研发上,形成独立的产业链。 二是,由于中国国内市场的局限性,出海是很多2B的AIGC企业的必然之选。在AIGC领域,已经有一些初创公司打造出了国际化的企业形象,进入了东南亚、欧洲、北美等海外市场。AI语音助手创业公司赛舵科技研发出了多语种的AI语音生成系统,涵盖了超过20种东南亚语言和方言。而高领资本和GGV投的AI模特公司ZMO.ai在中国成立,相继在美国和加拿大成立了办公室,打入北美市场。 ZMO.ai生成的AI模特 ZMO.ai生成的AI模特 ZMO.ai生成的AI模特 三是,政策监管和法律伦理问题将成为AIGC发展的一个重要挑战。去年12月,国家互联网办公室发布《互联网信息服务深度合成管理规定》,进一步规范AIGC产出的文字、图像和视频内容,规范了个人信息在深度合成中的应用。此前,不少AIGC公司都陷入了侵犯产权、个人信息和产出虚假内容的尴尬境地,包括OpenAI的代码生成软件Codex也因为抄袭GitHub开发者的代码而被告上法庭。如何能在发展技术的同时,遵守法律法规、伦理原则,成为AIGC企业面对的一大难题。 写在最后 硅谷之外,中国的AIGC产业已经开始崛起。不论是从技术发展还是投资创业的角度来看,中国的AIGC产业相当活跃。中国的AIGC公司面临着和西方公司同样的挑战,比如寻找成熟的商业模式、发展下一代AIGC技术,还有遵循法规伦理。与此同时,中国的AIGC也要面对额外的压力,比如美国政策的打击还有技术层面的不足。 跟互联网和移动手机时代一样,中国的AIGC生态必定和西方不一样。当美国的AIGC公司重点发展B2B业务的同时,中国公司很有可能会首先进入电商、物流还有大消费市场,并且很有可能在国际市场上和西方企业一争高下。 中国的AIGC还处于萌芽期。未来,AIGC产业必将改变我们的生活,中国企业也一定能够加入这股浪潮。 注:本文作者为硅谷Leonis Capital风险投资基金Jenny Xiao (肖文泉) 和Jay Zhao 来源:金色财经
lg
...
金色财经
2023-02-22
“AI+Web3” 概念最新融资项目盘点
go
lg
...
专注于技术框架的构建,以帮助客户了解
生成
式
AI
系统、区块链和动态经济系统等,并在实现应用场景的使用,Sortium 推出了名为 CosmoGene 的P2E游戏,CosmoGene 游戏中,通过AI支持的虚拟DNA,玩家可以根据基因创造独特的体验。 通过上文描述来看,AI+Web3 的初创项目大多是弱 AI 项目,应用结合的深度并不高,此外,应用场景也主要集中在游戏、NFT以及链上数据分析等几个核心领域,我们以期待 Web3 能与 AI 有更加深度的结合,诸如出现智能协议、智能 DApp 甚至于智能区块链等。 来源:金色财经
lg
...
金色财经
2023-02-21
人工智能时代的算力挑战
go
lg
...
会突破5。这就好像,如果我要写一本关于
生成
式
AI
的书,可以将一些资料查找的工作交给研究助手。显然,如果我有更多的研究助手,写书的进度也会加快。但这种加快不是无限的,因为最终这本书什么时候写完,还要看我自己“码字”的速度。 (2)分布式计算 采用聚集资源的方式来增强算力的另一种思路就是分布式计算。和高性能计算主要聚集本地计算单位不同,分布式计算则是将分散在不同物理区域的计算单位聚集起来,去共同完成某一计算任务。比如,刘慈欣在他的小说《球状闪电》中就提到过一个叫做SETI@home的科研计划(注:这个项目是真实存在的),这个计划试图将互联网上闲置的个人计算机算力集中起来处理天文数据,这就是一个典型的分布式计算用例。 分布式计算的一个典型代表就是我们现在经常听说的云计算。关于云计算的定义,目前的说法并不统一。一个比较有代表性的观点来自于美国国家标准和技术研究所(NIST),根据这种观点,“云计算是一种按使用量付费的模式。这种模式对可配置的IT资源(包括网络、服务器、存储、应用软件、服务)共享池提供了可用的、便捷的、按需供应的网络访问。在这些IT资源被提供的过程中,只需要投入很少的管理和交流工作”。 这个定义很抽象、很学院派,我们可以用一个通俗的比喻来对其进行理解。在传统上,用户主要是通过调用自有的单一IT资源,这就好比每家每户自己发电供自己用;而云计算则好像是(用大量算力设备)建了一个大型的“发电站”,然后将“电力”(IT资源)输出给所有用户来用。 根据云服务提供者所提供的IT资源的不同,可以产生不同的“云交付模式”(Cloud Delivery Model)。由于IT资源的种类很多,因此对应的“云交付模式”也就很多。在各类新闻报道中,最常见的“云交付模式”有三种: 第一种是IaaS,它的全称是“基础设施作为服务”(Infrastructure-as-a-Service)。在这种交付模式下,云服务的提供者供给的主要是存储、硬件、服务器和网络等基础设施。 第二种是PaaS,它的全称是“平台作为服务”(Platform-as-a-Service)。在这种交付模式下,云服务的提供者需要供应的资源更多,以便为使用者提供一个“就绪可用”(ready-to-use)的计算平台,以满足他们设计、开发、测试和部署应用程序的需要。 第三种是SaaS,也就是“软件作为服务”(Software-as-a-Service)。在这种交付模式下,云服务提供者将成品的软件作为产品来提供给用户,供其使用。 有了以上不同的云交付模式,用户就可以根据自己的需要来选择相应的IT资源。比如,如果元宇宙的用户需要更多的算力或存储,而本地的机器无法满足,那么就可以通过从云端来获取“外援”。一个云端GPU不够,那就再来几个,按需取用,丰俭由人,既方便,又不至于产生浪费。 需要指出的是,尽管从理论上看云计算可以很好地承担巨大运算和存储需求,但其缺陷也是很明显的。比较重要的一点是,在执行云计算时,有大量的数据要在本地和云端之间进行交换,这可能会造成明显的延迟。尤其是数据吞吐量过大时,这种延迟就更加严重。对于用户来说,这可能会对其使用体验产生非常负面的效果。 那么怎么才能克服这个问题呢?一个直观的思路就是,在靠近用户或设备一侧安放一个能够进行计算、存储和传输的平台。这个平台一方面可以在终端和云端之间承担起一个中介的作用,另一方面则可以对终端的各种要求作出实时的回应。这个思想,就是所谓的边缘计算。由于边缘平台靠近用户,因而其与用户的数据交换会更加及时,延迟问题就可以得到比较好的破解。 2、超越经典计算——以量子计算为例 无论是高性能计算还是分布式计算,其本质都是在运算资源的分配上下功夫。但正如我们前面看到的,通过这种思路来提升算力是有很多障碍的。因此,现在很多人希望从计算方式本身来进行突破,从而实现更高的计算效率。其中,量子计算就是最有代表性的例子。 我们知道,经典计算的基本单位是比特,比特的状态要么是0,要么是1,因此经典计算机中的所有问题都可以分解为对0和1的操作。一个比特的存储单元只能存储一个0或者一个1。而量子计算的基本单位则是量子比特,它的状态则可以是一个多维的向量,向量的每一个维度都可以表示一个状态。这样一来,量子存储器就比经典的存储器有很大的优势。 考虑一个有 N物理比特的存储器,如果它是经典存储器,那么它只能存储2的N次方个可能数据当中的任一个;而如果它是量子存储器,那么它就可以同时存储2的N次方个数据。随着 N的增加,量子存储器相对于经典存储器的存储能力就会出现指数级增长。例如,一个250量子比特的存储器可能存储的数就可以达到2的250次方个,比现有已知的宇宙中全部原子数目还要多。 在进行量子计算时,数学操作可以同时对存储器中全部的数据进行。这样一来,量子计算机在实施一次的运算中可以同时对2的N次方个输入数进行数学运算。其效果相当于经典计算机要重复实施2的N次方次操作,或者采用2的N次方个不同处理器实行并行操作。依靠这样的设定,就可以大幅度节省计算次数。 为了帮助大家理解,我们可以打一个并不是太恰当的比方:玩过动作游戏的朋友大多知道,在游戏中,我们扮演的英雄经常可以使用很多招数,有些招数只能是针对单一对象输出的;而另一些招数则可以针对全体敌人输出。这里,前一类的单体输出招数就相当于经典计算,而后一类的群体输出招数就相当于量子计算。我们知道,在面对大量小怪围攻的时候,一次群体输出产生的效果可以顶得上很多次单体输出的招数。同样的道理,在一些特定情况下,量子计算可以比经典计算实现非常大的效率提升。 举例来说,大数因式分解在破解公开密钥加密的过程中有十分重要的价值。如果用计算机,采用现在常用的Shor算法来对数N进行因式分解,其运算的时间将会随着N对应的二进制数的长度呈现指数级增长。1994年时,曾有人组织全球的1600个工作站对一个二进制长度为129的数字进行了因式分解。这项工作足足用了8个月才完成。然而,如果同样的问题换成用量子计算来解决,那么整个问题就可以在1秒之内解决。量子计算的威力由此可见一斑。 但是,在看到量子计算威力的同时,我们也必须认识到,至少到目前为止,量子计算的威力还只能体现对少数几种特殊问题的处理上,其通用性还比较弱。事实上,现在见诸报道的各种量子计算机也都只能执行专门算法,而不能执行通用计算。比如,谷歌和NASA联合开发的D-Wave就只能执行量子退火(Quantum Annealing)算法,而我国研发的光量子计算机“九章”则是专门被用来研究“高斯玻色取样”问题的。尽管它们在各自的专业领域表现十分优异,但都还不能用来解决通用问题。这就好像游戏中的群体攻击大招,虽然攻击范围广,但是对每个个体的杀伤力都比较弱。因此,如果遇上大群的小怪,群体攻击固然厉害,但如果遇上防御高、血条厚的Boss,这种攻击就派不上用处了。 从这个角度看,如果我们希望让量子计算大发神威,就必须先找出适合量子计算应用的问题和场景,然后再找到相应的算法。与此同时,我们也必须认识到,虽然量子计算的研发和探索十分重要,但是它和对其他技术路径的探索之间更应该是互补,而不是替代的关系。 3、通过改进算法节约算力 如果说,通过高性能计算、分布式计算,以及量子计算等手段来提升算力是“开源”,那么通过改进算法来节约算力就是“节流”。从提升计算效率、减少因计算而产生的经济、环境成本而言,开源和节流在某种程度上具有同等重要的价值。 在ChatGPT爆火之后,大模型开始越来越受到人们的青睐。由于在同等条件下,模型的参数越多、训练的数据越大,它的表现就越好,因此为了追求模型的更好表现,现在的模型正在变得越来越大。我们知道,现在的ChatGPT主要是在GPT-3.5的基础上训练的。在它出现之前,GPT共经历了三代。GPT-1的参数大约为1.17亿个,预训练数据为5GB,从现在看来并不算多;到了GPT-2,参数量就增加到了15亿个,预训练数据也达到了40GB;而到了GPT-3,参数量则已经迅速膨胀到了骇人的1750亿个,预训练数据也达到了45TB。为了训练GPT-3,单次成本就需要140万美元。尽管OpenAI并没有公布GPT-3.5的具体情况,但可以想象,它的参数量和预训练数据上都会比GPT-3更高。为了训练这个模型,微软专门组建了一个由1万个V100GPU组成的高性能网络集群,总算力消耗达到了3640“算力当量”——也就是说,如果用一台每秒计算一千万亿次的计算机来训练这个模型,那么大约需要近十年才能完成这个任务。 如果任由这种“一代更比一代大”的趋势持续下去,那么在未来几年,对算力的需求将会出现爆炸性的增长。一项最新的研究估计,在5年之后,AI模型需要的算力可能会是现在的100万倍。很显然,由此产生的经济和环境成本将会是十分惊人的。 令人欣慰的是,目前已经有不少研究者希望改进算法、优化模型来减少对算力的需求,并且已经取得了一定的成就。比如,就在今年1月3日,来自奥地利科学技术研究所 (ISTA)的研究人员埃利亚斯·弗朗塔(Elias Frantar)和丹·阿里斯特尔(Dan Alistarh)合作进行了一项研究,首次针对 100至 1000亿参数的模型规模,提出了精确的单次剪枝方法SparseGPT。SparseGPT可以将GPT系列模型单次剪枝到 50%的稀疏性,而无需任何重新训练。以目前最大的公开可用的GPT-175B模型为例,只需要使用单个GPU在几个小时内就能实现这种剪枝。不仅如此,SparseGPT还很准确,能将精度损失降到最小。在进行了类似的修剪之后,这些大模型在训练时所需要的计算量就会大幅减少,其对算力的需求也就会相应下降。 关于提升算力、支持人工智能发展的政策思考 随着ChatGPT引领了新一轮的人工智能热潮,市场上对算力的需求也会出现爆炸性的增长。在这种情况下,为了有力支撑人工智能的发展,就必须要通过政策的手段引导算力供给的大幅度增加。而要实现这一点,以下几方面的工作可能是最为值得重视的。 第一,应当加快对算力基础设施的建设和布局,提升对全社会算力需求的支持。如前所述,从目前看,分布式计算,尤其是其中的云计算是提升算力的一个有效之举。而要让云计算的效应充分发挥,就需要大力建设各类算力基础设施。唯有如此,才可以让人们随时随地都可以直接通过网络获得所需的算力资源。 这里需要指出的是,在布局算力基础设施的时候,应当慎重考虑它们的地域和空间分布,尽可能降低算力的成本。我们知道,不同的地区的土地、水、电力等要素的价格是不同的,这决定了在不同地区生产相同的算力所需要的成本也不尽相同。因此,在建设算力基础设施时,必须统筹全局,尽可能优化成本。需要指出的是,我国正在推进的“东数西算”工程就是这个思路的一个体现。由于我国东部各种资源的使用成本都要高于西部,因此在西部地区建立算力设施,就会大幅降低算力的供给成本,从而在全国范围内达到更优的配置效率。 第二,应当加强与算力相关的硬件技术及其应用的研发,为增加算力供应提供支持。与算力相关的硬件技术既包括基于经典计算的各种硬件,如芯片、高性能计算机等,也包括超越经典计算理论,根据新计算理论开发的硬件,如量子计算机等。从供给的角度看,这些硬件是根本,它们的性能直接关系到算力提供的可能性界限。因此,必须用政策积极促进这些硬件的攻关和研发。尤其是对于一些“卡脖子”的项目,应当首先加以突破。 这里需要指出的是,在进行技术研发的同时,也应该积极探索技术的应用。例如,我们现在已经在量子计算领域取得了一些成果,但是由于用例的缺乏,这些成果并没有能够转化为现实的应用。从这个意义上讲,我们也需要加强对技术应用的研究。如果可以把一些计算问题转化成量子计算问题,就可以充分发挥量子计算机的优势,实现计算效率的大幅提升。 第三,应当对算法、架构等软件层面的要素进行优化,在保证AI产品性能的同时,尽可能减少对算力的依赖。从降低AI计算成本的角度看,降低模型的算力需求和提升算力具有同等重要的意义。因此,在用政策的手段促进算力供给的同时,也应当以同样的力度对算法、架构和模型的优化予以同等的激励。 考虑到类似的成果具有十分巨大的社会正外部性,因此用专利来保护它们并不是最合适的。因此,可以积极鼓励对取得类似成功的人员和单位给予直接的奖励,并同时鼓励他们将这些成果向全社会开源;也可以考虑由政府出面,对类似的模型产品进行招标采购。如果有个人和单位可以按照要求提供相应的成果,政府就支付相应的费用,并对成果进行开源。通过这些举措,就可以很好地激励人们积极投身到改进模型、节约算力的事业中,也可以在有成果产出时,让全社会及时享受到这些成果。 总而言之,在人工智能突飞猛进的时代,算力可能是决定人工智能发展上限的一个关键因素。唯有在算力问题上实现突破,人工智能的发展才可能有根本保障。 来源:金色财经
lg
...
金色财经
2023-02-21
教程:如果创建一个 AI 元宇宙化身
go
lg
...
el Sturman 于近日撰文谈到了
生成
式
AI
对该平台未来发展的颠覆性影响,他在文中提到: “
生成
式
AI
工具有助于让用户的创作变得直观和自然,并直接嵌入到体验中,让我们每天 5880 万的用户中的任何一位都能创建可在整个平台上共享的独特内容。” 这句描述似乎很有吸引力,但这并不是一个新的想法,早在 2021 年,获得 1confirmation 200 万美元种子轮投资的开放式元宇宙项目 Webaverse 便开始在探索这一方向,他们的愿景是将 AI 技术与 Crypto、AR/VR 等新兴技术融合在一起,与众多创作者一起创造一个开放式的 AIGC 元宇宙。 叙事归叙事,如果缺失产品,那便都是纸上谈兵,毫无意义。 在经过长期的探索与建设之后,Webaverse 于昨日发布了它的第一个 AIGC 工具: AI Character studio, 用户可以使用它自定义创建 3D avatar 角色,赋予其 AI 个性,并在不同的元宇宙平台上使用它。 据悉,他们会将该 character studio 整合到不同的游戏当中,并将其与其他平台本地整合。很快,用户就可以通过支持的 Web3 钱包 mint 自己的角色并使用它,Webaverse 开发团队正在努力让角色的个性和记忆在链上更新,以便它可以无缝地跨平台移动。 此外,他们正在后台工作以改进 AI 功能,例如添加长期/短期记忆、上下文感知、多模态存在和交互、向其他开发人员公开 API 等。 与闭源的 ChatGPT 不同,Webaverse 的 AI Character studio 是开源的,这意味着任何人都可以 fork 它,并在此基础上创建自己的东西。 https://github.com/webaverse-studios/CharacterCreator 接下来,我们可以简单体验一下它的初版元宇宙 AI 对话系统。 使用教程:如果使用 AI Character studio 访问 : studio.webaverse.ai 选择要创建的 avatar 类型(当前暂时只支持了 2种类型)。 选择完毕后,进入角色生成页面,并随机生成一个角色。 如果对一些细节不满意,可以通过手动的方式进行调整。 外观调整完毕之后,点击 NEXT 进入下一步,并编辑 AI 角色的一些资料(包括姓名、声音、爱好等)。 点击 NEXT 进入下一步,你可以选择下载生成的 3D avatar (支持格式为 GLB 和 VRM),或者你也可以点击 Chat 与其进行对话。 测试之后,我们能够发现,目前该 AI 对话系统还只能称得上是减配版的 ChatGPT,并且当笔者在输入错误的中文后,该系统便无法正常使用了(或许需要一些修复)。 按照官方的演示,该 AI 对话系统还可以帮用户生成图片,并铸造成 NFT,此外,它还可以帮助用户生成推文等内容。 从目前的体验来看,这一 AI 模型的智能程度显然无法媲美 ChatGPT,但如果将其用于练习我们的英语口语(无法访问 ChatGPT 的朋友可以免费体验),以及未来的开放式元宇宙体验中,这或许会是足够的。 如何导入元宇宙 在创建完自己的 AI 3D avatar 之后,用户可以将其导入到各种元宇宙项目当中(例如 Webaverse 即将发布的 Upstreet)。 目前,我们也可以在 demo 版本的 Webaverse 中体验这一导入过程。 访问 https://app.webaverse.com/ ,并将下载好的 VRM 文件直接拖入到浏览器页面: 除此之外,我们也可以将其导入到其他元宇宙平台,甚至 PFP 项目方可以 fork Webaverse 创建的开源基础设施,然后导入到这些元宇宙当中,从而真正实现互通的开放式元宇宙。 来源:金色财经
lg
...
金色财经
2023-02-21
Web3大洗牌:东进西退
go
lg
...
成为了下一个故事的主角,谷歌趋势显示,
生成
式
AI
搜索量在过去一年内暴涨80%,而与之对应的Web3 下降40%,科技企业的焦虑贩卖成为资本圈的精神食粮。对于行走在风口的风投而言,造神显然比神本身更值得关注,至于是伪神还是斯德哥尔摩综合征,在一轮循环后也就无人在意了。 而在日前,Alex联系笔者,提及此前裁撤的项目将在香港再次重启,平台提出了返聘要求,但他还是选择拒绝,下定决心离开了这个光怪陆离的行业。 来源:金色财经
lg
...
金色财经
2023-02-21
OpenAI与AIGC:改变人类生产范式 通往“万物的摩尔定律”
go
lg
...
,因为这幅画不是由人动手绘制,而是来自
生成
式
AI
(Generative AI) 产品 Midjourney。 当时艺术正统和机器亵渎引发了争议,其实早在摄影技术兴起时就有过类似的争议,并不妨碍摄影技术革新并,成为了现代艺术的有机组成部分。 因此本文不对此问题做太多探讨,而是旨在对
生成
式
AI
发展与突破的历史进行复盘,并梳理
生成
式
AI
会在自然语言、代码、图片、视频、3D 模型等领域带来什么样的下游应用。 回顾历史,人类艺术的发展速度是对数式的,而技术的进步速度是指数式的。
生成
式
AI
学习了人类艺术对数进化史上的海量画作,实现了创作质量上的指数式进步,并在生产效率上实现了”弯道超车“。模型生成的作品便是今天热议的AIGC (AI Generated Content)。 而本文聚焦的公司 OpenAI ,在这场
生成
式
AI
的突破中起到了关键性的作用,通过堆叠海量算力的大模型(Foundation Model)使 AIGC 进化。 在 2022 年上半年,OpenAI 旗下三个大模型 GPT-3、GitHub Copilot 和 DALL·E2 的注册人数均突破了 100 万人,其中 GPT-3 花了 2 年,GitHub Copilot 花了半年,而 DALL·E2 只用了2个半月达到了这一里程碑,足见这一领域热度的提升。 研究型企业引领的大模型发展,也给了下游应用领域很大的想象空间,语言生成领域已经在文案生成、新闻撰写、代码生成等领域诞生了多家百万级用户、千万级美金收入的公司。 而最出圈的图片生成领域两大产品 MidJourney 和 Stable Diffusion 都已经有相当大的用户群体,微软也已经布局在设计软件中为视觉设计师提供 AIGC 内容,作为设计灵感和素材的来源。同时 3D 和视频生成领域的大模型也在飞速突破的过程中,未来很可能会在游戏原画、影视特效、文物修复等领域发挥作用。 从神经网络的角度看,当前的大模型 GPT-3 有 1750 亿参数,人类大脑有约 100 万亿神经元,约 100 个神经元会组成一个皮质柱,类似于一个小的黑盒神经网络模块,数量级上的差异决定了算力进步可以发展的空间还很大。与此同时,今天训练 1750 亿参数的 GPT-3 的成本大概在 450 万美元左右,根据成本每年降低约 60% 的水平,供大模型提升计算复杂度的空间还很多。 OpenAI CEO、YC 前主席 Sam Altman 的图景中,AI 大模型发展的最终目标是 AGI(通用人工智能,Artificial General Intelligence),当这一目标实现的时候,人类经济社会将实现”万物的摩尔定律“,即万物的智能成本无限降低,人类的生产力与创造力得到解放。 归纳并演绎
生成
式
AI
是什么 AI 模型大致可以分为两类:决策式 AI 与
生成
式
AI
。 根据机器学习教科书,决策式模型 (Discriminant Model)学习数据中的条件概率分布;生成式模型 (Generative Model)学习数据中的联合概率分布,两者的区别在于擅长解决问题的方式不同: 决策式 AI 擅长的是基于历史预估当下,有两大类主要的模型应用,一类是辅助决策,常用在推荐系统和风控系统中;第二类是决策智能体,常用于自动驾驶和机器人领域。
生成
式
AI
擅长的是归纳后演绎创造,基于历史进行缝合式创作、模仿式创新——成为创作者飞船的大副。所谓 AIGC(AI Generated Content),便是使用
生成
式
AI
主导/辅助创作的艺术作品。 不过在10年代的机器学习教科书中,早已就有了这两类AI。为何 AIGC 在20年代初有了显著突破呢?答案是大模型的突破。 The Bitter Lesson大模型助 AIGC 进化 时间倒回到 19 年 3 月,强化学习之父 Richard Sutton 发布了名为 The Bitter Lesson(苦涩的教训)的博客,其中提到:”短期内要使AI能力有所进步,研究者应寻求在模型中利用人类先验知识;但之于AI的发展,唯一的关键点是对算力资源的充分利用。“ Seeking an improvement that makes a difference in the shorter term, researchers seek to leverage their human knowledge of the domain, but the only thing that matters in the long run is the leveraging of computation. 该文章在当时被不少 AI 研究者视为对自己工作的否定,极力辩护。但如果拉长时间线回看,会发现这位泰斗所言不虚: 机器学习模型可以从参数量级上分为两类:统计学习模型,如 SVM(支持向量机)、决策树等数学理论完备,算力运用克制的模型;和深度学习模型,以多层神经网络的深度堆叠为结构,来达到高维度暴力逼近似然解的效果,理论上不优雅但能高效的运用算力进行并行计算。 神经网络模型在上世纪 90 年代出现,但在 2010 年前,统计学习模型仍是主流;后来得益于 GPU 算力的高速进步,基于神经网络的深度学习模型逐渐成为主流。 深度学习充分利用了 GPU 擅长并行计算的能力,基于庞大的数据集、复杂的参数结构一次次实现出惊人的效果,刷新预期。大模型便是深度学习模型参数量达到一定量级,只有大型科技公司才能部署的深度学习模型。 2019年,OpenAI 从非营利组织变为营利性公司,接受微软 10 亿美金注资。这一合作奠定了他们有更多算力资源,并能依仗微软的云基础建设随时将大模型(Foundation Model)发布为商用 api。 与此同时,还有第三件事值得关注,大模型 AI 的研究方向出现了转变,从智能决策式 AI 转变为内容
生成
式
AI
:原本主要大模型集中于游戏的智能决策体,如 DeepMind 开发的打败围棋冠军的 AlphaGo、OpenAI 开发的打败 Dota 职业选手的 OpenAI Five。 Transformer 模型(后文将详细介绍)的发布让 OpenAI 嗅到了更适合他们的机会——预训练语言模型。在那之后,他们开始在 AIGC 的方向上开枝散叶:沿着 2018 年时低调发布的 GPT 模型轨迹发布了一系列模型族,一次次刷新文本生成大模型的效果,印证 Sutton 提出的宗旨:充分运用海量算力让模型自由的进行探索和学习。 OpenAI的大模型发展之路 2019年2月:GPT-2 初版发布,1.2 亿参数量 2019年3月:OpenAI LP 成立 2019年7月:微软注资 10 亿美金 2019年11月:GPT-2 最终版发布,15 亿参数量,宣布暂时不开放使用为避免假信息伪造 2020年6月:GPT-3 发布,1750 亿参数量,后续开放 OpenAI API 作为商用 2021年1月:DALL·E 与 CLIP 发布 2021年10月:OpenAI Codex 发布,为 GPT-3 为 coding 场景的特化模型、Github Copilot 的上游模型 2022年4月:DALL·E2 发布 1、GPT-3,AI文本生成巅峰之作 深度学习兴起于计算机视觉领域的应用,而大模型的发展开始于 NLP 领域。在数据、算力充分发展的过程中,Transformer 模型以 attention 机制高度并行化的结构充分利用算力,成为 NLP 领域预训练模型的标杆。 著名的独角兽 Hugging Face 也是从对该模型的复现和开源起家。除了 attention 机制的高效之外,它还有两个重要特点:迁移学习(transfer learning)和自监督学习(self-supervised learning)。 顾名思义,迁移学习指在一个极庞大的数据集上充分学习历史上的各类文本,把经验迁移到其他文本上。 算法工程师会将第一步训练完成的模型存储下来,称为预训练模型。需要执行具体任务时,基于预训练版本,进行定制化微调(fine-tune)、或展示少许范例(few-shot/zero-shot)。 而自监督学习,得从机器学习中的监督学习讲起。前面提到若需要学习一匹马是否在奔跑,需要有一个完整标注好的大数据集。 自监督学习不需要,当 AI 拿到一个语料库,可以通过遮住一句话中的某个单词、遮住某句话的下一句话的方式,来模拟一个标注数据集,帮模型理解每个词的上下文语境,找到长文本之间的关联。该方案大幅提高了对数据集的使用效率。 谷歌发布的 BERT 是 Transformer 时代的先驱,OpenAI 发布的 GPT-2 以相似的结构、更胜一筹的算力后来居上。直到2020年6月,OpenAI 发布了 GPT-3,成为该模型族,甚至整个文本生成领域的标杆。 GPT-3 的成功在于量变产生质变:参数比 GPT-2 多了两个数量级(1750亿vs 15亿个参数),它用的最大数据集在处理前容量达到 45TB。 如此巨大的模型量级,效果也是史无前例的。给 GPT-3 输入新闻标题”联合卫理公会同意这一历史性分裂“和副标题”反对同性恋婚姻的人将创建自己的教派“,生成了一则以假乱真的新闻,评估人员判断出其为AI生成的准确率仅为 12%。以下是这则新闻的节选: 据《华盛顿邮报》报道,经过两天的激烈辩论,联合卫理公会同意了一次历史性的分裂:要么创立新教派,要么”保持神学和社会意义上的保守“。大部分参加五月教会年度会议的代表投票赞成进一步禁止 LGBTQ 神职人员的任命,并制定新的规则”规范“主持同性婚礼的神职人员。但是反对这些措施的人有一个新计划:于2020 年组成一个新教派”基督教卫理公会“。 要达到上述效果,成本不容小觑:从公开数据看,训练一个 BERT 模型租用云算力要花约 1.2 万美元,训练 GPT-2 每小时要花费 256 美元,但 OpenAI 并未公布总计时间成本。考虑到 GPT-3 需要的算力是 BERT 的 2000 多倍,预估发布当时的训练成本肯定是千万美元级别,以至于研究者在论文第九页说:我们发现了一个 bug,但没钱再去重新训练模型,就先这么算了吧。 2、背后DALL·E 2,从文本到图片 GPT-3杀青后,OpenAI 把大模型的思路迁移到了图片多模态(multimodal)生成领域,从文本到图片主要有两步:多模态匹配:将 AI 对文本的理解迁移至对图片的理解;图片生成:生成出最符合要求的高质量图片。 对于多模态学习模块,OpenAI 在 2021 年推出了 CLIP 模型,该模型以人类的方式浏览图像并总结为文本内容,也可以转置为浏览文本并总结为图像内容(DALL·E 2中的使用方式)。 CLIP (Contrastive Language-Image Pre-Training) 最初的核心思想比较简单:在一个图像-文本对数据集上训练一个比对模型,对来自同一样本对的图像和文本产生高相似性得分,而对不匹配的文本和图像产生低相似性分(用当前图像和训练集中的其他对的文本构成不匹配的样本对)。 对于内容生成模块,前面探讨了文本领域:10 年代末 NLP 领域生成模型的发展,是 GPT-3 暴力出奇迹的温床。而计算机视觉 CV 领域 10 年代最重要的生成模型是 2014 年发布的生成对抗网络(GAN),红极一时的 DeepFake 便是基于这个模型。GAN的全称是 Generative Adversarial Networks——生成对抗网络,显然”对抗“是其核心精神。 注:受博弈论启发,GAN 在训练一个子模型A的同时,训练另一个子模型B来判断它的同僚A生成的是真实图像还是伪造图像,两者在一个极小极大的博弈中不断变强。 当A生成足以”骗“过B的图像时,模型认为它比较好地拟合出了真实图像的数据分布,进而用于生成逼真的图像。当然,GAN方法也存在一个问题,博弈均衡点的不稳定性加上深度学习的黑盒特性使其生成。 不过 OpenAI 大模型生成图片使用的已不是 GAN 了,而是扩散模型。2021年,生成扩散模型(Diffusion Model)在学界开始受到关注,成为图片生成领域新贵。 它在发表之初其实并没有收到太多的关注,主要有两点原因: 其一灵感来自于热力学领域,理解成本稍高; 其二计算成本更高,对于大多高校学术实验室的显卡配置而言,训练时间比 GAN 更长更难接受。 该模型借鉴了热力学中扩散过程的条件概率传递方式,通过主动增加图片中的噪音破坏训练数据,然后模型反复训练找出如何逆转这种噪音过程恢复原始图像,训练完成后。扩散模型就可以应用去噪方法从随机输入中合成新颖的”干净“数据。该方法的生成效果和图片分辨率上都有显著提升。 不过,算力正是大模型研发公司的强项,很快扩散模型就在大公司的调试下成为生成模型新标杆,当前最先进的两个文本生成图像模型——OpenAI 的 DALL·E 2 和 Google 的 Imagen,都基于扩散模型。DALL·E 2 生成的图像分辨率达到了 1024 × 1024 像素。例如下图”生成一幅莫奈风格的日出时坐在田野里的狐狸的图像“: 除了图像生成质量高,DALL·E 2 最引以为傲的是 inpainting 功能:基于文本引导进行图像编辑,在考虑阴影、反射和纹理的同时添加和删除元素,其随机性很适合为画师基于现有画作提供创作的灵感。比如下图中加入一只符合该油画风格的柯基: DALL·E 2 发布才五个月,尚没有 OpenAI 的商业化api开放,但有 Stable Diffusion、MidJourney 等下游公司进行了复现乃至商业化,将在后文应用部分介绍。 3、OpenAI的使命——开拓通往 AGI 之路 AIGC 大模型取得突破,OpenAI 只开放了api和模型思路供大家借鉴和使用,没去做下游使用场景的商业产品,是为什么呢?因为 OpenAI 的目标从来不是商业产品,而是通用人工智能 AGI。 OpenAI 的创始人 Sam Altman 是 YC 前总裁,投出过 Airbnb、Stripe、Reddit 等明星独角兽(另一位创始人 Elon Musk 在 18 年因为特斯拉与 OpenAI ”利益相关“离开)。 他在 21 年发布过一篇著名的博客《万物的摩尔定律》,其中提到 OpenAI,乃至整个 AI 行业的使命是通过实现 AGI 来降低所有人经济生活中的智能成本。这里所谓 AGI,指的是能完成平均水准人类各类任务的智能体。 因此,OpenAI 始终保持着学术型企业的姿态处于行业上游,成为学界与业界的桥梁。当学界涌现出最新的 state-of-art 模型,他们能抓住机会通过海量算力和数据集的堆叠扩大模型的规模,达到模型意义上的规模经济。 在此之后克制地开放商业化 api,一方面是为了打平能源成本,更主要是通过数据飞轮效应带来的模型进化收益:积累更富裕的数据优化迭代下一代大模型,在通往 AGI 的路上走得更坚实。 定位相似的另一家公司是 Deepmind——2010年成立,2014 年被谷歌收购。同样背靠科技巨头,也同样从强化学习智能决策领域起家,麾下的 AlphaGo 名声在外,Elon Musk 和 Sam Altman 刚开始组局创办 OpenAI,首要的研究领域就是步 AlphaGo 后尘的游戏决策 AI。 不过 19 年后,两者的研究重心出现了分叉。DeepMind 转向使用 AI 解决基础科学如生物、数学等问题:AlphaFold 在预测蛋白质结构上取得了突破性的进展,另一个 AI 模型 AlphaTensor 自己探索出了一个 50 年悬而未决的数学问题:找到两个矩阵相乘的最快方法,两个研究都登上了 Nature 杂志的封面。而 OpenAI 则转向了日常应用的内容生成 AIGC 领域。 AIGC大模型是通往 AGI 路上极为重要、也有些出乎意料的一站。其重要性体现在 AI 对人类传达信息的载体有了更好的学习,在此基础上各个媒介之间的互通成为可能。 例如从自然语言生成编程语言,可以产生新的人机交互方式;从自然语言生成图片和视频,可以革新内容行业的生产范式。意外性则是,最先可能被替代的不是蓝领,而是创作者,DeepMind 甚至在协助科学家一起探索科研的边界。 OpenAI 的模式也给了下游创业者更多空间。可以类比当年预训练语言模型发展初期,Hugging Face把握机会成为大模型下游的模型开源平台,补足了模型规模膨胀下机器学习民主化的市场空间。 而对 AIGC 模型,未来会有一类基于大模型的创业公司,把预训练完成的 AIGC 模型针对每个子领域进行调优。不只需要模型参数优化,更要基于行业落地场景、产品交互方式、后续服务等,帮助某个行业真正用上大模型。 正如 AI 的 bitter lesson 一样矛盾,投资者需要短期投资回报率、研究者需要短期投稿成功率,尽管OpenAI 走在通往 AGI 正确的路上,这条路道阻且长,短期很难看到极大的突破。而 Sam Altman 展望的大模型应用层公司很有可能有更高的高投资回报,让我们来介绍下主要的分类与创业者。 百家争鸣的 AIGC 大模型应用层 对应 OpenAI 大模型发布的顺序,模型应用层相对最成熟的是文本生成领域,其次是图片生成领域,其他领域由于还未出现统治级的大模型相对落后。 文本领域天然应用场景丰富,且 GPT-3 开放 api 很久,细分赛道很多。大致可以根据生成内容不同分为两类:机器编程语言生成、人类自然语言生成。前者主要有代码和软件行为的生成等,后者主要有新闻撰写、文案创作、聊天机器人等。 而图片领域当前还专注于图片自身内容的生成,预期随着未来3D、视频相关内容生成能力的增强,会有更多结合不同业务场景如游戏、影视这样细分领域的创业公司。 以下是海外各子领域创业公司的梳理,接下来将针对几个领域的重要公司进行介绍。 1、编程语言 文本领域最成熟的应用暂时不在人类自然语言,而是在代码等机器语言的生成领域。因为机器语言相对更结构化,易学习;比如鲜有长文本的上下文关系、基于语境的不同含义等情况。 (1)代码生成:Github Copilot 代表公司是微软出品的 Github Copilot,编程中的副驾驶。该产品基于 OpenAI 专门用 GPT-3 为编程场景定制的AI模型 Codex。使用者文字输入代码逻辑,它能快速理解,根据海量开源代码生成造好的轮子供开发者使用。提高一家科技公司 10% 的 coding 效率能带来很大收益,微软内部已进行推广使用。 相比低代码工具,Copilot 的目标群体是代码工作者。未来的低代码可能是两者结合:低代码 UI 界面实现代码框架搭建,代码子模块通过 Copilot 自动生成。 正如 Copilot 的 slogan:Don’t fly solo,没有 Copilot 的帮助 coder 的工作会变得繁冗,没有 coder 的指引 Copilot 生成的内容可能会出现纰漏。也有用户报告了一些侵犯代码版权、或代码泄露的案例,当前技术进步快于版权法规产生了一定的空白。 (2)软件行为生成:Adept.ai Adept.ai 是一家明星创业公司。创始团队中有两人是Transformer 模型论文作者,CEO 是谷歌大脑中大模型的技术负责人,已经获得 Greylock 等公司 6500 万美元的 A 轮融资。 他们的主要产品是大模型 ACT-1,让算法理解人类语言并使机器自动执行任务。目前产品形态是个 chrome 插件,用户输入一句话,能实现单击、输入、滚动屏幕行文。在展示 demo中,一位客服让浏览器中自动记录下与某位顾客的电话,正在考虑买 100 个产品。这个任务需要点击 10 次以上,但通过 ACT-1 一句话就能完成。 软件行为生成颠覆的是当下的人机交互形式,使用文字或语音的自然语言形式来代替当下人与机器的图形交互模式(GUI)。大模型成熟后,人们使用搜索引擎、生产力工具的方式都将变得截然不同。 2、自然语言 自然语言下还有多个应用型文本生成领域值得关注:新闻撰写、文案创作、对话机器人等。 (1)新闻撰写 最著名的是 Automated Inights。他们的结构化数据新闻撰写工具叫做 wordsmith,通过输入相应数据和优先级排序,能产出一篇基于数据的新闻报道。该工具已在为美联社每季度自动化产出 300 余篇财报相关报道,在雅虎体育新闻中也已经崭露头角。据分析师评价,由 AI 完成的新闻初稿已接近人类记者在 30 分钟内完成的报道水准。 Narrative Science是另一家新闻撰写生成公司,其创始人甚至曾预测,到 2030 年,90%以上的新闻将由机器人完成。 (2)文案创作 该领域竞争较为激烈,有copy.ai、Jasper、copysmith 等公司。他们基于 GPT-3 的能力加入了文案领域的人工模板与结构,为商家和个人创作者提供了快速为自己的商品、内容进行宣传的能力。以copysmith 为例: (3)对话机器人 前面提到的 Adept.ai 由Transformer 模型的一作和三作联合创立;而二作也创业了,他创办的 Character.ai 是当前对话机器人中使用效果最逼真的。 该对话机器人可以自定义或使用模板来定义角色的家庭、职业、年龄等,在此基础上保持一贯的设定和符合设定的对话风格。经常能体现出一定的共情对话能力带给人惊喜,并且支持多语言互通。 比如他们有已训练好的马斯克等名人和一些动漫角色,与他们对话会有很棒的代入感。 而商业化的对话机器人,在客服、销售等行业有巨大的市场空间,但如今还为成熟。 主要出现的问题有二: 其一,客服、销售行业遇到的客户往往情绪状态不稳定,AI 难以对情绪进行适应并调整对话内容; 其二,AI 的多轮对话能力较弱,无法保证持续有效的跟进问题。 (4)创作性文本 AI 对于长文本创作有一定困难,难以保持1000字以上的文本创作后仍能进行上下文的联系。 但基于短文本创作仍有一些有趣的应用,例如基于GPT-3的 AI Dungeon,可以引导 AI 创造一个虚拟游戏世界观。该领域进一步的成长需要期待未来 3-5 年,有成熟的能产出千字内容的 AI 出现。 3、多模态图片 DALL·E2 是极具突破性的 AIGC 大模型,但距离丰富生产力和创造力的成熟产品还有差距。因此有研究者顺着 DALL·E 和 CLIP 的思路开发了开源版本的扩散模型,就像当年的 Hugging Face 那样,并将其根据创作者社区的反馈转变为更成熟易用的商业产品。接下来就介绍几个主要出圈的模型: (1)Disco Diffusion 最早出圈的 AI 绘图工具是开源模型Disco Diffusion。发布时间比 DALL·E 2 稍晚,同样也是 CLIP + Diffusion Model 的结构,生成效果让许多插画师担心起了失业。 尽管很多插画师和 AI 工具爱好者的推荐都认可了该工具的易用性和生成效果的出众,但其生成时间略长有待优化,可以认为是大家对图片生成大模型的初体验。 (2)MidJourney 该模型发布后不久,Disco Diffusion 的开发者 Somnai 加入了 MidJourney,和团队一起打造了一款产品化的 Disco Diffusion。 Midjourney 的创始人 David Holz 并不是以CV(计算机视觉)研究为主,更关注人机交互。产品公测和主要交流平台都基于Discord,使用 Discord Bot 进行交互,打造了相当良好的社区讨论环境。 使用中印象深刻的有几个重要功能:MidJourney 画廊中可以看到每时每刻创作者们用 MJ 创作出的作品,用户可以对作品进行打分,每周排名靠前的作品将得到额外的 fast GPU 时间奖励。 同时,MJ官方还为用户贴心的提供了引导语 prompt 集合和 AI 擅长的风格指南,指导用户如何最高效的生成出他们想要的图片。 基于良好的产品和社区体验,MidJourney 的付费用户量也是目前最大的。 目前收费模式采用了订阅制,个人用户有两个档位,每月最多 200 张图片(超额另收费)的 10 美元/月,以及”不限量“图片的 30 美元/月;对企业客户,单人一年收费仅有 600 美元,且生成的作品可以商用(当前法规尚不完善,仍可能存在一定版权问题)。 (3)Stable Diffusion 如果说 MidJourney 是一个勤勤恳恳的绩优生,那么 Stability.ai 则是天赋异禀技术力强、诞生之初就备受 VC 追捧的富二代,公司估值已达到十亿美元。产品 Stable Diffusion 首要目标是一个开源共创模型,与当年的 Hugging Face 神似。 创始人 Emad 之前是对冲基金经理,用自己充裕的资金联合 LMU 和 Runaway ML开发了开源的 Stable Diffusion,在 Twitter 上使用扎克伯格在 Oculus 发布会上的照片作为背景,号召SD会成为”人类图像知识的基础设施“,通过开源让所有人都能够使用和改进它,并让所有人更好地合作。 Stable Diffusion 可以认为是一个开源版本的DALL·E2,甚至不少使用者认为是当前生成模型可以使用的最佳选择。官方版本部署在官网 Dream Studio 上,开放给所有用户注册。 相比其他模型,有很多可以定制化的点。不过官网只有 200 张免费额度,超过需要付费使用,也可以自行使用开源 Colab 代码版无限次使用。此外,Stable Diffusion 在压缩模型容量,希望使该模型成为唯一能在本地而非云端部署使用的 AIGC 大模型。 05 AIGC大模型的未来展望 1、应用层:多模态内容生成更加智能,深入各行业应用场景 上述的多模态图片生成产品当前主要局限于创作画作的草图和提供灵感。在未来待版权问题完备后, AIGC 内容能进入商用后,必然会更深入地与业界的实际应用进行结合: 以游戏行业为例, AI 作画给了非美术专业工作者,如游戏策划快速通过视觉图像表达自己需求和想法的机会;而对美术画师来说,它能够在前期协助更高效、直接地尝试灵感方案草图,在后期节省画面细节补全等人力。 此外,在影视动画行业、视频特效领域,甚至是文物修复专业,AI 图片生成的能力都有很大想象空间。当然,这个领域 AI 的能力也有着不小的进步空间,在下面的未来展望部分进行阐发。 目前 AIGC 存在 Prompt Engineering 的现象,即输入某一些魔法词后生成效果更好。这是目前大模型对文本理解的一些缺陷,被用户通过反向工程进行优化的结果。未来随着语言模型和多模态匹配的不断优化,不会是常态,但中短期内预期Prompt Engineering 还是得到好的生成内容的必备流程之一。 2、模态层:3D生成、视频生成 AIGC 未来3-5年内有明显进步 多模态(multimodal)指不同信息媒介之间的转换。 当前 AI 作图过程中暴露的问题会成为视频生成模型的阿喀琉斯之踵。 例如:AI 作画的空间感和物理规则往往是缺失的,镜面反射、透视这类视觉规则时常有所扭曲;AI 对同一实体的刻画缺少连续性。根本原因可能是目前深度学习还难以基于样本实现一些客观规则泛化,需要等待模型结构的优化进行更新。 3D生成领域也有很大价值:3D 图纸草图、影视行业模拟运镜、体育赛场现场还原,都是 3D 内容生成的用武之地。这一技术突破也渐渐成为可能。 2020年,神经辐射场(NeRF)模型发布,可以很好的完成三维重建任务:一个场景下的不同视角图像提供给模型作为输入,然后优化 NeRF 以恢复该特定场景的几何形状。 基于该技术,谷歌在2022年发布了 Dream Fusion 模型,能根据一段话生成 360 度三维图片。这一领域当前的实现效果还有优化空间,预期在未来3-5年内会取得突破性进展,推动视频生成的进步。 3、模型层:大模型参数规模将逼近人脑神经元数量 近年的大模型并未对技术框架做颠覆性创新,文本和图像生成领域在大模型出现前,已有较成熟方案。但大模型以量变产生质变。 从神经网络角度看,大脑有约 100 万亿神经元, GPT-3 有 1750 亿参数,还相差了 1000 倍的数量级,随着算力进步可以发展的空间还很大。 神经网络本质是对高维数据进行复杂的非线性组合,从而逼近所观测数据分布的最优解,未来一定会有更强的算力、更精妙的参数堆叠结构,来刷新人们对AI生成能力的认知。 4、成本结构决定大模型市场的马太效应 大模型最直接的成本便是能源成本(energy cost),GPT-3 发布时的训练成本在千万美元级别。难以在短期内衡量 ROI ,大科技公司才能训练大模型。 但随着近年模型压缩、硬件应用的进步,GPT-3 量级的模型成本很可能已降至百万美元量级,Stable Diffusion 作为一个刚发布一个月的产品,已经把原本 7GB 的预训练模型优化压缩至 2GB 左右。 在这样的背景下,算力成本在未来必然会逐渐变得更合理,但 AIGC 领域的另一个成本项让笔者对市场结构的预测还是寡头垄断式的。 大模型有明显的先发优势,来自巨大的隐形成本:智能成本。前期快速积累用户反馈数据能帮助模型持续追新优化,甩开后发的竞争者,达到模型性能的规模效应。 AI 的进化来自于数据的积累和充分吸收。深度学习,乃至当前的所有机器学习都是基于历史预估未来,基于已有的数据给到最接近真实的可能。 正如前文讨论的,OpenAI 的目标从来不是留恋于某个局部行业的商业产品,而是通过模型规模经济,不断地降低人类社会全局的智能成本,逼近通用人工智能 AGI。规模经济正体现在智能成本上。 5、虚拟世界的 AGI 会先于现实世界诞生 从更宏观的视角上,虚拟世界 AI 技术的智能成本比现实世界中来得低得多。现实里 AI 应用最普遍的是无人驾驶、机器人等场景,都对 Corner Case 要求极高。 对于AI模型而言,一件事超过他们的经验范畴(统计上out of distribution),模型将立马化身人工智障,不具备推演能力。现实世界中 corner case 带来的生命威胁、商业资损,造成数据积累过程中极大的试错成本。 虚拟世界则不同,绘图时遇到错位扭曲的图片,大家会在 Discord 中交流一笑了之;游戏 AI 产生奇怪行为,还可能被玩家开发出搞怪玩法、造成病毒传播。 因此虚拟世界,尤其是泛娱乐场景下的 AIGC 积累数据成本低会成为优势。这个领域的 AI 如果节省人力、生成内容产生的商业价值能大于算力成本,能很顺畅地形成低成本的正向循环。 伴随着另一个重要的革新——长期 Web3.0元宇宙场景下新内容经济生态的形成,虚拟世界内容场景下的 AI 很可能更早触及到 AGI。 来源:金色财经
lg
...
金色财经
2023-02-21
元宇宙热退潮 XR产业回归理性
go
lg
...
eta罕见地将AI作为讨论重点,新业务
生成
式
AI
将成为Meta今年唯二的主题之一。目前,Meta的Make-A-Video、Make-A-Scene、Cicero智能体等AI业务也已经取得了不错的成果,这些都将成为Meta元宇宙核心业务的巨大助力。 Meta也在不断挖掘XR的商业化可能性。今年1月底,Meta宣布和NBA合作,将借助VR技术转播NBA现场比赛,通过Meta Quest 2及Horizon Worlds中180度的单镜面技术打造沉浸式体验。 无独有偶,微软在裁撤XR项目的同时,也将重心放在了AI领域。前不久,微软就向OpenAI投资了100亿美元。纳德拉表示,微软计划将ChatGPT等AI工具纳入到其所有产品中。 在放弃做属于自己的元宇宙之后,微软更是安心做起了元宇宙的“卖铲人”,就像当初做Office、Azure一样。事实上,微软老早就抱起了Meta的大腿,在Meta Connect 2022上,纳德拉就现身为Quest Pro站台,并宣布双方将在工作、游戏等领域开展合作,将Teams、Office、Windows以及Xbox云游戏全家桶引入Quest VR头显。一旦Meta大获成功,微软自然也能分一杯羹了。 这就不由地让人想到了腾讯。既然手握重金的VR硬件一哥,一时半会都打不下江山,不如先将收购XR硬件厂商的事往后放一放,集中精力把软件做好,后者也是腾讯一直以来的强项。就像是如今,即便不做智能手机,但几乎每台智能手机上都有腾讯的影子。 参考微软和Meta,硬件厂商大概很难拒绝和有钱有技术,更有用户的腾讯强强联合,实现多赢,毕竟XR不局限于VR头显这一条路,未来手机、电脑等硬件也可能成为XR的入口。此前的案例更是证明,XR行业是很难一家独大的,想要软硬件齐头并进,唯有死命烧钱。 去年10月,Meta股东,投资公司Altimeter Capital董事长兼首席执行官Brad Gerstner就在公开信中提到,如果Meta每年向元宇宙业务投入100亿-159亿美元,可能需要十年才能收获成果。他直言:“向一个未知领域投入千亿美元的资金实在是太过巨大且恐怖了。” 腾讯在此时选择放手,或许才是明智之举。 但腾讯怎么可能会放过在下一场产业和生态变革中抢占先机的机会,专注自身强项,布局自研游戏,建设游戏生态,探索划时代的游戏产品,才是关键。毕竟游戏仍是XR行业极为重要的落地场景之一,在硬件技术取得突破后,势必要有与之配套的产品。 结合腾讯的投资布局可以发现,继2021年疯狂扫货、瓜分CP之后,腾讯虽然克制了许多,2022年仅投资11家游戏公司,但该出手时就出手,From Software、Studio MayDay、Inflexion Games、1C Entertainment等游戏厂商均被收入麾下,可以看出腾讯对于独立游戏、3A大作,以及海外市场的高度重视。 纵观腾讯的投资版图,从国内到国外,从端游到手游,试图覆盖游戏行业的每一个细分赛道,因为在游戏行业的下一个时代到来之前,腾讯必须要手握筹码,赶上下一个红利期。事实上,不只是腾讯,放眼全球市场,已经有越来越多的科技公司押注游戏行业。 此外,腾讯近年来在B端势头正劲,云服务等业务发展迅猛,在此基础上钻研XR相关技术或许还能增强原有业务的壁垒,衍生出更广阔的商业空间。当然这只是猜测,腾讯具体将如何布局仍有待观望。 在快手全景视频不断失宠后,其音视频团队的工作重心就已经向视频云业务StreamLake转移,推出面向各行业的音视频+AI产品与解决方案,进军B端赛道。今年快手更是成立了独立业务部门“溪流湖”,负责研发toB相关业务。这是不是也代表,B端赛道将成为快手逐鹿XR的下一个重要战场? 经历了野蛮生长和大刀阔斧的裁撤后,XR行业终于回归理性,但距离成熟的XR生态还有很长的路要走,在此之前行业仍需沉淀。在未来十年,甚至数十年的赛跑中,谁能拔得头筹,还尚未见分晓。 来源:元宇宙之心 来源:金色财经
lg
...
金色财经
2023-02-19
元宇宙周刊|韩国政府拟投入2233亿韩元扶持元宇宙
go
lg
...
加密初创公司Solvo将允许用户使用
生成
式
AI
创建NFT。 NFT基础设施协议CapsuleNFT推出Ordinary Oranges,比特币NFT可在以太坊主网访问。 勒布朗·詹姆斯“LeBron1/1Unique Card”以近7万美元成交价被拍卖,创Sorare NBA第三高交易记录。 迪拜在Decentraland推出首个虚拟购物中心Majid Al Futtaim。 《最终幻想》开发商Square Enix将在Polygon上推出NFT游戏。 华纳音乐集团前首席执行官Stepher Cooper加入NFT平台OneOf董事会。 Cosmos Hub第四个公开激励测试网Interchain NFTs开放注册。 Fox Entertainment及其Web3部门Blockchain Creative Labs正在为该网络的热门歌唱比赛节目“蒙面歌手”推出一种新的令牌门控粉丝体验。 Blur发布版税更新政策,包括推荐不使用OpenSea。 兰博基尼将于2月20日在NFT市场VeVe发布Huracán STO车型NFT。 “无聊猿”BAYC完成Dookey Dash游戏分数审查和验证:仅2%玩家分数被重置。 英国知名电竞选手Mongraal在MINT游戏Dookey Dash中获胜。 NFT项目mfers创始人表示16999个eos NFT持有者可参与新项目的免费铸造。 时尚杂志GQ将推出其首个NFT系列,持有者拥有多种权限。 软银将作为验证者参与日本游戏区块链Oasys。 电竞选手Mongraal已将“吉米钥匙”上架OpenSea,售价2222ETH。 “无聊猿”BAYC交易额突破27亿美元。 DigiDaigaku Free NFT Factory即将上线,Digi Genesis收藏者将获得Bitcoin NFT。 Cosmos推出第四次公共激励测试网活动Game of NFTS(GoN),第一阶段已开放注册。 Solana生态NFT项目DeGods基于Ordinals在比特币链上铸造。 NFT市场KnownOrigin将于2月24日上线创作者合约,允许创作者分享收益和版税。 社交NFT市场NFT.com发布公测版,初始测试期间不收取交易费用。 NFT开源协议Unlock Protocol推出通过电子邮件空投NFT功能。 其他 MakerDAO集成Chainlink Oracle以帮助维护DAI稳定性。 Meta已恢复特朗普的Facebook和Instagram账号。 京东正式推出产业版ChatGPT,命名“ChatJD”。 欧盟委员会发布了用于实施“数字身份钱包计划”(EUDI Wallet)的首个欧盟通用工具箱版本。 加密友好的电子商务巨头Shopify推出了一套区块链商务工具,以增强其平台托管的Web3商店的用户体验。 Web3浏览器Opera宣布将集成人工智能生成内容(AIGC)服务,并计划将现有AI程序扩展到该服务中以支持浏览器、新闻和游戏等产品。 天地在线表示目前分别在数字人、XR直播等领域进行业务布局。 Meta将改造Horizon Worlds元宇宙应用,计划最快3月份向青少年开放。 美、中、韩分列“元宇宙”相关专利申请数量全球前三,以2011年至2020年为准,美国最多,为17293件(35.9%),其次是中国14291件(29.7%)、韩国7808件(16.2%)。 天津市统计局表示区块链在天津市企业中的使用比例5.3%。 第五届CCF中国区块链技术大会在无锡举行。大会以“新应用新赋能新生态”为主题,邀请到超过50位演讲嘉宾,其中既有区块链学术领域的高校教授,也有业界应用领域的权威专家,共同探讨区块链技术新进展、区块链安全与Web3、区块链隐私保护与监管、区块链数字资产交易、区块链与密码学以及区块链领域人才培养等热点话题。 Web3时尚平台Syky聘请前Meta产品负责人担任产品总监。 美国政府合作伙伴Mitre正在招聘一名Web3经济学家。 社交媒体巨头Reddit于Polygon网络发行的NFT系列Reddit Collectible Avatar总量已突破1000万。 京东方第6代新型半导体显示器件生产线在北京经济技术开发区正式开工建设。 微软已取消Industrial Metaverse项目,约100名员工已被解雇。 原美团联合创始人王慧文在社交平台发文宣布进军人工智能领域,称将打造中国的OpenAI。 Web3基础设施提供商Ankr近日宣布成为隐私公链Secret Network首批企业级RPC提供商之一。 浙江玉环经济开发区成立漩门湾元宇宙赋能创新中心 北京君正表示,公司有多种AI算法且已被客户批量采用。 元宇宙产业大会2023年春季会将于明日召开,重点聚焦ChatGPT与元宇宙的关系。 迪拜虚拟资产监管局(VARA)发布了《2023年虚拟资产及相关活动条例》,制定了全面的虚拟资产框架,以支持经济可持续性和跨境金融安全。 yearn针对其文档内容推出类ChatGPT产品yGenius。 《合肥高新区元宇宙产业发展规划(2023-2028)》(下称“《规划》”)在中安创谷科技园全球路演中心正式发布。 欧盟委员会正式启动欧洲区块链监管沙盒。 数字支付公司Wirex宣布已成为Visa的全球合作伙伴,以允许该公司将其卡服务带到全球更多市场。 报告指出银行业监管机构将数字资产视为对银行业和传统金融业安全构成威胁。 好莱坞娱乐巨头派拉蒙将在Roblox元宇宙中推出《海绵宝宝》和《忍者神龟》两大IP内容,Roblox表示元宇宙玩家2022年总游戏时长达到500亿小时。 欧易Web3钱包支持通过iCloud和GoogleDrive备份钱包。 区块链技术平台Blockedge与Suvik将成立合资公司加速Web3采用。 Web3社交网络DeSo现已推出开源聊天协议DeSo Chat Protocol(DCP)协议。 Google Cloud Web3技术负责人加入Alchemy Pay管理顾问委员会。 欧盟或将在数字身份框架中包含零知识证明。 Web3电子邮件平台Mailchain集成Web3TLD和域名平台Freename。 投融资新闻 Algorand NFT市场Rand Gallery收购数据聚合器NFTExplorer。 独立游戏工作室Hardball Games完成430万英镑种子轮融资。 OpenAI创始人旗下加密公司Worldcoin正在进行新一轮融资。 Web3孵化器ManesLAB完成180万美元种子轮融资,YZB Investment领投。 Negentropy Capital向元宇宙项目MetaGPT.AI投资200万美元。 Web3实物收藏平台Collector Crypt完成种子轮融资。 去中心化游戏平台Ajuna Network在以区块链为重点的风险投资公司CMCC Global领投的新一轮私募融资中筹集了500万美元。 游戏公司Tower Pop为其Web3大逃杀和塔防游戏Omega Royale完成210万美元融资。 区块链支付技术公司Partior此前完成的A轮融资规模为3100万美元。 Gym Streets收购日本元宇宙公司Kabutocho Metaverse。 Web3支付公司Slash去年完成150万美元种子轮融资,现已启动A轮融资。 区块链游戏化社交媒体应用TOKHIT完成1亿美元融资。 游戏工作室Empires Not Vampires完成100万美元融资。 专注于投资、运营和提供游戏解决方案的数字游戏孵化器Ludus收购NFT游戏开发商LookLabs,具体金额暂未披露。 Web3全球开发者社区ScalingX推出2000万美元加速器项目。 数字资产公司Taurus完成6500万美元B轮融资。 珠宝品牌Chupi完成375万欧元融资,将投资区块链技术追踪钻石。 EVM兼容区块链项目Monad Labs完成1900万美元种子轮融资。 区块链互操作性协议Orb Labs完成450万美元融资。 Mercury Fund任命Samantha Lewis为合伙人负责Web3和金融科技基金。 工业元宇宙公司Prevu3D宣布完成1000万美元A轮融资,Cycle Capital领投,此前投资过该公司的Brightspark Ventures和Desjardins Capital参投。 数字资产量化算法交易投资公司Hilbert Group就2220万瑞典克朗贷款融资达成协议。 分布式云游戏平台Now.gg宣布已获得NTT DoCoMo Ventures投资,具体投资金额暂未公开。 NFT Gaming获准在纳斯达克上市,拟通过IPO筹集700万美元资金。 拥有20亿美元的阿布扎比科技生态中心Hub71发起“Hub71+数字资产”计划。 NFT衍生品DEX NFEX完成300万美元融资。 区块链安全平台Ironblocks宣布完成700万美元种子轮融资。 流媒体服务Napster收购Mint Songs以扩大Web3业务。 Cosmos生态NFT区块链Aura Network完成400万美元Pre-A轮融资,本轮融资由Hashed和Coin98领投,GuildFi、Istari Ventures、K300Ventures参投。 3D角色工作室Superplastic完成2000万美元融资。 Web3基础设施初创公司Kolibrio完成200万美元种子轮融资。 Algorand NFT市场Rand Gallery收购数据聚合器NFT Explorer。 去中心化社交平台Zion完成600万美元融资。 区块链工具提供商Modular Cloud已于去年完成170万美元Pre-Seed轮融资,Maven11和Blockchain Capital共同领投。 Virtual Arts宣布完成新一轮融资,Animoca Brands战略子公司Animoca Brands Japan参投,具体投资金额暂未公开。 2022年全球金融科技对加密货币和区块链的投资下降到231亿美元。 Web3流动性基础设施Solv Protocol宣布推出基金Solv Seahorse Fund,这是一系列投资基金SFT,用户在Solv协议上购买并在未来赎回股份以获得收入。 尼日利亚加密支付初创公司Fluidcoins已被阿联酋加密交易平台Blockfinex100%收购,收购金额不详。 Web3通信项目Sending Labs宣布完成1250万美元的种子轮融资。 web3基础设施初创公司Nefta宣布以3250万美元的估值完成500万美元种子轮融资。 Web3消息传递平台Salsa完成200万美元Pre-Seed轮融资。 观点 经济日报表示,元宇宙、人工智能尚在萌芽阶段,谨防新概念圈钱骗局。 华为表示,在与ChatGPT相关的大模型领域早有布局,正通过建立联合体推动产业化。 比尔·盖茨表示ChatGPT的重要性不亚于互联网的发明。 摩根大通表示,ChatGPT等生成式人工智能模式短期内可能成为传统服务的负担。 谷歌员工批CEO应战ChatGPT仓促、拙劣。 工信部重点实验室主任表示,加强研究监管友好的区块链技术架构和链上治理协议。 Cathie Wood表示美国监管机构对中心化质押的攻击损害美国在Web3领域的竞争力。 万向区块链肖风表示,数字经济中使用权比所有权更重要,Token或是互联网平台反垄断的最佳解决方案。 崔东树谈ChatGPT表示,电动化是新能源车的始终核心,智能化是机上添花。 中宣部出版局副局长杨芳表示,推动元宇宙、数字孪生、云游戏等新业态拓展应用。 马斯克称,人工智能是我们需要非常关切的问题,需要监管人工智能安全。ChatGPT展示了AI有多先进,需立法保障人类安全。 爱奇艺副总裁表示,相信元宇宙未来会成为下一代的互联网。 FSB表示全球标准制定者将联手应对DeFi监管。 更多新闻详情关注我们: https://www.metaversehub.net 来源:金色财经
lg
...
金色财经
2023-02-17
上一页
1
•••
232
233
234
235
236
•••
239
下一页
24小时热点
重大突发!习近平首次批评以色列对伊朗军事行动 伊朗已备妥领导人遇刺预案
lg
...
中美重磅!华尔街日报独家:特朗普政府曾在贸易谈判前考虑扩大对华科技限制
lg
...
中国经济放缓的又一征兆:申请离婚甚至还要托人抢名额?
lg
...
特朗普最新发声:伊朗没有找我谈停火!黄金回落失守3400,空头盯紧这一支撑
lg
...
特朗普“压垮”美国经济?!油价走低与经济前景不确定性施压,5月美国零售销售大幅下滑
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论