全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
盘点美团王兴商业版图 美团王兴入局AI投资
go
lg
...
在朋友圈中透露,将以个人身份参与王慧文
创业
公司
“光年之外”的A轮投资,并出任董事。此前,王慧文宣布进入AI领域,设立北京光年之外科技有限公司,出资5千万美元,估值2亿美元,自有资金占股25%。其透露,下轮融资已有顶级VC认购2.3亿美金。 天眼查App显示,美团创始人王兴任职企业共有35家,其中存续状态的有30家,包括北京三快科技有限公司、北京三快云计算有限公司、宁波梅山保税港区艾克思求解投资合伙企业(有限合伙)等。上述存续企业中,王兴均持有股份,并在拉萨源驰投资管理有限公司担任监事。通过直接或间接持股,王兴拥有400多家企业的实际控制权,商业版图涉及金融、餐饮、电商、出行、物流、医疗等。
lg
...
金融界
2023-03-08
大动作!美团创始人王兴参与王慧文“光年之外”A轮,并出任董事,要打造中国版本ChatGPT?
go
lg
...
人王兴发布朋友圈透露,个人将参与王慧文
创业
公司
“光年之外”的A轮投资,并出任董事。王兴在朋友圈中表示,“AI大模型让我既兴奋于即将创造出来的巨大生产力,又忧虑它未来对整个世界的冲击。老王和我在创业路上同行近二十年,既然他决心拥抱这次大浪潮,那我必须支持。” 王慧文要打造中国版OpenAI 王兴与王慧文从清华的上下铺同学,到携手创办校内网及美团,从同窗到创业,一直是科技互联网圈的一段佳话。2020年,王慧文宣布从美团退休时,王兴曾在公开信中表示,“老王和我是有共同志趣的同学和室友,是携手创业的搭档和并肩战斗的战友,更是可以思想碰撞、灵魂对话的一生挚友”。 2月13日,王慧文在社交平台“即刻”发布“英雄榜”,称要打造中国的OpenAI(ChatGPT主体公司),同时为自己的新事业招募人才。英雄榜中,他透露目前招聘研发人才,要求有三点:业界公认的顶级研发人才、狂热相信AI改变世界、坚定确保AI造福人类。 王慧文今年2月宣布成立北京光年之外科技有限公司,自己出资5000万美元,公司的估值为2亿美元,他个人不占股份,资金占股25%,将用其他75%的股份来邀请顶级研发人才。他同时透露,公司的下一轮融资已有顶级VC认购2.3亿美金。据36氪报道,王慧文口中的顶级VC,至少包括源码资本、真格基金等。 2月14日,他又发布了《AI英雄榜·续》,其中写到了对光年之外另外75%的股份规划: 如果公司上市时,这些股份仍未发完,剩余的部分不会留给任何人,而是成立一支非盈利性基金,专门投资那些发展路径不清晰,实现希望很渺茫,商业价值不明确,但是一旦突破就能改变世界的科技探索。 投资界和券商分析师口水战 美团原二号人物王慧文的带资入局,“肉身不占股”的举动,引发投资界和券商分析师口水战。 2月14日,海通证券分析师郑宏达在朋友圈转发了王慧文的“英雄榜”,并配文写到:“这不是扯淡么,5000万美元够干什么的?大模型训练一次就花500万美元,训练10次?互联网的人啥都不懂,就只会营销,一点都不踏实。” 随后,某资本合伙人却又忍不住加入“论战”,一边指责郑宏达“diss一位成就万亿公司的企业家,谁给你的勇气?”,一边建议对方应该专注本职业务,“多做一点研究、为买方提供优质的服务不好吗?”最后,还对郑宏达下达“战帖”,称要用50万美金赌王慧文创业能不能成功。 争论根源在于ChatGPT有着较高的入场门槛 这一争论发生的根源在于,无论是ChatGPT还是其他的Chat bot,都有着较高的入场门槛,主要体现在技术和资金两方面。 中信建投证券在一份研报中指出,Transformer在网络结构上的进化带来了参数量和模型层数的提高,引起了生成式AI技术能力的质变;同时并行化优势允许其在更大的数据集上进行训练,这也促成了GPT等预训练模型的发展。 在那之后,AI开始从大量训练模型向训练大模型转变,以期让AI模型具有泛化能力,让AI真正走向通用且实用。 但是在训练大模型的过程中,背后所需要的算力、云计算、数据等等,都有着极高的资金门槛。 OpenAI在一份提交给美国国税局的文件中指出,还在2017年时,它花在云计算上的钱都有790万美元。此外,其创始人布罗克曼等人测算,训练大模型消耗的计算量,每3、4个月会翻一倍。据多位业内人士估算,OpenAI训练GPT-3一年,仅算力成本就有2000万美元。
lg
...
金融界
2023-03-08
这家AR眼镜企业凭什么获得亿元资本青睐?
go
lg
...
新是一家成立于2021年年底的AR眼镜
创业
公司
,由TCL实验室孵化而来。成立以来,雷鸟创新已经发布的产品包括:消费级AR眼镜雷鸟Air、雷鸟Air 1S(采用Birthbath方案)、雷鸟X2(光波导方案)。第三方调研机构易观分析数据显示,2022年,雷鸟创新在国内消费级AR眼镜市场份额高达28.4%,为发展最快的消费级AR眼镜品牌。 成功的路径不尽相同,但每一个成功的企业都有一个致胜法宝。在我们看来,公司的成功离不开三个要素:产品定位、技术积累、团队组织 产品定位 从用户需求出发稳步走向C端市场,公司在产品调研期间,了解普通消费者需要被满足的需求是什么,并在产品定位上进行了取舍。最后得出公司的产品定位为:足够清晰、具备一定的AR功能和日常佩戴方便。 正因为这样的产品定位,公司在足够清晰的特点上采用了Birdbath光学技术,日常配带方便则是将产品的质量降到最低。雷鸟Air裸重69g,带前挡镜片也只有75g,是业内最轻的智能眼镜。而在具体体验上,则是偏向以显示为基础的AR场景,比如观赏、游戏、办公等,这与其具备一定功能的产品定位相吻合。 技术积累 目前市面上所有的AR眼镜类行业格局似于金字塔。金字塔最下面一层是割舍掉显示功能的智能眼镜,比如在音频、拍照等能力上做文章,短期内这部分产品起量较快,但并非真正AR眼镜。 第二层,是现阶段是主打显示的AR眼镜,大致分为Birdbath方案(简称“BB”)和波导方案两种路线。BB的方案更成熟,显示效果也更好,是目前使用最广泛的光学方案,但缺点在于并不轻薄、透过性差;光波导的方案足够轻薄,但是还需要提高显示的亮度、良率和生产率。 雷鸟创新在最新一款产品“雷鸟X2”上就做了相应的尝试,采用了AR眼镜终极方案——衍射光波导+Micro LED+SLAM定位的方案组合。 为此,雷鸟X2还用上了自研的超小型全彩Micro LED光引擎组件,使得衍射光波导的高光效亮度提升了3倍。另外,雷鸟X2还开发出自有的全自动化设备与系统,实现了全彩光引擎超精密、高良率的量产。这款产品,将于2023年H1量产上市。 其次,技术与市场相拥的落地方式。AR目前仍属于发展初期,走到类似于智能手机的普及还需要很长一段时间,因此在不同的阶段,需要满足消费者的主要需求,而当下市场的主要需求就是使用场景呈现。 雷鸟创新与理想汽车的跨界合作,便是雷鸟创新探索AR与智能座舱结合场景而迈出的关键一步。 基于偏振Birdbath+Micro OLED方案,雷鸟Air能实现在4米处观看140英寸高清大屏的视觉体验,转移了旅客长途乘车的乏味,让其乘车体验迈向了新台阶。比起传统大屏幕,雷鸟Air能够带来更好的沉浸式体验,用户对车内娱乐系统的需求也将进一步得到满足。 团队组织 团队方面,公司核心团队来自腾讯、大疆、Meta、OPPO、爱奇艺,以及各类新锐
创业
公司
,在近眼显示光学设计、AI算法、空间定位与三维建模、多模态人机交互技术,以及系统软件等领域拥有深厚的积累,并且在供应链及生产工艺方面具有较高水平。 雷鸟创新创始人兼CEO李宏伟是一名连续创业者,拥有十余年互联网+科技行业创业经验,曾带领团队打造准独角兽企业、建立行业龙头地位,先后在思科系统(中国)、爱奇艺任职,并创立北京奇果网络科技有限公司。而对于未来的发展规划,他也已经想好了四步走的发展计划:持续打造领先的产品——逐步占领消费者心智——提高产品完成度——保持优势,获取足够用户数量,为公司未来发展指明方向。 总结来看,清晰的目标、准确的定位、强劲的实力都在助推雷鸟创新向前发展,也正是公司获得亿元融资的原因。 AR行业 成立不到两年的雷鸟创新能够获得资本的青睐,背后也显示资本对这个行业和赛道的关注和重视,那这个赛道的现状和未来发展趋势又会如何呢? AR行业现状 从全球市场来看, AR终端设备出货量增长较块。根据IDC发布的数据,2017年全球AR终端出货量约为45万台,随着全球各国5G基站建设以及5G技术发展,带宽和低时延特点能够解决AR因带宽不够和时延长带来的图像渲染能力不足、终端移动性差和互动体验不强问题,2021年,全球AR终端出货量约为70万台,同比增长75%。 可以看出,AR行业仍处于快速发展过程中,并随着技术的迭代和产品的升级逐步融入到人们的生产生活中。 竞争格局上呈现寡头垄断的格局。2022主要线上平台的全年销量表现情况来看,“AR四小龙”——雷鸟创新、Nreal、Rokid、INMO占整体市场份额约82%,领先于行业。 其中,雷鸟创新以28.4%的市场份额雄踞榜首,位列第一。Nreal和Rokid各自拿下25.1%和21.0%的市场份额实现稳定增长,分别位列第二、第三,INMO和米家分别位列第四、第五,跻身中国市场的前五;此外,华为表现较为突出,于2022年12月发布并预售新品HUAWEI Vision Glass,短时间内即在当季取得较好成绩。 2 未来发展趋势 AR企业双线增长趋势。AR企业产品的迭代路线大致可分为两种,第一种增长曲线:追求大而全的「All in one」通用型产品设备,第二种增长曲线: 追求小而美的、专攻于某一个特定细分领域的「One by one」专用型产品设备。 目前以Microsoft的Hololens系列和Magic Leap的产品主要沿着第一种增长曲线迭代,产品单价高昂,而以国内厂商为代表的企业更顺应第二种增长曲线模式。第二种增长曲线将会成为中长期的主流路径,并随着行业不断向前推进,逐渐与第一种曲线交织、重合。 AR行业应用场景将逐步从市场拓展过渡到行业通用解决方案阶段。短期内企业级场景落地速度更快,处于拓新市场快速增长阶段;第二阶段基本完成 垂直行业标准化方案打造,开始规模化复制并沉淀行业通用方案; 长期竞争下,行业理解能力将成择选AR解决方案厂商 的核心依据之一。消费级市场下,用户在元宇宙和多款AR新品的影响下逐步完成市场教育,短期内用户尝鲜后消费将回归 理性,中长期需要新的场景功能和爆款产品再次点燃消费情绪。 来源:金色财经
lg
...
金色财经
2023-03-08
朝阳资本蒋超阳—-持续关注股市1
go
lg
...
领域并加以积极投资。朝阳资本也经常参与
创业
公司
的早期投资,致力于推动中国高科技企业的发展。 蒋超阳对于股市的行情也一直保持着持续的关注和研究。他深入了解股市的运作原理,不断学习市场变化,并通过与应用盈利模式相匹配的投资策略,精准把握股市中的机会和风险。 在近期,随着A股市场的表现日益活跃,蒋超阳也对中国A股市场持续关注,认为中国A股市场具有一定的投资价值。他表示,中国经济正在努力推进供给侧结构性改革,并且积极推动普惠金融的发展,这些都将为中国A股市场持续带来增长机会。 总的来说,朝阳资本蒋超阳股市持续关注1的文章,反映了蒋超阳和他所领导的朝阳资本在股市领域的投资实力和市场洞察力。随着中国经济的快速发展和市场环境的不断变化,蒋超阳和他的团队将继续关注股市行情并进行敏锐的决策,为投资者带来更高的回报。 来源:金色财经
lg
...
金色财经
2023-03-08
华尔街日报:谷歌工程师两年前就研究出ChatGPT类似产品,因高管反对发布而辞职
go
lg
...
离开谷歌,并于当年11月成立了他们的新
创业
公司
Character Technologies Inc.。去年发布的Character软件允许用户创建聊天机器人并与之互动,这些机器人可以扮演苏格拉底等知名人物或心理学家等普通类型的人物。 谷歌在今年2月宣布了Bard,当时微软正在举办一场活动,介绍必应整合了OpenAI技术。两天后,在巴黎的一场活动上,谷歌让媒体和更广泛的公众看到了Bard,以及一个使用类似LaMDA的人工智能技术对搜索查询生成文本响应的搜索工具。 #ChatGPT火爆全网#
lg
...
Sue
2023-03-08
ChatGPT热潮来袭!大厂大语言模型卷起来了
go
lg
...
节在内的多个大厂争相布局。不少创业者、
创业
公司
也开始朝向大模型方向发力,原美团联合创始人王慧文、出门问问创始人李志飞、前搜狗CEO王小川等互联网老将竞相出山。 据了解,ChatGPT本质上是一种大型语言模型,都是通过深度学习方法训练出来的,可以根据输入的文本生成单词、句子、或者段落的人工智能产品。近年来,自然语言处理技术取得了长足的发展,其中大型语言模型的出现成为了颠覆性的进步。ChatGPT的竞争,背后实际是大模型的竞争,它们争夺着更大的参数量、更高的计算速度和更强的语言处理能力。 ChatGPT概念的火热,也让互联网、科技大厂们或主动或被动的官宣了自身相关技术领域、尤其是底层大模型方面的布局。 今年2月,百度官宣正在做类似ChatGPT的项目,并宣布了项目的名字——“文心一言”。公布消息当日,百度港股股价大涨15%。 此后,在百度财报会议上,李彦宏表示,百度人工智能能力在大型语言模型和人工智能基础模型中构筑了护城河。不久前,百度宣布将在3月16日围绕其生成式AI产品“文心一言”召开新闻发布会。 与此同时,腾讯也透露了在ChatGPT和AIGC相关方向上已有布局。腾讯方面表示,腾讯持续投入AI等前沿技术的研发,基于此前在AI大模型、机器学习算法以及NLP等领域的技术储备,将进一步开展前沿研究及应用探索。 另外,阿里方面也确认阿里达摩院正在研发类ChatGPT的对话机器人,目前处于内测阶段。 美国国家工程院外籍院士、北京智源人工智能研究院理事张宏江公开表示,ChatGPT和AIGC(生成式人工智能)技术爆火背后,代表着人工智能大模型进入一个新的技术范式,同时也是第三波 AI 浪潮经过十几年发展之后一个非常重要的拐点。
lg
...
金融界
2023-03-07
ChatGPT思考:探索智能的极限
go
lg
...
个月里,我走访各大高校,研究院,大厂,
创业
公司
,风投;从北京到上海到杭州到深圳,跟所有头部的玩家们全部聊了一遍。The Game of Scale 在中国已然拉开,风暴中心的玩家们,在已知国内技术和生态与世界前沿的巨大鸿沟下,如何做成这件事?谁能做成这件事? 秦失其鹿,天下共逐之。———《史记·淮阴侯列传》 以下为本文目录,建议结合要点进行针对性阅读。 01 三种不同的答案 02 极限思维 03 人工智能显著超过人类的点 04 Alignment 对齐 05 结语 01. 三种不同的答案 我每接触到一个
创业
公司
,都会问同一个问题:”ChatGPT 在那里,你们想做什么?“ 我大概能收到三种不同的答案。第一个答案很明确,要做中国的 ChatGPT。 做中国的 ChatGPT 因为它就在那里,所以想要复现,想要国产化。这是很经典的产品导向中文互联网思维。这种思路也是过去二十年,中文互联网常见的商业模式:首先硅谷做出来一个东西,然后我们把它抄过来。 但这里的问题是,首先,ChatGPT 可不像打车软件,复现难度完全不可同日而语。光从人的角度看,GPT 的产生,是这个世界上最顶尖的科学家和工程师们从 2015 年开始就不断研究的结果。OpenAI 的首席科学家, Ilya Sutskever,深刻地相信 AGI 一定能实现。作为图灵奖得主 Geoffery Hinton 的大弟子,从 2007 年就开始研究深度学习。他的 citation 有 37 万,发过的文章精准踩中了过去十年 Deep Learning 的所有关键节点。即使是如此强大的团队,从 GPT 2 到 GPT 3.5 也花了四年的时间,它的科学与工程的难度可想而知。 同时,初代 ChatGPT,是 OpenAI 在 GPT 3.5 的基础模型上,花了两星期时间对着 dialog 做 finetuning 之后随手扔出来的 demo。这里真正强的并不是 ChatGPT 这一个产品,而是底下的 GPT 3.5 基础模型。这个模型还在不断地演化,GPT 3.5 系列在 2022 年更新了三个大版本,每个大版本都显著强于前一个版本;同样地,ChatGPT 发布两个月一共更新了四个小版本,每个小版本都在单个的维度上比前一个版本有着明显的改进。OpenAI 的所有模型都在持续不断的演化,随时间推移越来越强。 这也就意味着,如果只盯着当前 ChatGPT 这一个产品看,无异于刻舟求剑。当 ChatGPT 出现的时候,它对已有的语音助手们形成了降维打击;如果看不到基础模型的演化,即使花个一两年辛辛苦苦做出一个类似的东西,那时候 OpenAI 的基础模型也在继续变强,如果他们接着产品化,以新的更强的基础模型 finetune 到一个更强的产品,难道要再被降维打击一次吗? 刻舟求剑的做法是行不通的。 做中国的 OpenAI 第二种答案是,要做中国的 OpenAI。给出这个答案的玩家,跳出了经典中文互联网产品思维。他们不止看到单个产品,而且还看到了这个产品背后,基础模型不断演化的强大驱动力,来源于尖端人才的密度和先进的组织架构。 • 尖端人才的密度:不是一个人集资源带队然后把任务按层级打包分配给底下的人,而是一群顶级的集 science 和 engineering 于一身的人们共同协作; • 先进的组织架构:Language 团队与 Alignment 的团队相互合作迭代,然后底下 scaling 团队和 data 团队帮忙提供基础设施,每个 team 都非常小,但目标明确路径清晰,高度集中资源,朝着 AGI 进发。 所以,如果要做这件事情,不只要看到产品,还要看到它背后的人才团队和组织架构;按稀缺程度排名的话,人 > 卡 > 钱。 但这里的问题是,不同的土壤对创新的鼓励程度是不一样的。在 OpenAI 刚创立的 2015 年,它的投资者们都相信 AGI ,即使当时看不到什么盈利的点。现在 GPT 做出来了,国内的投资者们也都信了 AGI,但相信的点或许也不一样:到底是信 AGI 能挣钱,还是信 AGI 能推动人类发展? 更进一步地,即使 OpenAI 就产生在这里,明天就出现,但他们跟微软达成的 deal,能否跟国内的云计算厂商达成呢?大模型的训练和推理都需要极大的成本,需要一个云计算引擎作为支撑。微软可以倾尽所有,让整个 Azure 给 OpenAI 打下手,这个换到国内,阿里云有可能给一个
创业
公司
打下手吗? 组织架构很重要,只有尖端的人才和先进的组织架构才能推动智能的不断迭代与进化;但它同样需要跟所在的土壤做适配,寻找可以 flourish 的方法。 探索智能的极限 第三种答案是,要探索智能的极限。这是我听到的最好的答案。它远超刻舟求剑式的经典互联网产品思维,也看到了组织架构和尖端人才密度的重要性,并且更重要地是它看到了未来,看到了模型演化与产品迭代,思考着如何把最深刻,最困难的问题用最创新的方法来解决。 这就涉及到了思考大模型的极限思维。 02. 极限思维 观察现在的 ChatGPT / GPT-3.5 ,它明显是一个中间状态,它还有很多显著可以加强,并且马上就能加强的点,包括: • 更长的输入框:开始的时候,GPT 3.5 的上下文最长到八千个 token;现在的 ChatGPT 上下文建模的长度似乎已经过万。并且这个长度明显可以接着增长,在融入 efficient attention 和 recursive encoding 的方法之后,context length 应该可以接着 scale 到十万,甚至百万的长度; • 更大的模型,更大的数据:模型的大小还没有到极限,MoE 可以接着把模型 scale 到 T 的量级;数据的大小还没有到极限,人类反馈的数据每天都在增长; • 多模态:在增加了多模态数据(音频,图片),特别是视频数据之后,总体与训练数据的大小可以再增大两个量级,这个可以让已知的能力接着按 scaling law 线性增加,同时还有可能继续出现新的涌现能力。比如可能模型在看过各种几何形状的图片,以及看过代数题之后,或许会自动学会做解析几何; • 专业化:现有的模型在文科上大概相当于研究生水平,但在理科上相当于高中或大一大二的学生水平;已有的工作已经证明我们可以把模型的技能点从一个方向挪到另一个方向,这就意味着即使不做任何 scaling,我们依然可以在通过牺牲其他方面能力的情况下,把模型朝着目标方向推进。比如牺牲掉模型的理科能力,把它的文科能力从研究生推到专家教授的水准。 以上四点只是现阶段可以看到的,马上就可以加强但暂时还没有加强的点,随着时间的推移和模型的演化,会有更多可以被 scale 的维度进一步体现出来。这意味着我们需要有极限的思维,思考当我们把能够拉满的维度全部拉满的时候,模型会是什么样子。 能够拉满全部拉满 模型的输入框可以接着加长,模型的大小可以继续增大,模型的数据可以继续增多,多模态的数据可以融合,模型的专业化程度可以继续增高,所有这些维度可以继续往上拉,模型还没有到极限。极限是一个过程,在这个过程中模型的能力会怎样发展呢? • Log-linear 曲线:一部分能力的增长会遵循 log-linear 的曲线,比如说某项任务的 finetuning。随着 finetune 数据的指数增长,模型所对应的 finetune 的任务的能力会线性增长。这部分能力会可预测地变得更强; • Phase change 曲线:一部分能力会随着 scaling 继续涌现,比如说上文中的模型做解析几何的例子。随着可以被拉满的维度被不断拉满,新的,难以预测的涌现能力会接着出现; • 多项式曲线?当模型强到一定程度,与人类 align 到一定程度之后,或许一些能力的线性增长,所需要的数据,会突破指数增长的封锁,而降低到多项式的量级。也就是说,当模型强到一定程度之后,它或许不需要指数级的数据,而是只需要多项式级的数据,就可以完成泛化。这可以从人类的专业学习中观察到:当一个人还不是领域专家的时候,ta 需要指数级的数据来学习领域的知识;当一个人已经是领域专家的时候了,ta 只需要很少量级的数据就自己迸发出新的灵感和知识。 所以,在极限思维下,把所有能拉满的维度全部拉满,模型注定会越来越强,出现越来越多的涌现能力。 反推中间过程 在思考清楚极限的过程之后,就可以从极限状态往后反推中间过程。比如说,如果我们希望增长输入框的大小: •如果希望把模型的输入框从千的量级增长到万的量级,可能只需要增加显卡数量,进行显存优化就能实现; •如果希望接着把输入框从万的量级增长到十万的量级,可能需要linear attention的方法,因为此时加显存应该也架不住 attention 运算量随输入框长度的二次增长; •如果希望接着把输入框从十万的量级增长到百万的量级,可能需要recursive encoding的方法和增加long-term memory的方法,因为此时 linear attention 可能也架不住显存的增长。 以这种方式,我们可以反推不同阶段的 scaling 需要怎样的技术。以上分析不止适用于输入框的长度,也适用于其他因素的 scaling 的过程。 这样的话,我们可以得到清晰的从现阶段的技术到 scaling 的极限的每个中间阶段的技术路线图。 按模型演化进程产品化 模型在不断演化,但产品化不需要等到最终那个模型完成 — 每当模型迭代出来一个大的版本,都可以产品化。以 OpenAI 的产品化过程为例: •2020 年,初代 GPT 3 训练完成,开放 OpenAI API; •2021 年,初代 Codex 训练完成,开放 Github Copilot; •2022 年,GPT-3.5 训练完成,以 dialog 数据 finetune 成 ChatGPT 然后发布。 可以看到,在中间阶段的每一个重要版本,模型的能力都会增强,都存在产品化的机会。 更加重要的是,按照模型演化进程产品化,可以在产品化的阶段适配市场。学习 OpenAI 的组织架构来推进模型演化本身,但产品化可以按照本土市场的特征来。这种方式或许可以既学到 OpenAI 的先进经验,又避免水土不服的问题。 03. 人工智能显著超过人类的点 到目前为止,我们讨论了要用模型演化的视角来分析模型,要用极限的思维讨论模型的演化历程。现阶段马上可以加强的点包括了输入框的长度,更大的模型和数据,多模态数据,和模型的专业化程度。现在让我们再把视野放得更长期些,思考在更大的时间和空间中,模型如何进一步地往极限推。我们讨论: • 并行感知:一个人类研究员一次顺序地读四五篇论文已经是极限,但模型输入框变长之后,可以在极短的时间内并行阅读一百篇论文。这意味着,模型对外部信息的感知能力远超人类一个数量级; • 记忆遗传:人类的演化过程中,子代只继承父代的基因,但不继承父代的记忆,这意味着每一次生殖都需要重启一次;在模型的演化过程中,子代可以继承父代的记忆,并且这个继承的程度可控:我们可以设置子代继承 100%,50%,20% 的记忆,或清空记忆,这意味着父代的经验和技能可以不断累积; • 加速时间:人类相互交流的速率是受到人类说话的物理速度限制的,而模型相互交流的速率可以远快于人类,这意味着模型可以通过相互交流来解决人类数据随时间线性增长的问题;人类演化的过程受到物理时间的限制,模型的演化可以比人类的物理时间快上几个数量级,这意味着模型的进步速度可以远快于人类; • 无限生命:一个人的生命有限,百年之后终归尘土,但模型的权重只要不丢失,就可以不断地演化。 从这些角度来说,人工智能超过人类并不是一件难以想象的事情。这就引发了下一个问题: 如何驾驭远超人类的强人工智能? 这个问题,是 Alignment 这项技术真正想要解决的问题。 04. Alignment 对齐 当前阶段,模型的能力,除了 AlphaGo 在围棋上超过了最强人类之外,其他方面的 AI 并没有超过最强的人类(但 ChatGPT 在文科上或许已经超过了 95% 的人类,且它还在继续增长)。在模型还没超过人类的时候,Alignment 的任务是让模型符合人类的价值观和期望;但当模型继续演化到超过人类之后,Alignment 的任务就变成了寻找驾驭远超人类的智能体的方法。 Alignment 作为驾驭远超人类的智能体的方法 一个显然的问题是,当 AI 超过人类之后,还可以通过人类反馈让 ta 更强 / 更受约束吗?是不是这个时候就已经管不了了? 不一定,即使模型远超人类,我们依然又可能驾驭 ta,这里的一个例子是运动员和教练之间的关系:金牌运动员在 ta 的方向上已经是最强的人类了,但这并不意味着教练就不能训练 ta。相反,即使教练不如运动员,ta 依然可以通过各种反馈机制让运动员变得更强且更有纪律。 类似地,人类和强人工智能的关系,在 AI 发展的中后期,可能会变成运动员和教练之间的关系。这个时候,人类需要的能力并不是完成一个目标,而是设定一个好的目标,然后衡量机器是否足够好地完成了这个目标,并给出改进意见。 这个方向的研究还非常初步,这个新学科的名字,叫 Scalable Oversight。 Alignment 与组织架构 在通往强人工智能的路上,不只是需要人类与 AI 对齐,人类与人类,也需要高度的对齐。从组织架构的角度,alignment 涉及到: • Pretraining 团队与 instruction tuning - alignment 团队之间的对齐: 这两者应该是一个相互迭代的过程,pretraining 团队不断地 scale 基础模型,alignment 团队为基础模型做 instruction tuning,同时用得到的结果反向指导 pretraning 团队的方向。 • Pretraining / Alignment 团队与 Scaling / Data 团队的对齐: scaling 负责为 pretraining / alignment 做好基础设施,data 做好高质量数据与人类反馈数据。 •
创业
公司
与 VC 的对齐: AGI 是一个困难的事情,需要长期的投入,这需要各个方面的人都有足够的耐心和足够高的视野。烧一趟热钱后催产品化然后占满市场的逻辑在大模型时代应该已经不复存在了。大模型的游戏要求 ta 的玩家们有足够高的视野与格局,模型的演化会让有足够耐心的,踏实做事人们在长期得到丰厚的回报,也会让只看短期刻舟求剑的人们一次又一次被降维打击。 05. 结语 在 2017 年,我刚刚入行 NLP 的时候,花了很大的力气做可控生成这件事情。那个时候所谓的 text style transfer 最多就是把句子情感分类改一改,把 good 改成 bad 就算是完成了 transfer。 2018 年我花了大量的时间研究如何让模型从句子结构的角度修改句子的风格,一度误认为风格转换是几乎不可能完成的事情。而今 ChatGPT 做风格转换简直信手拈来。那些曾经看似不可能完成的任务,曾经极其困难的事情,今天大语言模型非常轻松地就能完成。 在 2022 年一整年,我追踪了从 GPT-3 到 GPT-3.5 的全部版本迭代,亲眼看到它一步步地从弱到强不断演化。这个演化速度并没有变慢,反而正在加快。那些原先看来科幻的事情,现在已经成为现实。谁会知道未来会怎样呢? 彼黍离离,彼稷之苗。 行迈靡靡,中心摇摇。 彼黍离离,彼稷之穗。 行迈靡靡,中心如醉。 ——— 《诗经 · 黍离》 Reference 1. Ilya Sutskever https://scholar.google.com/citationsuser=x04W_mMAAAAJ&hl=en 2. GPT 3.5 系列在 2022 年更新了三个大版本 https://platform.openai.com/docs/model-index-for-researchers 3. ChatGPT 发布两个月一共更新了四个小版本https://help.openai.com/en/articles/6825453-chatgpt-release-notes 4. 微软 Azure 辅助 OpenAI https://blogs.microsoft.com/blog/2023/01/23/microsoftandopenaiextendpartnership/ 5. efficient attention https://arxiv.org/abs/2302.04542 6. recursive encoding https://openai.com/research/summarizing-books 7. MoE 可以接着把模型 scale 到 T 的量级 https://arxiv.org/abs/2101.03961 8. log-linear 的曲线 https://arxiv.org/abs/2001.08361 https://arxiv.org/abs/2203.15556 9. Phase change 曲线 https://arxiv.org/abs/2206.07682 10. linear attention https://arxiv.org/abs/2103.02143 https://arxiv.org/abs/2302.04542 11. recursive encoding https://openai.com/research/summarizing-books 12. long-term memory https://arxiv.org/abs/2112.04426 13. OpenAI API https://platform.openai.com/docs/introduction/overview 14. Github Copilot https://github.com/features/copilot 15. Scalable Oversight https://arxiv.org/abs/2211.03540 16. 从 GPT-3 到 GPT-3.5 的全部版本迭代 https://yaofu.notion.site/How-does-GPT-Obtain-its-Ability-Tracing-Emergent-Abilities-of-Language-Models-to-their-Sources-b9a57ac0fcf74f30a1ab9e3e36fa1dc 来源:元宇宙之心 来源:金色财经
lg
...
金色财经
2023-03-05
人工智能:中国式ChatGPT的“大跃进”
go
lg
...
不乏阿里、美团、小红书等大厂,还有诸多
创业
公司
,以及研究机构。猎头们提供的NLP算法研究员岗位年薪也大多会在百万元上下。 根据猎聘大数据调查,过去五年,人工智能和互联网的招聘薪资均处于上涨态势,人工智能年均招聘薪资明显高出互联网。2022年,人工智能招聘平均年薪为33.15万元,比互联网高出4.27万元,即14.78%。 五年来人工智能与互联网招聘平均年薪对比 在ChatGPT爆火后,这样的情况越来越明显。据上述调查显示,与ChatGPT相关的岗位工资均超过平均水平,AIGC为39.08万,对话机器人为34.89万,预训练模型为33.93万。“ChatGPT一火起来,AI工程师的薪资水平也越来越高,你不开高价就抢不到人。”某AI领域投资人对虎嗅说。 从技术的角度看,大模型发端于NLP领域,自然语言处理岗位在人工智能领域一直都处于人才稀缺的状态,薪酬水平处于高位。科锐国际调研咨询业务负责人&高科技领域资深专家景晓平对虎嗅表示,“人工智能行业典型岗位按产业链划分,技术层和基础层薪酬水平处于高位,高于互联网其他领域薪酬水平,应用层和互联网常规岗位薪酬一致。” 事实上,近年来国内AI人才的硕博占比也在逐年提升,很多企业对AI领域的人才要求学历至少是硕士。薪酬结构则与企业的性质密切相关,国有企业、研究所的薪酬主要是固定薪酬、项目奖金和津贴,例如,国内第一梯队的AI实验室,清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)挂在官网上的博士后招聘待遇为年薪30万,享受清华大学教职工社会保险、住房公积金等待遇。提供公寓或每年4.2万的租房补贴,同时可以解决子女入园、入学。 IT大厂和AI
创业
公司
的薪酬结构则多为,固定薪资+浮动奖金+股权期权激励。在猎聘、脉脉、BOSS直聘三个平台搜索ChatGPT,硕博学历职位的月薪普遍高于3万,最高达9万。“在薪酬方面IT大厂并不会占多少便宜,AI大模型的研发都是高举高打,
创业
公司
给出的薪酬可能更有竞争力。”西湖心辰COO俞佳认为,没有资金支持很难在大模型的基础训练领域推动一家初创公司,对于这个领域来说,钱的问题可能“不是最大的问题”。 猎聘、脉脉、BOSS直聘,搜索ChatGPT的前排结果 此外,在诸多岗位信息中,工作地点集中在北京、上海、杭州和深圳,但其中一些职位也并不限制办公地。景晓平表示,目前国内AI人才北京占据第一位,上海、广东省分列二三位,近些年互联网发展极为活跃的浙江省,在人工智能发展上也丝毫不落风头,成都作为科技新秀城市,有优质相关生源的地域,也储备了不少人工智能人才。但从需求总量来看,国内AI人才还有很大缺口。 OpenAI的专家团队为何强 OpenAI官网挂出的参与过ChatGPT的项目团队共87人,该团队平均年龄为32岁,其中90后是主力军。 《ChatGPT团队背景研究报告》显示,ChatGPT研发团队绝大多数成员拥有名校学历,成员最集中的前5大高校是:斯坦福大学(14人)、加州大学伯克利分校(10人)、麻省理工学院(7人)、剑桥大学(5人)、哈佛大学(4人)和佐治亚理工学院(4人)。 ChatGPT 团队成员毕业前10名高校 此外,很多成员都有名企工作经历,包括:Facebook、Stripe、Uber、Quora、NVIDIA、Microsoft、Dropbox、DeepMind、Apple、Intel等公司,其中有10人来自谷歌,OpenAI的首席科学家Ilya Sutskever亦是从谷歌转会而来,Ilya Sutskever是AlphaGo的作者之一,师从人工智能学界泰斗Geoffrey Hinton。 ChatGPT团队成员流动示意图 1985年出生在苏联的Ilya Sutskever,如今已经是英国皇家学会院士。据说Ilya Sutskever退出谷歌,与Sam Altman、Elon Musk等人一起创立OpenAI时,年薪曾大幅缩水。但他参与创立OpenAI的初衷是“确保强大的人工智能造福全人类”的大义和情怀。 OpenAI初创之时是一家非营利研究机构,从这点上来看,无论是否带着情怀加入这家公司的研究人员,还是给“非营利”事业烧钱的投资人,多少都有一点对技术的“信仰”,这种驱动力,可能是钱买不来的。 不过OpenAI给这些科技精英们提供的薪酬待遇并不低。据纽约时报报道,2016年,OpenAI向Ilya Sutskever支付了超过190万美元。另一位行业大佬级的研究员Ian Goodfellow(对抗式生成网络的提出者)2016年从OpenAI得到的报酬则超过80万美元,而他在这一年中只工作了9个月,不过Ian Goodfellow在OpenAI没有待很长时间就离开了。 一直以来,硅谷的AI研究员都是高收入人群。在谷歌发布的官方招聘信息中,在美国工作的全职“高级软件工程师,大型语言模型,应用机器学习”(Staff Software Engineer, Large Language Models, Applied ML)岗位基本工资范围为年薪17.4万-27.6万美元(约120万-190万元人民币)+奖金+股权+福利。 这份工作的主要职责是:为谷歌大型语言模型的关键冲刺做出贡献,将尖端的 LLM(Large Language Mode,大型语言模型) 引入下一代谷歌产品和应用程序,以及外部用户。在建模技术方面进行协作,以支持全方位的 LLM 调整,从提示工程、指令调整、基于人类反馈的强化学习 (RLHF)、参数高效调整到微调。 微软研究院的研究员岗位“博士后研究员-机器学习和强化学习”(Post Doc Researcher-Machine Learning and Reinforcement Learning)年薪则在9.4万-18.2万美元(约64万-125万元人民币)。工作职责是“与其他研究人员合作制定自己的研究议程,推动有效的基础、基础和应用研究计划。” ChatGPT团队中另一个有意思的点是团队中有9位华人成员,其中5人本科毕业于国内高校,美国学界对人才的虹吸效应也正是硅谷巨头以及“OpenAI”们强大人才竞争力的基础。 “中国的AI人才是从14亿人里挑,美国是从80亿人里挑,全世界优秀的人很多都到美国去了。”图灵联合创始人、原智源研究院副院长刘江表示,要承认差距确实存在,不过他也表示,“在这方面,我们也不用气馁。中国也有自己的优势,比如市场化、产品化的能力,近年来我们不比美国同行差了。” 国内大厂的实力如何? 除了人才问题,国内大模型研究落后美国另一个原因是在生成式AI和大模型研究方面起步略晚,而起步晚的原因,则还是与“钱”脱不开关系。 从技术角度看,生成式技术在Stable Diffusion和ChatGPT等网红产品出现之前,技术实现的效果并不理想,且需要消耗大量算力进行研究。所以大厂、资本很难斥以重资,投入到这种看上去不太赚钱,还要烧钱的业务。 中国的AI产业更注重应用场景,而非基础理论和技术创新。各家大厂在NLP的理解方面有很多成熟业务,比如听写、翻译,在视觉识别和AI大数据处理方面也有很多应用场景。所以这部分业务自然是AI研发的主力,一方面他们赚钱,另一方面在这些领域的技术积累,使研究人员能够“在规定跑道上赛跑”,而不是在未知领域探路。 这一点不只是限制了国内公司,更是很多全球巨头的创新桎梏。正如诺基亚做不出iPhone一样,巨头都不喜欢“破坏式创新”,谷歌发布的Bard只因一个小失误就牵动了母公司Alphabet的万亿市值,这也正是谷歌一直声称不愿发布LaMDA大模型的理由,害怕会因AI的失误影响自己的商誉。而OpenAI显然不太在乎ChatGPT在公测中会出什么问题,毕竟他发布ChatGPT时只是一家估值200亿美元的独角兽。 不过,在这波大模型的追赶赛中,国内大厂的团队也可以说是实力颇强。 百度在大模型方面走的最早,百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。文心大模型研发的带头人,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰博士,是自然语言处理领域权威国际学术组织ACL(Association for Computational Linguistics)的首位华人主席、ACL亚太分会创始主席、ACL Fellow,还是IEEE Fellow、CAAI Fellow及国际欧亚科学院院士。他还兼任中国电子学会、中国中文信息学会、中国工程师联合体副理事长等。目前,王海峰在国内外期刊会议上发表的学术论文有200余篇,获得已授权专利170余项。 虽然没有像百度一样公布类ChatGPT产品的发布时间表,但腾讯、阿里和华为分别提出的“混元”、“通义”和“盘古”三个大模型,均已研发了很长时间。 据机器学习和自然语言处理著名学者Marek Rei教授在2022年4月发布的统计(2023年的统计尚未发布)显示,2012-2021年中,在ML(Machine Learning,机器学习)和NLP顶级期刊和会议发表论文数量最多的机构是谷歌,微软紧随其后。发文数量最多的中国机构是清华大学,第二是位列第16的腾讯,腾讯也是前32名中唯一的中国互联网厂商。不过,在2021年单年的统计中,阿里和华为也登上此榜,腾讯仍排在较靠前的位置。 Marek Rei发布的2021年ML、NLP顶会、期刊发文量统计 目前,腾讯官方并没有公布“混元”大模型研发团队的具体信息。不过,腾讯旗下AI研发团队“腾讯AI Lab”的专家构成,也显示出了腾讯在AI领域的一部分实力。腾讯AI Lab由100余位AI科学家和超过300名应用工程师组成,带头人张正友博士是腾讯首席科学家、腾讯 AI Lab 及 Robotics X 实验室主任,腾讯首位17级研究员、杰出科学家。他在美国斯坦福大学(Stanford University)发布的2022 年度“全球前2%顶尖科学家榜单”(World's Top 2% Scientists 2022)中,排名全球“终身科学影响力排行榜”第1002名,中国排名 Top 10。 阿里在LLM领域的研究主要由阿里巴巴达摩院负责,阿里巴巴集团资深副总裁,阿里云智能CTO、达摩院副院长周靖人主导,他是IEEE Fellow,多次担任VLDB,SIGMOD,ICDE等国际顶级会议程序委员会主编、主席,在顶尖国际期刊和会议上发表论文超百篇,并拥有几十项技术专利。 华为也未对“类ChatGPT产品”公开表态,但在大模型方面华为亦有“盘古”大模型正在研究。该项目由华为云人工智能领域首席科学家田奇博士领导,他是计算机视觉、多媒体信息检索专家,IEEE Fellow,国际欧亚科学院院士,教育部长江讲座教授,国家自然科学基金海外杰青,中国科学院海外评审专家,在国内多所高校任讲席教授及客座教授。 在自己组建团队投入研发的同时,百度、阿里、腾讯、华为等IT大厂,也与中科院计算所自然语言处理研究组、哈尔滨工业大学自然语言处理研究所、中国人民大学高瓴人工智能学院等高校研究有很多的技术合作。 “集中力量办大事”的科研机构 数据闭环是大模型研发的关键,用户越多,积累时间越长,就意味着可以用于迭代升级的数据和反馈也就越多。 在这方面OpenAI已经利用前两代的开源GPT模型和GPT-3积累了大量数据。ChatGPT虽然才推出了3个月,但用户量和访问量增长速度飞快,这些都为OpenAI在大模型研发方面积累了巨大的先发优势。 “AI大模型如果落后了,就会面临卡脖子的风险。”很多AI专家对此都有担心,由此国内也诞生了一些应对此种局面的非营利性AI科研机构。这些机构多数有高校研究实验室背景加持,以及地方政策支持,人才聚拢能力非常强劲。 北京智源人工智能研究院(以下简称“智源研究院”)是科技部和北京市政府共同支持,联合北京人工智能领域优势单位共建的非营利性创新性研发机构。智源研究院理事长张宏江,是美国国家工程院外籍院士,ACM Fellow和IEEE Fellow,同时也是微软亚洲研究院的创始人之一。 2021年,智源研究院发布了1.7万亿参数的超大模型“悟道”的1.0和2.0版本,这项工作由100余位科学家共同打造。其中包括清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)的孙茂松教授,清华大学知识工程研究室(KEG)的唐杰教授,清华大学交互式人工智能课题组(CoAI)的黄民烈教授。 目前“悟道”大模型已经与OPPO、好未来、淘宝、搜狗、美团等开展了落地合作。在与美团的合作中,大模型给搜索广告带来了2.7%的收入增长。 在南方的科技重镇也有一家相似的研究机构,粤港澳大湾区数字经济研究院(以下简称IDEA研究院),IDEA研究院是由深圳市政府大力支持的AI研究机构。与智源研究院有一个颇有趣的相似之处,IDEA研究院的创始人沈向洋博士同样出身微软亚洲研究院。沈向洋博士是美国国家工程院外籍院士和英国皇家工程院外籍院士,他参与创建了微软亚洲研究院,担任院长兼首席科学家,并曾担任微软公司全球执行副总裁,主管微软全球研究院和人工智能产品线,并负责推动公司中长期总体技术战略及前瞻性研究与开发工作。 IDEA研究院NLP研究中心负责人张家兴博士也来自微软亚洲研究院,他的团队推出的开源模型“太乙”,据称在中文文生图领域可以达到接近Stable Diffusion(一款开源文生图AI模型)的水平。 目前IDEA研究院正在持续迭代开发的预训练模型体系“封神榜”,已经开源了6个系列共10个模型,包含4种模型结构,模型参数最大为35亿。其中包括:以Encoder结构为主的双向语言系列模型的二郎神系列;面向医疗领域,拥有35亿参数的余元系列;与追一科技联合开发的新结构大模型周文王系列;以Decoder结构为主的单向语言模型闻仲系列;以Transformer结构为主的编解码语言模型,主要解决通用任务的大模型燃灯系列;以及主要面向各种纠错任务的比干系列。 2月20日晚,复旦大学自然语言处理实验室对媒体宣传邱锡鹏教授团队发布了“国内第一个对话式大型语言模型MOSS”,并在公开平台(https://moss.fastnlp.top/),邀请公众参与内测。然而就在外界都等着看MOSS表现如何惊艳之时。MOSS的内测网站却挂出了一则道歉公告。 目前MOSS的测试网站已经挂出了停止服务的公告。一位AI大模型专家对虎嗅表示,“邱锡鹏的实验室学术研究的氛围很浓。虽然这次的MOSS很少有人得到体验机会,但是从后边的公告来看,有可能是在工程优化,并发处理等方面的准备还没有那么充分。” 在近期举行的2023年世界人工智能开发者先锋大会上,邱锡鹏教授公开表示,如果优化顺利,MOSS计划在2023年3月底开源。 虽然,没能成功抢发“国产ChatGPT”,但AI业内人士对邱锡鹏教授团队仍然给出了肯定的评价,“邱锡鹏教授的团队比较偏重学术,这和早期的OpenAI在科研心态上是有共性的,非营利性的AI研究机构,没有那么多功利的考虑。”
创业
公司
都有“大佬”背书 AI技术属于计算机科学,虽然计算机技术已发展多年,但AI仍属于前沿科技,对LLM以及其他通用大模型的研究更是兴起不久,仍然需要依靠应用数据,持续迭代升级,不管MOSS是不是因为工程经验绊了跟头,要在AI、大模型这些领域实现突破,能推广到市场中,接地气的技术和产品才是王道。事实上,目前国内AI行业活跃的实验室大多已开始尝试商业化,在市场的磨砺中探索大模型未来的出路。 深言科技 深言科技源自清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)。THUNLP由清华大学人工智能研究院常务副院长孙茂松,以及刘洋、刘知远,三位教授带头。实验室在2017年推出的中文诗歌自动生成系统「九歌」则是最有影响的诗歌生成系统之一,「九歌」已经为用户创作了超过3000万首诗词。 孙茂松教授领衔研发的CPM模型是智源研究院的大模型「悟道·文源」的前身,也是国内最成熟的中文生成式大模型之一。深言科技的团队也是由CPM模型的部分研发团队成员所组成的,目前该公司产品包括可以根据意思搜索词语的“WantWords反向词典”,以及根据意思查询句子的“WantQuotes据意查句”。 智谱AI 智谱AI的前身是清华大学知识工程研究室(KEG),KEG专注研究网络环境下的知识工程,在知识图谱、图神经网络和认知智能领域已发表一系列国际领先的研究成果。2006年,智谱AI就启动了科技信息分析引擎ArnetMiner(以下简称AMiner)的相关研究,先后获得了国际顶级会议SIGKDD的十年最佳论文(Test-of-Time Award)、国家科学进步奖二等奖、北京市发明专利奖一等奖。 2022年8月,由KEG与智谱AI共同研发的千亿级模型参数的大规模中英文预训练语言模型GLM-130B正式发布,其在多个公开评测榜单上超过GPT-3 v1。此外,智谱AI还打造了认知大模型平台(BigModel.ai),形成AIGC产品矩阵,提供智能API服务。 聆心智能 2月17日,聆心智能宣布完成由无限基金SEE Fund领投的Pre-A轮融资。聆心智能的底层技术是超拟人大规模语言模型,基于大模型可控、可配置、可信的核心技术优势,聆心智能推出“AI乌托邦”,该系统允许用户快速定制 AI 角色。 聆心智能由清华大学交互式人工智能课题组(CoAI)黄民烈教授支持。CoAI是清华大学朱小燕教授及黄民烈教授领导的实验室。2020年,就已经开源了1200万对话数据和中文对话预训练模型CDial-GPT。黄民烈教授也曾参与了智源研究院的“悟道”大模型研发。 西湖心辰 西湖心辰背靠西湖大学深度学习实验室,创始人是西湖大学助理教授、博士生导师蓝振忠,主要研究大规模预训练模型的训练与应用。蓝振忠曾在谷歌担任研究科学家,也是轻量化大模型ALBERT的第一作者。 西湖大学在人工智能领域的研发实力很强,除了蓝振忠博士的深度学习实验室,西湖大学NLP实验室,在该领域的研究也非常领先。学术带头人张岳博士在Marek Rei教授的顶会、期刊发文量统计中,于2012-2021年期间排名全球第四。 “目前国内LLM领域的
创业
公司
相对IT大厂来说主要有两个优势,技术和数据。”西湖心辰COO俞佳对虎嗅表示,国内大模型
创业
公司
在技术方面普遍已有多年研究经验,构筑了一定的技术壁垒,这是很难短期超越的。同时,由于已经推出了相关产品,“数据飞轮”已经转起来了,这些数据的质量相比互联网数据质量要高很多,能够对产品迭代起到很大支撑作用。 对于国内大模型
创业
公司
未来的发展趋势,俞佳认为可能性很多,“有些公司可能会走出自己的道路,也有的公司可能会像OpenAI一样与IT大厂开展深度合作,甚至像DeepMind直接并入其中。” 出品|虎嗅科技组 作者|齐健 编辑|陈伊凡 来源:DeFi之道 来源:金色财经
lg
...
金色财经
2023-03-05
「比特币新文化」继续 Secrets 或成比特币上的「OpenSea」
go
lg
...
机科学硕士学位,并在多个知名科技公司和
创业
公司
担任要职。在创立 Stacks 之前,他曾与 Muneeb Ali 共同创立了 Blockstack PBC,并在该公司担任首席执行官。 Stacks 未来前景如何,还有哪些比特币项目值得关注 对于 Stacks 的未来前景,加密大 V 又如何看呢?除此之外,比特币新文化运动概念项目还有哪些? 加密货币分析机构 Messari 在一篇 「Stacks Analysis: The potential of a Bitcoin Smart Contract Layer」的研报中认为:Stacks 有望成为比特币生态系统中的一个重要组成部分,提供更加安全、高效和可持续的智能合约服务,同时还可以与其他加密货币项目和传统金融市场进行协同创新。考虑到比特币庞大的用户群体,由于 Stacks 与比特币生态系统的紧密结合、更加可持续和去中心化的经济模型、更好的隐私保护和更高的性能等,使其相较其他公链具备更大的发展空间。 Matrixport 在 2 月 22 日的一份研究报告中表示:由于 Ordinals 是直接铸造在区块链上的,由于在分布式账本上的持久性和不可更改性,它们被认为是数字产品,而传统的 NFT 可以由智能合约开发人员更改。比特币 NFT 的想法并不是一个新概念,它是由 Counterparty 和 Stacks 等协议发展起来的。最近围绕 Ordinals NFT 的炒作导致本周早些时候 STX 上涨了 50%。NFT 和比特币网络的结合带来了更多的安全性、透明度和可追溯性。它开辟了更多的用例,并重新点燃了人们对这些代币的兴趣。上周,比特币区块链上新发行的 Ordinal NFT 数量超过了 10 万个。此外,Stack 利用比特币区块链的安全性进行交易结算的能力,使该网络很好地发展了比特币 DeFi。 除了 Stacks,比特币侧链中还有一些较为成熟的项目也值得关注,其主要有: Lightning Network:闪电网络是一个基于比特币区块链的第二层网络,旨在实现更快、更便宜的交易。通过闪电网络,用户可以进行微小的交易,而不必等待比特币主链上的确认,从而实现了快速的支付体验。 Liquid Network:Liquid Network 是一个由比特币交易所和金融机构支持的侧链,旨在提供更快、更便宜、更安全的交易服务。它支持加密货币和资产的交易,并提供了机密交易和批量交易等功能。 RSK:RSK 是一个基于比特币区块链的智能合约平台,旨在提供比以太坊更快、更安全、更低成本的智能合约。它采用比特币的挖矿算法,实现了与比特币主链的交互,并提供了具有扩展性的侧链技术。 Rootstock Bridge:Rootstock Bridge 是一种将以太坊智能合约转移到比特币侧链 RSK 上的桥梁。它使得以太坊的开发者能够利用 RSK 的技术和生态系统,同时受益于比特币的安全性和可靠性。 来源:DeFi之道 撰文:Asher Zhang 来源:金色财经
lg
...
金色财经
2023-03-04
2022年韩国新增企业数量下降7.1%
go
lg
...
5.6万家。 数据还显示,去年科技
创业
公司
占比达到17.4%,创历史新高。
lg
...
金融界
2023-03-03
上一页
1
•••
70
71
72
73
74
•••
83
下一页
24小时热点
中美重大突发!特朗普:已经非常接近与中国达成协议 习近平提出会晤请求
lg
...
中国传大消息!纽约时报:中国限制公职人员出国 幼教、医生也上交护照
lg
...
俄乌突传重大消息!彭博独家:俄罗斯考虑向特朗普提出乌克兰空中停火方案
lg
...
中国突传重磅!南华早报:中国化解地方政府债务行动取得首个重大胜利
lg
...
中美突发!彭博:两名在美的中国公民涉嫌向中国走私英伟达先进芯片被捕
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
111讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论