全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
All in AIGC 的扎克伯格 坐不住的 Meta
go
lg
...
小组”的说法,Meta自家的大语言模型
LLaMA
团队很可能也会加入进来。而Meta的AI部门首席科学家、2019年“图灵奖”得主Yann LeCun(自称汉语名“杨立昆”)之前在社交平台上表示,几乎所有
LLaMA
的研究人员都是来自FAIR在巴黎的分支机构。若果真如此,那么Meta这次整合的“顶级产品团队”将是跨全球的一次大动作,想不引人注目都不可能。 杨立昆1960年7月8日生于法国,2018年在瑞士洛桑联邦理工学院演讲 野心够大,实力几何? 小扎All in AIGC野心十足,那背后的技术实力够不够呢。在此前的发布中,Meta的开源大语言模型
LLaMA
包含四种规格:7B、13B、33B和65B,并且官方还声称效果要优于OpenAI的GPT系列,甚至13B的
LLaMA
在单个GPU上就能运行。它的主要运行原理和以往的大语言模型大同小异,都是将一系列单词作为输入,并预测下一个单词以逐渐递归生成文本。至于为何要发布不同规格的大模型,Meta对此的解释是“近来的研究表明,对于给定的计算预算,最佳性能不是由最大的模型实现的,而是由基于更多数据训练的更小的模型实现的。”换言之较小的模型规模加上比较大的数据集,获得的性能可能会比更大规模模型的要好很多。一方面,小规模模型需要的计算能力和资源相对来说都会节约很多,另一方面,它还能基于更多数据集训练更多模型,更容易针对特定的潜在产品或用户用例进行重复训练和微调。 至于实际效果,小扎更是放出豪言,这是AI大语言模型里的新SOTA模型,在生成文本、模拟对话、总结书面材料以及推演数学定理或预测蛋白质结构等五花八门的事情,它都能干。相较于有1750亿参数的GPT-3,最多拥有650亿参数
LLaMA
在大多数基准上的确都要优于GPT-3。 后发先至,后来居上? 有一说一,不要说相比其他科技巨头,就是比2021“元宇宙元年”时自己的表现,Meta这波入局怎么看都是落后了一步。早在现代企业诞生的几百几千年前,古人的围棋和象棋理论中就有“宁输一子,不失一先”的说法。几十年前,思科公司的约翰·钱伯斯又提出了著名的“快鱼理论”:当今市场不再是大鱼吃小鱼,而是快鱼吃慢鱼。 2021年当元宇宙概念首次提出后,Facebook很快就改名Meta,既是表明自己的雄心壮志,也是为了吸引更多的粉丝。然而作为旁观者的我们都看得一清二楚。Meta在这一年多里,除了烧钱就是裁员,以及自家冷冷清清,凄凄惨惨的Horizon Worlds。去年11月Meta裁员1.1万人,两周前又裁掉数千人,可是小扎嘴里的“2023将是效率年”却不知道还需要多少牺牲品。去年底时有人说小扎的行为彰显了“其作为犹太人,骨子里的冷血无情,刻薄寡恩终究是本性难移的”。对小扎的人品如何在此不做评价,但一些Meta员工的自述可以让我们管中窥豹,可见一斑:“十年大干快上,换来今天的一地鸡毛。” 也有人说小扎的行为不过是业内现状的缩影,反映了业内普遍存在的焦虑情绪,毕竟元宇宙到现在还基本上是八字没一撇,连好点的XR硬件厂商都屈指可数。相比之下还是AIGC更务实点,更何况ChatGPT最近的表现也是有目共睹。和机器人对话可比玩VR游戏简单多了,也更有意思,至少就目前来看,引人入胜的VR游戏还是太少,质量更是鱼龙混杂,良莠不齐。 不论是否承认,元宇宙作为宏大叙事毋庸置疑,但目前更多的还停留在理论阶段,实际应用少得可怜。与此相反的,ChatGPT立足AIGC与聊天机器人的结合部,一出手就是杀手锏,也多亏了OpenAI在一个领域内深耕八年才有今日的惊艳亮相。而八年前的Meta又在做什么呢?虽然“大干快上”让它也在短短数年内获得了引人注目的成就,但正如老话说的,站在风口上猪都能飞起来,风口之后呢? 另外关于聊天机器人还要多说几句,虽然Siri,ChatGPT等都堪称是现象级产品,但这个概念其实早已有之。1966年,德裔美籍的电脑科学家约瑟夫·维森鲍姆在深入研究图灵测试后,亲自动手开发了一款程序ELIZA,模拟心理医生的对话访谈,之前在展望Web3未来时曾提到过它。碍于当时电脑的普及程度极为有限,ELIZA仅在学术圈内掀起了一点波澜。直到1994年“聊天机器人”的概念才被确立,并逐渐发展成今日规模的庞大产业。 来源:金色财经
lg
...
金色财经
2023-03-07
盘点六大比特币扩容方案现状:Stacks 数据增长较快 RSK 支持 EVM
go
lg
...
化,这里就不再赘述。 根据 Defi
Llama
的数据,近期 Stacks 上的资金确实有大幅提升,过去 30 天(2 月 1 日~ 3 月 2 日)TVL 从 756 万美元升至 2680 万美元,增长 254% 。增长最多的是其中的 DEX ALEX,过去一个月 TVL 上升 316% ,$ALEX 的价格也从 2 月 1 日的 0.015 美元涨至现在的 0.098 美元。 Rootstock/RIF Rootstock(RSK)是比特币上的一条兼容 EVM 的侧链,它和比特币使用相同的 SHA-256 算法,比特币矿工在进行挖矿的时候可以进行“合并挖矿”(Merged Mining),不需要额外的资源消耗,同时可以获得 Rootstock 中的交易手续费收入。Rootstock 中的原生代币是一种比特币锚定币 Smart BTC(RBTC),也用于支付交易的手续费。 RIF(Rootstock 基础设施,RIF)则是一个建立在 Rootstock 之上的平台,旨在为开发者提供区块链基础设施和服务,包括域名、存储、身份验证等,以支持 dApp 的开发和部署。虽然 Rootstock 除 RBTC 外并没有发行其它代币,但 Rootstock 和 RIF 由同一家公司 IOV Labs 开发,RIF 发行有自己的代币$RIF。 从 Defi
Llama
上可以看到,Rootstock 的 TVL 为 5651 万美元,但近期的增长并不明显,过去 30 天上升 3% 。生态中有包括 DEX、借贷协议、稳定币等类型的项目,也可以使用来自以太坊等其它链上的跨链资产。但即便 Rootstock 支持 EVM,生态项目中的资金在过去 30 天也并未出现大幅上升,增长最的为 DEX Sovryn,目前 TVL 为 2024 万美元,过去一个月上升 18.31% 。 Liquid Network Liquid Network是 Blockstream 在 2018 年 9 月推出的一种侧链技术(也称自己为 Layer 2 ),旨在为比特币用户提供更快、更便捷的交易体验,同时保证交易的安全性和隐私性。它由包括交易所、金融机构以及其它以比特币为重点的公司组成的 Liquid 联合委员会维护和治理。 除了快速、便宜、隐私的转账功能外,Liquid Network 还可以实现各种类型的智能合约功能,如搭建 DeFi 应用(DEX Sideswap、借贷平台 Hodl Hodl 等)、发行稳定币、发行证券代币、铸造 NFT、进行多签交易等。 Liquid Network 上主要使用的仍然是由比特币 1: 1 锚定发行的 L-BTC,Liquid 官网显示近期网络上的 L-BTC 发行量维持稳定,目前为 3551 枚,一月份和二月份的数据分别为 3567 和 3562 枚。 Lightning Network 比特币 Lightning Network(闪电网络)是一种比特币 Layer 2 协议,通过在交易双方之间建立支付通道来提高比特币的交易速度和隐私性。 支付通道建立后,双方可以发送链下交易来进行交易,交易仅记录在通道的双方之间,不需要在比特币网络中进行确认,因此交易速度快、费用低。交易的双方可以随时将交易记录提交到比特币网络上进行结算,从而实现比特币的转移。 根据1 ML的数据,目前闪电网络中的资金为 5424 BTC,过去 30 天增加 2.2% ,节点数为 16291 个,通道数为 76297 个。 Statechains Statechains 是一种用于 BTC 链下转移的扩容技术,它与闪电网络类似,但又不完全相同。在闪电网络中,资产的转移是通过通道的所有权转移的,但在 Statechains 中资产的转移是通过 BTC 存款(UTXO)私钥(临时密钥)的所有权转移的。 Statechains 首先会在存款者和状态链实体之间创建一个拥有多个私钥的多重签名钱包,这些私钥掌握了与之相关联的比特币。私钥的持有者可以在 Statechain 上创建交易记录,将私钥转移给其他人,从而实现比特币资产的转移。Statechain 中的交易也不需要每笔确认,从而提高交易速度,减少手续费。 Statechains 技术的一个解决方案是通过Commerceblock创建的Mercury 钱包实现的。 目前 Mercury 钱包中的总存款为 23 BTC,总取款为 19.8 BTC,应用仍然较少。BTC 的流动性必须是特定的数量,如 0.001 BTC、 0.01 BTC、 0.1 BTC 等,因此在进行充值或转移时,只能使用特定的数量。 Drivechain Drivechain 是一个比特币开放式侧链协议,可以根据不同的需求定制不同的侧链。它的设计来自于两个比特币改进提案,BIP 300 “哈希率托管”(Hashrate Escrows)通过“Container UTXOs”将 3-6 个月的交易数据压缩成 32 字节,BIP 301 “联合盲挖”(Blind Merged Mining)。和 RSK 一样,网络的安全性也通过联合挖矿的方式,由现有的比特币矿工维护。 Drivechain 的出现是为了在保持比特币的安全性和去中心化的情况下,与以太坊、Zcash、比特币分叉链等竞争,为比特币引入更多功能,这些侧链也使用比特币的锚定币,用于转账等功能。 2022 年 12 月,Drivechain 的开发公司Layer 2 Labs才宣布完成 300 万美元的种子轮融资,目前该项目还未发现有大规模的应用。 小结 在以上几种比特币扩容方案中,Stacks 和 RSK 较为通用,RSK 支持 EVM,链上应用中的资金更多,但近期只有 Stacks 的数据增长较快。 在主要用于 BTC 支付的几种方案中,Lightning Network 中的 BTC 最多,Liquid Network 同时在积极筹备 DeFi、NFT 等用例,Statechains 的应用有限,Drivechain 虽然可定制各种侧链,但还未见大规模应用。 来源:金色财经
lg
...
金色财经
2023-03-06
盘点主要的6种比特币扩容方案现状
go
lg
...
变化,这里就不再赘述。 根据Defi
Llama
的数据,近期Stacks上的资金确实有大幅提升,过去30天(2月1日~3月2日)TVL从756万美元升至2680万美元,增长254%。增长最多的是其中的DEX ALEX,过去一个月TVL上升316%,$ALEX的价格也从2月1日的0.015美元涨至现在的0.098美元。 Rootstock/RIF Rootstock(RSK)是比特币上的一条兼容EVM的侧链,它和比特币使用相同的SHA-256算法,比特币矿工在进行挖矿的时候可以进行“合并挖矿”(Merged Mining),不需要额外的资源消耗,同时可以获得Rootstock中的交易手续费收入。Rootstock中的原生代币是一种比特币锚定币Smart BTC(RBTC),也用于支付交易的手续费。 RIF(Rootstock基础设施,RIF)则是一个建立在Rootstock之上的平台,旨在为开发者提供区块链基础设施和服务,包括域名、存储、身份验证等,以支持dApp的开发和部署。虽然Rootstock除RBTC外并没有发行其它代币,但Rootstock和RIF由同一家公司IOV Labs开发,RIF发行有自己的代币$RIF。 从Defi
Llama
上可以看到,Rootstock的TVL为5651万美元,但近期的增长并不明显,过去30天上升3%。生态中有包括DEX、借贷协议、稳定币等类型的项目,也可以使用来自以太坊等其它链上的跨链资产。但即便Rootstock支持EVM,生态项目中的资金在过去30天也并未出现大幅上升,增长最的为DEX Sovryn,目前TVL为2024万美元,过去一个月上升18.31%。 Liquid Network Liquid Network是Blockstream在2018年9月推出的一种侧链技术(也称自己为Layer 2),旨在为比特币用户提供更快、更便捷的交易体验,同时保证交易的安全性和隐私性。它由包括交易所、金融机构以及其它以比特币为重点的公司组成的Liquid联合委员会维护和治理。 除了快速、便宜、隐私的转账功能外,Liquid Network还可以实现各种类型的智能合约功能,如搭建DeFi应用(DEX Sideswap、借贷平台Hodl Hodl等)、发行稳定币、发行证券代币、铸造NFT、进行多签交易等。 Liquid Network上主要使用的仍然是由比特币1:1锚定发行的L-BTC,Liquid官网显示近期网络上的L-BTC发行量维持稳定,目前为3551枚,一月份和二月份的数据分别为3567和3562枚。 Lightning Network 比特币Lightning Network(闪电网络)是一种比特币Layer 2协议,通过在交易双方之间建立支付通道来提高比特币的交易速度和隐私性。 支付通道建立后,双方可以发送链下交易来进行交易,交易仅记录在通道的双方之间,不需要在比特币网络中进行确认,因此交易速度快、费用低。交易的双方可以随时将交易记录提交到比特币网络上进行结算,从而实现比特币的转移。 根据1ML的数据,目前闪电网络中的资金为5424 BTC,过去30天增加2.2%,节点数为16291个,通道数为76297个。 Statechains Statechains是一种用于BTC链下转移的扩容技术,它与闪电网络类似,但又不完全相同。在闪电网络中,资产的转移是通过通道的所有权转移的,但在Statechains中资产的转移是通过BTC存款(UTXO)私钥(临时密钥)的所有权转移的。 Statechains首先会在存款者和状态链实体之间创建一个拥有多个私钥的多重签名钱包,这些私钥掌握了与之相关联的比特币。私钥的持有者可以在Statechain上创建交易记录,将私钥转移给其他人,从而实现比特币资产的转移。Statechain中的交易也不需要每笔确认,从而提高交易速度,减少手续费。 Statechains技术的一个解决方案是通过Commerceblock创建的Mercury钱包实现的。 目前Mercury钱包中的总存款为23 BTC,总取款为19.8 BTC,应用仍然较少。BTC的流动性必须是特定的数量,如0.001 BTC、0.01 BTC、0.1 BTC 等,因此在进行充值或转移时,只能使用特定的数量。 Drivechain Drivechain是一个比特币开放式侧链协议,可以根据不同的需求定制不同的侧链。它的设计来自于两个比特币改进提案,BIP 300“哈希率托管”(Hashrate Escrows)通过“Container UTXOs”将3-6个月的交易数据压缩成32字节,BIP 301“联合盲挖”(Blind Merged Mining)。和RSK一样,网络的安全性也通过联合挖矿的方式,由现有的比特币矿工维护。 Drivechain的出现是为了在保持比特币的安全性和去中心化的情况下,与以太坊、Zcash、比特币分叉链等竞争,为比特币引入更多功能,这些侧链也使用比特币的锚定币,用于转账等功能。 2022年12月,Drivechain的开发公司Layer2 Labs才宣布完成300万美元的种子轮融资,目前该项目还未发现有大规模的应用。 小结 在以上几种比特币扩容方案中,Stacks和RSK较为通用,RSK支持EVM,链上应用中的资金更多,但近期只有Stacks的数据增长较快。 在主要用于BTC支付的几种方案中,Lightning Network中的BTC最多,Liquid Network同时在积极筹备DeFi、NFT等用例,Statechains的应用有限,Drivechain虽然可定制各种侧链,但还未见大规模应用。 来源:金色财经
lg
...
金色财经
2023-03-06
人工智能:中国式ChatGPT的“大跃进”
go
lg
...
a也宣布将开源一个用于科研的大模型系列
LLaMA
。 在微软高调把ChatGPT推到New Bing的台前后,硅谷巨头们就开始紧锣密鼓地推动大模型研究,谷歌仅用两个月就发布了类似ChatGPT的Bard。 在这方面,中国并不落后。2023年2月起,百度、阿里、腾讯、京东、字节等纷纷发声表示自己在大模型领域已经开展了深入研究,且获得了很多成果。一时间,追逐大模型成了国内AI行业的标准动作,“大练模型到炼大模型”的过度期似乎已经接近尾声,下一阶段大有“全民大模型,ChatGPT进万家”的架势。 不过,AI技术研发不是谁都能做的,需要真正的专家。硅谷巨头之所以能在大模型领域迅速反应,一方面因为他们在这条赛道上有多年的技术积累,更重要的是他们在AI研究方面有着大量的人才储备。 谷歌的人工智能研究团队一直处在全球领先地位,旗下还有与OpenAI齐名的实验室DeepMind;另一家科技巨头Meta则有被称为卷积神经网络之父的图灵奖得主Yann LeCun以首席AI科学家的身份坐镇。 微软手下的急先锋OpenAI,也是基于强大的科研团队才奠定的领先地位。科技情报分析机构AMiner和智谱研究发布的《ChatGPT团队背景研究报告》显示,OpenAI的ChatGPT研发团队中,27人为本科学历,25人为硕士学历,28人为博士研学历(注:5人信息缺失),占比分别为33%、30%、37%。 ChatGPT团队学历分布 而另一份来自猎聘大数据的国内AI人才市场调查则显示:近一年,预训练模型、对话机器人和AIGC三个ChatGPT相关领域中,国内企业明确要求本科以上学历的职位分别占71.33%、82.30%、92.53%;要求硕、博士学历的占比分别为16.49%、9.86%、18.22%。 对比ChatGPT团队,国内AI人才的平均水平差距较大,硕博比例明显不足。而在今天这种大家齐上大模型赛道的“加速”发展态势下,要在短时间里“大干快上”,势必要先比试比试谁的团队技术实力强,谁更能在自己的麾下聚拢一批大模型人才。 抢人大作战 技术大战开打之前,各家的大模型团队先得打赢一场关键的人才争夺战。 如果你是一个清华博士,有5-10年NLP(Natural Language Processing,自然语言处理)行业经验,那么你的资料只要出现在招聘平台上,不需要任何详细履历,就可以在注册完成后的48小时内,接到多家猎头公司的询问电话,以及数十条HR、猎头、业务经历甚至BOSS本人发来的站内信息。在这些信息中,不乏阿里、美团、小红书等大厂,还有诸多创业公司,以及研究机构。猎头们提供的NLP算法研究员岗位年薪也大多会在百万元上下。 根据猎聘大数据调查,过去五年,人工智能和互联网的招聘薪资均处于上涨态势,人工智能年均招聘薪资明显高出互联网。2022年,人工智能招聘平均年薪为33.15万元,比互联网高出4.27万元,即14.78%。 五年来人工智能与互联网招聘平均年薪对比 在ChatGPT爆火后,这样的情况越来越明显。据上述调查显示,与ChatGPT相关的岗位工资均超过平均水平,AIGC为39.08万,对话机器人为34.89万,预训练模型为33.93万。“ChatGPT一火起来,AI工程师的薪资水平也越来越高,你不开高价就抢不到人。”某AI领域投资人对虎嗅说。 从技术的角度看,大模型发端于NLP领域,自然语言处理岗位在人工智能领域一直都处于人才稀缺的状态,薪酬水平处于高位。科锐国际调研咨询业务负责人&高科技领域资深专家景晓平对虎嗅表示,“人工智能行业典型岗位按产业链划分,技术层和基础层薪酬水平处于高位,高于互联网其他领域薪酬水平,应用层和互联网常规岗位薪酬一致。” 事实上,近年来国内AI人才的硕博占比也在逐年提升,很多企业对AI领域的人才要求学历至少是硕士。薪酬结构则与企业的性质密切相关,国有企业、研究所的薪酬主要是固定薪酬、项目奖金和津贴,例如,国内第一梯队的AI实验室,清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)挂在官网上的博士后招聘待遇为年薪30万,享受清华大学教职工社会保险、住房公积金等待遇。提供公寓或每年4.2万的租房补贴,同时可以解决子女入园、入学。 IT大厂和AI创业公司的薪酬结构则多为,固定薪资+浮动奖金+股权期权激励。在猎聘、脉脉、BOSS直聘三个平台搜索ChatGPT,硕博学历职位的月薪普遍高于3万,最高达9万。“在薪酬方面IT大厂并不会占多少便宜,AI大模型的研发都是高举高打,创业公司给出的薪酬可能更有竞争力。”西湖心辰COO俞佳认为,没有资金支持很难在大模型的基础训练领域推动一家初创公司,对于这个领域来说,钱的问题可能“不是最大的问题”。 猎聘、脉脉、BOSS直聘,搜索ChatGPT的前排结果 此外,在诸多岗位信息中,工作地点集中在北京、上海、杭州和深圳,但其中一些职位也并不限制办公地。景晓平表示,目前国内AI人才北京占据第一位,上海、广东省分列二三位,近些年互联网发展极为活跃的浙江省,在人工智能发展上也丝毫不落风头,成都作为科技新秀城市,有优质相关生源的地域,也储备了不少人工智能人才。但从需求总量来看,国内AI人才还有很大缺口。 OpenAI的专家团队为何强 OpenAI官网挂出的参与过ChatGPT的项目团队共87人,该团队平均年龄为32岁,其中90后是主力军。 《ChatGPT团队背景研究报告》显示,ChatGPT研发团队绝大多数成员拥有名校学历,成员最集中的前5大高校是:斯坦福大学(14人)、加州大学伯克利分校(10人)、麻省理工学院(7人)、剑桥大学(5人)、哈佛大学(4人)和佐治亚理工学院(4人)。 ChatGPT 团队成员毕业前10名高校 此外,很多成员都有名企工作经历,包括:Facebook、Stripe、Uber、Quora、NVIDIA、Microsoft、Dropbox、DeepMind、Apple、Intel等公司,其中有10人来自谷歌,OpenAI的首席科学家Ilya Sutskever亦是从谷歌转会而来,Ilya Sutskever是AlphaGo的作者之一,师从人工智能学界泰斗Geoffrey Hinton。 ChatGPT团队成员流动示意图 1985年出生在苏联的Ilya Sutskever,如今已经是英国皇家学会院士。据说Ilya Sutskever退出谷歌,与Sam Altman、Elon Musk等人一起创立OpenAI时,年薪曾大幅缩水。但他参与创立OpenAI的初衷是“确保强大的人工智能造福全人类”的大义和情怀。 OpenAI初创之时是一家非营利研究机构,从这点上来看,无论是否带着情怀加入这家公司的研究人员,还是给“非营利”事业烧钱的投资人,多少都有一点对技术的“信仰”,这种驱动力,可能是钱买不来的。 不过OpenAI给这些科技精英们提供的薪酬待遇并不低。据纽约时报报道,2016年,OpenAI向Ilya Sutskever支付了超过190万美元。另一位行业大佬级的研究员Ian Goodfellow(对抗式生成网络的提出者)2016年从OpenAI得到的报酬则超过80万美元,而他在这一年中只工作了9个月,不过Ian Goodfellow在OpenAI没有待很长时间就离开了。 一直以来,硅谷的AI研究员都是高收入人群。在谷歌发布的官方招聘信息中,在美国工作的全职“高级软件工程师,大型语言模型,应用机器学习”(Staff Software Engineer, Large Language Models, Applied ML)岗位基本工资范围为年薪17.4万-27.6万美元(约120万-190万元人民币)+奖金+股权+福利。 这份工作的主要职责是:为谷歌大型语言模型的关键冲刺做出贡献,将尖端的 LLM(Large Language Mode,大型语言模型) 引入下一代谷歌产品和应用程序,以及外部用户。在建模技术方面进行协作,以支持全方位的 LLM 调整,从提示工程、指令调整、基于人类反馈的强化学习 (RLHF)、参数高效调整到微调。 微软研究院的研究员岗位“博士后研究员-机器学习和强化学习”(Post Doc Researcher-Machine Learning and Reinforcement Learning)年薪则在9.4万-18.2万美元(约64万-125万元人民币)。工作职责是“与其他研究人员合作制定自己的研究议程,推动有效的基础、基础和应用研究计划。” ChatGPT团队中另一个有意思的点是团队中有9位华人成员,其中5人本科毕业于国内高校,美国学界对人才的虹吸效应也正是硅谷巨头以及“OpenAI”们强大人才竞争力的基础。 “中国的AI人才是从14亿人里挑,美国是从80亿人里挑,全世界优秀的人很多都到美国去了。”图灵联合创始人、原智源研究院副院长刘江表示,要承认差距确实存在,不过他也表示,“在这方面,我们也不用气馁。中国也有自己的优势,比如市场化、产品化的能力,近年来我们不比美国同行差了。” 国内大厂的实力如何? 除了人才问题,国内大模型研究落后美国另一个原因是在生成式AI和大模型研究方面起步略晚,而起步晚的原因,则还是与“钱”脱不开关系。 从技术角度看,生成式技术在Stable Diffusion和ChatGPT等网红产品出现之前,技术实现的效果并不理想,且需要消耗大量算力进行研究。所以大厂、资本很难斥以重资,投入到这种看上去不太赚钱,还要烧钱的业务。 中国的AI产业更注重应用场景,而非基础理论和技术创新。各家大厂在NLP的理解方面有很多成熟业务,比如听写、翻译,在视觉识别和AI大数据处理方面也有很多应用场景。所以这部分业务自然是AI研发的主力,一方面他们赚钱,另一方面在这些领域的技术积累,使研究人员能够“在规定跑道上赛跑”,而不是在未知领域探路。 这一点不只是限制了国内公司,更是很多全球巨头的创新桎梏。正如诺基亚做不出iPhone一样,巨头都不喜欢“破坏式创新”,谷歌发布的Bard只因一个小失误就牵动了母公司Alphabet的万亿市值,这也正是谷歌一直声称不愿发布LaMDA大模型的理由,害怕会因AI的失误影响自己的商誉。而OpenAI显然不太在乎ChatGPT在公测中会出什么问题,毕竟他发布ChatGPT时只是一家估值200亿美元的独角兽。 不过,在这波大模型的追赶赛中,国内大厂的团队也可以说是实力颇强。 百度在大模型方面走的最早,百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。文心大模型研发的带头人,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰博士,是自然语言处理领域权威国际学术组织ACL(Association for Computational Linguistics)的首位华人主席、ACL亚太分会创始主席、ACL Fellow,还是IEEE Fellow、CAAI Fellow及国际欧亚科学院院士。他还兼任中国电子学会、中国中文信息学会、中国工程师联合体副理事长等。目前,王海峰在国内外期刊会议上发表的学术论文有200余篇,获得已授权专利170余项。 虽然没有像百度一样公布类ChatGPT产品的发布时间表,但腾讯、阿里和华为分别提出的“混元”、“通义”和“盘古”三个大模型,均已研发了很长时间。 据机器学习和自然语言处理著名学者Marek Rei教授在2022年4月发布的统计(2023年的统计尚未发布)显示,2012-2021年中,在ML(Machine Learning,机器学习)和NLP顶级期刊和会议发表论文数量最多的机构是谷歌,微软紧随其后。发文数量最多的中国机构是清华大学,第二是位列第16的腾讯,腾讯也是前32名中唯一的中国互联网厂商。不过,在2021年单年的统计中,阿里和华为也登上此榜,腾讯仍排在较靠前的位置。 Marek Rei发布的2021年ML、NLP顶会、期刊发文量统计 目前,腾讯官方并没有公布“混元”大模型研发团队的具体信息。不过,腾讯旗下AI研发团队“腾讯AI Lab”的专家构成,也显示出了腾讯在AI领域的一部分实力。腾讯AI Lab由100余位AI科学家和超过300名应用工程师组成,带头人张正友博士是腾讯首席科学家、腾讯 AI Lab 及 Robotics X 实验室主任,腾讯首位17级研究员、杰出科学家。他在美国斯坦福大学(Stanford University)发布的2022 年度“全球前2%顶尖科学家榜单”(World's Top 2% Scientists 2022)中,排名全球“终身科学影响力排行榜”第1002名,中国排名 Top 10。 阿里在LLM领域的研究主要由阿里巴巴达摩院负责,阿里巴巴集团资深副总裁,阿里云智能CTO、达摩院副院长周靖人主导,他是IEEE Fellow,多次担任VLDB,SIGMOD,ICDE等国际顶级会议程序委员会主编、主席,在顶尖国际期刊和会议上发表论文超百篇,并拥有几十项技术专利。 华为也未对“类ChatGPT产品”公开表态,但在大模型方面华为亦有“盘古”大模型正在研究。该项目由华为云人工智能领域首席科学家田奇博士领导,他是计算机视觉、多媒体信息检索专家,IEEE Fellow,国际欧亚科学院院士,教育部长江讲座教授,国家自然科学基金海外杰青,中国科学院海外评审专家,在国内多所高校任讲席教授及客座教授。 在自己组建团队投入研发的同时,百度、阿里、腾讯、华为等IT大厂,也与中科院计算所自然语言处理研究组、哈尔滨工业大学自然语言处理研究所、中国人民大学高瓴人工智能学院等高校研究有很多的技术合作。 “集中力量办大事”的科研机构 数据闭环是大模型研发的关键,用户越多,积累时间越长,就意味着可以用于迭代升级的数据和反馈也就越多。 在这方面OpenAI已经利用前两代的开源GPT模型和GPT-3积累了大量数据。ChatGPT虽然才推出了3个月,但用户量和访问量增长速度飞快,这些都为OpenAI在大模型研发方面积累了巨大的先发优势。 “AI大模型如果落后了,就会面临卡脖子的风险。”很多AI专家对此都有担心,由此国内也诞生了一些应对此种局面的非营利性AI科研机构。这些机构多数有高校研究实验室背景加持,以及地方政策支持,人才聚拢能力非常强劲。 北京智源人工智能研究院(以下简称“智源研究院”)是科技部和北京市政府共同支持,联合北京人工智能领域优势单位共建的非营利性创新性研发机构。智源研究院理事长张宏江,是美国国家工程院外籍院士,ACM Fellow和IEEE Fellow,同时也是微软亚洲研究院的创始人之一。 2021年,智源研究院发布了1.7万亿参数的超大模型“悟道”的1.0和2.0版本,这项工作由100余位科学家共同打造。其中包括清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)的孙茂松教授,清华大学知识工程研究室(KEG)的唐杰教授,清华大学交互式人工智能课题组(CoAI)的黄民烈教授。 目前“悟道”大模型已经与OPPO、好未来、淘宝、搜狗、美团等开展了落地合作。在与美团的合作中,大模型给搜索广告带来了2.7%的收入增长。 在南方的科技重镇也有一家相似的研究机构,粤港澳大湾区数字经济研究院(以下简称IDEA研究院),IDEA研究院是由深圳市政府大力支持的AI研究机构。与智源研究院有一个颇有趣的相似之处,IDEA研究院的创始人沈向洋博士同样出身微软亚洲研究院。沈向洋博士是美国国家工程院外籍院士和英国皇家工程院外籍院士,他参与创建了微软亚洲研究院,担任院长兼首席科学家,并曾担任微软公司全球执行副总裁,主管微软全球研究院和人工智能产品线,并负责推动公司中长期总体技术战略及前瞻性研究与开发工作。 IDEA研究院NLP研究中心负责人张家兴博士也来自微软亚洲研究院,他的团队推出的开源模型“太乙”,据称在中文文生图领域可以达到接近Stable Diffusion(一款开源文生图AI模型)的水平。 目前IDEA研究院正在持续迭代开发的预训练模型体系“封神榜”,已经开源了6个系列共10个模型,包含4种模型结构,模型参数最大为35亿。其中包括:以Encoder结构为主的双向语言系列模型的二郎神系列;面向医疗领域,拥有35亿参数的余元系列;与追一科技联合开发的新结构大模型周文王系列;以Decoder结构为主的单向语言模型闻仲系列;以Transformer结构为主的编解码语言模型,主要解决通用任务的大模型燃灯系列;以及主要面向各种纠错任务的比干系列。 2月20日晚,复旦大学自然语言处理实验室对媒体宣传邱锡鹏教授团队发布了“国内第一个对话式大型语言模型MOSS”,并在公开平台(https://moss.fastnlp.top/),邀请公众参与内测。然而就在外界都等着看MOSS表现如何惊艳之时。MOSS的内测网站却挂出了一则道歉公告。 目前MOSS的测试网站已经挂出了停止服务的公告。一位AI大模型专家对虎嗅表示,“邱锡鹏的实验室学术研究的氛围很浓。虽然这次的MOSS很少有人得到体验机会,但是从后边的公告来看,有可能是在工程优化,并发处理等方面的准备还没有那么充分。” 在近期举行的2023年世界人工智能开发者先锋大会上,邱锡鹏教授公开表示,如果优化顺利,MOSS计划在2023年3月底开源。 虽然,没能成功抢发“国产ChatGPT”,但AI业内人士对邱锡鹏教授团队仍然给出了肯定的评价,“邱锡鹏教授的团队比较偏重学术,这和早期的OpenAI在科研心态上是有共性的,非营利性的AI研究机构,没有那么多功利的考虑。” 创业公司都有“大佬”背书 AI技术属于计算机科学,虽然计算机技术已发展多年,但AI仍属于前沿科技,对LLM以及其他通用大模型的研究更是兴起不久,仍然需要依靠应用数据,持续迭代升级,不管MOSS是不是因为工程经验绊了跟头,要在AI、大模型这些领域实现突破,能推广到市场中,接地气的技术和产品才是王道。事实上,目前国内AI行业活跃的实验室大多已开始尝试商业化,在市场的磨砺中探索大模型未来的出路。 深言科技 深言科技源自清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)。THUNLP由清华大学人工智能研究院常务副院长孙茂松,以及刘洋、刘知远,三位教授带头。实验室在2017年推出的中文诗歌自动生成系统「九歌」则是最有影响的诗歌生成系统之一,「九歌」已经为用户创作了超过3000万首诗词。 孙茂松教授领衔研发的CPM模型是智源研究院的大模型「悟道·文源」的前身,也是国内最成熟的中文生成式大模型之一。深言科技的团队也是由CPM模型的部分研发团队成员所组成的,目前该公司产品包括可以根据意思搜索词语的“WantWords反向词典”,以及根据意思查询句子的“WantQuotes据意查句”。 智谱AI 智谱AI的前身是清华大学知识工程研究室(KEG),KEG专注研究网络环境下的知识工程,在知识图谱、图神经网络和认知智能领域已发表一系列国际领先的研究成果。2006年,智谱AI就启动了科技信息分析引擎ArnetMiner(以下简称AMiner)的相关研究,先后获得了国际顶级会议SIGKDD的十年最佳论文(Test-of-Time Award)、国家科学进步奖二等奖、北京市发明专利奖一等奖。 2022年8月,由KEG与智谱AI共同研发的千亿级模型参数的大规模中英文预训练语言模型GLM-130B正式发布,其在多个公开评测榜单上超过GPT-3 v1。此外,智谱AI还打造了认知大模型平台(BigModel.ai),形成AIGC产品矩阵,提供智能API服务。 聆心智能 2月17日,聆心智能宣布完成由无限基金SEE Fund领投的Pre-A轮融资。聆心智能的底层技术是超拟人大规模语言模型,基于大模型可控、可配置、可信的核心技术优势,聆心智能推出“AI乌托邦”,该系统允许用户快速定制 AI 角色。 聆心智能由清华大学交互式人工智能课题组(CoAI)黄民烈教授支持。CoAI是清华大学朱小燕教授及黄民烈教授领导的实验室。2020年,就已经开源了1200万对话数据和中文对话预训练模型CDial-GPT。黄民烈教授也曾参与了智源研究院的“悟道”大模型研发。 西湖心辰 西湖心辰背靠西湖大学深度学习实验室,创始人是西湖大学助理教授、博士生导师蓝振忠,主要研究大规模预训练模型的训练与应用。蓝振忠曾在谷歌担任研究科学家,也是轻量化大模型ALBERT的第一作者。 西湖大学在人工智能领域的研发实力很强,除了蓝振忠博士的深度学习实验室,西湖大学NLP实验室,在该领域的研究也非常领先。学术带头人张岳博士在Marek Rei教授的顶会、期刊发文量统计中,于2012-2021年期间排名全球第四。 “目前国内LLM领域的创业公司相对IT大厂来说主要有两个优势,技术和数据。”西湖心辰COO俞佳对虎嗅表示,国内大模型创业公司在技术方面普遍已有多年研究经验,构筑了一定的技术壁垒,这是很难短期超越的。同时,由于已经推出了相关产品,“数据飞轮”已经转起来了,这些数据的质量相比互联网数据质量要高很多,能够对产品迭代起到很大支撑作用。 对于国内大模型创业公司未来的发展趋势,俞佳认为可能性很多,“有些公司可能会走出自己的道路,也有的公司可能会像OpenAI一样与IT大厂开展深度合作,甚至像DeepMind直接并入其中。” 出品|虎嗅科技组 作者|齐健 编辑|陈伊凡 来源:DeFi之道 来源:金色财经
lg
...
金色财经
2023-03-05
中国式ChatGPT“大跃进”
go
lg
...
a也宣布将开源一个用于科研的大模型系列
LLaMA
。 在微软高调把ChatGPT推到New Bing的台前后,硅谷巨头们就开始紧锣密鼓地推动大模型研究,谷歌仅用两个月就发布了类似ChatGPT的Bard。 在这方面,中国并不落后。2023年2月起,百度、阿里、腾讯、京东、字节等纷纷发声表示自己在大模型领域已经开展了深入研究,且获得了很多成果。一时间,追逐大模型成了国内AI行业的标准动作,“大练模型到炼大模型”的过度期似乎已经接近尾声,下一阶段大有“全民大模型,ChatGPT进万家”的架势。 不过,AI技术研发不是谁都能做的,需要真正的专家。硅谷巨头之所以能在大模型领域迅速反应,一方面因为他们在这条赛道上有多年的技术积累,更重要的是他们在AI研究方面有着大量的人才储备。 谷歌的人工智能研究团队一直处在全球领先地位,旗下还有与OpenAI齐名的实验室DeepMind;另一家科技巨头Meta则有被称为卷积神经网络之父的图灵奖得主Yann LeCun以首席AI科学家的身份坐镇。 微软手下的急先锋OpenAI,也是基于强大的科研团队才奠定的领先地位。科技情报分析机构AMiner和智谱研究发布的《ChatGPT团队背景研究报告》显示,OpenAI的ChatGPT研发团队中,27人为本科学历,25人为硕士学历,28人为博士研学历(注:5人信息缺失),占比分别为33%、30%、37%。 ChatGPT团队学历分布 而另一份来自猎聘大数据的国内AI人才市场调查则显示:近一年,预训练模型、对话机器人和AIGC三个ChatGPT相关领域中,国内企业明确要求本科以上学历的职位分别占71.33%、82.30%、92.53%;要求硕、博士学历的占比分别为16.49%、9.86%、18.22%。 对比ChatGPT团队,国内AI人才的平均水平差距较大,硕博比例明显不足。而在今天这种大家齐上大模型赛道的“加速”发展态势下,要在短时间里“大干快上”,势必要先比试比试谁的团队技术实力强,谁更能在自己的麾下聚拢一批大模型人才。 抢人大作战 技术大战开打之前,各家的大模型团队先得打赢一场关键的人才争夺战。 如果你是一个清华博士,有5-10年NLP(Natural Language Processing,自然语言处理)行业经验,那么你的资料只要出现在招聘平台上,不需要任何详细履历,就可以在注册完成后的48小时内,接到多家猎头公司的询问电话,以及数十条HR、猎头、业务经历甚至BOSS本人发来的站内信息。在这些信息中,不乏阿里、美团、小红书等大厂,还有诸多创业公司,以及研究机构。猎头们提供的NLP算法研究员岗位年薪也大多会在百万元上下。 根据猎聘大数据调查,过去五年,人工智能和互联网的招聘薪资均处于上涨态势,人工智能年均招聘薪资明显高出互联网。2022年,人工智能招聘平均年薪为33.15万元,比互联网高出4.27万元,即14.78%。 五年来人工智能与互联网招聘平均年薪对比 在ChatGPT爆火后,这样的情况越来越明显。据上述调查显示,与ChatGPT相关的岗位工资均超过平均水平,AIGC为39.08万,对话机器人为34.89万,预训练模型为33.93万。“ChatGPT一火起来,AI工程师的薪资水平也越来越高,你不开高价就抢不到人。”某AI领域投资人对虎嗅说。 从技术的角度看,大模型发端于NLP领域,自然语言处理岗位在人工智能领域一直都处于人才稀缺的状态,薪酬水平处于高位。科锐国际调研咨询业务负责人&高科技领域资深专家景晓平对虎嗅表示,“人工智能行业典型岗位按产业链划分,技术层和基础层薪酬水平处于高位,高于互联网其他领域薪酬水平,应用层和互联网常规岗位薪酬一致。” 事实上,近年来国内AI人才的硕博占比也在逐年提升,很多企业对AI领域的人才要求学历至少是硕士。薪酬结构则与企业的性质密切相关,国有企业、研究所的薪酬主要是固定薪酬、项目奖金和津贴,例如,国内第一梯队的AI实验室,清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)挂在官网上的博士后招聘待遇为年薪30万,享受清华大学教职工社会保险、住房公积金等待遇。提供公寓或每年4.2万的租房补贴,同时可以解决子女入园、入学。 IT大厂和AI创业公司的薪酬结构则多为,固定薪资+浮动奖金+股权期权激励。在猎聘、脉脉、BOSS直聘三个平台搜索ChatGPT,硕博学历职位的月薪普遍高于3万,最高达9万。“在薪酬方面IT大厂并不会占多少便宜,AI大模型的研发都是高举高打,创业公司给出的薪酬可能更有竞争力。”西湖心辰COO俞佳认为,没有资金支持很难在大模型的基础训练领域推动一家初创公司,对于这个领域来说,钱的问题可能“不是最大的问题”。 猎聘、脉脉、BOSS直聘,搜索ChatGPT的前排结果 此外,在诸多岗位信息中,工作地点集中在北京、上海、杭州和深圳,但其中一些职位也并不限制办公地。景晓平表示,目前国内AI人才北京占据第一位,上海、广东省分列二三位,近些年互联网发展极为活跃的浙江省,在人工智能发展上也丝毫不落风头,成都作为科技新秀城市,有优质相关生源的地域,也储备了不少人工智能人才。但从需求总量来看,国内AI人才还有很大缺口。 OpenAI的专家团队为何强 OpenAI官网挂出的参与过ChatGPT的项目团队共87人,该团队平均年龄为32岁,其中90后是主力军。 《ChatGPT团队背景研究报告》显示,ChatGPT研发团队绝大多数成员拥有名校学历,成员最集中的前5大高校是:斯坦福大学(14人)、加州大学伯克利分校(10人)、麻省理工学院(7人)、剑桥大学(5人)、哈佛大学(4人)和佐治亚理工学院(4人)。 ChatGPT 团队成员毕业前10名高校 此外,很多成员都有名企工作经历,包括:Facebook、Stripe、Uber、Quora、NVIDIA、Microsoft、Dropbox、DeepMind、Apple、Intel等公司,其中有10人来自谷歌,OpenAI的首席科学家Ilya Sutskever亦是从谷歌转会而来,Ilya Sutskever是AlphaGo的作者之一,师从人工智能学界泰斗Geoffrey Hinton。 ChatGPT团队成员流动示意图 1985年出生在苏联的Ilya Sutskever,如今已经是英国皇家学会院士。据说Ilya Sutskever退出谷歌,与Sam Altman、Elon Musk等人一起创立OpenAI时,年薪曾大幅缩水。但他参与创立OpenAI的初衷是“确保强大的人工智能造福全人类”的大义和情怀。 OpenAI初创之时是一家非营利研究机构,从这点上来看,无论是否带着情怀加入这家公司的研究人员,还是给“非营利”事业烧钱的投资人,多少都有一点对技术的“信仰”,这种驱动力,可能是钱买不来的。 不过OpenAI给这些科技精英们提供的薪酬待遇并不低。据纽约时报报道,2016年,OpenAI向Ilya Sutskever支付了超过190万美元。另一位行业大佬级的研究员Ian Goodfellow(对抗式生成网络的提出者)2016年从OpenAI得到的报酬则超过80万美元,而他在这一年中只工作了9个月,不过Ian Goodfellow在OpenAI没有待很长时间就离开了。 一直以来,硅谷的AI研究员都是高收入人群。在谷歌发布的官方招聘信息中,在美国工作的全职“高级软件工程师,大型语言模型,应用机器学习”(Staff Software Engineer, Large Language Models, Applied ML)岗位基本工资范围为年薪17.4万-27.6万美元(约120万-190万元人民币)+奖金+股权+福利。 这份工作的主要职责是:为谷歌大型语言模型的关键冲刺做出贡献,将尖端的 LLM(Large Language Mode,大型语言模型) 引入下一代谷歌产品和应用程序,以及外部用户。在建模技术方面进行协作,以支持全方位的 LLM 调整,从提示工程、指令调整、基于人类反馈的强化学习 (RLHF)、参数高效调整到微调。 微软研究院的研究员岗位“博士后研究员-机器学习和强化学习”(Post Doc Researcher-Machine Learning and Reinforcement Learning)年薪则在9.4万-18.2万美元(约64万-125万元人民币)。工作职责是“与其他研究人员合作制定自己的研究议程,推动有效的基础、基础和应用研究计划。” ChatGPT团队中另一个有意思的点是团队中有9位华人成员,其中5人本科毕业于国内高校,美国学界对人才的虹吸效应也正是硅谷巨头以及“OpenAI”们强大人才竞争力的基础。 “中国的AI人才是从14亿人里挑,美国是从80亿人里挑,全世界优秀的人很多都到美国去了。”图灵联合创始人、原智源研究院副院长刘江表示,要承认差距确实存在,不过他也表示,“在这方面,我们也不用气馁。中国也有自己的优势,比如市场化、产品化的能力,近年来我们不比美国同行差了。” 国内大厂的实力如何? 除了人才问题,国内大模型研究落后美国另一个原因是在生成式AI和大模型研究方面起步略晚,而起步晚的原因,则还是与“钱”脱不开关系。 从技术角度看,生成式技术在Stable Diffusion和ChatGPT等网红产品出现之前,技术实现的效果并不理想,且需要消耗大量算力进行研究。所以大厂、资本很难斥以重资,投入到这种看上去不太赚钱,还要烧钱的业务。 中国的AI产业更注重应用场景,而非基础理论和技术创新。各家大厂在NLP的理解方面有很多成熟业务,比如听写、翻译,在视觉识别和AI大数据处理方面也有很多应用场景。所以这部分业务自然是AI研发的主力,一方面他们赚钱,另一方面在这些领域的技术积累,使研究人员能够“在规定跑道上赛跑”,而不是在未知领域探路。 这一点不只是限制了国内公司,更是很多全球巨头的创新桎梏。正如诺基亚做不出iPhone一样,巨头都不喜欢“破坏式创新”,谷歌发布的Bard只因一个小失误就牵动了母公司Alphabet的万亿市值,这也正是谷歌一直声称不愿发布LaMDA大模型的理由,害怕会因AI的失误影响自己的商誉。而OpenAI显然不太在乎ChatGPT在公测中会出什么问题,毕竟他发布ChatGPT时只是一家估值200亿美元的独角兽。 不过,在这波大模型的追赶赛中,国内大厂的团队也可以说是实力颇强。 百度在大模型方面走的最早,百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。文心大模型研发的带头人,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰博士,是自然语言处理领域权威国际学术组织ACL(Association for Computational Linguistics)的首位华人主席、ACL亚太分会创始主席、ACL Fellow,还是IEEE Fellow、CAAI Fellow及国际欧亚科学院院士。他还兼任中国电子学会、中国中文信息学会、中国工程师联合体副理事长等。目前,王海峰在国内外期刊会议上发表的学术论文有200余篇,获得已授权专利170余项。 虽然没有像百度一样公布类ChatGPT产品的发布时间表,但腾讯、阿里和华为分别提出的“混元”、“通义”和“盘古”三个大模型,均已研发了很长时间。 据机器学习和自然语言处理著名学者Marek Rei教授在2022年4月发布的统计(2023年的统计尚未发布)显示,2012-2021年中,在ML(Machine Learning,机器学习)和NLP顶级期刊和会议发表论文数量最多的机构是谷歌,微软紧随其后。发文数量最多的中国机构是清华大学,第二是位列第16的腾讯,腾讯也是前32名中唯一的中国互联网厂商。不过,在2021年单年的统计中,阿里和华为也登上此榜,腾讯仍排在较靠前的位置。 Marek Rei发布的2021年ML、NLP顶会、期刊发文量统计 目前,腾讯官方并没有公布“混元”大模型研发团队的具体信息。不过,腾讯旗下AI研发团队“腾讯AI Lab”的专家构成,也显示出了腾讯在AI领域的一部分实力。腾讯AI Lab由100余位AI科学家和超过300名应用工程师组成,带头人张正友博士是腾讯首席科学家、腾讯 AI Lab 及 Robotics X 实验室主任,腾讯首位17级研究员、杰出科学家。他在美国斯坦福大学(Stanford University)发布的2022 年度“全球前2%顶尖科学家榜单”(World's Top 2% Scientists 2022)中,排名全球“终身科学影响力排行榜”第1002名,中国排名 Top 10。 阿里在LLM领域的研究主要由阿里巴巴达摩院负责,阿里巴巴集团资深副总裁,阿里云智能CTO、达摩院副院长周靖人主导,他是IEEE Fellow,多次担任VLDB,SIGMOD,ICDE等国际顶级会议程序委员会主编、主席,在顶尖国际期刊和会议上发表论文超百篇,并拥有几十项技术专利。 华为也未对“类ChatGPT产品”公开表态,但在大模型方面华为亦有“盘古”大模型正在研究。该项目由华为云人工智能领域首席科学家田奇博士领导,他是计算机视觉、多媒体信息检索专家,IEEE Fellow,国际欧亚科学院院士,教育部长江讲座教授,国家自然科学基金海外杰青,中国科学院海外评审专家,在国内多所高校任讲席教授及客座教授。 在自己组建团队投入研发的同时,百度、阿里、腾讯、华为等IT大厂,也与中科院计算所自然语言处理研究组、哈尔滨工业大学自然语言处理研究所、中国人民大学高瓴人工智能学院等高校研究有很多的技术合作。 “集中力量办大事”的科研机构 数据闭环是大模型研发的关键,用户越多,积累时间越长,就意味着可以用于迭代升级的数据和反馈也就越多。 在这方面OpenAI已经利用前两代的开源GPT模型和GPT-3积累了大量数据。ChatGPT虽然才推出了3个月,但用户量和访问量增长速度飞快,这些都为OpenAI在大模型研发方面积累了巨大的先发优势。 “AI大模型如果落后了,就会面临卡脖子的风险。”很多AI专家对此都有担心,由此国内也诞生了一些应对此种局面的非营利性AI科研机构。这些机构多数有高校研究实验室背景加持,以及地方政策支持,人才聚拢能力非常强劲。 北京智源人工智能研究院(以下简称“智源研究院”)是科技部和北京市政府共同支持,联合北京人工智能领域优势单位共建的非营利性创新性研发机构。智源研究院理事长张宏江,是美国国家工程院外籍院士,ACM Fellow和IEEE Fellow,同时也是微软亚洲研究院的创始人之一。 2021年,智源研究院发布了1.7万亿参数的超大模型“悟道”的1.0和2.0版本,这项工作由100余位科学家共同打造。其中包括清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)的孙茂松教授,清华大学知识工程研究室(KEG)的唐杰教授,清华大学交互式人工智能课题组(CoAI)的黄民烈教授。 目前“悟道”大模型已经与OPPO、好未来、淘宝、搜狗、美团等开展了落地合作。在与美团的合作中,大模型给搜索广告带来了2.7%的收入增长。 在南方的科技重镇也有一家相似的研究机构,粤港澳大湾区数字经济研究院(以下简称IDEA研究院),IDEA研究院是由深圳市政府大力支持的AI研究机构。与智源研究院有一个颇有趣的相似之处,IDEA研究院的创始人沈向洋博士同样出身微软亚洲研究院。沈向洋博士是美国国家工程院外籍院士和英国皇家工程院外籍院士,他参与创建了微软亚洲研究院,担任院长兼首席科学家,并曾担任微软公司全球执行副总裁,主管微软全球研究院和人工智能产品线,并负责推动公司中长期总体技术战略及前瞻性研究与开发工作。 IDEA研究院NLP研究中心负责人张家兴博士也来自微软亚洲研究院,他的团队推出的开源模型“太乙”,据称在中文文生图领域可以达到接近Stable Diffusion(一款开源文生图AI模型)的水平。 目前IDEA研究院正在持续迭代开发的预训练模型体系“封神榜”,已经开源了6个系列共10个模型,包含4种模型结构,模型参数最大为35亿。其中包括:以Encoder结构为主的双向语言系列模型的二郎神系列;面向医疗领域,拥有35亿参数的余元系列;与追一科技联合开发的新结构大模型周文王系列;以Decoder结构为主的单向语言模型闻仲系列;以Transformer结构为主的编解码语言模型,主要解决通用任务的大模型燃灯系列;以及主要面向各种纠错任务的比干系列。 2月20日晚,复旦大学自然语言处理实验室对媒体宣传邱锡鹏教授团队发布了“国内第一个对话式大型语言模型MOSS”,并在公开平台(https://moss.fastnlp.top/),邀请公众参与内测。然而就在外界都等着看MOSS表现如何惊艳之时。MOSS的内测网站却挂出了一则道歉公告。 目前MOSS的测试网站已经挂出了停止服务的公告。一位AI大模型专家对虎嗅表示,“邱锡鹏的实验室学术研究的氛围很浓。虽然这次的MOSS很少有人得到体验机会,但是从后边的公告来看,有可能是在工程优化,并发处理等方面的准备还没有那么充分。” 在近期举行的2023年世界人工智能开发者先锋大会上,邱锡鹏教授公开表示,如果优化顺利,MOSS计划在2023年3月底开源。 虽然,没能成功抢发“国产ChatGPT”,但AI业内人士对邱锡鹏教授团队仍然给出了肯定的评价,“邱锡鹏教授的团队比较偏重学术,这和早期的OpenAI在科研心态上是有共性的,非营利性的AI研究机构,没有那么多功利的考虑。” 创业公司都有“大佬”背书 AI技术属于计算机科学,虽然计算机技术已发展多年,但AI仍属于前沿科技,对LLM以及其他通用大模型的研究更是兴起不久,仍然需要依靠应用数据,持续迭代升级,不管MOSS是不是因为工程经验绊了跟头,要在AI、大模型这些领域实现突破,能推广到市场中,接地气的技术和产品才是王道。事实上,目前国内AI行业活跃的实验室大多已开始尝试商业化,在市场的磨砺中探索大模型未来的出路。 深言科技 深言科技源自清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)。THUNLP由清华大学人工智能研究院常务副院长孙茂松,以及刘洋、刘知远,三位教授带头。实验室在2017年推出的中文诗歌自动生成系统「九歌」则是最有影响的诗歌生成系统之一,「九歌」已经为用户创作了超过3000万首诗词。 孙茂松教授领衔研发的CPM模型是智源研究院的大模型「悟道·文源」的前身,也是国内最成熟的中文生成式大模型之一。深言科技的团队也是由CPM模型的部分研发团队成员所组成的,目前该公司产品包括可以根据意思搜索词语的“WantWords反向词典”,以及根据意思查询句子的“WantQuotes据意查句”。 智谱AI 智谱AI的前身是清华大学知识工程研究室(KEG),KEG专注研究网络环境下的知识工程,在知识图谱、图神经网络和认知智能领域已发表一系列国际领先的研究成果。2006年,智谱AI就启动了科技信息分析引擎ArnetMiner(以下简称AMiner)的相关研究,先后获得了国际顶级会议SIGKDD的十年最佳论文(Test-of-Time Award)、国家科学进步奖二等奖、北京市发明专利奖一等奖。 2022年8月,由KEG与智谱AI共同研发的千亿级模型参数的大规模中英文预训练语言模型GLM-130B正式发布,其在多个公开评测榜单上超过GPT-3 v1。此外,智谱AI还打造了认知大模型平台(BigModel.ai),形成AIGC产品矩阵,提供智能API服务。 聆心智能 2月17日,聆心智能宣布完成由无限基金SEE Fund领投的Pre-A轮融资。聆心智能的底层技术是超拟人大规模语言模型,基于大模型可控、可配置、可信的核心技术优势,聆心智能推出“AI乌托邦”,该系统允许用户快速定制 AI 角色。 聆心智能由清华大学交互式人工智能课题组(CoAI)黄民烈教授支持。CoAI是清华大学朱小燕教授及黄民烈教授领导的实验室。2020年,就已经开源了1200万对话数据和中文对话预训练模型CDial-GPT。黄民烈教授也曾参与了智源研究院的“悟道”大模型研发。 西湖心辰 西湖心辰背靠西湖大学深度学习实验室,创始人是西湖大学助理教授、博士生导师蓝振忠,主要研究大规模预训练模型的训练与应用。蓝振忠曾在谷歌担任研究科学家,也是轻量化大模型ALBERT的第一作者。 西湖大学在人工智能领域的研发实力很强,除了蓝振忠博士的深度学习实验室,西湖大学NLP实验室,在该领域的研究也非常领先。学术带头人张岳博士在Marek Rei教授的顶会、期刊发文量统计中,于2012-2021年期间排名全球第四。 “目前国内LLM领域的创业公司相对IT大厂来说主要有两个优势,技术和数据。”西湖心辰COO俞佳对虎嗅表示,国内大模型创业公司在技术方面普遍已有多年研究经验,构筑了一定的技术壁垒,这是很难短期超越的。同时,由于已经推出了相关产品,“数据飞轮”已经转起来了,这些数据的质量相比互联网数据质量要高很多,能够对产品迭代起到很大支撑作用。 对于国内大模型创业公司未来的发展趋势,俞佳认为可能性很多,“有些公司可能会走出自己的道路,也有的公司可能会像OpenAI一样与IT大厂开展深度合作,甚至像DeepMind直接并入其中。” 来源:金色财经
lg
...
金色财经
2023-03-03
ETH Staking的崛起或将推动DeFi复兴
go
lg
...
进行的Defi交易减少。根据Defi
Llama
的数据,目前以太坊TVL大约644亿美元,比2021年末的最高点(1970亿美元)下降了65%以上。当Terra的UST算法稳定币崩溃时,Defi生态系统也发生了连锁反应,对该行业的信心造成了沉重打击。 从上文提到的ETH交易类型的图表中可以发现,Defi交易的数量与ETH价格呈正相关。 2020年的Defi热潮恰逢ETH牛市的初始阶段。而直到2022年上半年,作为ETH交易总数的一部分的DeFi活动开始持续下降,牛市周期才真正结束。 因此,在新的一轮周期中,如果以太坊的Defi生态系统可以经历另一个类似于2020年夏季所发生的热潮,那么将有助于为下一个ETH的牛市提供强大动力。 ETH质押有望推动DeFi复兴 对于看涨ETH的投资者来说,触发下一个DeFi热潮的新契机即将到来——以太坊开发者将很快对以太坊主网进行“上海升级”。此升级将使ETH质押者提取出质押的ETH以及获取的相应奖励。 ETH信标链质押始于2020年底,但是质押的ETH处于锁定状态无法撤回。质押的资金缺乏灵活性一直是很多潜在的ETH质押投资者的顾虑。截至2月底,ETH质押数为1730万枚,仅占到总流通量的14%。相比之下,许多使用PoS共识机制但可灵活撤出质押token的L1区块链的质押率几乎都在40%以上,ADA、SOL、BNB Chain、ICP的质押率更是都达到了70%以上。 根据Messari于3月1日的推文,以太坊的合并对质押者经济学产生了巨大的积极影响。即使ETH的价格表现不佳,但其质押回报率在22年仍在约6%。 目前,ETH链上约有53万个验证者。根据Staking Rewards数据,近30日ETH验证者收入增长了43.44%,质押者近30天的总收入达到了20.8亿美元。 与此同时,以太坊网络上的地址数量也在增加。根据Glassnode数据,以太坊上的非零地址的数量达到了983万个地址。但以太坊的总交易量却大幅下降。这表明许多持有以太坊的新地址并未出售其ETH。 根据Santiment数据,ETH当前的MVRV比率才刚刚转为略微的正值。这表明,对大多数ETH持有人而言,若目前出售其ETH,他们是无法获得巨额利润的。这也有利于增强更多ETH持有者在“上海升级”后参与“灵活质押”赚取更多收益的动机。 目前,Lido和Rocket Pool等去中心化的ETH流动性质押协议的比率很高,可能将继续成为ETH质押增长的受益者。以太坊流动性质押已经成为TVL最大的板块(Lido,Coinbase的Wrapped ETH和Rocket Pool的TVL高达127.6亿美元),而且质押量很可能会在“上海升级”延续上升势头。此外,受益于上海升级的临近,一些非托管的Staking方案(例如Ebunker等)也开始快速增长。 ETH Staking的进一步发展可能有助于推动其他DeFi领域的增长,因为参与ETH质押的投资者希望通过质押的ETH来获得更多的收益。而且,在以太坊生态系统中,DeFi TVL的上升将有助于推动有关以太坊技术被更广泛采用和长期价格增长的叙事。 Ebunker官网:https://www.ebunker.io 来源:金色财经
lg
...
金色财经
2023-03-02
稳定币”野猫“时代:DeFi协议纷纷发行稳定币会产生什么影响
go
lg
...
种创新机制,称为借贷-清算AMM算法(
LLAMA
)。
LLAMA
采用了一种“更仁慈”的清算设计,如果用户的抵押品贬值,
LLAMA
机制将逐渐把该抵押品兑换为crvUSD,而不是一下子完全清算用户头寸。 总而言之,
LLAMA
应该有助于大大减少惩罚性的清算,而这种对借款人的用户体验的改善,很可能会增加以crvUSD计价的CDP(抵押债务头寸)的吸引力。 关于支持什么类型的抵押品以及crvUSD在生态中发挥什么作用,我们知之甚少,但该稳定币很可能会由Curve池的LP代币铸造。这将有助于提高在平台上提供流动性的资本效率,因为LP也可以通过将他们的crvUSD部署到DeFi中获利。 rvUSD也应能受益于Curve的衡量系统,该系统用于分配CRV释放,并借此分配DEX的流动性。很有可能这些释放代币的一部分将被分配到crvUSD池,或者crvUSD将成为其他稳定币的基础交易对,助其轻松建立深度流动性。 市场影响 现在我们已经了解了特定于应用程序的稳定币的现状,接下来让我们深入研究一下这将对市场产生什么样的影响。 发行方DAO(理论上的)收益的提高 受特定于应用程序的稳定币影响最直接的一方是发行协议本身。从理论上讲,创建稳定币可以强化发行协议的商业模式,因为这为他们提供了额外的收入流。 目前,像Curve和Aave这样的协议分别依赖于交易费用和基于效用的贷款利息。在本轮熊市中,这些收益来源的低质量特性已经明显显现,由于竞争加剧、交易和贷款活动减少以及费用压缩,导致收益急剧下降。 协议内稳定币的发行改变了这一局面,因为现在协议将能够获取额外的收入来源,以提高其收益。尽管利息收入仍然是周期性的,因为要依赖于借款需求,但相对于交易费用或货币市场上的利差捕获,其效率更高(即TVL的回报更高)。 虽然这种利息收益可能也会面临相似的费用压缩(下文详解),但从理论上讲,仍有潜力通过其他手段(如铸造/兑换费用、锚定套利和清算)使收益组合多样化,并加强底层协议这一护城河。 代币持有人的“潜在”价值积累 从特定于应用程序的稳定币热潮中受益的另一方是发行协议的代币持有人。 虽然要取决于每个单独的协议,但任何收入分成都将增加质押或锁仓代币的持有人可获得的收益。 在熊市中,我们已见证了GMX和GNS等收益共享资产表现出色,发行稳定币并与稳定币持有人分享收益的协议将使自己的代币更具吸引力,这样做他们将更有机会有出色的表现。 例如,Curve很可能会与veCRV的锁仓持有人分享crvUSD收益,这意味着锁仓持有人将获得来自交易费用、治理贿赂以及当前基于稳定币的现金流的分成。 鉴于这种方法存在监管风险,发行协议也有可能以其他方式为其代币增加效用。例如,AAVE质押人相对于平台上的其他用户将能以折扣价借入GHO。 贿赂和流动性碎片化 稳定币成功最关键的一个因素就是要具有深度流动性。流动性是所有稳定币的命脉——不仅能够实现低滑点移交易,而且还有助于促进整合,因为流动性是借贷平台清算和确保基础设施(如ChainLink预言机)价值所必需的。 特定于应用程序的稳定币对流动性的需求可能有助于支撑治理贿赂市场。 受Curve Wars的普遍影响,稳定币发行方可以通过贿赂或支付代币持有人以确保他们对代币释放特定池的投票效力,在Curve和Balancer等去中心化交易所为其代币建立流动性。 通过贿赂,发行方能按需求租用特定渠道所需的流动性。大量特定于应用程序的稳定币的出现可能会导致更多的DAO参与游戏,贿赂这些代币持有人。 反过来,这应该会增加CRV和BAL以及CVX和AURA锁仓持有人的收益,他们通过metaggovernance(元治理)分别控制了Curve和Balancer上的大部分代币释放,并接收了大部分贿赂。 这种贿赂热潮还有一个受益方,那就是Redacted Cartel的Hidden Hand和Votium等进行这些贿赂交易的市场。 然而,这种贿赂将以流动性碎片化的形式让终端用户付出代价。在一个几乎没有迹象显示资金流入的加密货币市场,流动性在各种不同的稳定币之间分布可能会变得更稀薄,导致巨鲸交易员的执行更差。 信贷繁荣 特定于应用程序的稳定币的增长也可能因导致低借款利率的扩散来催生DeFi信贷繁荣。 为了与USDC、USDT、DAI和FRAX等现有稳定币竞争,Aave和Curve等稳定币可能不得不以低借款利率提供GHO和crvUSD,以吸引用户铸造新币增加其流通供应量。 从理论上讲,这种低利率驱动的信贷繁荣可以刺激DeFi和更广泛的加密市场的发展,收益农户和degens都能够以惊人的低利率借款。这还可能开启有趣的加密货币<>传统金融套利机会,因为用户可能能够以远低于美国国债的利率借入稳定币。 我们已经看到了Maker等稳定币发行方对这种新范式进行调整的早期迹象,Maker将通过Spark(Maker控制的Aave V3分叉)以1%的DAI存款利率(DSR)提供DAI借款。 虽然这种借款利率的降低可能会损害Aave和Curve等发行协议的收益,但却可能有助于满足一个在2022年CeFi借贷机构崩溃后信贷饥渴的市场。随着利率大幅高于DSR以及GHO等稳定币可能的借款利率,加密货币将成为世界上成本最低的信贷市场之一。 DeFi的野猫时代(Wildcat Era) 野猫银行(Wildcat banking)是美国历史上各银行各自发行自己货币的时期。正如我们所说的,DeFi正在加速金融历史的步伐,并且——通过GHO和crvUSD等稳定币——似乎即将踏上类似的发展轨道。 虽然他们不太可能超越DAI和FRAX等更有优势的现有稳定币,但GHO和crvUSD受益于其发行协议的整合,很可能将开拓出一个利基市场。 虽然从理论上讲,这些稳定币将有助于加强发行方的商业模式,并为代币持有人积累价值,但由于“逐底竞争”,不太可能出现这样的结果,在逐底竞争中,发行方将进行低利率竞争彼此削弱,以向借款人提供尽可能低成本的信贷。 因此,这些低利率很可能催生信贷繁荣,以廉价资本促进链上经济。 在一个过去的一年里资金成本急剧上升的世界里,这有可能将DeFi定位为世界上成本最低的资本市场之一,也许会重新点燃人们的兴趣,为DeFi生态带来资金流入。 来源:金色财经
lg
...
金色财经
2023-03-02
Bankless:新型稳定币——加密稳定币的草莽时代
go
lg
...
D将利用一种被称为借贷清算AMM算法(
LLAMA
)的新机制。
LLAMA
采用了一种“更友善”的清算设计,随着用户抵押品的价值下降,逐渐将其互换为crvUSD,而不是一下子完全清算用户的头寸。 总而言之,
LLAMA
应该有助于大大降低惩罚性的清算,而这种对借款人的用户体验的改善,可能会增加以crvUSD计价的CDPs的吸引力。 来源:金色财经
lg
...
金色财经
2023-03-02
这就是为什么ETH的表现不佳与上海无关的原因
go
lg
...
存款。 在撰写本文时,根据 DeFi
Llama
数据,以太坊的 TVL 为 29 亿美元。这远远高于排名第二的Tron [TRX]的价值。但关于TVL的第二大区块链在过去4天的表现看起来是静止的。 以太币交易者关闭多头和空头 虽然ETH以1,654美元的价格换手 - 在过去24小时内略有上涨,但交易者大多更喜欢做多加密货币。 根据Coinglass的数据,截至发稿时,多空比率为1.21。对数据的深入分析显示,54.68%的交易者开立多头头寸,而45.32%的交易者做空。 但ETH能否在短期内维持上升趋势?好吧,日线图显示ETH周围的积累一直处于低位。这是对柴金资金流量(CMF)0.02值的解释。 然而,根据方向运动指数(DMI)的信号,山寨币可能很难很快开始显着的反弹。在撰写本文时,-DMI(红色)和+DMI(绿色)分别为18.44和20.30。 平均方向指数(ADX)也不会接近25,该指数会产生强势或弱的运动。截至发稿时,ADX(黄色)为15.99。 以太坊上海的升级可能很快发生。然而,该事件可能会产生ETH的积极或消极反应,因为区块链上的历史发展导致了这两种反应。 来源:金色财经
lg
...
金色财经
2023-03-02
DeFi“野猫时代”:探寻协议内的特定稳定币
go
lg
...
利用一种被称为借贷清算 AMM 算法(
LLAMA
)的新机制。
LLAMA
采用了一种“更仁慈”的清算设计,当用户的抵押品价值下降时,用户头寸将逐渐将换成 crvUSD,而不是一次性完全清算。 总而言之,
LLAMA
应有助于减少惩罚性清算,这种对借款人的用户体验的改善可能会增加开设以 crvUSD 计价的 CDP 的吸引力。 关于支持的抵押品类型和 crvUSD 在生态系统中的作用,目前还没有给出什么细节,但很可能该稳定币将由 Curve Pools 的 LP 代币铸造。这将有助于提高在平台上提供流动性的资本效率,因为 LP 也能够从部署 crvUSD 到 DeFi 中来获得收益。 crvUSD 也应该受益于 Curve 的 guage 系统,该系统用于分配 CRV 的释放,并通过这样做来分配 DEX 的流动性。这些释放代币中的一部分极有可能被分配到 crvUSD 池中,或者 crvUSD 将成为其他稳定币的基础对的一部分,以帮助它轻松建立深度流动性。 市场影响 在对特定应用的稳定币状况有了了解后,以下让我们深入了解一下这将对市场产生的影响。 发行 DAO 收入的增加(理论上) 受特定应用稳定币最直接影响的一方是发行协议本身。从理论上讲,创建稳定币加强了发行协议的商业模式,因为它为其提供了一个额外的收入来源。 目前,像 Curve 和 Aave 这样的协议分别依赖于交易费和基于利用率的贷款利息。在这个熊市中,这些收入来源的低质量性质已经变得很明显,因为交易和借贷活动的减少以及竞争加剧导致的费用压缩已经导致收入急剧下降。 协议内稳定币的发行改变了这一动态,因为现在协议将能够获得额外的收入来源,以支持他们的顶线。虽然利息收入仍然是周期性的,因为它取决于借款需求,但相对于交易费或获取货币市场的利差,它的产生要有效得多(即有更高的 TVL 回报率)。 虽然这种利息收入也可能受到类似的费用压缩(后面会有更多的介绍),但从理论上讲,它仍有可能使收入组合多样化,并通过其他方式加强基础协议的护城河,如铸币/赎回费、挂钩套利和清算。 代币持有者的潜在价值积累 另一个将从特定应用的稳定币热潮中受益的一方是发行协议的代币持有者。 虽然这取决于每个单独的协议,但任何收入份额都会增加质押或锁定代币的持有人可以获得的收益。 在熊市中,我们已经看到像 GMX 和 GNS 这样的表现出色的收入分享资产,发行稳定币然后与持有人分享收入的协议将使其代币更有吸引力,更有可能表现出色。 例如,Curve 很可能会与 veCRV 锁定者分享 crvUSD 收入,这意味着锁定者将获得交易费、治理贿赂以及基于稳定币的现金流的份额。 鉴于这种方式存在的监管风险,发行协议也有可能以其他方式为其代币增加效用。例如,相对于平台上的其他用户,AAVE 质押者将能够以折扣价借用 GHO。 贿赂和流动性碎片化 稳定币成功的最关键因素之一是拥有深厚的流动性。流动性是任何稳定币的命脉——它不仅能够实现低滑点交易,而且还有助于促进整合,因为流动性是贷款平台清算和确保有价值的基础设施(如 ChainLink 预言机)所必需的。 这种在特定应用的稳定币中对流动性的需求,很可能有助于提振治理贿赂市场。 在 Curve 战争的推动下,稳定币发行者可以通过贿赂,或向代币持有者付款,以确保他们在引导代币释放到所选池上的投票,为他们的代币在 Curve 和 Balancer 等去中心化交易所上建立流动性。 通过贿赂,发行者能够在需要的基础上租用所需场景的流动性。丰富的特定应用稳定币可能会导致更多的 DAO 进入这个游戏,并贿赂这些代币持有人。 反过来,这应该会增加 CRV 和 BAL 以及 CVX 和 AURA 锁定者的收益率,他们通过元治理分别控制了 Curve 和 Balancer 上的大部分释放,并收到了大部分的贿赂。 这种贿赂热潮的另一个受益者是 [Redacted] Cartel's Hidden Hand 和 Votium 等市场平台,他们为这些交易提供了便利。 然而,这种贿赂将以流动性碎片化的形式让终端用户付出代价。在一个几乎没有迹象显示资金流入的加密市场,流动性可能会在各种不同的稳定币中更加分散,导致鲸鱼交易者的执行力更差。 信贷热潮 特定应用的稳定币的增长也可能通过导致低借贷利率的扩散来催化 DeFi 信贷热潮。 为了与 USDC、USDT、DAI 和 FRAX 等现有稳定币竞争,Aave 和 Curve 等稳定币将可能不得不以低借贷利率提供 GHO 和 crvUSD,从而吸引用户铸造新单位来增加其流通供应。 理论上,这种低利率驱动的信贷热潮可以广泛地刺激 DeFi 和加密市场,farmer 和 degen 们都能以难以置信的低利率进行杠杆和借贷。此外,它还可能开启有趣的 Crypto 与 TradFi 之间的套利机会,因为用户可能会以远低于美国国债的利率借入稳定币。 我们已经从 Maker 等稳定币发行商那里看到了适应这种新模式的早期迹象,他们将通过 Spark,即 Maker 控制的 Aave V3 分叉,以 1% 的 Dai 储蓄率(DSR)提供 DAI 借贷。 虽然这种降低借款利率的做法可能会损害 Aave 和 Curve 等发行协议的底线,但它可能有助于满足 2022 年 CeFi 贷款机构内爆后对信贷的饥渴的市场。随着利率大幅高于 DSR 和 GHO 等稳定币的可能借款利率,Crypto 将成为世界上最便宜的信贷市场之一。 DeFi 的野猫时代 野猫银行是美国历史上的一个时期,每个银行都发行自己的货币。正如我们所说的,DeFi 正在加速运行金融历史,并且——凭借 GHO 和 crvUSD 这样的稳定币——似乎即将开始走像类似的轨迹。 虽然他们不太可能超越 DAI 和 FRAX 等更有优势的现有公司,但 GHO 和 crvUSD 受益于与其发行协议的集成,可以开拓出一个利基市场。 从理论上讲,这些稳定币将有助于加强其发行者的商业模式和对代币持有人的价值累积,但出于“竞相压价”,即发行者将在利率上相互压价,以向借款人提供最便宜的信贷,它们不太可能做到这一点。 最终的结果是,这些低利率可能会催化信贷繁荣,用廉价资本刺激链上经济。 在过去的一年里,货币成本急剧上升,这有可能使 DeFi 成为地球上成本最低的资本市场之一,也许会重新点燃人们的兴趣,导致资金流入生态系统。 来源:金色财经
lg
...
金色财经
2023-03-02
上一页
1
•••
60
61
62
63
64
•••
68
下一页
24小时热点
黄金突然暴跌的原因在这!伊朗突传重大消息 金价狂泻47美元 如何交易黄金?
lg
...
以色列伊朗还在激烈交火,中国发出严正警告!北京立场与特朗普对比鲜明
lg
...
事态紧急!特朗普要求官员在战情室做好准备 金价短线急涨突破3400美元
lg
...
中国房市突传重大警告!高盛:中国城市新房需求恐较峰值低75%
lg
...
突发重磅!特朗普:所有人都应“立即撤离德黑兰” 油价应声大涨、金价飙升
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论