全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
人工智能:中国式ChatGPT的“大跃进”
go
lg
...
a也宣布将开源一个用于科研的大模型系列
LLaMA
。 在微软高调把ChatGPT推到New Bing的台前后,硅谷巨头们就开始紧锣密鼓地推动大模型研究,谷歌仅用两个月就发布了类似ChatGPT的Bard。 在这方面,中国并不落后。2023年2月起,百度、阿里、腾讯、京东、字节等纷纷发声表示自己在大模型领域已经开展了深入研究,且获得了很多成果。一时间,追逐大模型成了国内AI行业的标准动作,“大练模型到炼大模型”的过度期似乎已经接近尾声,下一阶段大有“全民大模型,ChatGPT进万家”的架势。 不过,AI技术研发不是谁都能做的,需要真正的专家。硅谷巨头之所以能在大模型领域迅速反应,一方面因为他们在这条赛道上有多年的技术积累,更重要的是他们在AI研究方面有着大量的人才储备。 谷歌的人工智能研究团队一直处在全球领先地位,旗下还有与OpenAI齐名的实验室DeepMind;另一家科技巨头Meta则有被称为卷积神经网络之父的图灵奖得主Yann LeCun以首席AI科学家的身份坐镇。 微软手下的急先锋OpenAI,也是基于强大的科研团队才奠定的领先地位。科技情报分析机构AMiner和智谱研究发布的《ChatGPT团队背景研究报告》显示,OpenAI的ChatGPT研发团队中,27人为本科学历,25人为硕士学历,28人为博士研学历(注:5人信息缺失),占比分别为33%、30%、37%。 ChatGPT团队学历分布 而另一份来自猎聘大数据的国内AI人才市场调查则显示:近一年,预训练模型、对话机器人和AIGC三个ChatGPT相关领域中,国内企业明确要求本科以上学历的职位分别占71.33%、82.30%、92.53%;要求硕、博士学历的占比分别为16.49%、9.86%、18.22%。 对比ChatGPT团队,国内AI人才的平均水平差距较大,硕博比例明显不足。而在今天这种大家齐上大模型赛道的“加速”发展态势下,要在短时间里“大干快上”,势必要先比试比试谁的团队技术实力强,谁更能在自己的麾下聚拢一批大模型人才。 抢人大作战 技术大战开打之前,各家的大模型团队先得打赢一场关键的人才争夺战。 如果你是一个清华博士,有5-10年NLP(Natural Language Processing,自然语言处理)行业经验,那么你的资料只要出现在招聘平台上,不需要任何详细履历,就可以在注册完成后的48小时内,接到多家猎头公司的询问电话,以及数十条HR、猎头、业务经历甚至BOSS本人发来的站内信息。在这些信息中,不乏阿里、美团、小红书等大厂,还有诸多创业公司,以及研究机构。猎头们提供的NLP算法研究员岗位年薪也大多会在百万元上下。 根据猎聘大数据调查,过去五年,人工智能和互联网的招聘薪资均处于上涨态势,人工智能年均招聘薪资明显高出互联网。2022年,人工智能招聘平均年薪为33.15万元,比互联网高出4.27万元,即14.78%。 五年来人工智能与互联网招聘平均年薪对比 在ChatGPT爆火后,这样的情况越来越明显。据上述调查显示,与ChatGPT相关的岗位工资均超过平均水平,AIGC为39.08万,对话机器人为34.89万,预训练模型为33.93万。“ChatGPT一火起来,AI工程师的薪资水平也越来越高,你不开高价就抢不到人。”某AI领域投资人对虎嗅说。 从技术的角度看,大模型发端于NLP领域,自然语言处理岗位在人工智能领域一直都处于人才稀缺的状态,薪酬水平处于高位。科锐国际调研咨询业务负责人&高科技领域资深专家景晓平对虎嗅表示,“人工智能行业典型岗位按产业链划分,技术层和基础层薪酬水平处于高位,高于互联网其他领域薪酬水平,应用层和互联网常规岗位薪酬一致。” 事实上,近年来国内AI人才的硕博占比也在逐年提升,很多企业对AI领域的人才要求学历至少是硕士。薪酬结构则与企业的性质密切相关,国有企业、研究所的薪酬主要是固定薪酬、项目奖金和津贴,例如,国内第一梯队的AI实验室,清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)挂在官网上的博士后招聘待遇为年薪30万,享受清华大学教职工社会保险、住房公积金等待遇。提供公寓或每年4.2万的租房补贴,同时可以解决子女入园、入学。 IT大厂和AI创业公司的薪酬结构则多为,固定薪资+浮动奖金+股权期权激励。在猎聘、脉脉、BOSS直聘三个平台搜索ChatGPT,硕博学历职位的月薪普遍高于3万,最高达9万。“在薪酬方面IT大厂并不会占多少便宜,AI大模型的研发都是高举高打,创业公司给出的薪酬可能更有竞争力。”西湖心辰COO俞佳认为,没有资金支持很难在大模型的基础训练领域推动一家初创公司,对于这个领域来说,钱的问题可能“不是最大的问题”。 猎聘、脉脉、BOSS直聘,搜索ChatGPT的前排结果 此外,在诸多岗位信息中,工作地点集中在北京、上海、杭州和深圳,但其中一些职位也并不限制办公地。景晓平表示,目前国内AI人才北京占据第一位,上海、广东省分列二三位,近些年互联网发展极为活跃的浙江省,在人工智能发展上也丝毫不落风头,成都作为科技新秀城市,有优质相关生源的地域,也储备了不少人工智能人才。但从需求总量来看,国内AI人才还有很大缺口。 OpenAI的专家团队为何强 OpenAI官网挂出的参与过ChatGPT的项目团队共87人,该团队平均年龄为32岁,其中90后是主力军。 《ChatGPT团队背景研究报告》显示,ChatGPT研发团队绝大多数成员拥有名校学历,成员最集中的前5大高校是:斯坦福大学(14人)、加州大学伯克利分校(10人)、麻省理工学院(7人)、剑桥大学(5人)、哈佛大学(4人)和佐治亚理工学院(4人)。 ChatGPT 团队成员毕业前10名高校 此外,很多成员都有名企工作经历,包括:Facebook、Stripe、Uber、Quora、NVIDIA、Microsoft、Dropbox、DeepMind、Apple、Intel等公司,其中有10人来自谷歌,OpenAI的首席科学家Ilya Sutskever亦是从谷歌转会而来,Ilya Sutskever是AlphaGo的作者之一,师从人工智能学界泰斗Geoffrey Hinton。 ChatGPT团队成员流动示意图 1985年出生在苏联的Ilya Sutskever,如今已经是英国皇家学会院士。据说Ilya Sutskever退出谷歌,与Sam Altman、Elon Musk等人一起创立OpenAI时,年薪曾大幅缩水。但他参与创立OpenAI的初衷是“确保强大的人工智能造福全人类”的大义和情怀。 OpenAI初创之时是一家非营利研究机构,从这点上来看,无论是否带着情怀加入这家公司的研究人员,还是给“非营利”事业烧钱的投资人,多少都有一点对技术的“信仰”,这种驱动力,可能是钱买不来的。 不过OpenAI给这些科技精英们提供的薪酬待遇并不低。据纽约时报报道,2016年,OpenAI向Ilya Sutskever支付了超过190万美元。另一位行业大佬级的研究员Ian Goodfellow(对抗式生成网络的提出者)2016年从OpenAI得到的报酬则超过80万美元,而他在这一年中只工作了9个月,不过Ian Goodfellow在OpenAI没有待很长时间就离开了。 一直以来,硅谷的AI研究员都是高收入人群。在谷歌发布的官方招聘信息中,在美国工作的全职“高级软件工程师,大型语言模型,应用机器学习”(Staff Software Engineer, Large Language Models, Applied ML)岗位基本工资范围为年薪17.4万-27.6万美元(约120万-190万元人民币)+奖金+股权+福利。 这份工作的主要职责是:为谷歌大型语言模型的关键冲刺做出贡献,将尖端的 LLM(Large Language Mode,大型语言模型) 引入下一代谷歌产品和应用程序,以及外部用户。在建模技术方面进行协作,以支持全方位的 LLM 调整,从提示工程、指令调整、基于人类反馈的强化学习 (RLHF)、参数高效调整到微调。 微软研究院的研究员岗位“博士后研究员-机器学习和强化学习”(Post Doc Researcher-Machine Learning and Reinforcement Learning)年薪则在9.4万-18.2万美元(约64万-125万元人民币)。工作职责是“与其他研究人员合作制定自己的研究议程,推动有效的基础、基础和应用研究计划。” ChatGPT团队中另一个有意思的点是团队中有9位华人成员,其中5人本科毕业于国内高校,美国学界对人才的虹吸效应也正是硅谷巨头以及“OpenAI”们强大人才竞争力的基础。 “中国的AI人才是从14亿人里挑,美国是从80亿人里挑,全世界优秀的人很多都到美国去了。”图灵联合创始人、原智源研究院副院长刘江表示,要承认差距确实存在,不过他也表示,“在这方面,我们也不用气馁。中国也有自己的优势,比如市场化、产品化的能力,近年来我们不比美国同行差了。” 国内大厂的实力如何? 除了人才问题,国内大模型研究落后美国另一个原因是在生成式AI和大模型研究方面起步略晚,而起步晚的原因,则还是与“钱”脱不开关系。 从技术角度看,生成式技术在Stable Diffusion和ChatGPT等网红产品出现之前,技术实现的效果并不理想,且需要消耗大量算力进行研究。所以大厂、资本很难斥以重资,投入到这种看上去不太赚钱,还要烧钱的业务。 中国的AI产业更注重应用场景,而非基础理论和技术创新。各家大厂在NLP的理解方面有很多成熟业务,比如听写、翻译,在视觉识别和AI大数据处理方面也有很多应用场景。所以这部分业务自然是AI研发的主力,一方面他们赚钱,另一方面在这些领域的技术积累,使研究人员能够“在规定跑道上赛跑”,而不是在未知领域探路。 这一点不只是限制了国内公司,更是很多全球巨头的创新桎梏。正如诺基亚做不出iPhone一样,巨头都不喜欢“破坏式创新”,谷歌发布的Bard只因一个小失误就牵动了母公司Alphabet的万亿市值,这也正是谷歌一直声称不愿发布LaMDA大模型的理由,害怕会因AI的失误影响自己的商誉。而OpenAI显然不太在乎ChatGPT在公测中会出什么问题,毕竟他发布ChatGPT时只是一家估值200亿美元的独角兽。 不过,在这波大模型的追赶赛中,国内大厂的团队也可以说是实力颇强。 百度在大模型方面走的最早,百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。文心大模型研发的带头人,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰博士,是自然语言处理领域权威国际学术组织ACL(Association for Computational Linguistics)的首位华人主席、ACL亚太分会创始主席、ACL Fellow,还是IEEE Fellow、CAAI Fellow及国际欧亚科学院院士。他还兼任中国电子学会、中国中文信息学会、中国工程师联合体副理事长等。目前,王海峰在国内外期刊会议上发表的学术论文有200余篇,获得已授权专利170余项。 虽然没有像百度一样公布类ChatGPT产品的发布时间表,但腾讯、阿里和华为分别提出的“混元”、“通义”和“盘古”三个大模型,均已研发了很长时间。 据机器学习和自然语言处理著名学者Marek Rei教授在2022年4月发布的统计(2023年的统计尚未发布)显示,2012-2021年中,在ML(Machine Learning,机器学习)和NLP顶级期刊和会议发表论文数量最多的机构是谷歌,微软紧随其后。发文数量最多的中国机构是清华大学,第二是位列第16的腾讯,腾讯也是前32名中唯一的中国互联网厂商。不过,在2021年单年的统计中,阿里和华为也登上此榜,腾讯仍排在较靠前的位置。 Marek Rei发布的2021年ML、NLP顶会、期刊发文量统计 目前,腾讯官方并没有公布“混元”大模型研发团队的具体信息。不过,腾讯旗下AI研发团队“腾讯AI Lab”的专家构成,也显示出了腾讯在AI领域的一部分实力。腾讯AI Lab由100余位AI科学家和超过300名应用工程师组成,带头人张正友博士是腾讯首席科学家、腾讯 AI Lab 及 Robotics X 实验室主任,腾讯首位17级研究员、杰出科学家。他在美国斯坦福大学(Stanford University)发布的2022 年度“全球前2%顶尖科学家榜单”(World's Top 2% Scientists 2022)中,排名全球“终身科学影响力排行榜”第1002名,中国排名 Top 10。 阿里在LLM领域的研究主要由阿里巴巴达摩院负责,阿里巴巴集团资深副总裁,阿里云智能CTO、达摩院副院长周靖人主导,他是IEEE Fellow,多次担任VLDB,SIGMOD,ICDE等国际顶级会议程序委员会主编、主席,在顶尖国际期刊和会议上发表论文超百篇,并拥有几十项技术专利。 华为也未对“类ChatGPT产品”公开表态,但在大模型方面华为亦有“盘古”大模型正在研究。该项目由华为云人工智能领域首席科学家田奇博士领导,他是计算机视觉、多媒体信息检索专家,IEEE Fellow,国际欧亚科学院院士,教育部长江讲座教授,国家自然科学基金海外杰青,中国科学院海外评审专家,在国内多所高校任讲席教授及客座教授。 在自己组建团队投入研发的同时,百度、阿里、腾讯、华为等IT大厂,也与中科院计算所自然语言处理研究组、哈尔滨工业大学自然语言处理研究所、中国人民大学高瓴人工智能学院等高校研究有很多的技术合作。 “集中力量办大事”的科研机构 数据闭环是大模型研发的关键,用户越多,积累时间越长,就意味着可以用于迭代升级的数据和反馈也就越多。 在这方面OpenAI已经利用前两代的开源GPT模型和GPT-3积累了大量数据。ChatGPT虽然才推出了3个月,但用户量和访问量增长速度飞快,这些都为OpenAI在大模型研发方面积累了巨大的先发优势。 “AI大模型如果落后了,就会面临卡脖子的风险。”很多AI专家对此都有担心,由此国内也诞生了一些应对此种局面的非营利性AI科研机构。这些机构多数有高校研究实验室背景加持,以及地方政策支持,人才聚拢能力非常强劲。 北京智源人工智能研究院(以下简称“智源研究院”)是科技部和北京市政府共同支持,联合北京人工智能领域优势单位共建的非营利性创新性研发机构。智源研究院理事长张宏江,是美国国家工程院外籍院士,ACM Fellow和IEEE Fellow,同时也是微软亚洲研究院的创始人之一。 2021年,智源研究院发布了1.7万亿参数的超大模型“悟道”的1.0和2.0版本,这项工作由100余位科学家共同打造。其中包括清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)的孙茂松教授,清华大学知识工程研究室(KEG)的唐杰教授,清华大学交互式人工智能课题组(CoAI)的黄民烈教授。 目前“悟道”大模型已经与OPPO、好未来、淘宝、搜狗、美团等开展了落地合作。在与美团的合作中,大模型给搜索广告带来了2.7%的收入增长。 在南方的科技重镇也有一家相似的研究机构,粤港澳大湾区数字经济研究院(以下简称IDEA研究院),IDEA研究院是由深圳市政府大力支持的AI研究机构。与智源研究院有一个颇有趣的相似之处,IDEA研究院的创始人沈向洋博士同样出身微软亚洲研究院。沈向洋博士是美国国家工程院外籍院士和英国皇家工程院外籍院士,他参与创建了微软亚洲研究院,担任院长兼首席科学家,并曾担任微软公司全球执行副总裁,主管微软全球研究院和人工智能产品线,并负责推动公司中长期总体技术战略及前瞻性研究与开发工作。 IDEA研究院NLP研究中心负责人张家兴博士也来自微软亚洲研究院,他的团队推出的开源模型“太乙”,据称在中文文生图领域可以达到接近Stable Diffusion(一款开源文生图AI模型)的水平。 目前IDEA研究院正在持续迭代开发的预训练模型体系“封神榜”,已经开源了6个系列共10个模型,包含4种模型结构,模型参数最大为35亿。其中包括:以Encoder结构为主的双向语言系列模型的二郎神系列;面向医疗领域,拥有35亿参数的余元系列;与追一科技联合开发的新结构大模型周文王系列;以Decoder结构为主的单向语言模型闻仲系列;以Transformer结构为主的编解码语言模型,主要解决通用任务的大模型燃灯系列;以及主要面向各种纠错任务的比干系列。 2月20日晚,复旦大学自然语言处理实验室对媒体宣传邱锡鹏教授团队发布了“国内第一个对话式大型语言模型MOSS”,并在公开平台(https://moss.fastnlp.top/),邀请公众参与内测。然而就在外界都等着看MOSS表现如何惊艳之时。MOSS的内测网站却挂出了一则道歉公告。 目前MOSS的测试网站已经挂出了停止服务的公告。一位AI大模型专家对虎嗅表示,“邱锡鹏的实验室学术研究的氛围很浓。虽然这次的MOSS很少有人得到体验机会,但是从后边的公告来看,有可能是在工程优化,并发处理等方面的准备还没有那么充分。” 在近期举行的2023年世界人工智能开发者先锋大会上,邱锡鹏教授公开表示,如果优化顺利,MOSS计划在2023年3月底开源。 虽然,没能成功抢发“国产ChatGPT”,但AI业内人士对邱锡鹏教授团队仍然给出了肯定的评价,“邱锡鹏教授的团队比较偏重学术,这和早期的OpenAI在科研心态上是有共性的,非营利性的AI研究机构,没有那么多功利的考虑。” 创业公司都有“大佬”背书 AI技术属于计算机科学,虽然计算机技术已发展多年,但AI仍属于前沿科技,对LLM以及其他通用大模型的研究更是兴起不久,仍然需要依靠应用数据,持续迭代升级,不管MOSS是不是因为工程经验绊了跟头,要在AI、大模型这些领域实现突破,能推广到市场中,接地气的技术和产品才是王道。事实上,目前国内AI行业活跃的实验室大多已开始尝试商业化,在市场的磨砺中探索大模型未来的出路。 深言科技 深言科技源自清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)。THUNLP由清华大学人工智能研究院常务副院长孙茂松,以及刘洋、刘知远,三位教授带头。实验室在2017年推出的中文诗歌自动生成系统「九歌」则是最有影响的诗歌生成系统之一,「九歌」已经为用户创作了超过3000万首诗词。 孙茂松教授领衔研发的CPM模型是智源研究院的大模型「悟道·文源」的前身,也是国内最成熟的中文生成式大模型之一。深言科技的团队也是由CPM模型的部分研发团队成员所组成的,目前该公司产品包括可以根据意思搜索词语的“WantWords反向词典”,以及根据意思查询句子的“WantQuotes据意查句”。 智谱AI 智谱AI的前身是清华大学知识工程研究室(KEG),KEG专注研究网络环境下的知识工程,在知识图谱、图神经网络和认知智能领域已发表一系列国际领先的研究成果。2006年,智谱AI就启动了科技信息分析引擎ArnetMiner(以下简称AMiner)的相关研究,先后获得了国际顶级会议SIGKDD的十年最佳论文(Test-of-Time Award)、国家科学进步奖二等奖、北京市发明专利奖一等奖。 2022年8月,由KEG与智谱AI共同研发的千亿级模型参数的大规模中英文预训练语言模型GLM-130B正式发布,其在多个公开评测榜单上超过GPT-3 v1。此外,智谱AI还打造了认知大模型平台(BigModel.ai),形成AIGC产品矩阵,提供智能API服务。 聆心智能 2月17日,聆心智能宣布完成由无限基金SEE Fund领投的Pre-A轮融资。聆心智能的底层技术是超拟人大规模语言模型,基于大模型可控、可配置、可信的核心技术优势,聆心智能推出“AI乌托邦”,该系统允许用户快速定制 AI 角色。 聆心智能由清华大学交互式人工智能课题组(CoAI)黄民烈教授支持。CoAI是清华大学朱小燕教授及黄民烈教授领导的实验室。2020年,就已经开源了1200万对话数据和中文对话预训练模型CDial-GPT。黄民烈教授也曾参与了智源研究院的“悟道”大模型研发。 西湖心辰 西湖心辰背靠西湖大学深度学习实验室,创始人是西湖大学助理教授、博士生导师蓝振忠,主要研究大规模预训练模型的训练与应用。蓝振忠曾在谷歌担任研究科学家,也是轻量化大模型ALBERT的第一作者。 西湖大学在人工智能领域的研发实力很强,除了蓝振忠博士的深度学习实验室,西湖大学NLP实验室,在该领域的研究也非常领先。学术带头人张岳博士在Marek Rei教授的顶会、期刊发文量统计中,于2012-2021年期间排名全球第四。 “目前国内LLM领域的创业公司相对IT大厂来说主要有两个优势,技术和数据。”西湖心辰COO俞佳对虎嗅表示,国内大模型创业公司在技术方面普遍已有多年研究经验,构筑了一定的技术壁垒,这是很难短期超越的。同时,由于已经推出了相关产品,“数据飞轮”已经转起来了,这些数据的质量相比互联网数据质量要高很多,能够对产品迭代起到很大支撑作用。 对于国内大模型创业公司未来的发展趋势,俞佳认为可能性很多,“有些公司可能会走出自己的道路,也有的公司可能会像OpenAI一样与IT大厂开展深度合作,甚至像DeepMind直接并入其中。” 出品|虎嗅科技组 作者|齐健 编辑|陈伊凡 来源:DeFi之道 来源:金色财经
lg
...
金色财经
2023-03-05
中国式ChatGPT“大跃进”
go
lg
...
a也宣布将开源一个用于科研的大模型系列
LLaMA
。 在微软高调把ChatGPT推到New Bing的台前后,硅谷巨头们就开始紧锣密鼓地推动大模型研究,谷歌仅用两个月就发布了类似ChatGPT的Bard。 在这方面,中国并不落后。2023年2月起,百度、阿里、腾讯、京东、字节等纷纷发声表示自己在大模型领域已经开展了深入研究,且获得了很多成果。一时间,追逐大模型成了国内AI行业的标准动作,“大练模型到炼大模型”的过度期似乎已经接近尾声,下一阶段大有“全民大模型,ChatGPT进万家”的架势。 不过,AI技术研发不是谁都能做的,需要真正的专家。硅谷巨头之所以能在大模型领域迅速反应,一方面因为他们在这条赛道上有多年的技术积累,更重要的是他们在AI研究方面有着大量的人才储备。 谷歌的人工智能研究团队一直处在全球领先地位,旗下还有与OpenAI齐名的实验室DeepMind;另一家科技巨头Meta则有被称为卷积神经网络之父的图灵奖得主Yann LeCun以首席AI科学家的身份坐镇。 微软手下的急先锋OpenAI,也是基于强大的科研团队才奠定的领先地位。科技情报分析机构AMiner和智谱研究发布的《ChatGPT团队背景研究报告》显示,OpenAI的ChatGPT研发团队中,27人为本科学历,25人为硕士学历,28人为博士研学历(注:5人信息缺失),占比分别为33%、30%、37%。 ChatGPT团队学历分布 而另一份来自猎聘大数据的国内AI人才市场调查则显示:近一年,预训练模型、对话机器人和AIGC三个ChatGPT相关领域中,国内企业明确要求本科以上学历的职位分别占71.33%、82.30%、92.53%;要求硕、博士学历的占比分别为16.49%、9.86%、18.22%。 对比ChatGPT团队,国内AI人才的平均水平差距较大,硕博比例明显不足。而在今天这种大家齐上大模型赛道的“加速”发展态势下,要在短时间里“大干快上”,势必要先比试比试谁的团队技术实力强,谁更能在自己的麾下聚拢一批大模型人才。 抢人大作战 技术大战开打之前,各家的大模型团队先得打赢一场关键的人才争夺战。 如果你是一个清华博士,有5-10年NLP(Natural Language Processing,自然语言处理)行业经验,那么你的资料只要出现在招聘平台上,不需要任何详细履历,就可以在注册完成后的48小时内,接到多家猎头公司的询问电话,以及数十条HR、猎头、业务经历甚至BOSS本人发来的站内信息。在这些信息中,不乏阿里、美团、小红书等大厂,还有诸多创业公司,以及研究机构。猎头们提供的NLP算法研究员岗位年薪也大多会在百万元上下。 根据猎聘大数据调查,过去五年,人工智能和互联网的招聘薪资均处于上涨态势,人工智能年均招聘薪资明显高出互联网。2022年,人工智能招聘平均年薪为33.15万元,比互联网高出4.27万元,即14.78%。 五年来人工智能与互联网招聘平均年薪对比 在ChatGPT爆火后,这样的情况越来越明显。据上述调查显示,与ChatGPT相关的岗位工资均超过平均水平,AIGC为39.08万,对话机器人为34.89万,预训练模型为33.93万。“ChatGPT一火起来,AI工程师的薪资水平也越来越高,你不开高价就抢不到人。”某AI领域投资人对虎嗅说。 从技术的角度看,大模型发端于NLP领域,自然语言处理岗位在人工智能领域一直都处于人才稀缺的状态,薪酬水平处于高位。科锐国际调研咨询业务负责人&高科技领域资深专家景晓平对虎嗅表示,“人工智能行业典型岗位按产业链划分,技术层和基础层薪酬水平处于高位,高于互联网其他领域薪酬水平,应用层和互联网常规岗位薪酬一致。” 事实上,近年来国内AI人才的硕博占比也在逐年提升,很多企业对AI领域的人才要求学历至少是硕士。薪酬结构则与企业的性质密切相关,国有企业、研究所的薪酬主要是固定薪酬、项目奖金和津贴,例如,国内第一梯队的AI实验室,清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)挂在官网上的博士后招聘待遇为年薪30万,享受清华大学教职工社会保险、住房公积金等待遇。提供公寓或每年4.2万的租房补贴,同时可以解决子女入园、入学。 IT大厂和AI创业公司的薪酬结构则多为,固定薪资+浮动奖金+股权期权激励。在猎聘、脉脉、BOSS直聘三个平台搜索ChatGPT,硕博学历职位的月薪普遍高于3万,最高达9万。“在薪酬方面IT大厂并不会占多少便宜,AI大模型的研发都是高举高打,创业公司给出的薪酬可能更有竞争力。”西湖心辰COO俞佳认为,没有资金支持很难在大模型的基础训练领域推动一家初创公司,对于这个领域来说,钱的问题可能“不是最大的问题”。 猎聘、脉脉、BOSS直聘,搜索ChatGPT的前排结果 此外,在诸多岗位信息中,工作地点集中在北京、上海、杭州和深圳,但其中一些职位也并不限制办公地。景晓平表示,目前国内AI人才北京占据第一位,上海、广东省分列二三位,近些年互联网发展极为活跃的浙江省,在人工智能发展上也丝毫不落风头,成都作为科技新秀城市,有优质相关生源的地域,也储备了不少人工智能人才。但从需求总量来看,国内AI人才还有很大缺口。 OpenAI的专家团队为何强 OpenAI官网挂出的参与过ChatGPT的项目团队共87人,该团队平均年龄为32岁,其中90后是主力军。 《ChatGPT团队背景研究报告》显示,ChatGPT研发团队绝大多数成员拥有名校学历,成员最集中的前5大高校是:斯坦福大学(14人)、加州大学伯克利分校(10人)、麻省理工学院(7人)、剑桥大学(5人)、哈佛大学(4人)和佐治亚理工学院(4人)。 ChatGPT 团队成员毕业前10名高校 此外,很多成员都有名企工作经历,包括:Facebook、Stripe、Uber、Quora、NVIDIA、Microsoft、Dropbox、DeepMind、Apple、Intel等公司,其中有10人来自谷歌,OpenAI的首席科学家Ilya Sutskever亦是从谷歌转会而来,Ilya Sutskever是AlphaGo的作者之一,师从人工智能学界泰斗Geoffrey Hinton。 ChatGPT团队成员流动示意图 1985年出生在苏联的Ilya Sutskever,如今已经是英国皇家学会院士。据说Ilya Sutskever退出谷歌,与Sam Altman、Elon Musk等人一起创立OpenAI时,年薪曾大幅缩水。但他参与创立OpenAI的初衷是“确保强大的人工智能造福全人类”的大义和情怀。 OpenAI初创之时是一家非营利研究机构,从这点上来看,无论是否带着情怀加入这家公司的研究人员,还是给“非营利”事业烧钱的投资人,多少都有一点对技术的“信仰”,这种驱动力,可能是钱买不来的。 不过OpenAI给这些科技精英们提供的薪酬待遇并不低。据纽约时报报道,2016年,OpenAI向Ilya Sutskever支付了超过190万美元。另一位行业大佬级的研究员Ian Goodfellow(对抗式生成网络的提出者)2016年从OpenAI得到的报酬则超过80万美元,而他在这一年中只工作了9个月,不过Ian Goodfellow在OpenAI没有待很长时间就离开了。 一直以来,硅谷的AI研究员都是高收入人群。在谷歌发布的官方招聘信息中,在美国工作的全职“高级软件工程师,大型语言模型,应用机器学习”(Staff Software Engineer, Large Language Models, Applied ML)岗位基本工资范围为年薪17.4万-27.6万美元(约120万-190万元人民币)+奖金+股权+福利。 这份工作的主要职责是:为谷歌大型语言模型的关键冲刺做出贡献,将尖端的 LLM(Large Language Mode,大型语言模型) 引入下一代谷歌产品和应用程序,以及外部用户。在建模技术方面进行协作,以支持全方位的 LLM 调整,从提示工程、指令调整、基于人类反馈的强化学习 (RLHF)、参数高效调整到微调。 微软研究院的研究员岗位“博士后研究员-机器学习和强化学习”(Post Doc Researcher-Machine Learning and Reinforcement Learning)年薪则在9.4万-18.2万美元(约64万-125万元人民币)。工作职责是“与其他研究人员合作制定自己的研究议程,推动有效的基础、基础和应用研究计划。” ChatGPT团队中另一个有意思的点是团队中有9位华人成员,其中5人本科毕业于国内高校,美国学界对人才的虹吸效应也正是硅谷巨头以及“OpenAI”们强大人才竞争力的基础。 “中国的AI人才是从14亿人里挑,美国是从80亿人里挑,全世界优秀的人很多都到美国去了。”图灵联合创始人、原智源研究院副院长刘江表示,要承认差距确实存在,不过他也表示,“在这方面,我们也不用气馁。中国也有自己的优势,比如市场化、产品化的能力,近年来我们不比美国同行差了。” 国内大厂的实力如何? 除了人才问题,国内大模型研究落后美国另一个原因是在生成式AI和大模型研究方面起步略晚,而起步晚的原因,则还是与“钱”脱不开关系。 从技术角度看,生成式技术在Stable Diffusion和ChatGPT等网红产品出现之前,技术实现的效果并不理想,且需要消耗大量算力进行研究。所以大厂、资本很难斥以重资,投入到这种看上去不太赚钱,还要烧钱的业务。 中国的AI产业更注重应用场景,而非基础理论和技术创新。各家大厂在NLP的理解方面有很多成熟业务,比如听写、翻译,在视觉识别和AI大数据处理方面也有很多应用场景。所以这部分业务自然是AI研发的主力,一方面他们赚钱,另一方面在这些领域的技术积累,使研究人员能够“在规定跑道上赛跑”,而不是在未知领域探路。 这一点不只是限制了国内公司,更是很多全球巨头的创新桎梏。正如诺基亚做不出iPhone一样,巨头都不喜欢“破坏式创新”,谷歌发布的Bard只因一个小失误就牵动了母公司Alphabet的万亿市值,这也正是谷歌一直声称不愿发布LaMDA大模型的理由,害怕会因AI的失误影响自己的商誉。而OpenAI显然不太在乎ChatGPT在公测中会出什么问题,毕竟他发布ChatGPT时只是一家估值200亿美元的独角兽。 不过,在这波大模型的追赶赛中,国内大厂的团队也可以说是实力颇强。 百度在大模型方面走的最早,百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。文心大模型研发的带头人,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰博士,是自然语言处理领域权威国际学术组织ACL(Association for Computational Linguistics)的首位华人主席、ACL亚太分会创始主席、ACL Fellow,还是IEEE Fellow、CAAI Fellow及国际欧亚科学院院士。他还兼任中国电子学会、中国中文信息学会、中国工程师联合体副理事长等。目前,王海峰在国内外期刊会议上发表的学术论文有200余篇,获得已授权专利170余项。 虽然没有像百度一样公布类ChatGPT产品的发布时间表,但腾讯、阿里和华为分别提出的“混元”、“通义”和“盘古”三个大模型,均已研发了很长时间。 据机器学习和自然语言处理著名学者Marek Rei教授在2022年4月发布的统计(2023年的统计尚未发布)显示,2012-2021年中,在ML(Machine Learning,机器学习)和NLP顶级期刊和会议发表论文数量最多的机构是谷歌,微软紧随其后。发文数量最多的中国机构是清华大学,第二是位列第16的腾讯,腾讯也是前32名中唯一的中国互联网厂商。不过,在2021年单年的统计中,阿里和华为也登上此榜,腾讯仍排在较靠前的位置。 Marek Rei发布的2021年ML、NLP顶会、期刊发文量统计 目前,腾讯官方并没有公布“混元”大模型研发团队的具体信息。不过,腾讯旗下AI研发团队“腾讯AI Lab”的专家构成,也显示出了腾讯在AI领域的一部分实力。腾讯AI Lab由100余位AI科学家和超过300名应用工程师组成,带头人张正友博士是腾讯首席科学家、腾讯 AI Lab 及 Robotics X 实验室主任,腾讯首位17级研究员、杰出科学家。他在美国斯坦福大学(Stanford University)发布的2022 年度“全球前2%顶尖科学家榜单”(World's Top 2% Scientists 2022)中,排名全球“终身科学影响力排行榜”第1002名,中国排名 Top 10。 阿里在LLM领域的研究主要由阿里巴巴达摩院负责,阿里巴巴集团资深副总裁,阿里云智能CTO、达摩院副院长周靖人主导,他是IEEE Fellow,多次担任VLDB,SIGMOD,ICDE等国际顶级会议程序委员会主编、主席,在顶尖国际期刊和会议上发表论文超百篇,并拥有几十项技术专利。 华为也未对“类ChatGPT产品”公开表态,但在大模型方面华为亦有“盘古”大模型正在研究。该项目由华为云人工智能领域首席科学家田奇博士领导,他是计算机视觉、多媒体信息检索专家,IEEE Fellow,国际欧亚科学院院士,教育部长江讲座教授,国家自然科学基金海外杰青,中国科学院海外评审专家,在国内多所高校任讲席教授及客座教授。 在自己组建团队投入研发的同时,百度、阿里、腾讯、华为等IT大厂,也与中科院计算所自然语言处理研究组、哈尔滨工业大学自然语言处理研究所、中国人民大学高瓴人工智能学院等高校研究有很多的技术合作。 “集中力量办大事”的科研机构 数据闭环是大模型研发的关键,用户越多,积累时间越长,就意味着可以用于迭代升级的数据和反馈也就越多。 在这方面OpenAI已经利用前两代的开源GPT模型和GPT-3积累了大量数据。ChatGPT虽然才推出了3个月,但用户量和访问量增长速度飞快,这些都为OpenAI在大模型研发方面积累了巨大的先发优势。 “AI大模型如果落后了,就会面临卡脖子的风险。”很多AI专家对此都有担心,由此国内也诞生了一些应对此种局面的非营利性AI科研机构。这些机构多数有高校研究实验室背景加持,以及地方政策支持,人才聚拢能力非常强劲。 北京智源人工智能研究院(以下简称“智源研究院”)是科技部和北京市政府共同支持,联合北京人工智能领域优势单位共建的非营利性创新性研发机构。智源研究院理事长张宏江,是美国国家工程院外籍院士,ACM Fellow和IEEE Fellow,同时也是微软亚洲研究院的创始人之一。 2021年,智源研究院发布了1.7万亿参数的超大模型“悟道”的1.0和2.0版本,这项工作由100余位科学家共同打造。其中包括清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)的孙茂松教授,清华大学知识工程研究室(KEG)的唐杰教授,清华大学交互式人工智能课题组(CoAI)的黄民烈教授。 目前“悟道”大模型已经与OPPO、好未来、淘宝、搜狗、美团等开展了落地合作。在与美团的合作中,大模型给搜索广告带来了2.7%的收入增长。 在南方的科技重镇也有一家相似的研究机构,粤港澳大湾区数字经济研究院(以下简称IDEA研究院),IDEA研究院是由深圳市政府大力支持的AI研究机构。与智源研究院有一个颇有趣的相似之处,IDEA研究院的创始人沈向洋博士同样出身微软亚洲研究院。沈向洋博士是美国国家工程院外籍院士和英国皇家工程院外籍院士,他参与创建了微软亚洲研究院,担任院长兼首席科学家,并曾担任微软公司全球执行副总裁,主管微软全球研究院和人工智能产品线,并负责推动公司中长期总体技术战略及前瞻性研究与开发工作。 IDEA研究院NLP研究中心负责人张家兴博士也来自微软亚洲研究院,他的团队推出的开源模型“太乙”,据称在中文文生图领域可以达到接近Stable Diffusion(一款开源文生图AI模型)的水平。 目前IDEA研究院正在持续迭代开发的预训练模型体系“封神榜”,已经开源了6个系列共10个模型,包含4种模型结构,模型参数最大为35亿。其中包括:以Encoder结构为主的双向语言系列模型的二郎神系列;面向医疗领域,拥有35亿参数的余元系列;与追一科技联合开发的新结构大模型周文王系列;以Decoder结构为主的单向语言模型闻仲系列;以Transformer结构为主的编解码语言模型,主要解决通用任务的大模型燃灯系列;以及主要面向各种纠错任务的比干系列。 2月20日晚,复旦大学自然语言处理实验室对媒体宣传邱锡鹏教授团队发布了“国内第一个对话式大型语言模型MOSS”,并在公开平台(https://moss.fastnlp.top/),邀请公众参与内测。然而就在外界都等着看MOSS表现如何惊艳之时。MOSS的内测网站却挂出了一则道歉公告。 目前MOSS的测试网站已经挂出了停止服务的公告。一位AI大模型专家对虎嗅表示,“邱锡鹏的实验室学术研究的氛围很浓。虽然这次的MOSS很少有人得到体验机会,但是从后边的公告来看,有可能是在工程优化,并发处理等方面的准备还没有那么充分。” 在近期举行的2023年世界人工智能开发者先锋大会上,邱锡鹏教授公开表示,如果优化顺利,MOSS计划在2023年3月底开源。 虽然,没能成功抢发“国产ChatGPT”,但AI业内人士对邱锡鹏教授团队仍然给出了肯定的评价,“邱锡鹏教授的团队比较偏重学术,这和早期的OpenAI在科研心态上是有共性的,非营利性的AI研究机构,没有那么多功利的考虑。” 创业公司都有“大佬”背书 AI技术属于计算机科学,虽然计算机技术已发展多年,但AI仍属于前沿科技,对LLM以及其他通用大模型的研究更是兴起不久,仍然需要依靠应用数据,持续迭代升级,不管MOSS是不是因为工程经验绊了跟头,要在AI、大模型这些领域实现突破,能推广到市场中,接地气的技术和产品才是王道。事实上,目前国内AI行业活跃的实验室大多已开始尝试商业化,在市场的磨砺中探索大模型未来的出路。 深言科技 深言科技源自清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)。THUNLP由清华大学人工智能研究院常务副院长孙茂松,以及刘洋、刘知远,三位教授带头。实验室在2017年推出的中文诗歌自动生成系统「九歌」则是最有影响的诗歌生成系统之一,「九歌」已经为用户创作了超过3000万首诗词。 孙茂松教授领衔研发的CPM模型是智源研究院的大模型「悟道·文源」的前身,也是国内最成熟的中文生成式大模型之一。深言科技的团队也是由CPM模型的部分研发团队成员所组成的,目前该公司产品包括可以根据意思搜索词语的“WantWords反向词典”,以及根据意思查询句子的“WantQuotes据意查句”。 智谱AI 智谱AI的前身是清华大学知识工程研究室(KEG),KEG专注研究网络环境下的知识工程,在知识图谱、图神经网络和认知智能领域已发表一系列国际领先的研究成果。2006年,智谱AI就启动了科技信息分析引擎ArnetMiner(以下简称AMiner)的相关研究,先后获得了国际顶级会议SIGKDD的十年最佳论文(Test-of-Time Award)、国家科学进步奖二等奖、北京市发明专利奖一等奖。 2022年8月,由KEG与智谱AI共同研发的千亿级模型参数的大规模中英文预训练语言模型GLM-130B正式发布,其在多个公开评测榜单上超过GPT-3 v1。此外,智谱AI还打造了认知大模型平台(BigModel.ai),形成AIGC产品矩阵,提供智能API服务。 聆心智能 2月17日,聆心智能宣布完成由无限基金SEE Fund领投的Pre-A轮融资。聆心智能的底层技术是超拟人大规模语言模型,基于大模型可控、可配置、可信的核心技术优势,聆心智能推出“AI乌托邦”,该系统允许用户快速定制 AI 角色。 聆心智能由清华大学交互式人工智能课题组(CoAI)黄民烈教授支持。CoAI是清华大学朱小燕教授及黄民烈教授领导的实验室。2020年,就已经开源了1200万对话数据和中文对话预训练模型CDial-GPT。黄民烈教授也曾参与了智源研究院的“悟道”大模型研发。 西湖心辰 西湖心辰背靠西湖大学深度学习实验室,创始人是西湖大学助理教授、博士生导师蓝振忠,主要研究大规模预训练模型的训练与应用。蓝振忠曾在谷歌担任研究科学家,也是轻量化大模型ALBERT的第一作者。 西湖大学在人工智能领域的研发实力很强,除了蓝振忠博士的深度学习实验室,西湖大学NLP实验室,在该领域的研究也非常领先。学术带头人张岳博士在Marek Rei教授的顶会、期刊发文量统计中,于2012-2021年期间排名全球第四。 “目前国内LLM领域的创业公司相对IT大厂来说主要有两个优势,技术和数据。”西湖心辰COO俞佳对虎嗅表示,国内大模型创业公司在技术方面普遍已有多年研究经验,构筑了一定的技术壁垒,这是很难短期超越的。同时,由于已经推出了相关产品,“数据飞轮”已经转起来了,这些数据的质量相比互联网数据质量要高很多,能够对产品迭代起到很大支撑作用。 对于国内大模型创业公司未来的发展趋势,俞佳认为可能性很多,“有些公司可能会走出自己的道路,也有的公司可能会像OpenAI一样与IT大厂开展深度合作,甚至像DeepMind直接并入其中。” 来源:金色财经
lg
...
金色财经
2023-03-03
ETH Staking的崛起或将推动DeFi复兴
go
lg
...
进行的Defi交易减少。根据Defi
Llama
的数据,目前以太坊TVL大约644亿美元,比2021年末的最高点(1970亿美元)下降了65%以上。当Terra的UST算法稳定币崩溃时,Defi生态系统也发生了连锁反应,对该行业的信心造成了沉重打击。 从上文提到的ETH交易类型的图表中可以发现,Defi交易的数量与ETH价格呈正相关。 2020年的Defi热潮恰逢ETH牛市的初始阶段。而直到2022年上半年,作为ETH交易总数的一部分的DeFi活动开始持续下降,牛市周期才真正结束。 因此,在新的一轮周期中,如果以太坊的Defi生态系统可以经历另一个类似于2020年夏季所发生的热潮,那么将有助于为下一个ETH的牛市提供强大动力。 ETH质押有望推动DeFi复兴 对于看涨ETH的投资者来说,触发下一个DeFi热潮的新契机即将到来——以太坊开发者将很快对以太坊主网进行“上海升级”。此升级将使ETH质押者提取出质押的ETH以及获取的相应奖励。 ETH信标链质押始于2020年底,但是质押的ETH处于锁定状态无法撤回。质押的资金缺乏灵活性一直是很多潜在的ETH质押投资者的顾虑。截至2月底,ETH质押数为1730万枚,仅占到总流通量的14%。相比之下,许多使用PoS共识机制但可灵活撤出质押token的L1区块链的质押率几乎都在40%以上,ADA、SOL、BNB Chain、ICP的质押率更是都达到了70%以上。 根据Messari于3月1日的推文,以太坊的合并对质押者经济学产生了巨大的积极影响。即使ETH的价格表现不佳,但其质押回报率在22年仍在约6%。 目前,ETH链上约有53万个验证者。根据Staking Rewards数据,近30日ETH验证者收入增长了43.44%,质押者近30天的总收入达到了20.8亿美元。 与此同时,以太坊网络上的地址数量也在增加。根据Glassnode数据,以太坊上的非零地址的数量达到了983万个地址。但以太坊的总交易量却大幅下降。这表明许多持有以太坊的新地址并未出售其ETH。 根据Santiment数据,ETH当前的MVRV比率才刚刚转为略微的正值。这表明,对大多数ETH持有人而言,若目前出售其ETH,他们是无法获得巨额利润的。这也有利于增强更多ETH持有者在“上海升级”后参与“灵活质押”赚取更多收益的动机。 目前,Lido和Rocket Pool等去中心化的ETH流动性质押协议的比率很高,可能将继续成为ETH质押增长的受益者。以太坊流动性质押已经成为TVL最大的板块(Lido,Coinbase的Wrapped ETH和Rocket Pool的TVL高达127.6亿美元),而且质押量很可能会在“上海升级”延续上升势头。此外,受益于上海升级的临近,一些非托管的Staking方案(例如Ebunker等)也开始快速增长。 ETH Staking的进一步发展可能有助于推动其他DeFi领域的增长,因为参与ETH质押的投资者希望通过质押的ETH来获得更多的收益。而且,在以太坊生态系统中,DeFi TVL的上升将有助于推动有关以太坊技术被更广泛采用和长期价格增长的叙事。 Ebunker官网:https://www.ebunker.io 来源:金色财经
lg
...
金色财经
2023-03-02
稳定币”野猫“时代:DeFi协议纷纷发行稳定币会产生什么影响
go
lg
...
种创新机制,称为借贷-清算AMM算法(
LLAMA
)。
LLAMA
采用了一种“更仁慈”的清算设计,如果用户的抵押品贬值,
LLAMA
机制将逐渐把该抵押品兑换为crvUSD,而不是一下子完全清算用户头寸。 总而言之,
LLAMA
应该有助于大大减少惩罚性的清算,而这种对借款人的用户体验的改善,很可能会增加以crvUSD计价的CDP(抵押债务头寸)的吸引力。 关于支持什么类型的抵押品以及crvUSD在生态中发挥什么作用,我们知之甚少,但该稳定币很可能会由Curve池的LP代币铸造。这将有助于提高在平台上提供流动性的资本效率,因为LP也可以通过将他们的crvUSD部署到DeFi中获利。 rvUSD也应能受益于Curve的衡量系统,该系统用于分配CRV释放,并借此分配DEX的流动性。很有可能这些释放代币的一部分将被分配到crvUSD池,或者crvUSD将成为其他稳定币的基础交易对,助其轻松建立深度流动性。 市场影响 现在我们已经了解了特定于应用程序的稳定币的现状,接下来让我们深入研究一下这将对市场产生什么样的影响。 发行方DAO(理论上的)收益的提高 受特定于应用程序的稳定币影响最直接的一方是发行协议本身。从理论上讲,创建稳定币可以强化发行协议的商业模式,因为这为他们提供了额外的收入流。 目前,像Curve和Aave这样的协议分别依赖于交易费用和基于效用的贷款利息。在本轮熊市中,这些收益来源的低质量特性已经明显显现,由于竞争加剧、交易和贷款活动减少以及费用压缩,导致收益急剧下降。 协议内稳定币的发行改变了这一局面,因为现在协议将能够获取额外的收入来源,以提高其收益。尽管利息收入仍然是周期性的,因为要依赖于借款需求,但相对于交易费用或货币市场上的利差捕获,其效率更高(即TVL的回报更高)。 虽然这种利息收益可能也会面临相似的费用压缩(下文详解),但从理论上讲,仍有潜力通过其他手段(如铸造/兑换费用、锚定套利和清算)使收益组合多样化,并加强底层协议这一护城河。 代币持有人的“潜在”价值积累 从特定于应用程序的稳定币热潮中受益的另一方是发行协议的代币持有人。 虽然要取决于每个单独的协议,但任何收入分成都将增加质押或锁仓代币的持有人可获得的收益。 在熊市中,我们已见证了GMX和GNS等收益共享资产表现出色,发行稳定币并与稳定币持有人分享收益的协议将使自己的代币更具吸引力,这样做他们将更有机会有出色的表现。 例如,Curve很可能会与veCRV的锁仓持有人分享crvUSD收益,这意味着锁仓持有人将获得来自交易费用、治理贿赂以及当前基于稳定币的现金流的分成。 鉴于这种方法存在监管风险,发行协议也有可能以其他方式为其代币增加效用。例如,AAVE质押人相对于平台上的其他用户将能以折扣价借入GHO。 贿赂和流动性碎片化 稳定币成功最关键的一个因素就是要具有深度流动性。流动性是所有稳定币的命脉——不仅能够实现低滑点移交易,而且还有助于促进整合,因为流动性是借贷平台清算和确保基础设施(如ChainLink预言机)价值所必需的。 特定于应用程序的稳定币对流动性的需求可能有助于支撑治理贿赂市场。 受Curve Wars的普遍影响,稳定币发行方可以通过贿赂或支付代币持有人以确保他们对代币释放特定池的投票效力,在Curve和Balancer等去中心化交易所为其代币建立流动性。 通过贿赂,发行方能按需求租用特定渠道所需的流动性。大量特定于应用程序的稳定币的出现可能会导致更多的DAO参与游戏,贿赂这些代币持有人。 反过来,这应该会增加CRV和BAL以及CVX和AURA锁仓持有人的收益,他们通过metaggovernance(元治理)分别控制了Curve和Balancer上的大部分代币释放,并接收了大部分贿赂。 这种贿赂热潮还有一个受益方,那就是Redacted Cartel的Hidden Hand和Votium等进行这些贿赂交易的市场。 然而,这种贿赂将以流动性碎片化的形式让终端用户付出代价。在一个几乎没有迹象显示资金流入的加密货币市场,流动性在各种不同的稳定币之间分布可能会变得更稀薄,导致巨鲸交易员的执行更差。 信贷繁荣 特定于应用程序的稳定币的增长也可能因导致低借款利率的扩散来催生DeFi信贷繁荣。 为了与USDC、USDT、DAI和FRAX等现有稳定币竞争,Aave和Curve等稳定币可能不得不以低借款利率提供GHO和crvUSD,以吸引用户铸造新币增加其流通供应量。 从理论上讲,这种低利率驱动的信贷繁荣可以刺激DeFi和更广泛的加密市场的发展,收益农户和degens都能够以惊人的低利率借款。这还可能开启有趣的加密货币<>传统金融套利机会,因为用户可能能够以远低于美国国债的利率借入稳定币。 我们已经看到了Maker等稳定币发行方对这种新范式进行调整的早期迹象,Maker将通过Spark(Maker控制的Aave V3分叉)以1%的DAI存款利率(DSR)提供DAI借款。 虽然这种借款利率的降低可能会损害Aave和Curve等发行协议的收益,但却可能有助于满足一个在2022年CeFi借贷机构崩溃后信贷饥渴的市场。随着利率大幅高于DSR以及GHO等稳定币可能的借款利率,加密货币将成为世界上成本最低的信贷市场之一。 DeFi的野猫时代(Wildcat Era) 野猫银行(Wildcat banking)是美国历史上各银行各自发行自己货币的时期。正如我们所说的,DeFi正在加速金融历史的步伐,并且——通过GHO和crvUSD等稳定币——似乎即将踏上类似的发展轨道。 虽然他们不太可能超越DAI和FRAX等更有优势的现有稳定币,但GHO和crvUSD受益于其发行协议的整合,很可能将开拓出一个利基市场。 虽然从理论上讲,这些稳定币将有助于加强发行方的商业模式,并为代币持有人积累价值,但由于“逐底竞争”,不太可能出现这样的结果,在逐底竞争中,发行方将进行低利率竞争彼此削弱,以向借款人提供尽可能低成本的信贷。 因此,这些低利率很可能催生信贷繁荣,以廉价资本促进链上经济。 在一个过去的一年里资金成本急剧上升的世界里,这有可能将DeFi定位为世界上成本最低的资本市场之一,也许会重新点燃人们的兴趣,为DeFi生态带来资金流入。 来源:金色财经
lg
...
金色财经
2023-03-02
Bankless:新型稳定币——加密稳定币的草莽时代
go
lg
...
D将利用一种被称为借贷清算AMM算法(
LLAMA
)的新机制。
LLAMA
采用了一种“更友善”的清算设计,随着用户抵押品的价值下降,逐渐将其互换为crvUSD,而不是一下子完全清算用户的头寸。 总而言之,
LLAMA
应该有助于大大降低惩罚性的清算,而这种对借款人的用户体验的改善,可能会增加以crvUSD计价的CDPs的吸引力。 来源:金色财经
lg
...
金色财经
2023-03-02
这就是为什么ETH的表现不佳与上海无关的原因
go
lg
...
存款。 在撰写本文时,根据 DeFi
Llama
数据,以太坊的 TVL 为 29 亿美元。这远远高于排名第二的Tron [TRX]的价值。但关于TVL的第二大区块链在过去4天的表现看起来是静止的。 以太币交易者关闭多头和空头 虽然ETH以1,654美元的价格换手 - 在过去24小时内略有上涨,但交易者大多更喜欢做多加密货币。 根据Coinglass的数据,截至发稿时,多空比率为1.21。对数据的深入分析显示,54.68%的交易者开立多头头寸,而45.32%的交易者做空。 但ETH能否在短期内维持上升趋势?好吧,日线图显示ETH周围的积累一直处于低位。这是对柴金资金流量(CMF)0.02值的解释。 然而,根据方向运动指数(DMI)的信号,山寨币可能很难很快开始显着的反弹。在撰写本文时,-DMI(红色)和+DMI(绿色)分别为18.44和20.30。 平均方向指数(ADX)也不会接近25,该指数会产生强势或弱的运动。截至发稿时,ADX(黄色)为15.99。 以太坊上海的升级可能很快发生。然而,该事件可能会产生ETH的积极或消极反应,因为区块链上的历史发展导致了这两种反应。 来源:金色财经
lg
...
金色财经
2023-03-02
DeFi“野猫时代”:探寻协议内的特定稳定币
go
lg
...
利用一种被称为借贷清算 AMM 算法(
LLAMA
)的新机制。
LLAMA
采用了一种“更仁慈”的清算设计,当用户的抵押品价值下降时,用户头寸将逐渐将换成 crvUSD,而不是一次性完全清算。 总而言之,
LLAMA
应有助于减少惩罚性清算,这种对借款人的用户体验的改善可能会增加开设以 crvUSD 计价的 CDP 的吸引力。 关于支持的抵押品类型和 crvUSD 在生态系统中的作用,目前还没有给出什么细节,但很可能该稳定币将由 Curve Pools 的 LP 代币铸造。这将有助于提高在平台上提供流动性的资本效率,因为 LP 也能够从部署 crvUSD 到 DeFi 中来获得收益。 crvUSD 也应该受益于 Curve 的 guage 系统,该系统用于分配 CRV 的释放,并通过这样做来分配 DEX 的流动性。这些释放代币中的一部分极有可能被分配到 crvUSD 池中,或者 crvUSD 将成为其他稳定币的基础对的一部分,以帮助它轻松建立深度流动性。 市场影响 在对特定应用的稳定币状况有了了解后,以下让我们深入了解一下这将对市场产生的影响。 发行 DAO 收入的增加(理论上) 受特定应用稳定币最直接影响的一方是发行协议本身。从理论上讲,创建稳定币加强了发行协议的商业模式,因为它为其提供了一个额外的收入来源。 目前,像 Curve 和 Aave 这样的协议分别依赖于交易费和基于利用率的贷款利息。在这个熊市中,这些收入来源的低质量性质已经变得很明显,因为交易和借贷活动的减少以及竞争加剧导致的费用压缩已经导致收入急剧下降。 协议内稳定币的发行改变了这一动态,因为现在协议将能够获得额外的收入来源,以支持他们的顶线。虽然利息收入仍然是周期性的,因为它取决于借款需求,但相对于交易费或获取货币市场的利差,它的产生要有效得多(即有更高的 TVL 回报率)。 虽然这种利息收入也可能受到类似的费用压缩(后面会有更多的介绍),但从理论上讲,它仍有可能使收入组合多样化,并通过其他方式加强基础协议的护城河,如铸币/赎回费、挂钩套利和清算。 代币持有者的潜在价值积累 另一个将从特定应用的稳定币热潮中受益的一方是发行协议的代币持有者。 虽然这取决于每个单独的协议,但任何收入份额都会增加质押或锁定代币的持有人可以获得的收益。 在熊市中,我们已经看到像 GMX 和 GNS 这样的表现出色的收入分享资产,发行稳定币然后与持有人分享收入的协议将使其代币更有吸引力,更有可能表现出色。 例如,Curve 很可能会与 veCRV 锁定者分享 crvUSD 收入,这意味着锁定者将获得交易费、治理贿赂以及基于稳定币的现金流的份额。 鉴于这种方式存在的监管风险,发行协议也有可能以其他方式为其代币增加效用。例如,相对于平台上的其他用户,AAVE 质押者将能够以折扣价借用 GHO。 贿赂和流动性碎片化 稳定币成功的最关键因素之一是拥有深厚的流动性。流动性是任何稳定币的命脉——它不仅能够实现低滑点交易,而且还有助于促进整合,因为流动性是贷款平台清算和确保有价值的基础设施(如 ChainLink 预言机)所必需的。 这种在特定应用的稳定币中对流动性的需求,很可能有助于提振治理贿赂市场。 在 Curve 战争的推动下,稳定币发行者可以通过贿赂,或向代币持有者付款,以确保他们在引导代币释放到所选池上的投票,为他们的代币在 Curve 和 Balancer 等去中心化交易所上建立流动性。 通过贿赂,发行者能够在需要的基础上租用所需场景的流动性。丰富的特定应用稳定币可能会导致更多的 DAO 进入这个游戏,并贿赂这些代币持有人。 反过来,这应该会增加 CRV 和 BAL 以及 CVX 和 AURA 锁定者的收益率,他们通过元治理分别控制了 Curve 和 Balancer 上的大部分释放,并收到了大部分的贿赂。 这种贿赂热潮的另一个受益者是 [Redacted] Cartel's Hidden Hand 和 Votium 等市场平台,他们为这些交易提供了便利。 然而,这种贿赂将以流动性碎片化的形式让终端用户付出代价。在一个几乎没有迹象显示资金流入的加密市场,流动性可能会在各种不同的稳定币中更加分散,导致鲸鱼交易者的执行力更差。 信贷热潮 特定应用的稳定币的增长也可能通过导致低借贷利率的扩散来催化 DeFi 信贷热潮。 为了与 USDC、USDT、DAI 和 FRAX 等现有稳定币竞争,Aave 和 Curve 等稳定币将可能不得不以低借贷利率提供 GHO 和 crvUSD,从而吸引用户铸造新单位来增加其流通供应。 理论上,这种低利率驱动的信贷热潮可以广泛地刺激 DeFi 和加密市场,farmer 和 degen 们都能以难以置信的低利率进行杠杆和借贷。此外,它还可能开启有趣的 Crypto 与 TradFi 之间的套利机会,因为用户可能会以远低于美国国债的利率借入稳定币。 我们已经从 Maker 等稳定币发行商那里看到了适应这种新模式的早期迹象,他们将通过 Spark,即 Maker 控制的 Aave V3 分叉,以 1% 的 Dai 储蓄率(DSR)提供 DAI 借贷。 虽然这种降低借款利率的做法可能会损害 Aave 和 Curve 等发行协议的底线,但它可能有助于满足 2022 年 CeFi 贷款机构内爆后对信贷的饥渴的市场。随着利率大幅高于 DSR 和 GHO 等稳定币的可能借款利率,Crypto 将成为世界上最便宜的信贷市场之一。 DeFi 的野猫时代 野猫银行是美国历史上的一个时期,每个银行都发行自己的货币。正如我们所说的,DeFi 正在加速运行金融历史,并且——凭借 GHO 和 crvUSD 这样的稳定币——似乎即将开始走像类似的轨迹。 虽然他们不太可能超越 DAI 和 FRAX 等更有优势的现有公司,但 GHO 和 crvUSD 受益于与其发行协议的集成,可以开拓出一个利基市场。 从理论上讲,这些稳定币将有助于加强其发行者的商业模式和对代币持有人的价值累积,但出于“竞相压价”,即发行者将在利率上相互压价,以向借款人提供最便宜的信贷,它们不太可能做到这一点。 最终的结果是,这些低利率可能会催化信贷繁荣,用廉价资本刺激链上经济。 在过去的一年里,货币成本急剧上升,这有可能使 DeFi 成为地球上成本最低的资本市场之一,也许会重新点燃人们的兴趣,导致资金流入生态系统。 来源:金色财经
lg
...
金色财经
2023-03-02
生成式AI快速发展带动GPU需求显著提升 这两家国内GPU领域领先公司受关注
go
lg
...
生成式人工智能产品。目前已上线了新模型
LLaMA
对标ChatGPT,该模型目前只对研究人员开放。此外,特斯拉CEO马斯克也于最近几周与人工智能研究人员接洽,希望组建一个新的实验室,以开发OpenAI旗下ChatGPT的替代品。 TrendForce集邦咨询最新发布的报告称,生成式AI是通过GAN、CLIP、Transformer、Diffusion等算法、预训练模型、多模态等AI技术的整合,数据、算力、算法是深耕生成式AI不可或缺的三大关键。由于生成式AI必须投入巨量数据进行训练,为缩短训练就得采用大量高效能GPU。以ChatGPT背后的GPT模型为例,其训练参数从2018年约1.2亿个到2020年已暴增至近1,800亿个,TrendForce集邦咨询估GPU需求量预估约2万颗,未来迈向商用将上看3万颗(以NVIDIA A100为主)。生成式AI发展将成为趋势,将带动GPU需求显著提升,国内相关领域公司望受关注。 景嘉微(300474)公司专注于GPU领域的研发、生产和销售,目前已成功自主研发JM5400、JM7200和JM9系列三代图形处理芯片,实现在专用领域和通用领域的广泛应用。 好利科技(002729)公司投资的合肥曲速主要从事GPU芯片、ADAS视觉芯片的研发和销售。在研GPU芯片采用模块化设计,可根据市场需求通过减少核心数目组合成面向各档次需求的产品。相较于国内同档次产品,其拥有更高的算力,性能、功耗优势明显;相较国外同档次产品,其性价比更高。
lg
...
金融界
2023-03-02
苹果、微软、英伟达等15家公司有望从人工智能中受益
go
lg
...
eta平台(Meta)通过其最近发布的
LLaMA
大型语言模型和GPU支持的人工智能研究超级集群 苹果(Apple)因为它受益于iOS搜索引擎的授权 百度(百度)的Ernie聊天机器人 英伟达(Nvidia)通过其gpu被用于人工智能军备竞赛 ASML(ASML)作为极紫外光刻工具的“领导者” 台积电(TSM)因为它是代工芯片制造的领导者 AristaNetworks(ANET)通过用于密集人工智能工作负载的高通量数据中心交换机 Adobe(ADBE)的SenseiAI平台 Shutterstock(SSTK)该公司与OpenAI建立了生成人工智能合作伙伴关系 NICE系统(NICE)通过人工智能数据监控 SAP(SAP)通过其企业和商业软件 Relx(Relx)通过AI支持的信息分析/决策工具 Palantir(PLTR)通过其被商业企业和政府使用的人工智能平台。 韦德布什证券(WedbushSecurities)上周表示,自去年12月云计算市场疲软以来,微软的云计算交易“稳步”增加。
lg
...
金融界
2023-03-01
盘点四大老牌 DeFi 协议的新招式 将带来哪些协同效应?
go
lg
...
带有一些令人印象深刻的创新,例如: ・
LLAMA
,这将为债务头寸提供持续清算机制,防止市场波动造成损失。 ・$ETH 和 LP 抵押(可能是 tricrypto2 和 3 pool)。 此外,最近有消息称,这有可能对抵押品(债务头寸)采用更高的 LTV。 这将意味着用户可以从他们的抵押品中实现资本的最大化,同时减少对清算的担忧。 系统流动性也会更强。 MakerDAO 就 TVL 而言,这是仅次于 Lido 的第二个 DeFi 协议。 尽管 $MKR 的代币经济学和 $DAI 的抵押可能会引起激烈争论,但 MakerDAO 已经催生了加密货币中最常用的生态系统之一。 现在它正在扩大。 aker 的“以增长为重点的分支”Spark Protocol 将于 4 月推出。 有意思的是,它建立在 Aave V3 之上。 得益于 Maker 的信用额度,用户将能够以非常低的利率(目前为 1%)借入 $DAI。 此外,Spark Protocol 将与固定利率协议合作,以提供这一重要工具。 在 TradFi 中,此类市场的 TVL 约为 450 万亿美元,而加密货币由于其新生的贷款机制及其波动性仍然落后。 此外,Maker 将推出自己的 $ETH 合成资产,称为 $EtherDAI。 Spark Protocol 将通过提供其流动性质押衍生品 $sEtherDAI 来帮助创造更多需求。 在总结了这些元老级 DeFi 项目的创新之后,我想强调的是,这些项目都希望通过与其他协议共享流动性和基础设施来发展业务。 ・Aave 治理正在讨论锁定他们所有的 $CRV 以直接释放到 $GHO 池; ・Spark 将 $DAI 市场利润的 10% 返还给 AaveDAO。 ・此外,正如我之前提到的,Frax Finance 已经宣布它将帮助引导 $GHO 的深度流动性。 ・Synthetix 的目标是成为衍生品的流动性中心。 显然,所有这些行为都不是出于同理心,而是出于发展。 尽管如此,合作和互相帮助仍然可以是整体 + EV(正期望值)。 这是迄今为止始终在推动 DeFi 发展的精神。 但是,他们为什么要构建不同的稳定币? 在这一点上,我同意 @DefiIgnas 的观点。事实上,我认为这些项目有不同的目标。他们的稳定币也有不同的目标。 例如,$crvUsd 可以帮助 Curve 提高资金效率,同时也增加其他稳定币的流动性。 同时,$GHO 可能主要是一种增加 Aave 流动性的工具。 虽然 Spark 可以成为增加 $DAI 在 DeFi 采用率的工具。 因此,虽然我不喜欢资本分散,但我很想知道这些项目将如何协同发展。 来源:金色财经
lg
...
金色财经
2023-02-28
上一页
1
•••
58
59
60
61
62
•••
65
下一页
24小时热点
马斯克准备离开!特朗普突然发话:特斯拉电动车不是每个人想要的……
lg
...
小非农ADP数据“大爆雷”!特朗普关税阴影下,美国4月私营部门新增就业创9个月来新低
lg
...
中美突发重磅!路透:中国列出免征125%关税美国进口商品“白名单”
lg
...
中美传出重大“关税”消息、习近平语出惊人!比特币和黄金突发脱钩了……
lg
...
黄金突遭猛烈抛售在原因在这!金价暴跌43美元 中美贸易谈判突传一则大消息
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
32讨论
#链上风云#
lg
...
85讨论
#VIP会员尊享#
lg
...
1924讨论
#CES 2025国际消费电子展#
lg
...
21讨论