全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
OpenAI董事萨默斯等人委托威凯平和而德律所调查造成CEO奥特曼被罢免的那些事件
go
lg
...
据报道,OpenAI董事会主席
Bret
Taylor
宣布,董事会成员
Bret
Taylor
和萨默斯(前美国财长)组成的一个委员会面试了多家主要的律所,最终将决定委托WilmerHale(美国威凯平和而德律师事务所)的律师Anjan Sahni和Hallie B. Levin评估/调查造成CEO奥特曼被免职的一系列事件。在这两名律师推进“有效而及时的评估”的同时,董事会将继续加强OpenAI的公司治理、构建一个合格而多样化的(由出色的个体组成的)董事会、并监督公司在确保通用人工智能对全人类谋利的重要使命。
lg
...
金融界
2023-12-09
万字长文还原OpenAI“宫斗”内幕
go
lg
...
ook前高管、推特董事长布雷特·泰勒(
Bret
Taylor
),以及前财政部长、哈佛大学校长拉里·萨默斯(Larry Summers)——将出任董事。OpenAI的高管同意对所发生的事情进行独立调查,包括奥特曼过去作为首席执行官的行为。 尽管C计划最初看起来很诱人,但微软高管后来得出的结论是,目前的情况是最好的结果。将OpenAI的员工转移到微软可能会导致成本高昂且浪费时间的诉讼,还可能引发政府调查。在新框架下,微软获得了OpenAI的无投票权的董事会观察员席位,使其在不引起监管审查的情况下获得了更大的影响力。 微软的巨大胜利 事实上,这出肥皂剧的结局被视为微软的巨大胜利,也是对其开发人工智能方法的有力认可。一位微软高管表示:“奥特曼和布罗克曼真的很聪明,他们可以去任何地方。但他们选择了微软,所有那些OpenAI的人都准备选择微软,就像四年前选择我们一样。这极大地验证了我们建立的体系。他们都知道,这里是继续他们正在做的工作的最佳地点,最安全的地点。” 与此同时,被解雇的董事会成员坚称他们的行为是明智的。“将会有一个全面和独立的调查,而不是把一群山姆的亲信放在董事会,我们最终有了可以对抗他的新人,”熟悉董事会讨论的人透露说。“山姆很有权力,他很有说服力,他善于为所欲为,现在他注意到人们在看着他。”前董事托纳说,“董事会始终专注于履行我们对OpenAI使命的义务。”(奥特曼告诉其他人,他欢迎调查——部分是为了帮助他理解为什么会发生这样的悲剧,以及他本可以采取哪些不同的措施来防止这种情况发生。) 一些人工智能监管机构对这个结果不是特别满意。开源人工智能平台Hugging Face的首席伦理学家玛格丽特·米歇尔(Margaret Mitchell)认为,“董事会解雇奥特曼的时候,确实是在做自己的工作。他的回归将会产生寒蝉效应。我们将会看到越来越少的人在公司内部直言不讳,因为他们会认为自己会被解雇——而高层的人会更加不负责任。” 就奥特曼而言,他准备讨论其他事情。“我认为我们只是转向良好的治理和优秀的董事会成员,我们将进行独立评估,这让我非常兴奋,”他告诉我。“我只是希望每个人都继续生活,开心快乐。我们会继续进行这项任务。” 让纳德拉和斯科特松了一口气的是,随着Copilots的大规模发布,微软的一切都恢复了正常。不过Office Copilots看起来既令人印象深刻又平庸。它们让平凡的任务变得更容易,但它们距离取代人类工人还有很长的路要走。它们感觉和科幻小说预言的相去甚远,但是它们也是人们可能每天都会用到的东西。 根据斯科特的说法,这种效果是有意的。“真正的乐观主义意味着有时要慢慢来,”他说。如果他、穆拉蒂和纳德拉如愿以偿——鉴于他们最近的胜利,这种可能性现在更大——人工智能将继续稳步渗透到我们的生活中,其速度足以适应短期悲观主义所需的警告,并且只有在人类能够吸收这项技术应该如何使用的情况下才会如此。事情仍有可能失控——人工智能的渐进发展将阻止我们意识到这些危险,直到为时已晚。但是,就目前而言,斯科特和穆拉蒂相信他们能够平衡进步和安全。 斯科特表示:“人工智能是人类为提高每个人的生活质量而发明的最强大的东西之一。但这需要时间,也应该需要时间。我们总是通过技术来解决极具挑战性的问题。因此,我们可以告诉自己一个关于未来的好故事,也可以告诉自己一个关于未来的坏故事——无论我们选择哪一个,那都有可能成为现实。” 来源:金色财经
lg
...
金色财经
2023-12-03
OpenAI的宫斗给微软敲醒警钟
go
lg
...
,投资者需要注意新的董事会指导该组织。
Bret
Taylor
、Larry Summers和Adam D'Angelo是一个更强大的董事会,尽管他们不太可能像前任董事会那样肩负人工智能公共安全的核心使命。 来源:OpenAI 一个被释放的山姆,没有为公共安全和造福全人类而构建的董事会,实际上可能会进一步发展生成型人工智能领导力。由乔治城安全和新兴技术中心的海伦·托纳和OpenAI首席科学家Ilya Sutskever领导的董事会成员,他们可能不会因为安全原因而减缓AI的发展。 最终,显然有数百名客户联系了Anthropic、谷歌云和人工智能初创公司Cohere,寻求替代的人工智能服务。此外,微软显然在与OpenAI的竞争中遇到了问题,因为山姆可能会进一步转向商业化机会,而不像之前的结构那样努力束缚这些行动,因此在签约客户方面受到的影响更大。 微软肯定会从OpenAI价值高达900亿美元的大笔投资中受益,但该公司也没有完全控制这项技术。OpenAI产生的所有价值并不会全部流入微软,除非它成为这家科技巨头的收入。 陡峭的价值飙升 尽管微软全速推进Copilot和其他人工智能产品,但企业对购买新的人工智能软件工具仍然采取谨慎态度。这家科技巨头仅对第二财季的收入进行了指导,预计为606亿美元,增长15%。 虽然由于人工智能,微软有巨大的增长机会,但其股价现在已经超过了实际的潜力。该公司已经创造了2400亿美元的年收入,预计未来几年将有1000亿美元的人工智能增长,这是一个巨大的推动,但考虑到微软的相对规模,这并不是一个巨大的提高。 该股目前市值接近3万亿美元,24财年(截至6月)的营收为2430亿美元。预计营收仅会以15%的速度增长,而股价接近销售额的12倍。事实上,该公司2028财年的营收为4050亿美元,市盈率为7倍,这表明该公司股价在未来5年内可能不会反弹。其他所有科技巨头的股价现在都比微软低得多,Alphabet和Meta的预期市盈率只有6倍。 数据来源:YCharts 在接下来的几周和几个月里,该股肯定会走得更高。许多分析师给出了400美元以上的目标价。奇怪的是,目前普遍的目标价只有406美元,只有7.6%的上涨空间,而微软在53个评级中有35个评级是强烈买入。 来源:Seeking Alpha 实际上,大多数分析师已经完全看好该股票,从目前的水平来看,提供的额外上涨空间有限。投资者更像是将400美元视为退出点,而不是进入点。 结论 OpenAI的戏剧性事件可能不会损害人工智能业务,但这一戏剧性事件肯定会促使企业研究其他人工智能来源。与科技同行相比,微软的估值已经处于溢价和过高水平。投资者应该利用任何进一步向共识目标价格上涨的机会,在高点退出该股,并意识到这不是未来几年人工智能大幅上涨的起点。 $微软(MSFT)$
lg
...
老虎证券
2023-11-27
奥特曼被解雇原因“曝光”?知情人士:OpenAI内部项目恐威胁人类!
go
lg
...
。Salesforce前联合首席执行官
Bret
Taylor
和美国前财政部长萨默斯将加入OpenAI董事会,Taylor将担任主席一职。 尽管有明显的松了一口气的感觉,并打算恢复正常的业务,但仍有相当多的细节尚未解决:董事会的最终组成尚未确定,对于董事会最初罢免奥特曼的具体原因也没有什么明确的解释。OpenAI还将不得不面对市场对其内部功能失调的质疑,碰巧该公司正在开发非常强大的人工智能,对一些人来说,这是一种可怕的技术。 据一位消息人士透露,长期担任该公司高管的Mira Murati周三告诉员工,一封名为Q*的关于在人工智能领域取得突破的信件促成了董事会的行动,信中警告称这一强大的人工智能可能会威胁到人类。 其中一名知情人士表示,OpenAI在Q*上取得了进展,一些内部人士认为这可能是这家初创公司在人工通用智能(AGI)领域的突破。OpenAI将AGI定义为比人类更聪明的人工智能系统。 这位不愿透露姓名的人士说,在拥有大量计算资源的情况下,新模型能够解决某些数学问题。该人士说,虽然Q*的数学能力只有小学生的水平,但通过这些测试让研究人员对Q*未来的成功非常乐观。 对于这些“爆料”,特斯拉CEO马斯克表示:极度令人担忧!
lg
...
金融界
2023-11-23
官宣!奥特曼重返OpenAI任CEO!云计算50ETF(516630)开盘下挫后小幅回升
go
lg
...
enAI重新设立一个初步的董事会,包括
Bret
Taylor
、Larry Summers和Adam D'Angelo三人,
Bret
Taylor
任董事会主席。奥特曼的重新回归,或再次提振AI产业链! 此外,“卖铲人”英伟达疯狂吸金,再次可见AI热潮势不可挡。美国时间2023年11月21日,英伟达发布截至2023年10月29日的2024财年第三财季报告,当季实现营收181.2亿美元,同比增长206%;净利润为100.2亿美元,同比增长588%;扣除某些项目后,Non-GAAP准则下的每股收益为4.02美元;其中总营收、每股收益这两项核心数据均远超分析师预期。 云计算50ETF(516630)、大数据50ETF(516000)的持仓股主营业务覆盖了AI产业链中的算力端、模型端、应用端,涵盖了AI 应用、算力租赁、数据要素等热门领域。AI大模型继续狂飙,商业化AI产品应用落地加速,算力需求或居高不下,AI算力主线迎也来了新一阶段的催化,光模块、算力设备、算力资源租赁等算力层细分板块景气度有望持续上升。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-11-23
OpenAI“宫斗戏”落幕!Sam Altman回归担任CEO 组建新董事会
go
lg
...
Altman回归重新担任CEO,并与
Bret
Taylor
、Larrt Summers和Adam D’Angelo组成公司新的初始董事会。这一戏剧性的转变震惊了硅谷和全球人工智能行业。 新董事会名单也随之披露。新加入董事会的成员名单豪华,包括此前媒体曝光过的
Bret
Taylor
,他是赛富时前联合首席执行官,在马斯克收购推特时曾担任推特董事会主席、曾是Facebook的首席技术官;Larry Summers,经济学家、美国前财政部长和哈佛大学校长;Adam D’Angelo保留席位,Quora CEO和Poe CEO。原董事会的两位成员Helen Toner、Tasha McCauley已经确定离开。OpenAI表示,后续细节将会陆续披露。 OpenAI发文称:“我们已原则上达成协议,让 Sam Altman 重返 OpenAI 担任首席执行官,并组建由
Bret
Taylor
(主席)、Larry Summers 和 Adam D‘Angelo 组成的新初始董事会。我们正在合作找出细节。非常感谢您对此的耐心等待。” 除了Sam,Greg Brockman也确认回归,其本人发推表示:“今晚回OpenAI继续敲代码”,还有首席技术官Mira Murati也表示将回归。 从上周到现在,OpenAI的这场大戏已经发生了太多反转。Altman上周五被OpenAI董事会解雇,原因是他在人工智能开发和盈利的速度上存在分歧。Altman此前一直在与OpenAI谈判重返公司。据知情人士透露,这些谈判在周日陷入僵局,部分原因是Altman和其他人要求现有董事会成员辞职的压力。 相反,董事会任命了一位新领导人——前推特首席执行官Emmett Shear, OpenAI最大的支持者微软公司(MSFT.US)随后表示,将聘请Altman领导一个新的内部人工智能团队。不仅如此,几乎所有员工都威胁要辞职。几个小时后,OpenAI 770名员工中的大多数人签署了一封致董事会的信,称除非所有董事会成员辞职,Altman复职,否则他们可能辞职并加入微软。在这封信上签了名的人包括上周五被任命为临时首席执行官的Murati,以及OpenAI联合创始人兼董事会成员Ilya Sutskever。 值得注意的是,Sutskever此前曾在公司的发展方向上与Altman意见相左。Sutskever称:“我对自己参与董事会的行动深感遗憾。我从未想过要伤害OpenAI。我热爱我们共同建立的一切,我会尽我所能让公司重新团结起来。” 核心矛盾:营利化问题 Altman的回归结束了这几天的大起大落,让这家全球最知名的人工智能初创公司陷入混乱这种快速逆转可能会安抚投资者,并降低员工逃离的威胁。但这也让人们对该ChatGPT制造商和其他人工智能初创公司的未来道路产生了疑问,这些公司试图在负责任地开发人工智能与从投资者那里筹集大量资金以支持构建这些工具所需的昂贵计算基础设施之间取得平衡。 OpenAI成立于2015年,最初是一家非营利组织,旨在以造福人类的方式推进人工智能,而不是受经济利益的支配。该集团后来将自己重组为一个有上限的营利性实体,从微软和其他投资者那里筹集了数十亿美元——Altman在这些交易中发挥了重要作用——但它仍然由一个非营利性董事会监督。最近几天,这种紧张关系全面爆发出来。 此前,Altman的离职让这家初创公司的投资者措手不及。微软以超过100亿美元的股份支持这家初创公司,在Altman被解雇前几分钟才得到通知。据知情人士透露,这家软件巨头开始与包括Thrive Capital和Tiger Global Management在内的投资者合作,希望把他请回来。当这一努力失败后,微软同意从OpenAI聘请Altman和其他人。 在Altman被解雇之前,OpenAI正在计划以860亿美元的估值出售员工股票,这一珍贵的变现机会因Altman的离开而充满变数。OpenAI允许员工以860亿美元的估值出售股票的计划也面临新的不确定性。据知情人士透露,Thrive预计将牵头对员工股票提出收购要约,但截至周六,该公司尚未将这笔钱汇给OpenAI,并告诉OpenAI,Altman的离职将影响其行动。 38岁的Altman比其他任何人都更能代表人工智能技术的新时代,这要归功于ChatGPT的成功。Altman是今年该行业与监管机构合作的核心人物,他定期会见世界各国领导人,包括美国总统拜登和英国首相苏纳克。周四,他出席了亚太经合组织(APEC)会议的一个小组讨论,讨论人工智能的未来及其风险。其他高管和世界领导人也参加了会议。 然而,据知情人士透露,在幕后,Altman与董事会成员,尤其是Sutskever,在开发生成式人工智能的速度、如何将产品商业化以及减少其对公众的潜在危害所需的步骤等问题上发生了冲突。当时OpenAI的其他董事会成员包括D’angelo、GeoSim Systems首席执行官Tasha McCauley、乔治敦大学安全与新兴技术中心战略与基础研究资助主任Helen Toner。 除了在战略上的分歧,董事会成员还对Altman的创业雄心产生了分歧。据一位了解投资提案的人士透露,他一直在寻求从中东主权财富基金筹集数百亿美元,以创建一家人工智能芯片初创公司,与英伟达(NVDA.US)生产的处理器竞争。Altman还正在争取软银集团董事长孙正义向一家新公司投资数十亿美元,该公司将与前苹果设计师Jony Ive合作,生产面向人工智能的硬件。 Altman的副业使他与董事会本已紧张的关系更加复杂。OpenAI在上周五的一份声明中表示,董事会进行内部审查后发现,首席执行官“在与董事会的沟通中并不总是坦诚,阻碍了董事会履行职责的能力”。因此,该公司表示,“董事会对他继续领导OpenAI的能力不再有信心”。 这场董事会的戏剧性事件与硅谷历史上的其他政变有相似之处。苹果公司的联合创始人Steve Jobs在1985年被解雇,10多年后他又回归苹果。推特的联合创始人Dorsey在2008年被赶出推特, 7年后重新出任CEO。
lg
...
金融界
2023-11-22
AI 减速Web3 加速舆论话语与政治
go
lg
...
组建由 Facebook 首席技术官
Bret
Taylor
(主席)、奥巴马政府前首席财务顾问 Larry Summers 和 Facebook 首任 CTO Adam D'Angelo 组成的新的初始董事会。同时,OpenAI 联创 Greg Brockman 也将重返 OpenAI。爆炸星期三,AI 是真的给币圈面子,否则今天币圈只能吃币安和赵长鹏的瓜了。 回到最初 在 Balaji 看来,OpenAI 不开源就是一种恶,只有像 Meta 研发的「Llama 2」一样的开源语言大模型才是绝对的正确: 的起点,记忆中你青涩的脸」。OpenAI 董事会与 Sam Altman 对于内部斗争实情的隐藏导致我们依然无法获悉罢免的根本原因。路线之争?沟通不畅?我不知道,也不感兴趣。与其千篇一律地猜测背后的「真相」,不如从后现代主义的视角聚焦于部分 Web3 从业者对于这一事件的讨论,观察这些讨论背后 Web3 的话语与政治。因为在很大程度上,话语的构建遮蔽了太多的细节,有利于自己的话语才会被纳入到叙事当中。但人与事是复杂的,而非简单的意识形态、主义所能涵括。 当世界顶级科技公司罢免公告发出时,舆论一片倒向所谓 OpenAI 的灵魂人物 Sam Altman 与 Greg Brockman,而投资者的行动也表明 Altman 对 OpenAI 的重要性。这场内斗已经被媒体与舆论塑造为「政变」,而首席技术官 Ilya Sutskever 则被视为「政变」的幕后推手。AI 界的大事,Web3 也并未闲着,以 Coinbase 前 CTO Balaji Srinivasan、Coinbase 联创兼 CEO Brain Armstrong、a16z 普通合伙人 Sriram Krishnan 为代表的 Web3 从业者极力主张「去中心化 AI」,拒绝有效利他主义,拒绝减速。在这种情形中,一种新的对立与话语表述悄然诞生,AI 在减速,而 Web3 则将自己建构为代表进步主义的加速与人类历史的未来。 一、「制造敌人」:Web3 有效加速主义的话语政治 在 OpenAI 董事会罢免 Sam Altman 的消息爆出来后,笔者留意到以 Balaji Srinivasan、Brain Armstrong 为代表的 Web3 有效加速主义者对 OpenAI 董事会的鄙夷。在他们的话语体系中,有效利他主义、AI 末日论是有效加速主义的对立面。「好」与「坏」、「中心化」与「去中心化」、「AI」与「Web3」、「国家」与「去国家化」同样构成了整套话语表述。事实上,「中心化」、「极权」、「专制」、「草台班子」、「减速」等话语建构构成了 Web3 的道德基础,而代表着进步的「加速」则赋予了 Web3 革命的天然正当性。 什么是有效加速主义(Effective Accelerationism,网络上一般简写为 e/acc)?笔者在此择选一个被普遍接受的含义,而它更多指向了右翼加速主义: 有效加速主义是一种基于热力学第二定律的信念,即宇宙本身是一个创造生命并不断扩张的优化过程。这种扩张的引擎是技术资本。该发动机无法停止。进步的车轮只会朝一个方向转动。 这一流派以 Nick Land 为代表,它启发了美国新保守主义运动。没错,它们是保守的而非激进的,尽管它们拥抱现代技术,但却否定了具有普世价值的民主、人权与自由。 有效加速主义尊崇自然律,认为技术就像自然界一样可以无限地增熵,并且否认这是一种意识形态与运动,而是对真理的承认。在他们看来,技术资本(Technocapital,Viviana Rojas 于 2012 年提出)是一个不可阻挡的物理过程。 有效加速主义是对技术官僚控制的打击,是对末日论者和减速论者的打击,他们希望我们消耗更少的自由能,创造更少的熵。自上而下的控制只会降低文明的维度。 有效加速主义忽略了一点,这个世界是由人所构建的,文明是由人所创造的,而文明的本质是负熵,它不断地在做熵减。成熟的文明意味着建立了一套社会秩序,这个秩序必然是稳定的,将不可控的、不确定性的事物纳入可控的秩序当中,或是压缩在社会最阴暗的角落。近代科学诞生以来,人类社会便加速世俗化进程,科学对于世界有依据的认识战胜了宗教的不可知论。因为科学在自己的边界内无法证伪,也意味着科学的知识都是为人类可以掌握的。文明同样如此。换言之,有效加速主义的逻辑自洽在哲学上存在挑战。 有效加速主义者往往是彻头彻尾的科技精英,他们掌握着这个时代与未来走向最核心的话语与权力。在他们看来,历次工业革命与技术变革人类都可以适应,那么人类也将适应 AI。加速!加速!加速!这是有效加速主义者的口号,任何妨碍技术无限进步的都该反对。而对于 Web3 有效加速主义者来说,「加速」还要与「去中心化」合谋。我们知道,任何政治构建都是讲故事,不同的政治斗争实质上就是不同「故事」(政治阐述)之间的对抗。当某个故事及其话语体系被广泛接受时,权力也就随之而生。有效加速主义者将人工智能末日论与减速论并列,并将其塑造为自己的对立面,一个不同于自我意识形态的他者,来述说自己的政治叙事。民族国家注定走向衰亡,加密与去中心化的政治叙事就要成为绝对的真理与历史的终结。 在 OpenAI 事件刚爆发之际,对安全、公司治理结构的合理猜测成为有效加速主义者的话柄。他们的政治叙事即「去中心化」、「去国家化」、「去中心化治理」,这迎合了 OpenAI 董事会被质疑的「奇葩」、「独裁」、「不透明」的治理结构。 11 月 18 日,Balaji 的第一篇关于 OpenAI 的推文写道:「末日论者最终信任的是中央集权国家,就像自由主义者在 911 事件后相信《爱国者法案》一样;而有效加速主义则信任去中心化网络」,「从根本上说,末日论者相信哈里斯能够监管超级智能。同时,有效加速主义认为创建模型的技术专家比那些甚至不了解模型并且讨厌技术的国家主义者更有能力减轻任何负面影响」。在此,Balaji 认为,AI 领域的技术专家与进行「监管」的国家应是对立的,AI 领域可以进行自监管,而无需国家的介入。 随后,Balaji 试图在 AI 与 Web3 之间建立同盟。他声称「如果董事会可以这样对待 Sam,他们也可以这样对待任何 OpenAI 客户。人工智能需要去中心化。」「如果事实证明,狂热的人工智能末日论者导致了像 GDB 这样的新一代人才外流,那么每一个有价值的人工智能组织都会立即将末日论者从控制岗位上清除出去。 」OpenAI 董事会已经被塑造为一个「狂热的 AI 末日论者」,他期望着所有 AI 企业都是与之相对的道德圣人,「在毁灭者毁灭你之前,先除掉他们」。 「又「唯一的出路就是加速 + 去中心化」,Balaji 给出了方向,并就此加深了对「国家主义」的反动:「如果您从事 AI 领域,请转向去中心化。 人工智能领域的每个人都上了一堂课:(a)对公司拥有主权;(2)技术的去中心化;(3)独立于国家主义意识形态。要想有效加速,我们需要去中心化! 现在,每个人都看到了单点故障的风险。如果董事会可以这样对待 Sam,他们也可以这样对待任何 OpenAI 客户。因此,人工智能要去中心化。 」 作为《网络国家》的作者,Balaji 再次开始了他的表演:「AI 末日论者的逻辑就是智能炸弹客的逻辑。任何能降低 p(doom) 的东西都是好的。比如禁止计算、让公司破产或炸毁数据中心。这些激进的卢徳分子(指的是 19 世纪初英国手工业工人中参加捣毁机器的人)不会止步于毁掉他们自己的 AI 公司。他们也想控制你的公司。 与许多意识形态一样,AI 末日论也演变成了类似共产主义的东西。他们需要控制全世界的 AI,从而控制全世界的计算,进而控制全世界,以『拯救』世界。令人惊讶的是,他们的总体计划让哈里斯负责从超级智能中拯救我们。」 在政治口号喊出来后,Balaji 将矛头转向 OpenAI 的另一个标签「非营利组织」:「非营利组织毁了旧金山,现在又毁了旧金山最好的公司。他们名副其实,非营利组织无利可图。是的,有些原则上的例外。比如 EFF。它做得很好。但我们需要重新考虑非营利组织的激增问题」。是的,他们为了自己的政治叙事,也否定了「非营利组织」。Web3 不再谈论 OpenAI 作为非营利组织的「理想主义」初衷,不再颂扬「造福人类」的理想,只是轻描淡写一句不负责任的话:「它变了」。是啊,变了,多么大的转折,要么更好、要么更差,非此即彼。非营利组织不重要、变了多少不重要、如何变得不重要,重要的是变了,话语的影响就在于此。 更有意思的是,Balaji 的功利主义似乎让他迷失了自己,他的目标只剩下「网络国家」。Twitter 成为了 Balaji 口中对抗另一个主权国家的利器,他过分地褒扬了马斯克,却忘记了这是一个最大的独裁者,Balaji 在赞扬一个他所极力反对的人与事: 「减速论者有国家,但我们有网络。」 过去一年,网络在从国家手中夺回社交、加密货币和 AI 方面取得了重大进展。首先,马斯克收购了 Twitter,解雇了唤醒者,解除了华盛顿特区对社交媒体的核心控制。然后,公民记者揭露了 FTX,摧毁了华盛顿特区对加密货币的理想控制点。现在,有效利他主义也发生了内讧,破坏了他们对 AI 的关键文化控制点。因此,我们有机会争取言论自由、去中心化货币和开源 AI。」Balaji 称,「在每一件事中,Twitter 都是关键」,「即使 FBI 要求 Twitter 进行审查,马斯克也没有对 Twitter 进行审查;Twitter 上的加密社区曝光了 FTX,即使国会为 SBF 开脱;Twitter 上的有效加速主义斥责有效利他主义,即使有效利他主义试图通过行政命令破坏 AI」。 Balaji 说的一点都没错,OpenAI 事件能有如此大的传播离不开 Twitter。他与技术圈名人响马都从发生学的角度指出这场舆论的另一个制造剂——舆论发生的场域 Twitter。是的,没有中心化而又独裁的 Twitter,怎么会有 Balaji 口中与国家进行夺权的「网络」? 为什么「有效利他主义」被这群 Web3 大佬所厌恶?那自然离不开 SBF 与他的 FTX 帝国。SBF 在大学时期就深信有效利他主义,「赚最多的钱,捐给更多的人」。但 FTX 的暴雷对整个加密行业造成了巨大的冲击,「恨一个人也要恨他的信仰」,「有效利他主义」从此「臭名昭著」。在 Brian Amerstrong 看来, 如果这真的是 OpenAI 的有效利他主义、减速论、AI 安全政变...OpenAI 的所有优秀员工都应该辞职,加入 Sam / Greg 的新公司(如果他们有新公司的话)」。这一次,跳过掌权的非营利性董事会,去除减速论 / 有效利他主义,保持创始人的控制权,避免无意义的监管,只管建设,加速。你们正在创造美丽新世界,不要感到内疚,要为了自己的动机而夺取它。 这种减速思维摧毁了谷歌,而 OpenAI 曾经是谷歌的解药(如果属实,现在也倒在了同样的力量之下)。有效利他主义毁掉了加密货币的大量价值,现在又毁掉了人工智能。旧金山也是问题的一部分。很多问题都可以追溯到马克思主义思想。你必须清除公司存在的这种风险——讽刺的是,这才是它们本应担心的真正安全风险。 如 Balaji 的自我矛盾一样,Brian Armstrong 也有一番宏论,他认为「OpenAI 董事会的存在不是为了赚钱或使股东价值最大化」可能是个「错误」。 除此之外,a16z 普通合伙人 Sriram Krishnan 也持同样观点:「有效利他主义可能才是我们这里很多人应该关注的坏人(villain)。 Web3 有效加速主义用极具对立性的「话语」来述说自己的政治诉求,但却遮蔽了很多人与事的多样性与复杂性。 二、AI 无国界?OpenAI 有「国家」 在这场话语建构当中,Web3 在去中心化、有效加速主义方面的话语建构来源之一就是对 AI 界对安全的考量。AI 安全涉及到现代国家治理术、技术资本主义与生命政治,在现代国家治理中,任何技术议题也就理所当然地要迎合国家意志,因此有效加速主义者的话语建构也就无法脱离整体的国家议程。 本文暂不追溯太远,但自 2021 年以来,拜登 - 哈里斯政府就一直致力于控制与管理 AI 风险。OpenAI 在这一议程中也起到重要作用,推动了美国 AI 风险管理框架的建立与实施。 早在 2019 年 6 月,OpenAI 曾回复美国商务部国家标准与技术研究院(NIST)应如何制定美国与国际 AI 标准,并指出将特别关注「可靠、稳健与可信」的系统,希望提高人工智能系统可预测性、稳健性和可靠性。OpenAI 认为,AI 的安全性包括「确保系统在与人类交互时不会对人类造成身体伤害;确保系统将与人类核实与其即将采取的行动相关的关键决策;确保 AI 系统提出的建议尊重人类的限制和系统运行的大环境」。它们主张,美国需制定 AI 技术国际标准,「让监管基础设施为大规模、多用途的 AI 系统做好准备」。 拜登政府组建后,美国国家人工智能研究资源工作组于 2021 年 6 月成立,旨在帮助创建和实施国家 AI 研究资源蓝图。随后,NIST 召开 AI RMF(AI 风险管理框架)研讨会,AI RMF(AI 风险管理框架)正式提上议程。2022 年 3 月,NIST 就 AI RMF 草案征求意见。OpenAI 此时对 NIST AI 风险管理框架初稿进行评论,表示将响应 NIST 的要求,并指出 NIST 应考虑将与人类价值观和意图保持一致纳入其指导原则,即确保与人类价值观与意图保持一致的 AI 系统能够可靠地按照人类意图行事。 2022 年 11 月,GPT-4 的诞生进一步加快了拜登政府对 AI 领域的风险管理。2023 年 1 月 25 日,美国国家标准与技术研究院(NIST)正式发布 AI 风险管理框架(RMF),以提高 AI 的可信度,确保组织能够以不同方式思考 AI 及其风险。3 月,NIST 启动「可信与负责任的 AI 资源中心」,以促进 AI RMF 的实施。 2 月,拜登政府发布一项关于促进种族平等的行政命令,其中表示要「促进科学公平,消除人工智能等新技术设计和使用中的偏见」,保护公众免受算法歧视。随后,美国联邦贸易委员会、消费者金融保护局、平等就业机会委员会与司法部民权司发表联合声明,决定监督自动化系统开发与使用,并指出自动化系统可能在数据集、不透明、设计与使用等方面助长非法歧视且违反联邦法律。 5 月 4 日,哈里斯会见 Alphabet、Anthropic、微软和 OpenAI 四家科技公司 CEO,以强调负责任的 AI 创新,在抓住机遇之前降低其风险。5 月 23 日,拜登 - 哈里斯政府发布公告,并对自 2019 年以来尚未更改过的 AI 研发计划进行更新——《国家人工智能研发战略计划:2023 更新》。该路线图将推进负责任的 AI 研究、开发与部署,并再次强调需在抓住 AI 机遇之前首先管理其风险。同时,联邦政府的投资重点将是促进负责任的美国创新、服务于公共利益、保护人民权利和安全以及维护民主价值观的 AI 研发。在这份文件中,美国国家科学基金会还宣布拨款 1.4 亿美元,新建 7 个国家人工智能研究所,使全国机构总数达到 25 个。 6 月,拜登与技术和社会交叉领域的专家进行 AI 的前景与风险圆桌讨论 7 月,哈里斯召集消费者、劳工与民权领袖讨论 AI 的相关风险。 随后,拜登召集亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 等 7 家公司,宣布拜登 - 哈里斯政府已获得这些公司的自愿承诺,以帮助实现安全、可靠和透明的 AI 技术发展。他们承诺: 在向公众推出产品之前确保其安全; 构建将安全放在首位的系统; 赢得公众的信任。 10 月 30 日,拜登签署《关于安全、可靠和可信地开发和使用 AI 的行政命令》,明确表示将限制硅谷在 AI 产品经过全面测试之前发布产品的倾向。 基于拜登在 10 月 30 日的行政命令,哈里斯在 11 月 1 日访问英国时宣布美国正在通过商务部在 NIST 内建立美国人工智能安全研究所,以实施 NIST AI RMF。同时,美国也已发布首份关于美国政府使用 AI 的政策指南草案,包括《人工智能权利法案蓝图》、AI RMF、负责任地将 AI 和自主权用于军事用途的政治宣言、与 AI 相关的慈善组织发起的倡议、防 AI 欺诈、内容认证国际规范等。 拜登 - 哈里斯政府在 AI 方面的议程涉及人工智能安全、生物武器风险、国家安全、网络安全、隐私、偏见、公民权利、算法歧视、刑事司法、教育、工人权利和研究等各方面。而 Web3 有效加速主义者将一箩筐的内容全都将其作为国家的叙事范畴当作讨伐的对象,在这里,只需要否认国家、中心化与集权就可以选择性地无视复杂多样的全球性问题。似乎,只要获得一片中立的领土建立「网络国家」就可以一劳永逸地躲避世俗世界的喧嚣。 三、被遮蔽的真实:OpenAI 的「末日论者」与「加速主义者」 拿去滤镜,来看看真实的人吧。有媒体报道,越来越多的人工智能业内人士正在猜测人工智能将给人类带来灾难性后果的概率,并计算末日的「p(doom)」。那么,作为 OpenAI 的前 CEO,Sam Altman 是一个有效加速主义者吗?在 Web3 有效加速主义者的话语中,Sam Altman 是「加速主义」的代表,「造福全人类」的董事会只有成为「有效利他主义者」、「减速论者」。 OpenAI CTO、DALL-E 与 ChatGPT 团队领导者 Mira Murati 在今年 2 月《时代》杂志采访时公开表示: 我们甚至对 ChatGPT 的出现感到些许不安,我很好奇它会在哪些领域开始为人们带来实用性,而不仅仅是新奇与纯粹的好奇; 关于社会影响还有很多问题,我们需要考虑很多伦理与哲学问题。重要的是我们要引入不同的声音,比如哲学家、社会科学家、艺术家和人文学者。 [AI] 可能被滥用,接下来的问题是如何在全球范围内管理这项技术的使用。如何以符合人类价值观的方式管理人工智能的使用? 尽管 AI 带来了很多不确定性,但 Mira Murati 总体是乐观的。 为大多数人所知并造成恐慌的是 2023 年 3 月,马斯克等人呼吁的暂停至少 6 个月的比 GPT-4 更强大的人工智能系统训练公开信。或许,AI 技术的发展似乎超出了这些科技精英的预料。 真正从事技术研发的 OpenAI 首席科学家 Ilya Sutskever 曾说,「在某些时候,一些别有居心的人可以利用他们向任何愿意付费的人提供的模型很容易造成巨大伤害」。 在 11 月《卫报》发布的纪录片《Ilya:塑造世界的 AI 科学家》中,Ilya 提问了 AI 技术是否会对人类有益的问题。该视频首先展映 Ilya 的担忧:「AI 会使网络攻击更加极端,会创造完全自动化的 AI 武器,无限稳定的独裁政权」。因此,对他来说,「第一批 AGI 的信念与愿望尤为重要,对它进行正确的编程尤为重要,如果不这样做,那么进化和自然选择的本质就会偏向那些将自身生存置于首位的系统」,「并不是说它们会伤害人类,而是因为它会太强大」。Ilya 举了人对待动物的例子进行类比: 人类在修高速公路时不会征求动物的同意,人与 AGI 的关系也是如此,AGI 是真正自主并代表自己运作的。很多机器学习专家并未意识到神经网络和 AI 的计算速度将在未来几年突破几十万倍,而他们并没有足够的时间来确保他们构建的 AGI 能够深深地关心人类。 只不过多思考了一些人类的未来处境,Ilya 就成了要被清除出去的人工智能末日论者,但他从未说 AI 会毁灭人类,只是反思 AI 的强大会带来相应的危险。「AI 末日论」的形象塑造不得不归功于《卫报》给 Ilya 给他制作的纪录片——显而易见的末日感。 作为加速主义者,Sam Altman 在 Web3 有效加速主义者的话语构建中也有着天然的正当性。作为 Web3 项目 Worldcoin 的创始人,他也是 Web3 最有机会拉拢的对象。但 Sam Altman 完全信奉有效加速主义吗?也不尽然,他的思想中也有着出于人类关怀的减速思考。 今年 2 月,Sam Altman 发表「Planning for AGI and beyond」。在这篇文章中,Sam Altman 承认 AGI 会带来的「严重误用、严重事故与社会混乱的风险」,也表示 AI 需要持续迭代以解决当前问题,并通过「逐步过渡」确保人类可以逐步适应: 目前,我们认为成功应对人工智能部署挑战的最佳方法是通过快速学习和仔细迭代的紧密反馈循环。社会将面临人工智能系统可以做什么、如何消除偏见、如何应对工作岗位流失等重大问题。最佳决策将取决于技术所采取的路径,与任何新领域一样,迄今为止大多数专家的预测都是错误的。 Sam Altman 也是开源、民主与去中心化的忠实拥趸: 我们认为世界上更多地使用人工智能会带来好处,并希望促进人工智能的发展(通过将模型放入我们的 API、将其开源等)。我们相信,民主化的访问也将带来更多更好的研究、去中心化的权力、更多的利益,以及更多的人贡献新的想法。 但这并不是 Sam Altman 的全部,他追求技术的进步,也并未否认「安全」的重要性: 重要的是,我们认为在人工智能的安全性和能力方面,我们往往必须同时取得进展。把它们分开来谈,是一种错误的对立;它们在很多方面都是相关的。我们最好的安全工作来自于与能力最强的模型合作。尽管如此,重要的是要提高安全进展与能力进步的比例。 他表示 OpenAI 正在建立一种激励措施,使其与良好的结果保持一致。具体而言: 协助其他组织提高安全性; 对股东的回报设定上限; 在安全需要时取消对股东的股权义务; 赞助世界上最全面的全民基本收入实验; 在发布新系统之前接受独立审计; 同意限制用于创建新模型的计算增长率; 建立 AGI 工作何时应停止训练、决定模型可以安全发布或从生产使用中撤出模型的公共标准; 世界主要政府对一定规模以上的培训有深入的了解; ... 这篇文章的最后,Sam Altman 表示「人类的未来应由人类自己决定,与公众分享进步的信息很重要」,AGI 有能力一直加速,届时「世界可能会与今天截然不同,而且风险可能会非常大」。他认为「较慢的起飞更容易确保安全,而且在关键时刻协调 AGI 减速的努力很可能非常重要(即使在我们不需要这样做来解决技术调整问题的世界里,减速可能也很重要,因为这样可以给社会足够的时间来适应)」。 再举一例。今年 3 月,Sam Altman 在接受 ABC News 采访时也表示,AI 将能重塑社会,但对当前的发展「有点害怕」。他认为,监管机构与社会应尽可能参与 ChatGPT,并表示会与政府官员保持「定期联系」。Altman 表示,「我特别担心这些模型可能会被用于大规模虚假信息」与「进攻性网络攻击」。他从不担心 AI 模型不需要人类便可自己做出决定并策划统治世界。「这是一种很大程度上由人类控制的工具」,值得担心的是哪些人会控制 AI。Altman 仍然希望不断开发越来越强大的系统,将其融入日常生活与经济,「成为人类意志的放大器」。在 Altman 看来,GPT-4 的推理能力仍然不足,持续完善并构建一个由人控制的推理引擎或许是他选择进一步开发 GPT-5 的原因。Altman 相信,AI 的技术进步并不会消解社会与人的意义。 今年 5 月,Sam Altman 在美国参议院司法小组委员会上发表讲话,指出 AI 可以解决人类最大的问题,但也警告说 AI 的力量足以以不可预测的方式改变社会,「政府的监管干预对于减轻风险至关重要」。Altman 称,「我最担心的是我们科技行业对世界造成重大伤害」,「如果这项技术出了问题,它可能会变得非常糟糕」。 事实上,通过对 Mira Murati、Ilya Sutskever 与 Sam Altman 的话语分析,我们可以发现 Ilya 并非是一个 AI 末日论者,他只是从科技与人文的视角表达了自己对人类未来的思考;Sam Altman 也在认可着相应的监管、安全、减速与利他主义。显而易见的是,Balaji、Brian 等人为了自己目的而进行的话语建构,有效加速主义者在塑造一个虚假的、符合其意识形态的 Sam Altman 与 OpenAI 内斗叙事。AI 要让人类生活变得更美好,但有效加速主义者只能依靠中本聪的政治叙事表现自己的「目的」与「手段」。 故事的主角 Sam Altman 也坚信着 AI 并非全知全能的上帝,而是由人所控制的工具。他的 Worldcoin 是多么地理想主义,一个去中心化的项目依然要实现比特币的理想,确保全民基本收入;但 Web3 有效加速主义却裹挟着精英的傲慢,他们垄断着资本(Coinbase、a16z)、加密叙事(去中心化)与话语政治(去国家化),或许他们才是真正的独裁者。 余论 在 AI 科学家眼中,人才是目的。但在 Web3 有效加速主义的眼中,「加速」是手段,「去中心化」是目的。 很显然,为了制造出一个的革命对象,Web3 有效加速主义者只有宣称「加速」、「技术的无限进步」、「去中心化」。在他们所遵循的线性的、进步的时间中,技术才是主体,人都是需要随之适应的「他者」。拉克劳的话语政治表明技术终将与资本融合,而技术进步的话语权永远掌握在少数精英手中,作为硅谷的圣经,「有效加速主义」也确实是这样做的。他们在建构一种话语政治,这并非齐泽克口中的拒绝「讲故事」的怪物,怪物是非人的,而这个世界依旧建立在普遍人性之上,难以像希特勒一样对这个世界进行毁灭性的打击而后重建。因为有叙事,才有了话语政治。 在有效加速主义者看来,任何妨碍加速的因素都应反对;那么对 Web3 有效加速主义者来说,所有妨碍去中心化的因素就都应反对。不管你是理想主义的、非营利的、利他的,只要与「加速」、「去中心化」的叙事不合,都是要被扔进垃圾桶进行唾骂的对象(在这里,加速或许都已成为一种政治言说的工具)。通过建构起一个「有效利他主义的」、「减速的」 AI 来证明 Web3 才是目的论的终点。在 Web3 看来,尽管 AI 从业者创造了颠覆性的 GPT-4,但依然是活在传统中的碳基生物,瓦解中心化结构与民族国家的 Crypto 与 Web3 才是终极的答案。但除了比特币、DeFi 与区块链,他们已然面临着叙事的枯竭,只能选择与 AI 联合。加密从诞生开始就建立了自己敌人,若不能去中心化,不断地塑造对立,自身也就失去了存在的合理性。在这个世界上,「自我」永远要找到一个对立的「他者」,来证明自己存在的意义。 有效加速主义标榜着自己代表着建设与进步,在无形中将「减速」塑造成停滞乃至退步。但或许并非如此,因为减速依然在前进。它们为了自己的目的淡化了一个真相,那就是 AI 的技术发展是停不下来的。AI 科学家们从未否认过加速,历史正在加速,但人需要一定的减速来思考如何在这个地球上与机器共存下去。这也是执着于「加速 + 去中心化」的 Web3 有效加速主义者令人不解之处,即加速本身消解人的意义,但他们却又要求用去中心化治理来解决关于人的问题。加速追求的是效率,但去中心化却是低效的。在此,不妨引用一位 Twitter 用户对 Balaji 推文的评论: 又要加速,又要去中心化,一对奇怪的矛盾。 归根到底,他们将叙事拉回到了「去中心化」这个手段上,而从未真正去考虑「人」这个根本问题。这世界上少数的有效加速主义在持续创造新的历史,在这个普遍而又均质的时间中,整个世界都与之一起加速,跟不上的人将被淘汰,他们既没有此岸也没有彼岸,残忍又现实。 但我们依然要勇敢地面对现代世界的真相。正如 Balaji 所言,AGI 代表着上帝回来了。这个上帝是无所不能、全知全能的,只是他现在仍然被人类所控制。这一观念的背后,反映着宗教在现代世界的让步。「造神」,真正将科学塑造为宗教,所有人都是 AI 的信徒。AI 科学家们怕了,因为 AGI 可能真的代表上帝回来了。 当 Sam Altman 回归,OpenAI 乱局尘埃落定,恐怕也再难起波澜。在 OpenAI 政变事后分析的 Twitter Space 中,Balaji 称「Ilya、Adam 与 Emmett 都是天才技术专家,只是他们的道德观与 Sam 和 Greg 不同。这不是财务、技术与战略上的分歧。这是道德上的分歧。」这一刻,Balaji 的言辞也趋于缓和。他的话语少了不少叙事而客观了起来,他声称自己虽然不认识 Ilya,但认识 Adam D'Angelo, 「他一直是一个非常正直的人。从各种迹象来看,Emmett Shear 也是。因此,现在每家 AI 公司都需要选择自己的信念。有效利他主义 or 有效加速主义?」 Web3 也不得不接受一个真相,AI 科学家们并未接受 Cardano 开源大模型的邀请、去中心化 AI 叙事,他们并未买 Web3 的账,无论是前往微软还是回归 OpenAI,他们依然拥抱着传统 AI 科技公司。 参考文献 1. 硅谷 101:《揭秘 OpenAI 成长史:理想主义,冲突,抉择与权力斗争》,2023 年 4 月; 2. https://effectiveacceleration.tech/ 3. 文理两开花:《硅谷的新图腾:「有效加速主义」(e/acc)这面大旗举的起来吗?》,2023 年 8 月; 4. 吴冠军:《话语政治与怪物政治——透过大众文化重思政治哲学》,《探索与争鸣》,2018 年第 3 期; 5. 阿列克斯·威廉姆斯、尼克·斯尔尼塞克撰文,蓝江译:《加速主义宣言:超越资本主义对技术的压制》,2018 年 3 月。 来源:金色财经
lg
...
金色财经
2023-11-22
OpenAI同意奥特曼复职 奥特曼回应:将与微软建立牢固关系
go
lg
...
特曼将回到OpenAI担任CEO,并由
Bret
Taylor
(主席)、Larry Summers和Adam D’angelo组成新的初始董事会。我们正在合作解决细节问题。非常感谢您的耐心等待。” 奥特曼回应称:“我热爱OpenAI,过去几天我所做的一切都是为了保持这个团队和它的使命在一起。当我决定在周日晚上加入微软时,很明显,这对我和团队来说是最好的道路。在新董事会和萨蒂亚的支持下,我期待着回到OpenAI,并与微软建立牢固的合作伙伴关系。”
lg
...
金融界
2023-11-22
谈妥了?OpenAI官宣前CEO和总裁将回归,两人连同微软CEO齐发声
go
lg
...
orce前联合首席执行官布雷特·泰勒(
Bret
Taylor
)、Quora的首席执行官亚当·德安吉洛(Adam D'Angelo),和前美国财政部长萨默斯(Larry Summers)组成的新初始董事会。 Sam Altman也发文表示,在微软CEO纳德拉的支持下,自己将重返OpenAI。他表示,期待着回到OpenAI,并与微软建立牢固的合作伙伴关系。 微软CEO纳德拉则转发Altman的推文称,对OpenAI董事会变动感到鼓舞,相信这是迈向更加稳定、有效治理道路上的重要第一步。期待在强大的OpenAI合作基础上继续发展。 OpenAI联合创始人兼前总裁Greg Brockman也立刻回应了OpenAI的声明。他表示,今天取得了惊人的进展,他们将比以往任何时候都更强大和团结。 他还补充道,今晚就重返OpenAI码代码。
lg
...
金融界
2023-11-22
OpenAI闹剧大结局:喜迎Sam Altman“回宫”
go
lg
...
返OpenAI担任首席执行官,并组建由
Bret
Taylor
(主席)、Larry Summers和Adam D‘Angelo组成的新初始董事会。我们正在合作找出细节。非常感谢您对此的耐心等待。” Altman转发了该帖子并配上心形和敬礼表情包。 前总裁Greg Brockman也将回归,他说,重返OpenAI并将于今晚开始写代码,“今天取得了惊人的进展,我们将比以往任何时候都更强大和团结”。 根据“原则协议”,他将在新董事会的监督下任职,该董事会由Salesforce前首席执行官
Bret
Taylor
、前美国财政部长Larry Summers和现任董事会成员兼Quora首席执行官Adam D‘Angelo组成。一位直接了解谈判情况的消息人士表示,这些新董事唯一工作是审查和任命最多9人加入新的正式董事会,重置OpenAI的治理。微软(373.07,-4.37,-1.16%)可能会在扩大后的董事会中占有一席之地,Altman本人也一样。 Altman和微软首席执行官萨提亚·纳德拉(Satya Nadella)都相继发帖。Altman在X上发帖写道:“我喜欢OpenAI,过去几天我所做的一切都是为了让这个团队及其使命保持团结。当我决定在周日晚上加入微软时,很明显这对我和团队来说是最好的道路。在新董事会和纳德拉的支持下,我期待重返Openai,并巩固我们与微软的牢固合作关系。”微软CEO纳德拉转发并表示,对这一变化感到鼓舞。 外媒报道称,Altman或因在人工智能的开发速度和货币化速度上存在分歧,上周五被OpenAI董事会解雇。随后他一直在与该公司就回归事宜进行谈判。据知情人士透露,这些谈判周日陷入僵局,部分原因是Altman和其他人向现有董事会成员施加压力,要求其辞职。 期间,董事会还又任命了一位新CEO——前Twitch首席执行官埃米特·希尔(Emmett Shear),而微软则表示将聘请Altman来领导一个新的内部人工智能团队。在几乎所有员工都威胁要辞职后,事情再度发生逆转。 OpenAI早期的董事会成员包括首席科学家Ilya Sutskever、独立董事D‘Angelo、科技企业家Tasha McCauley以及乔治城安全与新兴技术中心的Helen Toner,他们的突然决定面临着公众的严格审查,而且他们从未提供过全面的信息和解释。 据周二报道,一些OpenAI投资者对之前的董事会感到越来越失望,并开始探索起诉董事会成员的选择。 周日被任命为OpenAI临时领导人的Twitch前首席执行官埃米特·谢尔(Emmett Shear)表示,他对OpenAI的新决定感到满意。他说:“进入OpenAI时,我不确定正确的道路是什么。这是最大限度地提高安全性并让所有利益相关者正确行事的方法。我很高兴能成为解决方案的一部分。”
lg
...
金融界
2023-11-22
上一页
1
2
3
4
下一页
24小时热点
中美突传重磅!英国金融时报:中国已正式邀请特朗普访华 与习近平举行峰会
lg
...
青年失业率达到17.8%,中国领导层誓言结束“内卷”!哪些行业最惨?
lg
...
特朗普刚刚重大发声!特朗普料美联储本周“大幅降息” 金价位于历史高点附近
lg
...
谈判紧要关头:中国进一步调查英伟达!美联储恐反驳连续降息,别忘了三巫日
lg
...
【直击亚市】中国8月数据令人失望!特朗普预测美联储大幅降息,中美再次谈判
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链界盛会#
lg
...
120讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论