全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
马斯克
就有关于OpenAI在AGI领域新突破的报道置评:极度令人担忧!
go
lg
...
马斯克
就有关于OpenAI在AGI领域新突破的报道置评:极度令人担忧!
lg
...
金融界
2023-11-23
首届中国脑机接口与康复高峰论坛本周举行 率先布局脑机接口企业有望获关注
go
lg
...
口与康复专业委员会将举行成立大会。此前
马斯克
透露,旗下脑机接口技术公司Neuralink将在今年内进行首例人体试验。 脑机接口作为多学科交叉的前沿技术,已引起全球广泛关注,我国“十四五”规划中也将脑科学与类脑研究列为国家战略科技力量,大力推动脑机接口技术领域攻关。2022年10月,工业和信息化部、国家药品监督管理局公布了人工智能医疗器械创新任务揭榜入围单位,多项脑机接口项目入围,标志着我国脑机接口相关医疗器械产品开始从“实验室”走向“实际应用”。 随着脑机接口技术的快速发展,其与先进的人工智能相结合,将给医疗健康实践带来深刻的变革。麦肯锡预计,未来10到20年,全球脑机接口产业产生经济规模达700-2000亿美元。 公开资料显示,相关业务上市公公司包括但不限于: 创新医疗(002173)参股脑机接口技术公司杭州博灵医疗科技有限公司,已实现技术的升级换代,并已经开始在患者身上进行在体测试。 汤姆猫(300459)与杭州妞诺霄云大数据科技有限公司战略合作,合作开发外接设备读取脑电波信号等脑机接口、脑功能数据分析技术等。 中科信息(300678)引进的脑机接口设备已到位,目前正在与四川大学华西医院相关专家设计动物实验方案。 汉威科技(300007)控股子公司苏州能斯达专注于柔性压力传感器的研发和产业化,已推出脑机接口传感器的雏形; 盈趣科技(002925)参与设立了厦门市北洋脑机接口与智慧健康创新研究院。 东富龙(300171)康复器械创新的主要进展包括康复机器人、智能视觉与语音交互、脑机接口(BCI)等; 创新医疗(002173)与许科帝教授等合作方共同签署了《合作框架协议》,合资设立“脑机接口”项目公司。 奥普光电(002338)参与了“面向脑机接口的机载战场图像信息获取系统”项目的申报,并做了原理性研究。 佳禾智能(300793)子公司思派康拥有发明专利脑电波采集通信系统、通信帧的生成装置和读取装置。
lg
...
金融界
2023-11-23
A股头条:央行等四部门发声!把更多金融资源用于科技创新;注意!首批北交所主题基金今日解禁;荣耀更换董事长,明确将通过IPO上市
go
lg
...
口与康复专业委员会将举行成立大会。此前
马斯克
透露,旗下脑机接口技术公司Neuralink将在今年内进行首例人体试验。 标的:三博脑科(301293)、创新医疗(002173) eVTOL:2023年亚洲通用航空展将于11月23日至26日在珠海举行。此次航展吸引近20个国家和地区的超过140家航空及无人机产业链企业参展。eVTOL(电动垂直起降飞行器)将引领通用航空产业成为人类交通出行的“第四次革命”,本届展会相关企业将展示eVTOL技术和解决方案方面的实力,推动eVTOL应用落地。 标的:渤海租赁(000415)、商络电子(300975) 公告精选 【重大事项】 圆通速递:董事张益忠涉嫌短线交易公司股票遭证监会立案 五连板引力传媒:尚未开展短剧业务 亦无短剧业务相关收入 海看股份:暂未开展互动游戏业务 微短剧项目处起步阶段 金麒麟:公司产品非芯片类热点概念汽车零部件 【并购重组】 中国人寿:拟境内发行总额不超350亿元资本补充债券 协鑫集成:向特定对象发行股票申请获审核通过 【增持减持】 德必集团:拟以2000万元-3800万元回购股份 寒锐钴业:拟以3000万元至5000万元回购股份 【其他事项】 荣盛石化:子公司功能性聚酯薄膜扩建项目第三条拉膜线投产 农发种业:玉米、水稻新品种通过国家审定 荃银高科:公司新品种通过国家审定 大金重工:出口英国Moray West海上风电场超大型单桩项目交付完毕 北新路桥:与子公司联合中标4.5亿元公路施工项目 蒙草生态:子公司联合预中标2.6亿元工程项目 丝路视觉:拟9000万元收购那么艺术100%股权 工大高科:拟不超4435.2万元收购亨钧科技70%股权 望变电气:拟收购云变电气合计79.97%股权 西陇科学回复关注函:光刻胶配套试剂产品收入对公司营收贡献度低 东方雨虹:子公司拟10亿元投建吉安新材料产业园项目 富临精工:拟10亿元投建高端新能源汽车核心零部件项目 松原股份:拟3.2亿元投建年产1200万套安全系统核心部件项目 朗玛信息:“39AI全科医生”产品目前尚未实际投入应用 隆平高科:公司水稻、玉米新品种通过国家审定 利民股份:子公司草铵膦技改和精草铵膦建设项目通过试生产验收 劲嘉股份:拟设立全资孙公司负责复合铝箔业务 三连板三祥新材:目前暂未与宁德时代开展固态电池的研究 瀛通通讯:控股股东、董事长、总经理黄晖解除留置 洪汇新材:实控人终止公司控制权转让事项 交易提示 【停复牌】 盈方微:拟购买华信科及WORLD STYLE股份 23日起复牌 【限售解禁】
lg
...
金融界
2023-11-23
淡化Neuralink安全问题 国会议员要求SEC审查
马斯克
是否犯有证券欺诈罪
go
lg
...
证券交易委员会(SEC),要求该机构对
马斯克
旗下脑机接口公司Neuralink进行审查。他们认为,Neuralink开发的大脑植入设备在安全性问题上误导了投资者,
马斯克
可能犯有证券欺诈罪。 据悉,信函内容显示,要求进行调查的是俄勒冈州民主党众议员Earl Blumenauer、马萨诸塞州民主党众议员Jim McGovern,以及加州民主党众议员Barbara Lee和Tony Cardenas。 在要求对Neuralink审查之际,Neuralink即将开启人体实验。据报道,数千人正排队等候植入Neuralink的大脑植入设备,这是这家初创公司帮助患者克服瘫痪和一系列神经系统疾病的一个关键里程碑。 今年早些时候,美国食品和药物管理局(FDA)批准Neuralink启动其设备的人体实验。9月,Neuralink开始为其首次人体实验招募人员。Neuralink计划明年进行11例人体手术,2025年27次,2026年79次。 上述信件中还提到,Neuralink在猴子身上进行的实验记录显示,大脑植入设备对动物的健康产生了“衰弱性影响”,包括瘫痪、癫痫发作和脑肿胀。 至少有12只年轻健康的猴子被“作为公司植入设备问题的直接结果”实施了安乐死。然而,信中指出,Neuralink的首席执行官
马斯克
淡化了投资者对其动物试验结果的担忧。 9月10日,
马斯克
在他的社交媒体网站X上写道,“没有猴子因为植入Neuralink而死亡”。他补充说,该公司选择“濒临死亡”的猴子是为了尽量减少对健康猴子的风险。 但据媒体揭露,美国责任医师协会(PCRM)获得的公开文件显示,此前参与Neuralink实验的猕猴遭受了多种并发症,包括“血性腹泻、部分瘫痪和脑水肿”,最终被实施安乐死。美国责任医师协会是一个致力于废除活体动物实验的非营利组织。 众议员Earl Blumenauer表示,他们审查的证据表明,在Neuralink实验中动物的死亡“直接关系到Neuralink脑机接口的安全性和适销性。 因此,议员们写道,
马斯克
的声明“可能违反了”SEC的规定,否认了两者之间的联系。Neuralink的员工此前也表示,该公司在猴子、猪和羊身上仓促进行手术,导致动物死亡过多。 而
马斯克
向员工施压,要求他们进行大量实验,提供FDA要求的安全数据,以授权进行人体测试。
lg
...
金融界
2023-11-23
OpenAI“宫斗戏”落幕!Sam Altman回归担任CEO 组建新董事会
go
lg
...
lor,他是赛富时前联合首席执行官,在
马斯克
收购推特时曾担任推特董事会主席、曾是Facebook的首席技术官;Larry Summers,经济学家、美国前财政部长和哈佛大学校长;Adam D’Angelo保留席位,Quora CEO和Poe CEO。原董事会的两位成员Helen Toner、Tasha McCauley已经确定离开。OpenAI表示,后续细节将会陆续披露。 OpenAI发文称:“我们已原则上达成协议,让 Sam Altman 重返 OpenAI 担任首席执行官,并组建由 Bret Taylor(主席)、Larry Summers 和 Adam D‘Angelo 组成的新初始董事会。我们正在合作找出细节。非常感谢您对此的耐心等待。” 除了Sam,Greg Brockman也确认回归,其本人发推表示:“今晚回OpenAI继续敲代码”,还有首席技术官Mira Murati也表示将回归。 从上周到现在,OpenAI的这场大戏已经发生了太多反转。Altman上周五被OpenAI董事会解雇,原因是他在人工智能开发和盈利的速度上存在分歧。Altman此前一直在与OpenAI谈判重返公司。据知情人士透露,这些谈判在周日陷入僵局,部分原因是Altman和其他人要求现有董事会成员辞职的压力。 相反,董事会任命了一位新领导人——前推特首席执行官Emmett Shear, OpenAI最大的支持者微软公司(MSFT.US)随后表示,将聘请Altman领导一个新的内部人工智能团队。不仅如此,几乎所有员工都威胁要辞职。几个小时后,OpenAI 770名员工中的大多数人签署了一封致董事会的信,称除非所有董事会成员辞职,Altman复职,否则他们可能辞职并加入微软。在这封信上签了名的人包括上周五被任命为临时首席执行官的Murati,以及OpenAI联合创始人兼董事会成员Ilya Sutskever。 值得注意的是,Sutskever此前曾在公司的发展方向上与Altman意见相左。Sutskever称:“我对自己参与董事会的行动深感遗憾。我从未想过要伤害OpenAI。我热爱我们共同建立的一切,我会尽我所能让公司重新团结起来。” 核心矛盾:营利化问题 Altman的回归结束了这几天的大起大落,让这家全球最知名的人工智能初创公司陷入混乱这种快速逆转可能会安抚投资者,并降低员工逃离的威胁。但这也让人们对该ChatGPT制造商和其他人工智能初创公司的未来道路产生了疑问,这些公司试图在负责任地开发人工智能与从投资者那里筹集大量资金以支持构建这些工具所需的昂贵计算基础设施之间取得平衡。 OpenAI成立于2015年,最初是一家非营利组织,旨在以造福人类的方式推进人工智能,而不是受经济利益的支配。该集团后来将自己重组为一个有上限的营利性实体,从微软和其他投资者那里筹集了数十亿美元——Altman在这些交易中发挥了重要作用——但它仍然由一个非营利性董事会监督。最近几天,这种紧张关系全面爆发出来。 此前,Altman的离职让这家初创公司的投资者措手不及。微软以超过100亿美元的股份支持这家初创公司,在Altman被解雇前几分钟才得到通知。据知情人士透露,这家软件巨头开始与包括Thrive Capital和Tiger Global Management在内的投资者合作,希望把他请回来。当这一努力失败后,微软同意从OpenAI聘请Altman和其他人。 在Altman被解雇之前,OpenAI正在计划以860亿美元的估值出售员工股票,这一珍贵的变现机会因Altman的离开而充满变数。OpenAI允许员工以860亿美元的估值出售股票的计划也面临新的不确定性。据知情人士透露,Thrive预计将牵头对员工股票提出收购要约,但截至周六,该公司尚未将这笔钱汇给OpenAI,并告诉OpenAI,Altman的离职将影响其行动。 38岁的Altman比其他任何人都更能代表人工智能技术的新时代,这要归功于ChatGPT的成功。Altman是今年该行业与监管机构合作的核心人物,他定期会见世界各国领导人,包括美国总统拜登和英国首相苏纳克。周四,他出席了亚太经合组织(APEC)会议的一个小组讨论,讨论人工智能的未来及其风险。其他高管和世界领导人也参加了会议。 然而,据知情人士透露,在幕后,Altman与董事会成员,尤其是Sutskever,在开发生成式人工智能的速度、如何将产品商业化以及减少其对公众的潜在危害所需的步骤等问题上发生了冲突。当时OpenAI的其他董事会成员包括D’angelo、GeoSim Systems首席执行官Tasha McCauley、乔治敦大学安全与新兴技术中心战略与基础研究资助主任Helen Toner。 除了在战略上的分歧,董事会成员还对Altman的创业雄心产生了分歧。据一位了解投资提案的人士透露,他一直在寻求从中东主权财富基金筹集数百亿美元,以创建一家人工智能芯片初创公司,与英伟达(NVDA.US)生产的处理器竞争。Altman还正在争取软银集团董事长孙正义向一家新公司投资数十亿美元,该公司将与前苹果设计师Jony Ive合作,生产面向人工智能的硬件。 Altman的副业使他与董事会本已紧张的关系更加复杂。OpenAI在上周五的一份声明中表示,董事会进行内部审查后发现,首席执行官“在与董事会的沟通中并不总是坦诚,阻碍了董事会履行职责的能力”。因此,该公司表示,“董事会对他继续领导OpenAI的能力不再有信心”。 这场董事会的戏剧性事件与硅谷历史上的其他政变有相似之处。苹果公司的联合创始人Steve Jobs在1985年被解雇,10多年后他又回归苹果。推特的联合创始人Dorsey在2008年被赶出推特, 7年后重新出任CEO。
lg
...
金融界
2023-11-22
马斯克
回应奥特曼回归OpenAI:比和微软合并对世界更好
go
lg
...
最后醒来,意识到这一切都是一场梦。”
马斯克
回应称:“OpenAI(半)独立可能比与微软合并对世界更好。权力不那么集中。”此前微软曾打算让奥特曼加入领导一个新的研究实验室,并接收从OpenAI辞职的大批员工。
lg
...
金融界
2023-11-22
AI 减速Web3 加速舆论话语与政治
go
lg
...
个科技圈都被 OpenAI 内斗刷屏,
马斯克
的 SpaceX 二次升天也顶不过 AI 的瓜。从 CEO Sam Altman 被罢免到 OpenAI 的投资者向董事会施压与 Altman 试图重新回归 OpenAI,再到周一 Sam Altman 宣布加入微软,本以为一场闹剧结束了。但 OpenAI 内斗剧情再次反转,Sam Altman 将重返 OpenAI 担任首席执行官,并组建由 Facebook 首席技术官 Bret Taylor (主席)、奥巴马政府前首席财务顾问 Larry Summers 和 Facebook 首任 CTO Adam D'Angelo 组成的新的初始董事会。同时,OpenAI 联创 Greg Brockman 也将重返 OpenAI。爆炸星期三,AI 是真的给币圈面子,否则今天币圈只能吃币安和赵长鹏的瓜了。 回到最初 在 Balaji 看来,OpenAI 不开源就是一种恶,只有像 Meta 研发的「Llama 2」一样的开源语言大模型才是绝对的正确: 的起点,记忆中你青涩的脸」。OpenAI 董事会与 Sam Altman 对于内部斗争实情的隐藏导致我们依然无法获悉罢免的根本原因。路线之争?沟通不畅?我不知道,也不感兴趣。与其千篇一律地猜测背后的「真相」,不如从后现代主义的视角聚焦于部分 Web3 从业者对于这一事件的讨论,观察这些讨论背后 Web3 的话语与政治。因为在很大程度上,话语的构建遮蔽了太多的细节,有利于自己的话语才会被纳入到叙事当中。但人与事是复杂的,而非简单的意识形态、主义所能涵括。 当世界顶级科技公司罢免公告发出时,舆论一片倒向所谓 OpenAI 的灵魂人物 Sam Altman 与 Greg Brockman,而投资者的行动也表明 Altman 对 OpenAI 的重要性。这场内斗已经被媒体与舆论塑造为「政变」,而首席技术官 Ilya Sutskever 则被视为「政变」的幕后推手。AI 界的大事,Web3 也并未闲着,以 Coinbase 前 CTO Balaji Srinivasan、Coinbase 联创兼 CEO Brain Armstrong、a16z 普通合伙人 Sriram Krishnan 为代表的 Web3 从业者极力主张「去中心化 AI」,拒绝有效利他主义,拒绝减速。在这种情形中,一种新的对立与话语表述悄然诞生,AI 在减速,而 Web3 则将自己建构为代表进步主义的加速与人类历史的未来。 一、「制造敌人」:Web3 有效加速主义的话语政治 在 OpenAI 董事会罢免 Sam Altman 的消息爆出来后,笔者留意到以 Balaji Srinivasan、Brain Armstrong 为代表的 Web3 有效加速主义者对 OpenAI 董事会的鄙夷。在他们的话语体系中,有效利他主义、AI 末日论是有效加速主义的对立面。「好」与「坏」、「中心化」与「去中心化」、「AI」与「Web3」、「国家」与「去国家化」同样构成了整套话语表述。事实上,「中心化」、「极权」、「专制」、「草台班子」、「减速」等话语建构构成了 Web3 的道德基础,而代表着进步的「加速」则赋予了 Web3 革命的天然正当性。 什么是有效加速主义(Effective Accelerationism,网络上一般简写为 e/acc)?笔者在此择选一个被普遍接受的含义,而它更多指向了右翼加速主义: 有效加速主义是一种基于热力学第二定律的信念,即宇宙本身是一个创造生命并不断扩张的优化过程。这种扩张的引擎是技术资本。该发动机无法停止。进步的车轮只会朝一个方向转动。 这一流派以 Nick Land 为代表,它启发了美国新保守主义运动。没错,它们是保守的而非激进的,尽管它们拥抱现代技术,但却否定了具有普世价值的民主、人权与自由。 有效加速主义尊崇自然律,认为技术就像自然界一样可以无限地增熵,并且否认这是一种意识形态与运动,而是对真理的承认。在他们看来,技术资本(Technocapital,Viviana Rojas 于 2012 年提出)是一个不可阻挡的物理过程。 有效加速主义是对技术官僚控制的打击,是对末日论者和减速论者的打击,他们希望我们消耗更少的自由能,创造更少的熵。自上而下的控制只会降低文明的维度。 有效加速主义忽略了一点,这个世界是由人所构建的,文明是由人所创造的,而文明的本质是负熵,它不断地在做熵减。成熟的文明意味着建立了一套社会秩序,这个秩序必然是稳定的,将不可控的、不确定性的事物纳入可控的秩序当中,或是压缩在社会最阴暗的角落。近代科学诞生以来,人类社会便加速世俗化进程,科学对于世界有依据的认识战胜了宗教的不可知论。因为科学在自己的边界内无法证伪,也意味着科学的知识都是为人类可以掌握的。文明同样如此。换言之,有效加速主义的逻辑自洽在哲学上存在挑战。 有效加速主义者往往是彻头彻尾的科技精英,他们掌握着这个时代与未来走向最核心的话语与权力。在他们看来,历次工业革命与技术变革人类都可以适应,那么人类也将适应 AI。加速!加速!加速!这是有效加速主义者的口号,任何妨碍技术无限进步的都该反对。而对于 Web3 有效加速主义者来说,「加速」还要与「去中心化」合谋。我们知道,任何政治构建都是讲故事,不同的政治斗争实质上就是不同「故事」(政治阐述)之间的对抗。当某个故事及其话语体系被广泛接受时,权力也就随之而生。有效加速主义者将人工智能末日论与减速论并列,并将其塑造为自己的对立面,一个不同于自我意识形态的他者,来述说自己的政治叙事。民族国家注定走向衰亡,加密与去中心化的政治叙事就要成为绝对的真理与历史的终结。 在 OpenAI 事件刚爆发之际,对安全、公司治理结构的合理猜测成为有效加速主义者的话柄。他们的政治叙事即「去中心化」、「去国家化」、「去中心化治理」,这迎合了 OpenAI 董事会被质疑的「奇葩」、「独裁」、「不透明」的治理结构。 11 月 18 日,Balaji 的第一篇关于 OpenAI 的推文写道:「末日论者最终信任的是中央集权国家,就像自由主义者在 911 事件后相信《爱国者法案》一样;而有效加速主义则信任去中心化网络」,「从根本上说,末日论者相信哈里斯能够监管超级智能。同时,有效加速主义认为创建模型的技术专家比那些甚至不了解模型并且讨厌技术的国家主义者更有能力减轻任何负面影响」。在此,Balaji 认为,AI 领域的技术专家与进行「监管」的国家应是对立的,AI 领域可以进行自监管,而无需国家的介入。 随后,Balaji 试图在 AI 与 Web3 之间建立同盟。他声称「如果董事会可以这样对待 Sam,他们也可以这样对待任何 OpenAI 客户。人工智能需要去中心化。」「如果事实证明,狂热的人工智能末日论者导致了像 GDB 这样的新一代人才外流,那么每一个有价值的人工智能组织都会立即将末日论者从控制岗位上清除出去。 」OpenAI 董事会已经被塑造为一个「狂热的 AI 末日论者」,他期望着所有 AI 企业都是与之相对的道德圣人,「在毁灭者毁灭你之前,先除掉他们」。 「又「唯一的出路就是加速 + 去中心化」,Balaji 给出了方向,并就此加深了对「国家主义」的反动:「如果您从事 AI 领域,请转向去中心化。 人工智能领域的每个人都上了一堂课:(a)对公司拥有主权;(2)技术的去中心化;(3)独立于国家主义意识形态。要想有效加速,我们需要去中心化! 现在,每个人都看到了单点故障的风险。如果董事会可以这样对待 Sam,他们也可以这样对待任何 OpenAI 客户。因此,人工智能要去中心化。 」 作为《网络国家》的作者,Balaji 再次开始了他的表演:「AI 末日论者的逻辑就是智能炸弹客的逻辑。任何能降低 p(doom) 的东西都是好的。比如禁止计算、让公司破产或炸毁数据中心。这些激进的卢徳分子(指的是 19 世纪初英国手工业工人中参加捣毁机器的人)不会止步于毁掉他们自己的 AI 公司。他们也想控制你的公司。 与许多意识形态一样,AI 末日论也演变成了类似共产主义的东西。他们需要控制全世界的 AI,从而控制全世界的计算,进而控制全世界,以『拯救』世界。令人惊讶的是,他们的总体计划让哈里斯负责从超级智能中拯救我们。」 在政治口号喊出来后,Balaji 将矛头转向 OpenAI 的另一个标签「非营利组织」:「非营利组织毁了旧金山,现在又毁了旧金山最好的公司。他们名副其实,非营利组织无利可图。是的,有些原则上的例外。比如 EFF。它做得很好。但我们需要重新考虑非营利组织的激增问题」。是的,他们为了自己的政治叙事,也否定了「非营利组织」。Web3 不再谈论 OpenAI 作为非营利组织的「理想主义」初衷,不再颂扬「造福人类」的理想,只是轻描淡写一句不负责任的话:「它变了」。是啊,变了,多么大的转折,要么更好、要么更差,非此即彼。非营利组织不重要、变了多少不重要、如何变得不重要,重要的是变了,话语的影响就在于此。 更有意思的是,Balaji 的功利主义似乎让他迷失了自己,他的目标只剩下「网络国家」。Twitter 成为了 Balaji 口中对抗另一个主权国家的利器,他过分地褒扬了
马斯克
,却忘记了这是一个最大的独裁者,Balaji 在赞扬一个他所极力反对的人与事: 「减速论者有国家,但我们有网络。」 过去一年,网络在从国家手中夺回社交、加密货币和 AI 方面取得了重大进展。首先,
马斯克
收购了 Twitter,解雇了唤醒者,解除了华盛顿特区对社交媒体的核心控制。然后,公民记者揭露了 FTX,摧毁了华盛顿特区对加密货币的理想控制点。现在,有效利他主义也发生了内讧,破坏了他们对 AI 的关键文化控制点。因此,我们有机会争取言论自由、去中心化货币和开源 AI。」Balaji 称,「在每一件事中,Twitter 都是关键」,「即使 FBI 要求 Twitter 进行审查,
马斯克
也没有对 Twitter 进行审查;Twitter 上的加密社区曝光了 FTX,即使国会为 SBF 开脱;Twitter 上的有效加速主义斥责有效利他主义,即使有效利他主义试图通过行政命令破坏 AI」。 Balaji 说的一点都没错,OpenAI 事件能有如此大的传播离不开 Twitter。他与技术圈名人响马都从发生学的角度指出这场舆论的另一个制造剂——舆论发生的场域 Twitter。是的,没有中心化而又独裁的 Twitter,怎么会有 Balaji 口中与国家进行夺权的「网络」? 为什么「有效利他主义」被这群 Web3 大佬所厌恶?那自然离不开 SBF 与他的 FTX 帝国。SBF 在大学时期就深信有效利他主义,「赚最多的钱,捐给更多的人」。但 FTX 的暴雷对整个加密行业造成了巨大的冲击,「恨一个人也要恨他的信仰」,「有效利他主义」从此「臭名昭著」。在 Brian Amerstrong 看来, 如果这真的是 OpenAI 的有效利他主义、减速论、AI 安全政变...OpenAI 的所有优秀员工都应该辞职,加入 Sam / Greg 的新公司(如果他们有新公司的话)」。这一次,跳过掌权的非营利性董事会,去除减速论 / 有效利他主义,保持创始人的控制权,避免无意义的监管,只管建设,加速。你们正在创造美丽新世界,不要感到内疚,要为了自己的动机而夺取它。 这种减速思维摧毁了谷歌,而 OpenAI 曾经是谷歌的解药(如果属实,现在也倒在了同样的力量之下)。有效利他主义毁掉了加密货币的大量价值,现在又毁掉了人工智能。旧金山也是问题的一部分。很多问题都可以追溯到马克思主义思想。你必须清除公司存在的这种风险——讽刺的是,这才是它们本应担心的真正安全风险。 如 Balaji 的自我矛盾一样,Brian Armstrong 也有一番宏论,他认为「OpenAI 董事会的存在不是为了赚钱或使股东价值最大化」可能是个「错误」。 除此之外,a16z 普通合伙人 Sriram Krishnan 也持同样观点:「有效利他主义可能才是我们这里很多人应该关注的坏人(villain)。 Web3 有效加速主义用极具对立性的「话语」来述说自己的政治诉求,但却遮蔽了很多人与事的多样性与复杂性。 二、AI 无国界?OpenAI 有「国家」 在这场话语建构当中,Web3 在去中心化、有效加速主义方面的话语建构来源之一就是对 AI 界对安全的考量。AI 安全涉及到现代国家治理术、技术资本主义与生命政治,在现代国家治理中,任何技术议题也就理所当然地要迎合国家意志,因此有效加速主义者的话语建构也就无法脱离整体的国家议程。 本文暂不追溯太远,但自 2021 年以来,拜登 - 哈里斯政府就一直致力于控制与管理 AI 风险。OpenAI 在这一议程中也起到重要作用,推动了美国 AI 风险管理框架的建立与实施。 早在 2019 年 6 月,OpenAI 曾回复美国商务部国家标准与技术研究院(NIST)应如何制定美国与国际 AI 标准,并指出将特别关注「可靠、稳健与可信」的系统,希望提高人工智能系统可预测性、稳健性和可靠性。OpenAI 认为,AI 的安全性包括「确保系统在与人类交互时不会对人类造成身体伤害;确保系统将与人类核实与其即将采取的行动相关的关键决策;确保 AI 系统提出的建议尊重人类的限制和系统运行的大环境」。它们主张,美国需制定 AI 技术国际标准,「让监管基础设施为大规模、多用途的 AI 系统做好准备」。 拜登政府组建后,美国国家人工智能研究资源工作组于 2021 年 6 月成立,旨在帮助创建和实施国家 AI 研究资源蓝图。随后,NIST 召开 AI RMF(AI 风险管理框架)研讨会,AI RMF(AI 风险管理框架)正式提上议程。2022 年 3 月,NIST 就 AI RMF 草案征求意见。OpenAI 此时对 NIST AI 风险管理框架初稿进行评论,表示将响应 NIST 的要求,并指出 NIST 应考虑将与人类价值观和意图保持一致纳入其指导原则,即确保与人类价值观与意图保持一致的 AI 系统能够可靠地按照人类意图行事。 2022 年 11 月,GPT-4 的诞生进一步加快了拜登政府对 AI 领域的风险管理。2023 年 1 月 25 日,美国国家标准与技术研究院(NIST)正式发布 AI 风险管理框架(RMF),以提高 AI 的可信度,确保组织能够以不同方式思考 AI 及其风险。3 月,NIST 启动「可信与负责任的 AI 资源中心」,以促进 AI RMF 的实施。 2 月,拜登政府发布一项关于促进种族平等的行政命令,其中表示要「促进科学公平,消除人工智能等新技术设计和使用中的偏见」,保护公众免受算法歧视。随后,美国联邦贸易委员会、消费者金融保护局、平等就业机会委员会与司法部民权司发表联合声明,决定监督自动化系统开发与使用,并指出自动化系统可能在数据集、不透明、设计与使用等方面助长非法歧视且违反联邦法律。 5 月 4 日,哈里斯会见 Alphabet、Anthropic、微软和 OpenAI 四家科技公司 CEO,以强调负责任的 AI 创新,在抓住机遇之前降低其风险。5 月 23 日,拜登 - 哈里斯政府发布公告,并对自 2019 年以来尚未更改过的 AI 研发计划进行更新——《国家人工智能研发战略计划:2023 更新》。该路线图将推进负责任的 AI 研究、开发与部署,并再次强调需在抓住 AI 机遇之前首先管理其风险。同时,联邦政府的投资重点将是促进负责任的美国创新、服务于公共利益、保护人民权利和安全以及维护民主价值观的 AI 研发。在这份文件中,美国国家科学基金会还宣布拨款 1.4 亿美元,新建 7 个国家人工智能研究所,使全国机构总数达到 25 个。 6 月,拜登与技术和社会交叉领域的专家进行 AI 的前景与风险圆桌讨论 7 月,哈里斯召集消费者、劳工与民权领袖讨论 AI 的相关风险。 随后,拜登召集亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 等 7 家公司,宣布拜登 - 哈里斯政府已获得这些公司的自愿承诺,以帮助实现安全、可靠和透明的 AI 技术发展。他们承诺: 在向公众推出产品之前确保其安全; 构建将安全放在首位的系统; 赢得公众的信任。 10 月 30 日,拜登签署《关于安全、可靠和可信地开发和使用 AI 的行政命令》,明确表示将限制硅谷在 AI 产品经过全面测试之前发布产品的倾向。 基于拜登在 10 月 30 日的行政命令,哈里斯在 11 月 1 日访问英国时宣布美国正在通过商务部在 NIST 内建立美国人工智能安全研究所,以实施 NIST AI RMF。同时,美国也已发布首份关于美国政府使用 AI 的政策指南草案,包括《人工智能权利法案蓝图》、AI RMF、负责任地将 AI 和自主权用于军事用途的政治宣言、与 AI 相关的慈善组织发起的倡议、防 AI 欺诈、内容认证国际规范等。 拜登 - 哈里斯政府在 AI 方面的议程涉及人工智能安全、生物武器风险、国家安全、网络安全、隐私、偏见、公民权利、算法歧视、刑事司法、教育、工人权利和研究等各方面。而 Web3 有效加速主义者将一箩筐的内容全都将其作为国家的叙事范畴当作讨伐的对象,在这里,只需要否认国家、中心化与集权就可以选择性地无视复杂多样的全球性问题。似乎,只要获得一片中立的领土建立「网络国家」就可以一劳永逸地躲避世俗世界的喧嚣。 三、被遮蔽的真实:OpenAI 的「末日论者」与「加速主义者」 拿去滤镜,来看看真实的人吧。有媒体报道,越来越多的人工智能业内人士正在猜测人工智能将给人类带来灾难性后果的概率,并计算末日的「p(doom)」。那么,作为 OpenAI 的前 CEO,Sam Altman 是一个有效加速主义者吗?在 Web3 有效加速主义者的话语中,Sam Altman 是「加速主义」的代表,「造福全人类」的董事会只有成为「有效利他主义者」、「减速论者」。 OpenAI CTO、DALL-E 与 ChatGPT 团队领导者 Mira Murati 在今年 2 月《时代》杂志采访时公开表示: 我们甚至对 ChatGPT 的出现感到些许不安,我很好奇它会在哪些领域开始为人们带来实用性,而不仅仅是新奇与纯粹的好奇; 关于社会影响还有很多问题,我们需要考虑很多伦理与哲学问题。重要的是我们要引入不同的声音,比如哲学家、社会科学家、艺术家和人文学者。 [AI] 可能被滥用,接下来的问题是如何在全球范围内管理这项技术的使用。如何以符合人类价值观的方式管理人工智能的使用? 尽管 AI 带来了很多不确定性,但 Mira Murati 总体是乐观的。 为大多数人所知并造成恐慌的是 2023 年 3 月,
马斯克
等人呼吁的暂停至少 6 个月的比 GPT-4 更强大的人工智能系统训练公开信。或许,AI 技术的发展似乎超出了这些科技精英的预料。 真正从事技术研发的 OpenAI 首席科学家 Ilya Sutskever 曾说,「在某些时候,一些别有居心的人可以利用他们向任何愿意付费的人提供的模型很容易造成巨大伤害」。 在 11 月《卫报》发布的纪录片《Ilya:塑造世界的 AI 科学家》中,Ilya 提问了 AI 技术是否会对人类有益的问题。该视频首先展映 Ilya 的担忧:「AI 会使网络攻击更加极端,会创造完全自动化的 AI 武器,无限稳定的独裁政权」。因此,对他来说,「第一批 AGI 的信念与愿望尤为重要,对它进行正确的编程尤为重要,如果不这样做,那么进化和自然选择的本质就会偏向那些将自身生存置于首位的系统」,「并不是说它们会伤害人类,而是因为它会太强大」。Ilya 举了人对待动物的例子进行类比: 人类在修高速公路时不会征求动物的同意,人与 AGI 的关系也是如此,AGI 是真正自主并代表自己运作的。很多机器学习专家并未意识到神经网络和 AI 的计算速度将在未来几年突破几十万倍,而他们并没有足够的时间来确保他们构建的 AGI 能够深深地关心人类。 只不过多思考了一些人类的未来处境,Ilya 就成了要被清除出去的人工智能末日论者,但他从未说 AI 会毁灭人类,只是反思 AI 的强大会带来相应的危险。「AI 末日论」的形象塑造不得不归功于《卫报》给 Ilya 给他制作的纪录片——显而易见的末日感。 作为加速主义者,Sam Altman 在 Web3 有效加速主义者的话语构建中也有着天然的正当性。作为 Web3 项目 Worldcoin 的创始人,他也是 Web3 最有机会拉拢的对象。但 Sam Altman 完全信奉有效加速主义吗?也不尽然,他的思想中也有着出于人类关怀的减速思考。 今年 2 月,Sam Altman 发表「Planning for AGI and beyond」。在这篇文章中,Sam Altman 承认 AGI 会带来的「严重误用、严重事故与社会混乱的风险」,也表示 AI 需要持续迭代以解决当前问题,并通过「逐步过渡」确保人类可以逐步适应: 目前,我们认为成功应对人工智能部署挑战的最佳方法是通过快速学习和仔细迭代的紧密反馈循环。社会将面临人工智能系统可以做什么、如何消除偏见、如何应对工作岗位流失等重大问题。最佳决策将取决于技术所采取的路径,与任何新领域一样,迄今为止大多数专家的预测都是错误的。 Sam Altman 也是开源、民主与去中心化的忠实拥趸: 我们认为世界上更多地使用人工智能会带来好处,并希望促进人工智能的发展(通过将模型放入我们的 API、将其开源等)。我们相信,民主化的访问也将带来更多更好的研究、去中心化的权力、更多的利益,以及更多的人贡献新的想法。 但这并不是 Sam Altman 的全部,他追求技术的进步,也并未否认「安全」的重要性: 重要的是,我们认为在人工智能的安全性和能力方面,我们往往必须同时取得进展。把它们分开来谈,是一种错误的对立;它们在很多方面都是相关的。我们最好的安全工作来自于与能力最强的模型合作。尽管如此,重要的是要提高安全进展与能力进步的比例。 他表示 OpenAI 正在建立一种激励措施,使其与良好的结果保持一致。具体而言: 协助其他组织提高安全性; 对股东的回报设定上限; 在安全需要时取消对股东的股权义务; 赞助世界上最全面的全民基本收入实验; 在发布新系统之前接受独立审计; 同意限制用于创建新模型的计算增长率; 建立 AGI 工作何时应停止训练、决定模型可以安全发布或从生产使用中撤出模型的公共标准; 世界主要政府对一定规模以上的培训有深入的了解; ... 这篇文章的最后,Sam Altman 表示「人类的未来应由人类自己决定,与公众分享进步的信息很重要」,AGI 有能力一直加速,届时「世界可能会与今天截然不同,而且风险可能会非常大」。他认为「较慢的起飞更容易确保安全,而且在关键时刻协调 AGI 减速的努力很可能非常重要(即使在我们不需要这样做来解决技术调整问题的世界里,减速可能也很重要,因为这样可以给社会足够的时间来适应)」。 再举一例。今年 3 月,Sam Altman 在接受 ABC News 采访时也表示,AI 将能重塑社会,但对当前的发展「有点害怕」。他认为,监管机构与社会应尽可能参与 ChatGPT,并表示会与政府官员保持「定期联系」。Altman 表示,「我特别担心这些模型可能会被用于大规模虚假信息」与「进攻性网络攻击」。他从不担心 AI 模型不需要人类便可自己做出决定并策划统治世界。「这是一种很大程度上由人类控制的工具」,值得担心的是哪些人会控制 AI。Altman 仍然希望不断开发越来越强大的系统,将其融入日常生活与经济,「成为人类意志的放大器」。在 Altman 看来,GPT-4 的推理能力仍然不足,持续完善并构建一个由人控制的推理引擎或许是他选择进一步开发 GPT-5 的原因。Altman 相信,AI 的技术进步并不会消解社会与人的意义。 今年 5 月,Sam Altman 在美国参议院司法小组委员会上发表讲话,指出 AI 可以解决人类最大的问题,但也警告说 AI 的力量足以以不可预测的方式改变社会,「政府的监管干预对于减轻风险至关重要」。Altman 称,「我最担心的是我们科技行业对世界造成重大伤害」,「如果这项技术出了问题,它可能会变得非常糟糕」。 事实上,通过对 Mira Murati、Ilya Sutskever 与 Sam Altman 的话语分析,我们可以发现 Ilya 并非是一个 AI 末日论者,他只是从科技与人文的视角表达了自己对人类未来的思考;Sam Altman 也在认可着相应的监管、安全、减速与利他主义。显而易见的是,Balaji、Brian 等人为了自己目的而进行的话语建构,有效加速主义者在塑造一个虚假的、符合其意识形态的 Sam Altman 与 OpenAI 内斗叙事。AI 要让人类生活变得更美好,但有效加速主义者只能依靠中本聪的政治叙事表现自己的「目的」与「手段」。 故事的主角 Sam Altman 也坚信着 AI 并非全知全能的上帝,而是由人所控制的工具。他的 Worldcoin 是多么地理想主义,一个去中心化的项目依然要实现比特币的理想,确保全民基本收入;但 Web3 有效加速主义却裹挟着精英的傲慢,他们垄断着资本(Coinbase、a16z)、加密叙事(去中心化)与话语政治(去国家化),或许他们才是真正的独裁者。 余论 在 AI 科学家眼中,人才是目的。但在 Web3 有效加速主义的眼中,「加速」是手段,「去中心化」是目的。 很显然,为了制造出一个的革命对象,Web3 有效加速主义者只有宣称「加速」、「技术的无限进步」、「去中心化」。在他们所遵循的线性的、进步的时间中,技术才是主体,人都是需要随之适应的「他者」。拉克劳的话语政治表明技术终将与资本融合,而技术进步的话语权永远掌握在少数精英手中,作为硅谷的圣经,「有效加速主义」也确实是这样做的。他们在建构一种话语政治,这并非齐泽克口中的拒绝「讲故事」的怪物,怪物是非人的,而这个世界依旧建立在普遍人性之上,难以像希特勒一样对这个世界进行毁灭性的打击而后重建。因为有叙事,才有了话语政治。 在有效加速主义者看来,任何妨碍加速的因素都应反对;那么对 Web3 有效加速主义者来说,所有妨碍去中心化的因素就都应反对。不管你是理想主义的、非营利的、利他的,只要与「加速」、「去中心化」的叙事不合,都是要被扔进垃圾桶进行唾骂的对象(在这里,加速或许都已成为一种政治言说的工具)。通过建构起一个「有效利他主义的」、「减速的」 AI 来证明 Web3 才是目的论的终点。在 Web3 看来,尽管 AI 从业者创造了颠覆性的 GPT-4,但依然是活在传统中的碳基生物,瓦解中心化结构与民族国家的 Crypto 与 Web3 才是终极的答案。但除了比特币、DeFi 与区块链,他们已然面临着叙事的枯竭,只能选择与 AI 联合。加密从诞生开始就建立了自己敌人,若不能去中心化,不断地塑造对立,自身也就失去了存在的合理性。在这个世界上,「自我」永远要找到一个对立的「他者」,来证明自己存在的意义。 有效加速主义标榜着自己代表着建设与进步,在无形中将「减速」塑造成停滞乃至退步。但或许并非如此,因为减速依然在前进。它们为了自己的目的淡化了一个真相,那就是 AI 的技术发展是停不下来的。AI 科学家们从未否认过加速,历史正在加速,但人需要一定的减速来思考如何在这个地球上与机器共存下去。这也是执着于「加速 + 去中心化」的 Web3 有效加速主义者令人不解之处,即加速本身消解人的意义,但他们却又要求用去中心化治理来解决关于人的问题。加速追求的是效率,但去中心化却是低效的。在此,不妨引用一位 Twitter 用户对 Balaji 推文的评论: 又要加速,又要去中心化,一对奇怪的矛盾。 归根到底,他们将叙事拉回到了「去中心化」这个手段上,而从未真正去考虑「人」这个根本问题。这世界上少数的有效加速主义在持续创造新的历史,在这个普遍而又均质的时间中,整个世界都与之一起加速,跟不上的人将被淘汰,他们既没有此岸也没有彼岸,残忍又现实。 但我们依然要勇敢地面对现代世界的真相。正如 Balaji 所言,AGI 代表着上帝回来了。这个上帝是无所不能、全知全能的,只是他现在仍然被人类所控制。这一观念的背后,反映着宗教在现代世界的让步。「造神」,真正将科学塑造为宗教,所有人都是 AI 的信徒。AI 科学家们怕了,因为 AGI 可能真的代表上帝回来了。 当 Sam Altman 回归,OpenAI 乱局尘埃落定,恐怕也再难起波澜。在 OpenAI 政变事后分析的 Twitter Space 中,Balaji 称「Ilya、Adam 与 Emmett 都是天才技术专家,只是他们的道德观与 Sam 和 Greg 不同。这不是财务、技术与战略上的分歧。这是道德上的分歧。」这一刻,Balaji 的言辞也趋于缓和。他的话语少了不少叙事而客观了起来,他声称自己虽然不认识 Ilya,但认识 Adam D'Angelo, 「他一直是一个非常正直的人。从各种迹象来看,Emmett Shear 也是。因此,现在每家 AI 公司都需要选择自己的信念。有效利他主义 or 有效加速主义?」 Web3 也不得不接受一个真相,AI 科学家们并未接受 Cardano 开源大模型的邀请、去中心化 AI 叙事,他们并未买 Web3 的账,无论是前往微软还是回归 OpenAI,他们依然拥抱着传统 AI 科技公司。 参考文献 1. 硅谷 101:《揭秘 OpenAI 成长史:理想主义,冲突,抉择与权力斗争》,2023 年 4 月; 2. https://effectiveacceleration.tech/ 3. 文理两开花:《硅谷的新图腾:「有效加速主义」(e/acc)这面大旗举的起来吗?》,2023 年 8 月; 4. 吴冠军:《话语政治与怪物政治——透过大众文化重思政治哲学》,《探索与争鸣》,2018 年第 3 期; 5. 阿列克斯·威廉姆斯、尼克·斯尔尼塞克撰文,蓝江译:《加速主义宣言:超越资本主义对技术的压制》,2018 年 3 月。 来源:金色财经
lg
...
金色财经
2023-11-22
给OpenAI董事会一些时间人工智能的未来极大可能取决于他们
go
lg
...
定从OpenAI分拆出去以及他和埃隆·
马斯克
的散伙。 这些董事会成员并不是第一批质疑奥特曼诚信的人,他们已经在公开场合这么做了。 OpenAI的许多员工、股东和微软似乎都希望奥特曼重新执掌公司。这给OpenAI的非营利性董事会带来了巨大的压力,要求他们放松态度。该董事会由OpenAI首席科学家伊利亚•萨斯克维尔、Quora首席执行官亚当•德安吉洛、科技企业家塔莎•麦考利和乔治城安全与新兴技术中心的海伦•托纳组成。 (奥特曼和联合创始人格雷格•布罗克曼(Greg Brockman)也是董事会成员,直到上周五发生政变。奥特曼被赶下台。布罗克曼被解除了董事长职务,但在辞职前一直留在公司。) 奥特曼拒绝就此事发表评论。 萨姆·奥特曼(图片来源:贾斯汀·沙利文/盖蒂图片社) 我认为董事会不应该为了逃避巨大的公众压力而让步。但他们确实需要更好地解释自己。目前他们把公众沟通搞得一塌糊涂。 董事会并没有明确表达具体的不满。我也不认为董事会的决定是基于任何一个单一的框架。 董事会在声明中表示,它得出的结论是,奥特曼“在与董事会的沟通中并不保持坦诚。” 我们不应该让糟糕的公开信息蒙蔽了我们的双眼,因为奥特曼已经失去了对董事会的信心,而董事会本应使OpenAI的诚信合法化。 一旦你加上超强人工智能带来的生存风险的可能,OpenAI董事会成员Sutskever似乎真的很担心这只会放大信任崩溃的潜在风险。 根据有关人士透露的信息,我对此理解是,董事会的一些成员确实认为奥特曼在与他们的沟通中不诚实、不可靠。一些董事会成员认为,他们无法监督公司,因为他们不相信奥特曼所说的话。然而,一个非营利性董事会的存在是OpenAI值得信赖的一个关键理由。 我不认为我们中的任何人现在真的知道足够的信息来敦促董事会仓促做出决定。我想让你考虑几件事: OpenAI的董事会并不是一个普通的董事会。这是一个非营利性的董事会,旨在让OpenAI与公众利益保持一致。这个董事会的运作方式不同于营利性公司的传统董事会,这是有道理的。奥特曼一直强调,OpenAI是一个非营利组织,在推动和捍卫OpenAI。他告诉国会:“我们是由非营利组织管理的,我们的活动是由我们的使命和章程驱动的,这使我们承诺努力确保人工智能的利益得到广泛分配,并最大限度地提高人工智能系统的安全性。”这个非营利性董事会被用来保护OpenAI的声誉。难道不应该期待同一个董事会在它认为事情不对劲的时候施加影响吗?拥有一个非营利性董事会的全部意义在于,他们可能会以一种让公司投资者感到沮丧的方式行事。 这里有三个关键的历史案例研究:首先,达里奥·阿莫代伊(Dario Amodei)、杰克·克拉克(Jack Clark)和Anthropic的团队对OpenAI的方法感到非常困扰,他们需要分拆出来,自己创建更安全、更以一致性为导向的基金会模型公司。到底是什么(或者是谁)让这个团队如此担心,以至于需要跳槽?奥特曼无疑是这个决定的核心人物。 其次,上周五我重新露面时,奥特曼离开Y Combinator一事引发的争议比公众理解的要大。一位消息人士告诉我,时任YC总裁的奥特曼被要求离职。他离开YC时没有任何隶属关系,尽管最初奥特曼应该是YC的董事长,或者至少是顾问。一些类似的问题也在此事发酵。在YC,奥特曼被OpenAI搞得心烦意乱,但也顶着董事会的压力积极进行投资;他想大幅扩张,甚至试图在中国推出YC,但这一决定引起了争议(后来的YC总裁改变了这一决定);YC的品牌也成为了奥特曼的代名词。据报道,在OpenAI,奥特曼一直在谈论与孙正义(Masayoshi Son)和乔尼•艾夫(Jony Ive)一起创办一家硬件公司;他正在推动OpenAI越来越快的扩张;毫无疑问,他已经成为公司唯一的有名无实的领导人。奥特曼似乎有一种几乎无法满足的来增加自己的权力和影响力的欲望。据彭博社报道,奥特曼正在为一家新的芯片企业筹集数十亿美元资金。 第三,别忘了埃隆·
马斯克
和奥特曼曾因为OpenAI散伙。 对奥特曼持怀疑态度的人私下里总是这么说:他领导过一家失败的初创公司。保罗·格雷厄姆(Paul Graham)很喜欢他,把奥特曼选为格雷厄姆的继任者。奥特曼利用YC的角色积累了巨大的个人名声和财富。但不清楚的是,奥特曼是否才华横溢,还是说YC是一家很强大的组织而他正受益于它的光环。后来,当OpenAI获得成功时,就连奥特曼私下里的批评者也不得不承认,奥特曼之所以伟大,并不仅仅是因为这个YC的头衔。奥特曼经营着当时最重要的初创公司之一,发布了真正突破性的技术。但也许奥特曼私下里的质疑者太快改变了论调。 我想说的是,虽然公众对奥特曼的支持几乎是一致的,但私下里有些人的看法却更为复杂。 我敢肯定,写这封警告信不会让我在硅谷的许多角落受欢迎。但我觉得我们应该放慢脚步,了解更多事实。如果OpenAI引领我们走向人工通用智能或任何接近的地方,我们会希望花一个多周末的时间来思考我们想让谁带领我们去那里。 奥特曼总是可以决定直接创办一家新公司,并带上他的员工和OpenAI的联合创始人格雷格·布罗克曼。如果OpenAI的董事会只剩下一个被彻底破坏的非营利组织,那么董事会在这里的糟糕策略可能最终会让奥特曼在另一个实体内部对人工智能的未来拥有更多的单方面权力。这可能最终成为控制人工智能公司的独特结构的重大挫折。我希望这不是最后的结果。 作为整个情况的背景,OpenAI董事会的一些离职给剩下的董事会成员更大的冲击力。今年,里德•霍夫曼、希冯•齐里斯和威尔•赫德退出了OpenAI董事会。我的感觉是,当前董事会的决定已经酝酿了一段时间。这三名董事会成员的离职赋予了剩余成员更多的投票权。 奥特曼显然是一位才华横溢的招聘人员和关系建设者。他受到许多员工和投资者的崇拜。他已然成为人工智能的伟大公众倡导者,也是华盛顿的一位有影响力的人物。在他的帮助下,OpenAI的估值可能达到860亿美元,同时作为非营利组织的一部分运营,对投资者的回报是有限的。 奥特曼被赋予了很大的权力,披上了非营利组织的外衣,在公众面前的形象比他私下里好坏参半的名声更耀眼。 但我们应该认真对待这一点:他失去了董事会的信任。 让我们给董事会和奥特曼的批评者一些时间来解释自己,并说明OpenAI在奥特曼没有重新掌权的情况下如何向前发展。 来源:金色财经
lg
...
金色财经
2023-11-22
马斯克
:半独立的OpenAI比与微软合并更好
go
lg
...
马斯克
表示,半独立的OpenAI比与微软合并更好。减少权力的集中。
lg
...
金融界
2023-11-22
马斯克
:将与特斯拉董事会讨论与xAI合作的事宜
go
lg
...
马斯克
表示,将与特斯拉董事会讨论与xAI合作的事宜。
lg
...
金融界
2023-11-22
上一页
1
•••
607
608
609
610
611
•••
995
下一页
24小时热点
中美突传重磅!美媒独家:为与习近平举行峰会 特朗普拒批对台4亿美元军援
lg
...
特朗普-习近平通话倒计时!“三巫日”超5万亿美元到期,美联储打响降息第一枪
lg
...
大行情突袭!日本央行决议惊现令人意外的一幕 美元/日元短线大跌
lg
...
【直击亚市】今日特朗普习近平将通电话!市场几乎逢低买入,日本央行按兵不动
lg
...
中美双方在TikTok协议上取得进展,但仍有工作待完成
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链界盛会#
lg
...
123讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论