根据 www.Todayusstock.com 报道,OpenAI设定了两个核心目标节点:2026年9月实现AI研究实习生,能够通过消耗大量计算资源加速内部研究;2028年3月实现全自动AI研究员,可自主完成大型研究项目。Altman指出,到2028年,科学研究将完全由AI自动化,推动科学前沿发展。
Jakub Pachocki表示,深度学习可能在不到十年内带来超级智能时代。OpenAI使用“任务时间跨度”衡量模型能力:当前模型完成特定任务约需5小时,可与顶尖人类专家相比。未来模型将在算法创新和“上下文计算”维度实现显著能力提升。
| 时间节点 | 目标 | 描述 |
|---|---|---|
| 2026年9月 | AI研究实习生 | 利用大量计算资源加速内部研究 |
| 2028年3月 | 全自动AI研究员 | 自主完成大型研究项目,实现科学研究自动化 |
截至目前,OpenAI已承诺建设总计超过30GW基础设施,对应未来数年约1.4万亿美元投资。Altman表示,这只是起点,公司计划建立每周新增1GW算力的“基础设施工厂”,并将单位GW成本在5年生命周期内降至约200亿美元。
该投资涉及多方合作伙伴,包括AMD、博通、谷歌、微软、英伟达、甲骨文及软银等,目标是支撑未来AI研究和全自动科学探索。
Sam Altman强调,OpenAI正从AI助手转型为平台服务商,让外部开发者在其平台上创造的价值超过OpenAI自身。未来目标是形成“AI云生态”,底层为硬件基础,中间层为训练模型和账户体系,应用层推出Atlas浏览器及硬件设备,顶层形成生态系统。
Altman补充,用户自由与隐私保护是平台核心原则,尤其在创作和互动中给予成年用户更大控制权。平台化战略预计通过企业服务与消费者产品驱动收入,IPO为可能的融资路径。
Jakub Pachocki提出五层安全框架:
价值对齐:确保AI根本“关心”的目标符合人类利益。
目标对齐:关注AI与人类的互动及指令遵循情况。
可靠性:确保AI在简单和复杂任务中保持准确与不确定性表达。
对抗性鲁棒性:抵御人类或其他AI的蓄意攻击。
系统性安全:涵盖系统安全性、数据访问和可用设备的外部限制。
此外,OpenAI开发了“思维链忠实度”技术,用于理解模型内部推理过程,确保训练过程中的推理尽可能忠实反映模型思考,同时限制直接暴露给用户,保持可解释性和安全性。
OpenAI已重组为非营利性质的OpenAI基金会控制的公共利益公司OpenAI集团。基金会初期持有集团约26%股权,未来可能增加。基金会旨在最大化社会福祉,重点投入250亿美元推动AI在疾病治疗和科学研究中的应用,并建立“AI韧性”生态系统,确保高级AI发展安全可靠。
OpenAI明确了从AI研究实习生到全自动AI研究员的超级智能路线图,并计划通过1.4万亿美元基础设施投资及每周新增1GW算力的“基础设施工厂”实现能力跃升。公司战略涵盖平台化转型、产品生态建设及安全框架构建,确保AI发展可控且安全。
此次规划显示,OpenAI不仅致力于技术突破,也重视商业模式、收入来源及长期社会责任。结合基金会的使命和安全框架,公司正在构建一个既能推动科学前沿、又能确保社会福祉的AI生态系统,为未来超级智能奠定基础。
问1:OpenAI的关键时间节点是什么?
答:2026年9月目标为AI研究实习生,能加速内部研究;2028年3月目标为全自动AI研究员,实现科学研究自动化。
问2:OpenAI计划投入多少基础设施及投资?
答:已承诺建设超过30GW算力,未来数年投资约1.4万亿美元,同时计划建立每周新增1GW算力的“基础设施工厂”。
问3:OpenAI平台化战略核心是什么?
答:从AI助手转型为AI云生态,让外部开发者在平台上创造的价值超过OpenAI自身,同时保证用户自由与隐私保护。
问4:五层安全框架包括哪些内容?
答:包括价值对齐、目标对齐、可靠性、对抗性鲁棒性和系统性安全,用于确保AI安全可靠。
问5:OpenAI基金会的使命是什么?
答:基金会旨在最大化社会福祉,重点投资AI应用于疾病治疗、科学研究,并建立AI韧性生态系统以确保安全发展。
来源:今日美股网