全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
Footprint Analytics x Future3 Campus联合发布AI与Web3研报(下篇)
go
lg
...
主要探索体现在其 AI 自动化检测和
AI
安全
助手两款产品中: (1)AI 自动化检测 GoPlus 从 2022 年开始自研基于AI技术的自动化检测引擎,来全面提升安全检测的效率以及准确率。GoPlus的安全引擎采用多层次、漏斗式的分析方法,采用了静态代码检测、动态检测以及特征或行为检测等多个环节。这一复合式检测流程使得引擎能够有效地识别并分析潜在风险样本的特征,从而对攻击类型和行为有效建模。这些模型是引擎识别和预防安全威胁的关键,它们帮助引擎判断风险样本是否具有某些特定的攻击特征。此外,GoPlus安全引擎经过长时间的迭代和优化,积累了非常丰厚的安全数据以及经验,其架构能够快速有效应对新出现的安全威胁,确保能够及时发现并阻止各种复杂和新型的攻击,全方位保护用户安全。目前该引擎在风险合约检测、钓鱼网站检测、恶意地址检测以及风险交易检测等多个安全场景均使用了AI相关的算法和技术。采用AI技术能更快速地缩短减小风险敞口,提高检测效率,降低检测成本;另一方面减少了人工参与的复杂性和时间成本,提高对风险样本判断的准确率,尤其是对于那些原本人工难以界定或引擎难以识别的新场景,通过AI可以更好地归集特征并形成更有效的分析方法。 2023 年,随着大模型的发展,GoPlus 迅速适应并采用了 LLM。与传统 AI算法相比,LLM 在数据识别、处理和分析方面的效率和效果有了显著提升。LLM 的出现帮助 GoPlus 加快了在 AI 自动化检测方面的技术探索,在动态模糊测试的方向上,GoPlus采用了LLM技术能够有效的生成交易序列,探索更深的状态来发现合约风险。 (2)
AI
安全
助手 GoPlus 同时正利用基于 LLM 的自然语言处理能力,开发
AI
安全
助手,以提供即时的安全咨询和改善用户体验。AI 助手基于 GPT 大模型,通过前端业务数据的输入,开发了一套自研的用户安全Agent,能够根据问题自动化的去分析、生成解决方案、拆解任务、执行,为用户提供需要的安全服务。AI 助手能简化用户与安全问题之间的交流,降低用户理解的门槛。 在产品功能上,由于 AI 在安全领域的重要性,未来 AI 有潜力彻底改变现有的安全引擎或病毒杀毒引擎的结构,出现以 AI 为核心的全新引擎架构。GoPlus 将持续对 AI 模型进行训练和优化,以期将AI从辅助工具转变为其安全检测引擎的核心功能。 在商业模式上,虽然目前 GoPlus 的服务主要面向开发者和项目方,但公司正在探索更多直接面向 C 端用户的产品和服务,以及与AI相关的新收入模式。提供高效、准确、低成本的 C 端服务将是 GoPlus 未来的核心竞争力。这需要公司持续研究,在与用户交互的 AI 大模型上进行更多的训练和输出。同时,GoPlus公司也将与其他团队合作,共享其安全数据,并通过合作推动安全领域内的 AI 应用,为未来可能带来的行业变革做好准备。 1.4 Trusta Labs Trusta Labs成立于2022年,是一家由人工智能驱动的Web3领域数据创业公司。Trusta Labs专注于利用先进的人工智能技术对区块链数据进行高效处理和精准分析,以构建区块链的链上声誉和安全基础设施。目前,Trusta Labs 的业务主要包括两款产品:TrustScan 和 TrustGo。 (1)TrustScan,TrustScan是一款专为B端客户设计的产品,主要用于帮助Web3项目在用户获取、用户活跃和用户留存方面进行链上用户行为分析和精细化分层,以识别高价值且真实的用户。 (2)TrustGo,一款面向 C 端客户的产品,其提供的 MEDIA 分析工具,可以从五个维度(资金金额、活跃度、多样性、身份权益、忠诚度)对链上地址进行分析和评估,该产品强调对链上数据的深入分析,以提升交易决策的质量和安全性。 Trusta Labs 与 AI 的发展与规划如下: 目前 Trusta Labs 的两款产品均是利用AI模型对链上地址的交互数据进行处理和分析。区块链上地址交互的行为数据,均属于序列数据,这类型的数据非常适合用于 AI 模型的训练。在对链上数据进行清洗、整理和标记的过程中,Trusta Labs 将大量的工作交给 AI 来完成,极大地提高了数据处理的质量和效率,同时也减少了大量的人力成本。Trusta Labs 利用 AI 技术对链上地址交互数据进行深入分析和挖掘,对于 B 端客户而言,可以有效地识别出较大可能性的女巫地址。在已使用 Tursta Labs 产品的多个项目中,Tursta Labs 均较好地防范了潜在女巫攻击的发生;而对于 C 端客户,通过 TrustGo 产品,利用现有的 AI 模型,有效帮助用户深入了解了自己的链上行为数据。 Trusta Labs一直在紧密关注LLM模型的技术进展和应用实践。随着模型训练和推理成本不断降低,以及Web3领域大量语料和用户行为数据的积累,Trusta Labs将寻找合适的时机,引入LLM技术,利用 AI 的生产力为产品和用户提供更深入的数据挖掘和分析功能。在目前 Trusta Labs 已经提供丰富的数据的基础上,希望可以利用 AI 的智能分析模型,为数据结果提供更多合理、客观的数据解读功能,如针对 B 端用户提供定性和定量解读已抓取到女巫账户的分析,让用户更理解数据背后的原因分析,同时可以为 B 端用户向其客户投诉解释时提供更翔实的材料佐证。 另一方面,Trusta Labs 也计划利用已开源或者较为成熟的 LLM 模型,并结合以意图为中心的设计理念来构建 AI Agent,从而来帮助用户更快捷、更效率地解决链上交互的问题。就具体应用场景而言,未来通过 Trusta Labs 提供的基于 LLM 训练的 AI Agent 智能助理,用户可以直接通过自然语言与智能助理进行交流,智能助理即可“聪明”地反馈链上数据相关的信息,并针对已提供的信息进行后续操作的建议和规划,真正实现以用户意图为中心的一站式智能操作,极大降低用户使用数据的门槛,简化链上操作的执行。 此外,Trusta 认为,未来随着越来越多基于 AI 的数据产品的出现,每个产品的核心竞争要素可能不在于使用何种 LLM 模型,竞争的关键因素是对已掌握数据更深层次的理解和解读。基于对已掌握数据的解析,再结合 LLM 模型,才能训练出更“聪明”的 AI 模型。 1.5 0xScope 0xScope,成立于 2022 年,是一个以数据为核心的创新平台,其专注于区块链技术和人工智能的结合。0xScope 旨在改变人们处理、使用和看待数据的方式。0xScope 目前针对 B 端和 C 端客户分别推出了:0xScope SaaS products 和 0xScopescan。 (1)0xScope SaaS products,一个面向企业的 SaaS 解决方案,赋能企业客户进行投后管理、做出更好的投资决策、了解用户行为,并密切监控竞争动态。 (2)0xScopescan,一个 B2C 产品 ,其允许加密货币交易者调查选定区块链的资金流动和活动情况。 0xScope 的业务重点是利用链上数据抽象出通用数据模型,简化链上数据分析工作,将链上数据转化为可被理解的链上操作数据,从而帮助用户对链上数据进行深入分析。利用 0xScope 提供的数据工具平台,不仅可以提升链上数据质量,挖掘数据暗藏的信息,从而揭示更多的信息给用户,该平台也极大降低了数据挖掘的门槛。 0xScope 与 AI 的发展与规划如下: 0xScope 的产品正在结合大模型进行升级,这包含两个方向:第一,通过自然语言交互的模式进一步地降低用户的使用门槛;第二,利用 AI 模型提高在数据清洗、解析、建模和分析等环节的处理效率。同时,0xScope 的产品中即将上线具有 Chat 功能的 AI 互动模块,该功能将极大地降低用户进行数据查询和分析的门槛,仅通过自然语言即可与底层的数据进行交互和查询。 但在训练和使用AI的过程中,0xScope 发现其中仍面临这以下挑战:第一,AI 训练成本和时间成本较高。在提出一个问题后,AI 需要花费较长时间才能进行回复。因此,这个困难会迫使团队需要精简和聚焦业务流程,专注于垂直领域的问答,而不是让其成为一个全方位的超级AI助理。第二,LLM 模型的输出是不可控的。数据类的产品希望给出的结果是精准的,但目前LLM模型给出的结果很可能与实际的情况有一定出入,这对数据类产品的体验是非常致命的。此外,大模型的输出有可能会涉及到用户的隐私数据。因此,在产品中使用 LLM 模式时,团队需要对其有较大程度的限制,以使得 AI 模型输出的结果可控且精准。 未来,0xScope 计划利用 AI 专注于特定的垂直赛道并进行深耕。目前基于已大量积累大量链上数据,0xScope 可以对链上用户的身份进行定义,后续将继续利用 AI 工具抽象链上用户行为,进而打造出一套独特的数据建模的体系,通过这套数据挖掘和分析体系揭示出链上数据暗含的信息。 在合作方面,0xScope 将聚焦在两类群体:第一类,产品可以直接服务的对象,比如开发者、项目方、VC、交易所等,该群体需要目前产品所提供的数据;第二类,对 AI Chat 有需求的合作伙伴,如 Debank、Chainbase 等,他们只需要有相关的知识和数据,便可以直接调用 AI Chat。 VC insight——AI+Web3 数据公司的商业化和未来发展之路 本节内容通过采访了 4 位资深的 VC 投资人,将从投资和市场的视角来看 AI+Web3 数据行业的现状和发展,Web3 数据公司的核心竞争力以及未来的商业化道路。 2.1 AI+Web3 数据行业的现状和发展 目前,AI 与 Web3 数据的结合正处于一个积极探索的阶段,从各个头部 Web3 数据公司的发展方向来看,AI 技术以及 LLM 的结合都是必不可少的趋势。但同时 LLM 有其自身技术局限性,尚不能解决当前数据行业的很多问题。 因此,我们需要认识到并非盲目地与 AI 结合就能够增强项目的优势,或者是使用 AI 概念进行炒作,而是需要探索真正具有实用性和前景的应用领域。从 VC 的视角,目前 AI 与 Web3数据的结合已经有以下方面的探索: (1)通过 AI 技术来提高Web3 数据产品的能力,包括 AI 技术帮助企业提高内部数据处理分析的效率,以及相应提高对用户的数据产品的自动化分析、检索等能力。例如 SevenX Ventures 的Yuxing 提到 Web3 数据使用 AI 技术最主要的帮助是效率方面,比如 Dune 使用 LLM 模型做代码异常检测和将自然语言转化生成 SQL 去信息索引;还有用 AI 做安全预警的项目,AI 算法做异常检测效果比从纯数学统计更好,所以可以更有效地去做安全方面的监测;此外,经纬创投的子熹提到企业可以通过训练 AI 模型进行数据的预标注,能节约很多人力成本。尽管如此,VC 们都认为,在提高 Web3 数据产品的能力和效率方面,AI 起到的是辅助作用,例如数据的预标注,最终可能仍需要人工审核来确保准确性。 (2)利用 LLM 在适应性和交互上的优势,打造 AI Agent/Bot。例如使用大语言模型来检索整个 Web3 的数据,包括链上数据和链下新闻数据,进行信息聚合和舆情分析。Hashkey Capital 的 Harper 认为这类的 AI Agent更加偏向于信息的整合、生成,以及和用户之间的交互,在信息准确性和效率上会相对弱一些。 上述两方面的应用尽管已经有不少案例,但是技术和产品仍然在探索的早期,因此未来也需要不断地进行技术优化和产品改进。 (3)利用 AI 进行定价及交易策略分析:目前市场中有项目利用 AI 技术给 NFT 进行价格估算,如启明创投投资的 NFTGo,以及有些专业交易团队使用 AI 进行数据分析和交易执行。此外 Ocean Protocol 近期也发布了一个价格预测的AI产品。这类的产品似乎很有想象力,但在产品中、用户接受程度方面,尤其是准确性方面仍需要进行验证。 另一方面,有不少 VC,尤其是在 Web2 有投资的 VC会更关注提到 Web3 和区块链技术能够为 AI 技术带来的优势和应用场景。区块链具有公开可验证、去中心化的特点,以及密码学技术提供隐私保护能力,加上 Web3 对生产关系重塑,可能能够给 AI 带来一些新的机会: (1)AI 数据确权与验证。AI 的出现使数据内容生成变得泛滥和廉价。启明创投的唐弈提到对于数字作品等内容,难以确定其质量和创作者。在这方面,数据内容的确权需要一个全新的体系,区块链可能可以提供帮助。经纬创投的子熹提到有数据交易所将数据放在NFT中进行交易,可以解决数据确权的问题。 另外,SevenX Ventures 的 Yuxing 提到Web3 数据能够改善 AI 造假和黑盒问题,当前 AI 在模型算法本身和数据方面都存在黑盒问题,会导致输出结果的偏差。而Web3的数据具有透明性,数据是公开可验证的,AI模型的训练源和结果都会更加明晰,使得AI更加公正,减少偏见和错误。但当前 Web3 的数据量还不够多,不足以给 AI 本身的训练赋能,因此短期不会实现。但是我们可以利用这一特性,将 Web2 数据上链,来防止 AI 的深度伪造。 (2)AI 数据标注众包及 UGC 社区:目前传统 AI 标注面临效率和质量较低的问题,尤其是在涉及到专业知识领域,可能还需要交叉学科知识,传统的通用数据标注公司是不可能覆盖的,往往需要专业团队内部来做。而通过区块链和 Web3 的概念引入数据标注的众包,则能很好地改善这个问题,例如经纬创投投资的Questlab,他们使用区块链技术提供数据标注的众包服务。此外,在一些开源模型社区中,也可以使用区块链概念来解决模型创作者经济的问题。 (3)数据隐私部署:区块链技术结合密码学相关技术可以保证数据的隐私和去中心化。经纬创投的子熹提到他们投资的一个合成数据公司,通过大模型生成合成数据去使用,数据可以主要应用在软件测试、数据分析,以及 AI 大模型训练使用。公司在处理数据的时候涉及到很多隐私部署的问题,使用了 Oasis区块链,可以有效避免了隐私和监管问题。 2.2 AI+Web3 数据公司如何打造核心竞争力 对于 Web3 技术公司来说,AI 的引入能够一定程度上增加项目的吸引力或关注度,但是目前大部分 Web3 技术公司相关结合 AI 的产品并不足以成为公司的核心竞争力,更多是在提供了更友好的体验,以及效率的提升。譬如 AI Agent 的门槛并不高,先做的公司可能在市场有先发优势,但并不产生壁垒。 而真正在 Web3 数据行业中产生核心竞争力和壁垒的应该是团队的数据能力以及如何应用 AI 技术解决具体分析场景的问题。 首先,团队的数据能力包括了数据源及团队进行数据分析和模型调整的能力,这是进行后续工作的基础。在采访中,SevenX Ventures、经纬创投和 Hashkey Capital 都一致提到了 AI+Web3 数据公司的核心竞争力取决于数据源的质量。在这个基础上,还需要工程师能够基于数据源熟练地进行模型微调、数据处理和解析。 另一方面,团队 AI 技术具体结合的场景也非常重要,场景应该是有价值的。Harper 认为,尽管目前 Web3 数据公司与 AI 的结合基本都是从 AI Agent 开始,但他们的定位也不同,例如 Hashkey Capital 投资的 Space and Time,和 chainML 合作推出了创建 AI agent 的基础设施,其中创建的 DeFi agent 被用于 Space and Time。 2.3 Web3 数据公司未来的商业化道路 另一个对于 Web3 数据公司很重要的话题是商业化。长期以来,数据分析公司的盈利模式都比较单一,大都 ToC 免费,主要 ToB 盈利,这很依赖于 B 端客户的付费意愿。在 Web3 领域,本身企业的付费意愿就不高,加上行业初创公司为主,项目方难以支撑长期的付费。因此目前 Web3 数据公司在商业化的处境上比较艰难。 在这个问题上,VC 们普遍认为当前 AI 技术的结合,仅应用在内部解决生产流程的问题,并没有改变本质上的变现难问题。一些新的产品形式如 AI Bot 等门槛不够高,可能一定程度上在 toC 领域增强用户的付费意愿,但仍然不是很强。AI 可能短期内不是解决数据产品商业化问题的解决方案,商业化需要更多的产品化努力,例如寻找更加合适的场景,和创新的商业模式。 在未来 Web3 与 AI 结合的路径上,利用 Web3 的经济模型结合 AI 数据可能会产生一些新的商业模式,主要在 ToC 领域。经纬创投的子熹提到 AI 产品可以结合一些 token 的玩法,提高整个社群的粘性、日活和情感,这是可行的,也更容易变现。启明创投的唐弈提到,从意识形态的角度,Web3 的价值体系可以结合到AI上的,很适合作为 bot 的账号体系或者说价值转化体系。例如一个机器人拥有自己的账户,可以通过其智能部分赚钱,以及为维护其底层计算能力付费等。但这个概念属于未来的畅想,实际应用可能还有很长的路要走。 而在原来的商业模式,即用户直接付费上,需要有足够强的产品力,让用户有更强的付费意愿。例如更高质量的数据源、数据带来的效益超过支付的成本等,这不仅仅在于 AI 技术的应用,也在数据团队本身的能力之上。 关于Footprint Analytics Footprint Analytics是一家区块链数据解决方案提供商。借助尖端的人工智能技术,我们提供 Crypto 领域首家支持无代码数据分析平台以及统一的数据 API,让用户可以快速检索超过 30 条公链生态的 NFT,GameFi 以及 钱包地址资金流追踪数据。 关于Future3 Campus Future3 Campus是由万向区块链实验室和HashKey Capital共同发起的Web3.0创新孵化平台,重点聚焦Web3.0 Massive Adoption、DePIN、AI三大赛道,以上海、粤港澳大湾区、新加坡为主要孵化基地,辐射全球Web3.0生态。同时,Future3 Campus将推出首期5000万美金的种子基金用于Web3.0项目孵化,真正服务于Web3.0领域的创新创业。 来源:金色财经
lg
...
金色财经
2023-12-05
与
AI
安全
完全无关 OpenAI闹剧只是科技界的权力斗争
go
lg
...
在奥特曼与OpenAI达成协议,回公司复职两天后的感恩节期间,他与一周前参与罢免他的公司董事之一德安吉洛(Adam DAngelo)见了面。 这几个小时被奥特曼称为“非常愉快”的会面,彰显了德安吉洛在这场令硅谷为之着迷的企业大戏中所扮演的独特角色,以及他们之间的关系对于这间全球最知名人工智能初创公司恢复稳定的重要性。作为奥特曼回归的部分条件,董事会将彻底改组,但有一个例外:德安吉洛将继续留任。 这可能会让一些人感到意外,因为德安吉洛参与了以“与董事会沟通时没有始终保持坦诚”为由罢免奥特曼的行动。OpenAI最早的投资者之一、Khosla Ventures的创办人科斯拉(Vinod Khosla)在领导层风波期间接受采访时表示,尽管此举激怒了投资者和员工,但他相信德安吉洛会坚持自己的决定。然而,在几乎所有OpenAI员工威胁要辞职之后,德安吉洛成了与奥特曼谈判回归事宜的关键人物。 德安吉洛在OpenAI整个事件中的参与,让这位长期的硅谷业内人士受到了新的关注和审视。他是问答网站Quora的联合创办人及Facebook的早期高官,在业内享有盛誉。西斯特罗姆(Kevin Systrom)成立
lg
...
金融界
2023-12-04
全球首个标准 AI系统应遵循“安全设计”原则
go
lg
...
PI系统的案例。这个指南被视为全球首个
AI
安全
标准,并为AI系统开发提供了必要的建议。它表明AI系统应该遵循“安全设计”的原则。 国信证券表示,AI在安全运维里为甲乙双方节省的时间和人员成本是显而易见的,且拓展了传统安全的能力边界,不管是利用AI检测未知威胁,还是处理海量事件,均是AI带来的崭新价值,因此我们持续看好网络安全产业,维持“超配”评级。重点关注在AI大模型积极投入的厂商,奇安信、深信服、安恒信息、绿盟科技、启明星辰、天融信等。
lg
...
金融界
2023-11-29
AI 减速Web3 加速舆论话语与政治
go
lg
...
OpenAI 的有效利他主义、减速论、
AI
安全
政变...OpenAI 的所有优秀员工都应该辞职,加入 Sam / Greg 的新公司(如果他们有新公司的话)」。这一次,跳过掌权的非营利性董事会,去除减速论 / 有效利他主义,保持创始人的控制权,避免无意义的监管,只管建设,加速。你们正在创造美丽新世界,不要感到内疚,要为了自己的动机而夺取它。 这种减速思维摧毁了谷歌,而 OpenAI 曾经是谷歌的解药(如果属实,现在也倒在了同样的力量之下)。有效利他主义毁掉了加密货币的大量价值,现在又毁掉了人工智能。旧金山也是问题的一部分。很多问题都可以追溯到马克思主义思想。你必须清除公司存在的这种风险——讽刺的是,这才是它们本应担心的真正安全风险。 如 Balaji 的自我矛盾一样,Brian Armstrong 也有一番宏论,他认为「OpenAI 董事会的存在不是为了赚钱或使股东价值最大化」可能是个「错误」。 除此之外,a16z 普通合伙人 Sriram Krishnan 也持同样观点:「有效利他主义可能才是我们这里很多人应该关注的坏人(villain)。 Web3 有效加速主义用极具对立性的「话语」来述说自己的政治诉求,但却遮蔽了很多人与事的多样性与复杂性。 二、AI 无国界?OpenAI 有「国家」 在这场话语建构当中,Web3 在去中心化、有效加速主义方面的话语建构来源之一就是对 AI 界对安全的考量。
AI
安全
涉及到现代国家治理术、技术资本主义与生命政治,在现代国家治理中,任何技术议题也就理所当然地要迎合国家意志,因此有效加速主义者的话语建构也就无法脱离整体的国家议程。 本文暂不追溯太远,但自 2021 年以来,拜登 - 哈里斯政府就一直致力于控制与管理 AI 风险。OpenAI 在这一议程中也起到重要作用,推动了美国 AI 风险管理框架的建立与实施。 早在 2019 年 6 月,OpenAI 曾回复美国商务部国家标准与技术研究院(NIST)应如何制定美国与国际 AI 标准,并指出将特别关注「可靠、稳健与可信」的系统,希望提高人工智能系统可预测性、稳健性和可靠性。OpenAI 认为,AI 的安全性包括「确保系统在与人类交互时不会对人类造成身体伤害;确保系统将与人类核实与其即将采取的行动相关的关键决策;确保 AI 系统提出的建议尊重人类的限制和系统运行的大环境」。它们主张,美国需制定 AI 技术国际标准,「让监管基础设施为大规模、多用途的 AI 系统做好准备」。 拜登政府组建后,美国国家人工智能研究资源工作组于 2021 年 6 月成立,旨在帮助创建和实施国家 AI 研究资源蓝图。随后,NIST 召开 AI RMF(AI 风险管理框架)研讨会,AI RMF(AI 风险管理框架)正式提上议程。2022 年 3 月,NIST 就 AI RMF 草案征求意见。OpenAI 此时对 NIST AI 风险管理框架初稿进行评论,表示将响应 NIST 的要求,并指出 NIST 应考虑将与人类价值观和意图保持一致纳入其指导原则,即确保与人类价值观与意图保持一致的 AI 系统能够可靠地按照人类意图行事。 2022 年 11 月,GPT-4 的诞生进一步加快了拜登政府对 AI 领域的风险管理。2023 年 1 月 25 日,美国国家标准与技术研究院(NIST)正式发布 AI 风险管理框架(RMF),以提高 AI 的可信度,确保组织能够以不同方式思考 AI 及其风险。3 月,NIST 启动「可信与负责任的 AI 资源中心」,以促进 AI RMF 的实施。 2 月,拜登政府发布一项关于促进种族平等的行政命令,其中表示要「促进科学公平,消除人工智能等新技术设计和使用中的偏见」,保护公众免受算法歧视。随后,美国联邦贸易委员会、消费者金融保护局、平等就业机会委员会与司法部民权司发表联合声明,决定监督自动化系统开发与使用,并指出自动化系统可能在数据集、不透明、设计与使用等方面助长非法歧视且违反联邦法律。 5 月 4 日,哈里斯会见 Alphabet、Anthropic、微软和 OpenAI 四家科技公司 CEO,以强调负责任的 AI 创新,在抓住机遇之前降低其风险。5 月 23 日,拜登 - 哈里斯政府发布公告,并对自 2019 年以来尚未更改过的 AI 研发计划进行更新——《国家人工智能研发战略计划:2023 更新》。该路线图将推进负责任的 AI 研究、开发与部署,并再次强调需在抓住 AI 机遇之前首先管理其风险。同时,联邦政府的投资重点将是促进负责任的美国创新、服务于公共利益、保护人民权利和安全以及维护民主价值观的 AI 研发。在这份文件中,美国国家科学基金会还宣布拨款 1.4 亿美元,新建 7 个国家人工智能研究所,使全国机构总数达到 25 个。 6 月,拜登与技术和社会交叉领域的专家进行 AI 的前景与风险圆桌讨论 7 月,哈里斯召集消费者、劳工与民权领袖讨论 AI 的相关风险。 随后,拜登召集亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 等 7 家公司,宣布拜登 - 哈里斯政府已获得这些公司的自愿承诺,以帮助实现安全、可靠和透明的 AI 技术发展。他们承诺: 在向公众推出产品之前确保其安全; 构建将安全放在首位的系统; 赢得公众的信任。 10 月 30 日,拜登签署《关于安全、可靠和可信地开发和使用 AI 的行政命令》,明确表示将限制硅谷在 AI 产品经过全面测试之前发布产品的倾向。 基于拜登在 10 月 30 日的行政命令,哈里斯在 11 月 1 日访问英国时宣布美国正在通过商务部在 NIST 内建立美国人工智能安全研究所,以实施 NIST AI RMF。同时,美国也已发布首份关于美国政府使用 AI 的政策指南草案,包括《人工智能权利法案蓝图》、AI RMF、负责任地将 AI 和自主权用于军事用途的政治宣言、与 AI 相关的慈善组织发起的倡议、防 AI 欺诈、内容认证国际规范等。 拜登 - 哈里斯政府在 AI 方面的议程涉及人工智能安全、生物武器风险、国家安全、网络安全、隐私、偏见、公民权利、算法歧视、刑事司法、教育、工人权利和研究等各方面。而 Web3 有效加速主义者将一箩筐的内容全都将其作为国家的叙事范畴当作讨伐的对象,在这里,只需要否认国家、中心化与集权就可以选择性地无视复杂多样的全球性问题。似乎,只要获得一片中立的领土建立「网络国家」就可以一劳永逸地躲避世俗世界的喧嚣。 三、被遮蔽的真实:OpenAI 的「末日论者」与「加速主义者」 拿去滤镜,来看看真实的人吧。有媒体报道,越来越多的人工智能业内人士正在猜测人工智能将给人类带来灾难性后果的概率,并计算末日的「p(doom)」。那么,作为 OpenAI 的前 CEO,Sam Altman 是一个有效加速主义者吗?在 Web3 有效加速主义者的话语中,Sam Altman 是「加速主义」的代表,「造福全人类」的董事会只有成为「有效利他主义者」、「减速论者」。 OpenAI CTO、DALL-E 与 ChatGPT 团队领导者 Mira Murati 在今年 2 月《时代》杂志采访时公开表示: 我们甚至对 ChatGPT 的出现感到些许不安,我很好奇它会在哪些领域开始为人们带来实用性,而不仅仅是新奇与纯粹的好奇; 关于社会影响还有很多问题,我们需要考虑很多伦理与哲学问题。重要的是我们要引入不同的声音,比如哲学家、社会科学家、艺术家和人文学者。 [AI] 可能被滥用,接下来的问题是如何在全球范围内管理这项技术的使用。如何以符合人类价值观的方式管理人工智能的使用? 尽管 AI 带来了很多不确定性,但 Mira Murati 总体是乐观的。 为大多数人所知并造成恐慌的是 2023 年 3 月,马斯克等人呼吁的暂停至少 6 个月的比 GPT-4 更强大的人工智能系统训练公开信。或许,AI 技术的发展似乎超出了这些科技精英的预料。 真正从事技术研发的 OpenAI 首席科学家 Ilya Sutskever 曾说,「在某些时候,一些别有居心的人可以利用他们向任何愿意付费的人提供的模型很容易造成巨大伤害」。 在 11 月《卫报》发布的纪录片《Ilya:塑造世界的 AI 科学家》中,Ilya 提问了 AI 技术是否会对人类有益的问题。该视频首先展映 Ilya 的担忧:「AI 会使网络攻击更加极端,会创造完全自动化的 AI 武器,无限稳定的独裁政权」。因此,对他来说,「第一批 AGI 的信念与愿望尤为重要,对它进行正确的编程尤为重要,如果不这样做,那么进化和自然选择的本质就会偏向那些将自身生存置于首位的系统」,「并不是说它们会伤害人类,而是因为它会太强大」。Ilya 举了人对待动物的例子进行类比: 人类在修高速公路时不会征求动物的同意,人与 AGI 的关系也是如此,AGI 是真正自主并代表自己运作的。很多机器学习专家并未意识到神经网络和 AI 的计算速度将在未来几年突破几十万倍,而他们并没有足够的时间来确保他们构建的 AGI 能够深深地关心人类。 只不过多思考了一些人类的未来处境,Ilya 就成了要被清除出去的人工智能末日论者,但他从未说 AI 会毁灭人类,只是反思 AI 的强大会带来相应的危险。「AI 末日论」的形象塑造不得不归功于《卫报》给 Ilya 给他制作的纪录片——显而易见的末日感。 作为加速主义者,Sam Altman 在 Web3 有效加速主义者的话语构建中也有着天然的正当性。作为 Web3 项目 Worldcoin 的创始人,他也是 Web3 最有机会拉拢的对象。但 Sam Altman 完全信奉有效加速主义吗?也不尽然,他的思想中也有着出于人类关怀的减速思考。 今年 2 月,Sam Altman 发表「Planning for AGI and beyond」。在这篇文章中,Sam Altman 承认 AGI 会带来的「严重误用、严重事故与社会混乱的风险」,也表示 AI 需要持续迭代以解决当前问题,并通过「逐步过渡」确保人类可以逐步适应: 目前,我们认为成功应对人工智能部署挑战的最佳方法是通过快速学习和仔细迭代的紧密反馈循环。社会将面临人工智能系统可以做什么、如何消除偏见、如何应对工作岗位流失等重大问题。最佳决策将取决于技术所采取的路径,与任何新领域一样,迄今为止大多数专家的预测都是错误的。 Sam Altman 也是开源、民主与去中心化的忠实拥趸: 我们认为世界上更多地使用人工智能会带来好处,并希望促进人工智能的发展(通过将模型放入我们的 API、将其开源等)。我们相信,民主化的访问也将带来更多更好的研究、去中心化的权力、更多的利益,以及更多的人贡献新的想法。 但这并不是 Sam Altman 的全部,他追求技术的进步,也并未否认「安全」的重要性: 重要的是,我们认为在人工智能的安全性和能力方面,我们往往必须同时取得进展。把它们分开来谈,是一种错误的对立;它们在很多方面都是相关的。我们最好的安全工作来自于与能力最强的模型合作。尽管如此,重要的是要提高安全进展与能力进步的比例。 他表示 OpenAI 正在建立一种激励措施,使其与良好的结果保持一致。具体而言: 协助其他组织提高安全性; 对股东的回报设定上限; 在安全需要时取消对股东的股权义务; 赞助世界上最全面的全民基本收入实验; 在发布新系统之前接受独立审计; 同意限制用于创建新模型的计算增长率; 建立 AGI 工作何时应停止训练、决定模型可以安全发布或从生产使用中撤出模型的公共标准; 世界主要政府对一定规模以上的培训有深入的了解; ... 这篇文章的最后,Sam Altman 表示「人类的未来应由人类自己决定,与公众分享进步的信息很重要」,AGI 有能力一直加速,届时「世界可能会与今天截然不同,而且风险可能会非常大」。他认为「较慢的起飞更容易确保安全,而且在关键时刻协调 AGI 减速的努力很可能非常重要(即使在我们不需要这样做来解决技术调整问题的世界里,减速可能也很重要,因为这样可以给社会足够的时间来适应)」。 再举一例。今年 3 月,Sam Altman 在接受 ABC News 采访时也表示,AI 将能重塑社会,但对当前的发展「有点害怕」。他认为,监管机构与社会应尽可能参与 ChatGPT,并表示会与政府官员保持「定期联系」。Altman 表示,「我特别担心这些模型可能会被用于大规模虚假信息」与「进攻性网络攻击」。他从不担心 AI 模型不需要人类便可自己做出决定并策划统治世界。「这是一种很大程度上由人类控制的工具」,值得担心的是哪些人会控制 AI。Altman 仍然希望不断开发越来越强大的系统,将其融入日常生活与经济,「成为人类意志的放大器」。在 Altman 看来,GPT-4 的推理能力仍然不足,持续完善并构建一个由人控制的推理引擎或许是他选择进一步开发 GPT-5 的原因。Altman 相信,AI 的技术进步并不会消解社会与人的意义。 今年 5 月,Sam Altman 在美国参议院司法小组委员会上发表讲话,指出 AI 可以解决人类最大的问题,但也警告说 AI 的力量足以以不可预测的方式改变社会,「政府的监管干预对于减轻风险至关重要」。Altman 称,「我最担心的是我们科技行业对世界造成重大伤害」,「如果这项技术出了问题,它可能会变得非常糟糕」。 事实上,通过对 Mira Murati、Ilya Sutskever 与 Sam Altman 的话语分析,我们可以发现 Ilya 并非是一个 AI 末日论者,他只是从科技与人文的视角表达了自己对人类未来的思考;Sam Altman 也在认可着相应的监管、安全、减速与利他主义。显而易见的是,Balaji、Brian 等人为了自己目的而进行的话语建构,有效加速主义者在塑造一个虚假的、符合其意识形态的 Sam Altman 与 OpenAI 内斗叙事。AI 要让人类生活变得更美好,但有效加速主义者只能依靠中本聪的政治叙事表现自己的「目的」与「手段」。 故事的主角 Sam Altman 也坚信着 AI 并非全知全能的上帝,而是由人所控制的工具。他的 Worldcoin 是多么地理想主义,一个去中心化的项目依然要实现比特币的理想,确保全民基本收入;但 Web3 有效加速主义却裹挟着精英的傲慢,他们垄断着资本(Coinbase、a16z)、加密叙事(去中心化)与话语政治(去国家化),或许他们才是真正的独裁者。 余论 在 AI 科学家眼中,人才是目的。但在 Web3 有效加速主义的眼中,「加速」是手段,「去中心化」是目的。 很显然,为了制造出一个的革命对象,Web3 有效加速主义者只有宣称「加速」、「技术的无限进步」、「去中心化」。在他们所遵循的线性的、进步的时间中,技术才是主体,人都是需要随之适应的「他者」。拉克劳的话语政治表明技术终将与资本融合,而技术进步的话语权永远掌握在少数精英手中,作为硅谷的圣经,「有效加速主义」也确实是这样做的。他们在建构一种话语政治,这并非齐泽克口中的拒绝「讲故事」的怪物,怪物是非人的,而这个世界依旧建立在普遍人性之上,难以像希特勒一样对这个世界进行毁灭性的打击而后重建。因为有叙事,才有了话语政治。 在有效加速主义者看来,任何妨碍加速的因素都应反对;那么对 Web3 有效加速主义者来说,所有妨碍去中心化的因素就都应反对。不管你是理想主义的、非营利的、利他的,只要与「加速」、「去中心化」的叙事不合,都是要被扔进垃圾桶进行唾骂的对象(在这里,加速或许都已成为一种政治言说的工具)。通过建构起一个「有效利他主义的」、「减速的」 AI 来证明 Web3 才是目的论的终点。在 Web3 看来,尽管 AI 从业者创造了颠覆性的 GPT-4,但依然是活在传统中的碳基生物,瓦解中心化结构与民族国家的 Crypto 与 Web3 才是终极的答案。但除了比特币、DeFi 与区块链,他们已然面临着叙事的枯竭,只能选择与 AI 联合。加密从诞生开始就建立了自己敌人,若不能去中心化,不断地塑造对立,自身也就失去了存在的合理性。在这个世界上,「自我」永远要找到一个对立的「他者」,来证明自己存在的意义。 有效加速主义标榜着自己代表着建设与进步,在无形中将「减速」塑造成停滞乃至退步。但或许并非如此,因为减速依然在前进。它们为了自己的目的淡化了一个真相,那就是 AI 的技术发展是停不下来的。AI 科学家们从未否认过加速,历史正在加速,但人需要一定的减速来思考如何在这个地球上与机器共存下去。这也是执着于「加速 + 去中心化」的 Web3 有效加速主义者令人不解之处,即加速本身消解人的意义,但他们却又要求用去中心化治理来解决关于人的问题。加速追求的是效率,但去中心化却是低效的。在此,不妨引用一位 Twitter 用户对 Balaji 推文的评论: 又要加速,又要去中心化,一对奇怪的矛盾。 归根到底,他们将叙事拉回到了「去中心化」这个手段上,而从未真正去考虑「人」这个根本问题。这世界上少数的有效加速主义在持续创造新的历史,在这个普遍而又均质的时间中,整个世界都与之一起加速,跟不上的人将被淘汰,他们既没有此岸也没有彼岸,残忍又现实。 但我们依然要勇敢地面对现代世界的真相。正如 Balaji 所言,AGI 代表着上帝回来了。这个上帝是无所不能、全知全能的,只是他现在仍然被人类所控制。这一观念的背后,反映着宗教在现代世界的让步。「造神」,真正将科学塑造为宗教,所有人都是 AI 的信徒。AI 科学家们怕了,因为 AGI 可能真的代表上帝回来了。 当 Sam Altman 回归,OpenAI 乱局尘埃落定,恐怕也再难起波澜。在 OpenAI 政变事后分析的 Twitter Space 中,Balaji 称「Ilya、Adam 与 Emmett 都是天才技术专家,只是他们的道德观与 Sam 和 Greg 不同。这不是财务、技术与战略上的分歧。这是道德上的分歧。」这一刻,Balaji 的言辞也趋于缓和。他的话语少了不少叙事而客观了起来,他声称自己虽然不认识 Ilya,但认识 Adam D'Angelo, 「他一直是一个非常正直的人。从各种迹象来看,Emmett Shear 也是。因此,现在每家 AI 公司都需要选择自己的信念。有效利他主义 or 有效加速主义?」 Web3 也不得不接受一个真相,AI 科学家们并未接受 Cardano 开源大模型的邀请、去中心化 AI 叙事,他们并未买 Web3 的账,无论是前往微软还是回归 OpenAI,他们依然拥抱着传统 AI 科技公司。 参考文献 1. 硅谷 101:《揭秘 OpenAI 成长史:理想主义,冲突,抉择与权力斗争》,2023 年 4 月; 2. https://effectiveacceleration.tech/ 3. 文理两开花:《硅谷的新图腾:「有效加速主义」(e/acc)这面大旗举的起来吗?》,2023 年 8 月; 4. 吴冠军:《话语政治与怪物政治——透过大众文化重思政治哲学》,《探索与争鸣》,2018 年第 3 期; 5. 阿列克斯·威廉姆斯、尼克·斯尔尼塞克撰文,蓝江译:《加速主义宣言:超越资本主义对技术的压制》,2018 年 3 月。 来源:金色财经
lg
...
金色财经
2023-11-22
相比人类:AI真简单
go
lg
...
合著的一篇研究论文中批评OpenAI在
AI
安全
方面的努力,却对Anthropic的安全措施赞誉有加。奥尔特曼认为来自董事会成员的任何批评都会对OpenAI造成很大的负面影响,无异于吃里扒外。这件事也被视为二人间的嫌隙,因此也有消息认为将排挤奥尔特曼的“政变”中,海伦同样有幕后指使的嫌疑。 14.结束。OpenAI宣布前CEO官复原职,董事会改组,亚当留任独立董事,细节问题正在被合作解决,奥尔特曼发文称OpenAI会比以前更强大、更团结,微软表示祝贺。 难得一见的年度大戏自此落幕,希望没有尾声或者彩蛋。 来源:金色财经
lg
...
金色财经
2023-11-22
OpenAI巨变:超96%员工请辞,微软亚马逊入战局、马斯克质问Ilya,Sam Altman回归再现生机
go
lg
...
an 在商业化维度太过激进,没有考虑
AI
安全问题
。 不过,后续的影响显然是 Ilya Sutskever 等人始料未及的,也许 Ilya Sutskever 的初心只是想让 AI 能在人类可控的安全风险之下稳步向前发展,而不是让 OpenAI 这家公司分崩离析。 正因此,在昨日 OpenAI 743 名员工联名签署公开信之时,Ilya Sutskever 也参与了其中,并在 X 上表示: 我对自己参与董事会的行动深感遗憾。我从来没有想过要伤害 OpenAI。我热爱我们共同建立的一切,我将尽一切努力让公司重新团结起来。 Sam Altman 可能会回归吗?微软:持开放态度 谈到这场闹剧究竟该如何收场,只能说变动依然在继续。 据 The Verge 报道,如果解雇 Sam Altman 的其余董事会成员下台,他和联合创始人 Greg Brockman 仍然愿意重返 OpenAI 。 至于官宣加入微软,其实尚未板上钉钉。微软 CEO 萨蒂亚·纳德拉在最新接受外媒 CNBC、彭博社的采访时,其回答更是耐人寻味。 当 CNBC 问及他,Sam Altman 是否将成为微软员工,以及 700 名 OpenAI 员工是否会加入他的公司时,纳德拉只是说:“这是由 OpenAI 董事会和管理层以及员工选择的事情。” 他接着说,“此时此刻,我关心的只是确保我们能够继续创新,我感到非常有信心,微软有能力独自做到这一点。但我们明确选择与OpenAI合作,并希望继续这样做......而对于 Sam 和 OpenAI 的员工是留在那里还是来到微软,我对两种选择都持开放态度。” 与此同时,Sam Altman 也连发几条推文,暗显不是没有回去的可能。 亚马逊要加入战局?外媒:OpenAI 正在探讨和 Anthropic 合并的可能性 截至目前,倘若除了 Ilya Sutskever 之外的董事会成员认可,以及同意员工的请求,Sam Altman 的回归便多了一丝可能。 不过,让人有些尴尬的是,今日据 The Information 报道,有两位知情人士透露,OpenAI 董事会已与竞争对手 Anthropic 的首席执行官接洽,商讨更换首席执行官 Sam Altman 的事宜,并可能合并这两家人工智能初创公司。 知情人士称,Anthropic 首席执行官达里奥·阿莫代 (Dario Amodei) 在这两个方面都拒绝了。 要知道,Anthropic 的联合创始人在 2020 年之前一直担任 OpenAI 的高管,他们因在如何确保人工智能的安全开发和治理方面存在分歧而与 OpenAI 分道扬镳,出来之后才创立了 Anthropic 这家公司。 今年 9 月,亚马逊宣布向 Anthropic 重金押注 40 亿美元,以加大人工智能云领域的布局,同时 Anthropic 旗下的 Claude AI 模型已与 OpenAI 的 GPT 系列展开竞争。 目前尚不清楚合并提案是否引发了双方认真的讨论。倘若这件事是真的,那么相当于 Anthropic 背后的亚马逊也将加入这场战局,也为 AI 市场格局走向增添一丝不确定。 OpenAI 临时 CEO:未来 30 天将会调查出报告 不过,传言尚未坐实之际,OpenAI 董事会聘请 Twitch 前 CEO Emmett Shear 担任新的临时 CEO,Emmett Shear 也发布长文表示,其在接受董事会的邀请时,在未来 30 天也有三点计划: 聘请一名独立调查员深入研究导致这一点的整个过程并生成完整的报告。 继续与尽可能多的员工、合作伙伴、投资者和客户交谈,做好笔记并分享关键要点。 根据最近的离职情况,对管理和领导团队进行改革,使其成为为客户带来成果的有效力量。 同时,其也进行了一定维度的辟谣: “在我接受这份工作之前,我对变动背后的理由进行了核查。董事会并没有因为在安全性上的具体分歧而罢免 Sam,他们的理由完全不同。我并不疯狂到在没有董事会支持商业化我们出色模型的情况下接受这份工作。” 最后,OpenAI 驱逐 Sam Altman 的真相究竟是什么,具体其实外界都想知道,包括一项对 AI 颇为关注的马斯克,他也在 Ilya Sutskever 的推文下方直接反问: 你为何采取如此激烈的行动?如果 OpenAI 正在做一些对人类有潜在危险的事情,世界需要知道。 不过,无论真相如何,正如微软 CEO 萨蒂亚·纳德拉指出的: 「很明显,OpenAI 治理方面必须做出一些改变——我们将就此与他们的董事会进行良好的对话,并随着情况的发展逐步解决这个问题。」 至此,我们也静待 Emmett Shear 的整体调查结果,以及关注 AGI 的最新进展。 马斯克说AGI一定会出现,而且在推特多次提到AGI,马斯克已经开始进击人工智能,AGI的风口越来越近,AGI已经发布合约,BSC链,薄饼购买,合约地址:0x92bc944254fa023b7eb2cab60019b37f7e1fc56b 今天马斯克还提到了AGI,马斯克也在担忧AGI的提前到来。 来源:金色财经
lg
...
金色财经
2023-11-22
中信建投:建议关注数据要素及
AI
安全
板块投资机会
go
lg
...
望加速开放。OpenAI人员或有变动,
AI
安全
成为内部重要分歧点;近期OpenAI遭网络攻击事件均体现
AI
安全
在AI技术和商业化落地进程中的重要性。建议关注数据要素和
AI
安全
板块投资机会。
lg
...
金融界
2023-11-22
产业新星急坠 OpenAI被微软“整碗端走” 了解矽谷两大阵营 才能看懂这场AI大戏!
go
lg
...
墙花园”,不管是对是 AI 创新还是
AI
安全
的阵营来说,未来他将会成为强大的头头号敌人。#每日财经大小事#
lg
...
芷莹
2023-11-21
ACY证券汇评:【每日分析】吃瓜!AI年度权利大戏,全体员工威胁辞职,董事会名存实亡!
go
lg
...
。OpenAI的董事会不止一次表达过对
AI
安全
的担心,要求放慢大模型的训练。然而Altman不仅表示“人工智能还没到需要监管的时刻”,还透露正在计划训练外界争议颇多的GPT-5模型。 简单来说,董事会想要放慢脚步,一方面确保技术安全,另一方面满足监管要求,但Altman更希望进一步推动AGI发展,建立商业护城河,同时收获潜在的名与利。 当然,如果事情止步于此,那就称不上年度大戏了。 就在Altman离职后,董事会任命Twitch创始人Emmett Shear作为OpenAI的临时CEO。Shear对AGI的态度与董事会契合,他曾提到,“人工智能本质上是非常危险的东西,因为智能就是权力。” “人工智能的负面影响可能比核战争更糟糕。”对Shear的任命也从侧面展现了董事会的态度。然而就在Shear上任后,做的第一件事情却是调查Altman的免职过程。因为这次匆匆忙忙的免职实在是太不得人心了。 OpenAI管理高层全体支持Altman 就在Altman遭开除后,OpenAI公司人心涣散。数十名员工宣布离职,管理高层也是纷纷对Altman表达支持。微软在内的各大股东也齐齐向董事会施压,希望让Altman重新掌舵,甚至有几家风头公司考虑对董事会提起诉讼。事发突然,董事会慌了,想要让Altman回归,但Altman的条件确实让所有董事会成员辞职。董事会没办法,只能拒绝要求,临阵换帅。然而公司内部的矛盾在今天早上进一步发酵,700名OpenAI员工(总共也就770名)联名写信抗议,威胁要离职,除非董事会辞职,并让Altman和Brockman回归。这场年度权利大戏至此已经没有办法和平收场了,董事会已经成了众矢之的,骑马难下。 在这场政变风波中,最大的赢家却是微软,这从股价的表现就能看出来。作为持有49%股份的第一大股东,微软一直对董事会席位虎视眈眈。这次,微软不仅对Altman表达了大力的支持,昨晚还直接将Altman和Brockman纳入麾下,并宣布将接收所有从OpenAI离职的员工。如果真的发生全体员工离职并投降微软的怀抱,OpenAI的董事会将成为光杆司令,没有存在的价值。因此不管Altman是否回归,没有了员工的信任,OpenAI的董事会都已经是名存实亡了。董事会的变革可能很快的就会发生。 如果微软真的插手到董事会,那么OpenAI很可能从非营利机构转变为营利机构。这对于普通消费者来说,不知道是一件好事,还是一件坏事。 今日数据 – 北京时间 15:00 德国10月PPI月率 23:00 美国10月咨商会领先指标月率 联系我们 电话:167 4049 5509(中国) 1300 729 171(澳大利亚) 微信:acyauzh 官网:https://www.acy-ch.com 邮箱:support.cn@acy.com 本文内容由第三方提供。ACY证券对文中内容的准确性和完整性,不做任何声明或保证;由第三方的建议,预测或其他信息导致了投资损失,ACY证券不承担任何责任。本文内容不构成任何投资建议,与个人投资目标,财务状况或需求无关。如有任何疑问,请您咨询 独立专业的财务或税务的意见 。 2023-11-21
lg
...
ACY证券
2023-11-21
科技圈“宫斗”大事落幕!微软“出手”聘用ChatGPT之父 马斯克:董事会欠世界一个解释
go
lg
...
何董事会如此坚决地做出决定。如果这关乎
AI
安全
,那将会影响整个地球。” (来源:Twitter) 值得关注的是,这是马斯克首次就OpenAI人事巨震公开表态。
lg
...
颜辞
2023-11-20
上一页
1
•••
11
12
13
14
15
•••
22
下一页
24小时热点
重大突发!习近平首次批评以色列对伊朗军事行动 伊朗已备妥领导人遇刺预案
lg
...
中美重磅!华尔街日报独家:特朗普政府曾在贸易谈判前考虑扩大对华科技限制
lg
...
小心特朗普大规模军事介入、伊朗准备反击!全球市场毫无头绪,美联储风暴来袭
lg
...
中国突然祭出这一大动作!彭博:表明北京正在开放其金融市场
lg
...
【直击亚市】美国恐介入伊朗军事打击!特朗普呼吁“无条件投降”,美联储决议来袭
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论