全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
MT Capital 研报:AI x Crypto 交汇点的机遇与挑战
go
lg
...
实世界物理常识的深刻理解。尽管人们期待
GPT-5
的发布,Sora带来的影响力却堪比一次
GPT-5
的发布。 这一事件再次点燃了人们对AI领域的热情。大家都知道,Worldcoin的创始人山姆·奥特曼也是OpenAI的CEO。在庄家的操作下,WLD迅速成为了年初市场上最亮眼的焦点。 Worldcoin主要涉及两个领域:身份认证和发放数字货币。据传言,OpenAI正在开发两种代理机器人,这些机器人能够深入理解人类的指令并按照这些指令行动,这被视为通用人工智能(AGI)的最后一步。到达这一步后,几乎所有的工作都可能被取代,绝大多数人将面临失业,但他们不能饿死。这时,OpenAI需要通过Worldcoin发放基本收入(UBI),只需通过虹膜识别即可每月领取6WLD。 然而,详细分析会发现,WLD并没有实质性的赋能,其存在更多是作为一个被炒作的空气币。如果WLD未来真的被用作发放基本收入,这种非稳定币的形式可能会引发各种问题。这也是为何Worldcoin的白皮书和创始人在讨论WLD作用时显得模棱两可。 WLD很可能永远都是一个meme coin。尽管如此,这并不意味着WLD没有投资价值。从市值来看,WLD与DOGE有相似之处。如果奥特曼的名气能够超过马斯克,WLD也许有机会达到DOGE的市值。但其单价的高昂在一定程度上限制了其作为顶级meme coin的潜力。如果Worldcoin的价格更加亲民,无疑将大大增加其作为顶级meme coin的吸引力。Sam Altman作为AI领域的顶级人物,其每一次相关的公开发言或AI领域的重大事件都会对Worldcoin的市场产生显著影响,增加了Worldcoin作为投资标的的吸引力和不确定性。 如果未来有拆分币的操作,即以更低的单价和更高的流通量重新定义Worldcoin的市场定位,这样的策略有可能触发价格的快速上涨。 虽然目前Worldcoin的市场定位和实际应用存在一定的模糊性,使其被某些人视为meme coin,但Altman的影响力和AI领域的快速发展为Worldcoin提供了独特的市场动力。如果未来采取合理的市场策略,如拆币等,Worldcoin有潜力成为市场上一个不容忽视的力量。 Source: https://foresightnews.pro/article/detail/53744 Arkham Arkham成立于2020年,总部位于美国,由创始人兼CEO Miguel Morel领导,团队包括运营主管Zachary Lerangis、BD主管Alexander Lerangis和机构关系专家John Kottlowski。Arkham已经获得超过1200万美元融资,包括来自Binance Labs的250万美元公募轮融资。创始人是加密行业的资深人士,此前他们创立了Reserve,这是一个为高通胀经济体设计的稳定币项目,投资者包括Peter Thiel、Sam Altman、Coinbase和Digital Currency Group等。 Binance于23年7月10日宣布,Arkham的代币$ARKM将在其Launchpad上市,这是Binance首次推出工具类产品,引发了极大的兴趣。 Arkham是一个利用人工智能算法分析区块链数据的平台,它能够将区块链地址与现实世界的实体关联起来,为用户提供一个完整的背后行为视角。Arkham最近推出了一个区块链情报交易平台,名为Arkham Intel Exchange,这个平台允许用户通过悬赏的方式请求所需信息,而信息提供者可以通过提供信息来获得奖励。Arkham还提供了强大的工具,允许用户搜索、过滤和排序任何加密交易,揭示市场活动背后的实体和个人信息。 除了在Binance上线外,Kraken、OKX、Hotbit等多个交易所也支持$ARKM交易。 Arkham推出了一种称为“Intel-to-Earn”的模式,通过匹配区块链上的买家和卖家,实现情报经济。其平台代币$ARKM用于支付分析平台费用、治理投票和用户激励。$ARKM的总供应量为10亿个,上市流通量为1.5亿个(占总供应量的15%),测试网站注册用户达20万。上线交易所后,交易量预计可达1亿美元规模。 Arkham主要包括区块链分析工具和情报交易市场两大组成部分。分析工具通过实体页面、代币页面、网络映射等为用户提供全面的数据洞察。Arkham利用自研的人工智能引擎Ultra实现区块链数据的去匿名化,并通过算法将地址与现实世界的实体进行匹配。情报交易市场允许用户通过悬赏、拍卖和数据共享等方式进行信息买卖。Arkham通过收取一定费用维持平台的长期运营——对于上架和拍卖的支付收取2.5%的制造费,以及对于悬赏支付和成功拍卖中收取5%的接受费。 与市场上的其他数据分析平台相比,Arkham拥有几个独特优势,如创建代币使用场景,通过情报交易所实现链上数据价值交易,为数据分析师提供了知识变现的渠道;通过抽成等手段实现平台自我激励,有利于平台的可持续发展;提供用户追踪历史投资组合的存档功能;以及数据图谱的视觉化降低研究成本。不过,Arkham也面临一些挑战,如公链支持数量较少,与Nansen等平台在功能上存在差距,代币场景的可复制性有限,用户群体以专业人士为主,对普通投资者的吸引有限,以及自身数据处理能力较弱,依赖外部数据团队等。 Arkham项目在区块链信息分析领域具有先发优势和市场空间广阔,但仍处于初期阶段,商业模式有待验证,生态建设和规模化需要时间培养。风险方面,包括链上信息分析的普及需时间,用户教育成本高,商业模式的可复制性有限,用户主要为专业人士,依赖人员信息处理,运营成本高且风险大,信息质量参差不齐,声誉风险存在,以及监管政策变化的不确定性等。 https://foresightnews.pro/article/detail/48222 Render Network Render Network,自2020年4月启动以来,已成为一个领先的去中心化渲染平台,为需求GPU计算力的用户与拥有空余计算资源的供应商之间搭建了桥梁。这一平台主要服务于人工智能、虚拟现实及多媒体内容创作等高需求计算领域,通过其独特的动态定价策略,考虑到任务的复杂性、紧急程度以及可用资源,为各方提供了一个既公平又具有竞争力的市场环境。通过这种方式,GPU所有者可以将他们的设备接入Render Network,并利用OTOY开发的OctaneRender软件来接受和完成渲染任务。作为交换,用户会向完成渲染任务的个人支付RNDR代币,而OTOY则从中抽取一小部分RNDR作为促进交易和网络运营的费用。 Render Network的总部位于美国,由Jules Urbach创立。Urbach不仅是Render Network的创始人,也是OTOY的创始人和首席执行官,他对于3D渲染技术和去中心化计算平台的发展有着深刻的见解和贡献。 Render Network已经完成了包括战略融资在内的几轮融资。2021年12月21日,Render Network在一轮战略融资中成功筹集了3000万美元,该轮融资的投资者包括Multicoin Capital、Alameda Research、Sfermion、Solana Ventures、Vinny Lingham和Bill Lee等知名投资机构和个人。此外,Render Network还在2018年1月通过ICO筹集了116万美元的资金,这些资金的成功筹集不仅为Render Network的技术开发和市场扩张提供了支持,也反映了市场对于去中心化渲染服务潜力的认可。 Render Network 利用RNDR代币的点对点网络功能,能够在空闲的GPU资源提供者之间有效分配工作负载,同时通过激励机制鼓励节点共享其未被利用的计算能力。此举不仅最大化了资源的利用效率,还为参与者创造了价值,推动了去中心化渲染生态系统的繁荣发展。 2023年12月,Render 实现了重大的技术跨越,将其基础架构从以太坊迁移至Solana,这一转变为Render带来了包括实时流媒体、动态NFT及状态压缩等新能力,显著提高了网络的性能和可扩展性,同时为用户开启了更加丰富和多元的应用场景。 DePIN(去中心化物理基础设施网络)作为一个全新的概念,由数字资源网络和物理资源网络两大主要领域构成,旨在通过物理工作量证明(PoPW)机制,激励个体参与到真实世界基础设施的建设和高效利用中来。DePIN的出现不仅为传统的信息通信技术(ICT)行业带来了创新的解决方案,也预示着一个更加分散和高效的基础设施网络模型的到来。 尽管当前的ICT行业面临着高门槛和资源利用效率低下等挑战,DePIN通过引入基于对等网络的模式,使得闲置资源得以重新利用,同时通过去中介化,降低了参与门槛,增强了市场的竞争力和效率。 Render Network的成功升级,以及其与Solana的紧密集成,展现了去中心化渲染平台在应对实时响应和降低交易成本方面的优势,这不仅加强了Render在DePIN领域的领导地位,也为其未来的发展开辟了新的道路。 随着Render Network继续推进技术创新和生态系统构建,其在去中心化渲染、人工智能和数字版权管理等多个前沿领域的潜力正逐步显现。Render不仅仅是一个渲染服务平台,更是一个推动创新、连接资源与需求、促进去中心化和数字化转型的强大引擎。随着技术的不断进步和市场需求的增长,Render Network有望成为推动数字经济新发展的关键力量之一。 Source: https://dune.com/lviswang/render-network-dollarrndr-mterics Arweave Arweave是一种创新的去中心化数据存储协议,旨在实现数据的永久存储。通过其独特的permaweb,Arweave使得存储的数据可以以人类可读的形式(如通过web浏览器)被访问,从而创建了一个持久的、不可更改的互联网。这种永久存储的能力对于确保信息的不可篡改性和永久可访问性来说是革命性的,特别是在需要高度数据完整性和持久性的应用场景中,如法律文件存储、学术研究资料归档以及版权保护等领域。 Arweave通过其原生代币AR来激励网络中的数据存储提供者,这种经济激励机制保证了网络的可持续性和存储能力的扩展。作为一个基础设施和存储网络项目,Arweave的目标是重塑数据存储和访问的方式,其原名为Archain,成立于2017年,总部位于德国。Arweave的创始团队包括联合创始人兼首席执行官Sam Williams和COO Sebastian Campos Groth,以及法律主管Giti Said。他们在技术、运营和法律领域拥有丰富的经验,是推动Arweave项目发展的关键力量。 自2018年6月主网推出以来,Arweave已经吸引了广泛的关注,并且得到了多个重要投资者的支持,包括知名的a16z Crypto、Coinbase Ventures和Union Square Ventures等。2018年5月的公募轮筹集了157万美元。此后,该项目在2019年11月和2020年3月分别进行了两轮融资,分别筹集了500万美元和830万美元,投资方包括a16z Crypto、Multicoin Capital、Union Square Ventures和Coinbase Ventures等。 Arweave 推出的 AO 方案代表着区块链技术的一个重大创新,主要体现在其提供的超并行计算机架构上。这个架构允许在去中心化的计算环境中同时并行运行任意数量的进程,极大地提升了计算效率和扩展性。AO 的核心特点包括大规模计算能力、可验证计算的实现、以及通过构建三个不同的子网络(信使单元、调度单元、计算单元)和以 Arweave 为基础层,实现的高度并行处理能力和可扩展性。 取名为 AO(Actor Oriented),灵感来源于计算机科学中的 Actor 模型,这个模型特别适合于设计和实现高并发、分布式、容错性强的系统。Arweave 团队通过 AO,展现了其对去中心化计算环境未来发展的深刻理解和创新性解决方案。 Source: https://foresightnews.pro/article/detail/54511 AO 是在 Arweave 基础层之上构建的,利用 Arweave 的链上存储作为其运行数据的永久主机,强化了其去中心化计算的能力,并允许任意数量的并行进程同时运行,实现了类似数据中心和互联网计算机的协作方式。此外,AO 的一个关键部分是 AOS,这是一个基于 AO 架构的特定操作系统,允许开发者使用 Lua 语言开发应用程序,进一步增强了其易用性和灵活性。 AO 的推出和 Arweave 的长期目标相契合,即通过其数据存储平台支持一个高度可扩展的区块链网络。尽管 Arweave 团队在实现这一目标方面遇到了挑战,但他们的坚持和创新最终使得 AO 成为可能。这不仅增强了 Arweave 链的功能,使其能够支持更多的智能合约和区块链协议,而且为去中心化计算提供了一个新的、有力的解决方案。 Arweave AO 的工作原理突破了传统区块链技术的限制,通过将区块链的三个主要部分分解成可以彼此通信并同时执行大量交易的独立组件,实现了前所未有的水平扩展能力。这一创新不仅为 Arweave 自身的发展打开了新的可能性,也为整个区块链和去中心化技术领域提供了新的视角和灵感。 最终,Arweave 的目标是让 AO 成为一个稳定且只需低频率更新的系统,类似于比特币,确保核心功能和用户权利的持续性。这种稳定性和透明性对于用户来说非常重要,因为它允许他们对所使用的协议有更深的信任和理解。随着 Arweave AO 的不断发展和完善,它有潜力成为去中心化智能合约平台的重要参与者,与现有的区块链技术如以太坊等形成有力的竞争。 Akash Network Akash Network 的核心价值在于其作为一个去中心化计算平台,利用了全球未被充分使用的 GPU 资源,连接了这些资源与需要 GPU 计算能力的用户之间。这一平台不仅为 GPU 资源的所有者提供了盈利机会,也为需要这些资源的用户提供了成本效益更高的选择。根据2023年9月的数据,Akash Network 已经在其网络上成功部署了150至200个 GPU,并实现了50%至70%的利用率。这一成绩在年总交易价值上体现为50万至100万美元,展示了去中心化计算资源共享模型的市场潜力。 进一步分析 Akash Network 的业务模型,其与 Airbnb 在房地产市场的类比颇为贴切。Akash 创造了一个市场,使得 GPU 资源的所有者能够像 Airbnb 房东一样出租他们未被使用的计算能力,而需要这些资源的用户则可以以更低的成本获得所需的计算能力。这一模式不仅增加了 GPU 资源的利用率,也降低了进入人工智能和机器学习领域的门槛。 随着人工智能的快速发展,对 GPU 等高性能计算资源的需求急剧增加。Nvidia 作为 GPU 制造的领军企业,预计其营收将在几年内实现显著增长,从2022年的270亿美元增至2023年的600亿美元,预期到2025年将达到约1000亿美元。这一增长预测反映了全球对 GPU 计算能力的旺盛需求,同时也为 Akash Network 提供了广阔的市场空间。 Akash Network 的去中心化模型特别适合于当前市场环境,其中云计算服务的需求与日俱增,同时全球大量的 GPU 计算能力未被充分利用。通过 Akash,供应方能够提供闲置的 GPU 资源,而需求方则可以以较低的成本获得必要的计算能力。这种模型不仅优化了资源的分配,还促进了计算能力的民主化,使得更多的企业和个人能够参与到人工智能和高性能计算的研究与开发中。 Akash Network 的原生代币是 AKT,它在网络中扮演着多个重要的角色。首先,AKT 用于支付网络上的计算资源费用,包括但不限于GPU计算、存储和带宽等。其次,AKT 也是网络治理的一部分,持有者可以通过代币投票参与到网络决策过程中,如协议更新和改进提案。此外,AKT 还作为激励机制,鼓励用户参与网络维护,包括提供计算资源、验证交易等。 为了鼓励更多的用户提供未利用的计算资源,Akash 设计了一套激励机制,主要通过两种方式实现:代币奖励和交易费用。 代币奖励:Akash 网络通过新代币的发行为提供计算资源的用户提供奖励,这些新发行的代币作为激励分配给资源提供者,鼓励他们将更多的资源接入到 Akash 网络。此外,网络验证者和参与网络治理的用户也可以获得 AKT 代币奖励,以激励他们参与网络的安全和治理。 交易费用:Akash 网络对使用其服务的交易收取费用,这些费用以 AKT 代币支付。根据 Akash 的政策,部分交易费用分配给提供计算资源的节点,作为他们提供服务的直接经济激励。 Akash 对 AKT 支付的交易收取4%的手续费,而对以 USDC(一种稳定币)支付的交易则收取更高的20%手续费。这一差异化费率结构旨在促进 AKT 代币的流通和使用,同时也为网络的维护和发展提供资金支持。 Akash Network 还设立了一个社区池,收集网络收入的一部分,包括通货膨胀产生的代币和交易费用。社区池的资金用于资助网络发展的项目和提案,如技术改进、市场营销活动等,由社区投票决定资金的分配。 通过这一复杂但有效的代币模型和激励机制,Akash Network 不仅确保了网络的活跃和健康发展,也为用户提供了参与网络并从中获益的机会。这些激励措施有助于吸引更多的资源提供者和用户加入到 Akash 的生态系统中,推动去中心化计算平台的长期成功和持续增长。 然而,尽管 Akash Network 的市场前景广阔,其面临的挑战也不容忽视。除了需要与传统云服务提供商竞争外,Akash 还必须不断优化其技术平台,以确保高效、安全的服务。此外,构建和维护一个去中心化的市场也需要不断地吸引新的资源提供者和用户,并保持高度的市场活跃度。 Source: https://www.modularcapital.xyz/writing/akash Bittensor Bittensor 由 AI 研究人员 Ala Shaabana 和 Jacob Steeves 于 2019 年创立,最初构想为 Polkadot 的平行链。2023 年 3 月,该项目战略转向,决定开发自有的区块链,旨在通过加密货币激励全球机器学习节点,推动 AI 开发的去中心化。Bittensor 通过让这些节点相互协作训练和学习,引入了一种新的范式,即通过集成递增资源增强网络的集体智慧,拓展了个人研究人员和模型对整体的贡献。 Bittensor 引入了多个创新的概念和机制,比如分布式专家模型(MoE)和智能证明(Proof Of intelligence),旨在通过奖励有用的机器学习模型和结果,促进去中心化AI生态系统的发展。其代币经济学设计和生态系统结构旨在支持和奖励网络的参与者,通过TAO代币激励公平的分配实践和网络参与。 Bittensor的架构设计反映了其对于建立健壮AI生态系统的追求。通过矿工层、验证者层、企业层和消费者层的分层结构,Bittensor旨在建立一个全方位支持AI创新的网络。其中,矿工层的AI模型驱动创新,验证者层维护网络的安全和完整性,企业层和消费者层则确保技术成果能够转化为实际应用,满足市场和社会的需求。 Bittensor网络的核心参与者包括矿工和验证者。矿工提交预训练模型以换取奖励,而验证者负责确认模型输出的有效性。Bittensor通过激励机制,创造了一个积极的反馈循环,鼓励矿工之间的竞争,促进模型的精细化和性能提升。 尽管Bittensor本身不直接参与模型的训练,但其网络提供了一个平台,允许矿工上传和微调自己的模型。这种做法使得Bittensor能够集成多种模型,通过特定的子网络处理不同的任务,例如文本生成和图像生成等。 Source: https://futureproofmarketer.com/blog/what-is-bittensor-tao Bittensor采用的子网络模型是其架构的一大特点,这些子网络专注于特定任务的执行。通过这种方式,Bittensor试图实现模型的复合和去中心化的智能,尽管这一目标在当前技术和理论的限制下仍面临挑战。 Bittensor的代币经济模型深受比特币影响,采用了类似的代币发行机制和激励结构。TAO代币不仅是网络奖励的一部分,也是访问Bittensor网络服务的关键。该项目的长远目标是推动人工智能技术的民主化,通过去中心化的方式促进智能网络中模型的迭代和学习。 Bittensor与传统的中心化AI模型相比,其最大的优势在于促进了AI技术的开放与共享,使得AI模型和算法能够在更广泛的社区中得到迭代和优化,加速了技术的进步。此外,Bittensor通过其去中心化的网络结构,有望降低AI技术的应用成本,使得更多的个人和小型企业能够参与到AI创新中来。 io.net io.net 是一个创新的去中心化GPU网络,旨在解决机器学习(ML)领域中计算资源获取的难题。这个项目通过整合来自独立数据中心、加密货币矿工以及参与Filecoin和Render等项目的GPU资源,创建了一个庞大的计算力池。创始人Ahmad Shadid在2020年为机器学习量化交易公司Dark Tick构建GPU计算网络的过程中,面对高成本和资源获取难题时萌生了此想法。后续,在Austin Solana Hacker House上,这个项目获得了更广泛的关注和认可。 io.net 面临的主要挑战在于解决计算资源的可用性有限、缺乏选择以及成本高昂等问题。通过聚合那些未被充分利用的GPU资源,io.net 提供了一个分布式的解决方案,使得机器学习团队能够在一个分散的网络上构建和扩展他们的模型服务工作流程。这个过程中,它利用先进的分布式计算库,如RAY等,支持数据和模型并行处理,从而优化了任务调度和超参数调整过程。 产品方面,io.net 提供了一系列工具和服务,包括IO Cloud、IO Worker和IO Explorer。IO Cloud旨在部署和管理去中心化GPU集群,实现了与IO-SDK的无缝集成,为AI和Python应用程序的扩展提供了全面的解决方案。IO Worker提供了一个全面的用户界面,使用户能够有效地管理其计算资源供应操作,包括账户管理、实时数据显示以及温度和功耗跟踪等功能。而IO Explorer则提供了对网络活动和重要统计数据的全面可视化,帮助用户更好地监控和理解网络状态。 为了激励参与和平衡需求与供给,io.net 引入了IO代币,其功能包括奖励AI与ML部署团队的持续使用、为IO Worker计算单位定价,以及参与社区治理等。此外,考虑到加密货币的价格波动性,io.net 还特别开发了与美元挂钩的稳定币IOSD,以稳定支付系统和激励机制。 Source: https://io.net/ io.net 在技术和商业模式上都显示出强大的创新能力和市场潜力。通过与Filecoin的合作,它预计将进一步扩大其在模型存储和计算资源方面的能力,为去中心化AI应用的开发和扩展提供强有力的支持。同时,通过提供ÅÅ一个成本效率高、易于访问和使用的平台,io.net 旨在成为传统云计算服务商如AWS的有力竞争者,推动整个AI领域的创新和进步。 在资本方面,io.net已成功完成了A轮融资,筹集了3000万美元,估值达到了10亿美元。这轮融资,吸引了包括Hack VC、Multicoin Capital、Delphi Digital、Animoca Brands、Solana Ventures、Aptos、OKX Ventures、Amber Group等多家知名投资机构的参与。这一系列的投资反映出市场对io.net在去中心化计算和人工智能领域内创新能力和市场潜力的高度认可。 总结 随着AI和区块链技术的不断进展,AI x Crypto领域展示了巨大的潜力与机遇,并同样面临着一系列挑战。深入分析"算力资产化"、"模型/Agent资产化"以及"数据资产化"这三大核心场景,我们可以看到该领域的革新路径和存在的障碍。去中心化算力开辟了AI训练与推理的新可能,尽管需要解决对高性能计算资源和通信带宽的依赖。模型和Agent的资产化通过NFT提供了所有权证明,提升了互动体验,但技术融合仍需深化。数据资产化解锁了私域数据潜力,面对数据标准化与市场流动性的挑战,却也为AI效率和专业化开辟了新途径。 值得注意的是,随着AI技术的持续发展与迭代,将周期性地吸引热点和资金流入AI x Crypto领域,为AI带来连续性的发展浪潮,而非单一阶段的机遇。AI x Crypto领域的持久价值和创新潜力,标志着它作为科技和投资领域中的关键赛道。 展望未来,AI x Crypto的发展将依靠技术革新、跨学科合作及对市场需求的探索。通过突破技术限制,深化AI与区块链整合,并开发实用应用场景,这一领域朝着长期发展迈进,提供更安全、透明和公平的AI服务。在这一过程中,去中心化的理念和技术实践将持续推动AI x Crypto领域向更加开放、高效和创新的方向发展,最终实现技术创新与价值创造的双重跳跃。因此,当前周期中的AI x Crypto赛道是一个不容错过的重要机遇,它不仅代表了技术创新的前沿,也预示着未来科技进步和投资方向的重要趋势。 参考资料 https://foresightnews.pro/article/detail/54962 https://foresightnews.pro/article/detail/55156 https://foresightnews.pro/article/detail/54807 https://foresightnews.pro/article/detail/55053 https://foresightnews.pro/article/detail/55054 https://twitter.com/mo_baioumy/status/1760296558539501698 https://twitter.com/Wuhuoqiu/status/1755922300799693108 https://foresightnews.pro/article/detail/53518 https://foresightnews.pro/article/detail/53744 https://foresightnews.pro/article/detail/38689 https://foresightnews.pro/article/detail/37989 https://foresightnews.pro/article/detail/37907 https://foresightnews.pro/article/detail/37579 https://foresightnews.pro/article/detail/48222 https://foresightnews.pro/article/detail/38545 https://foresightnews.pro/article/detail/37458 https://www.modularcapital.xyz/writing/akash https://foresightnews.pro/article/detail/48972 https://foresightnews.pro/article/detail/49581 https://foresightnews.pro/article/detail/53218 https://foresightnews.pro/article/detail/54511 https://foresightnews.pro/article/detail/54515 https://foresightnews.pro/article/detail/54819 https://foresightnews.pro/article/detail/21045 https://foresightnews.pro/article/detail/52521 https://foresightnews.pro/article/detail/47729 https://foresightnews.pro/article/detail/47532 MT Capital MT Capital是由资深投资者团队管理的全球性投资机构,专注于在全球范围内投资创新性的Web3项目,布局覆盖美国、香港、迪拜和新加坡等地。我们的主要投资领域包括:1)大规模采用:去中心化的社交平台、游戏、应用程序和DEPIN,这些是推动Web3技术向广泛用户群体扩散的关键;2)加密原生基础设施:我们专注于投资公链、协议及其他支撑和加强生态系统的基础设施,以及原生DeFi解决方案。此外,我们的团队还拥有多年的二级交易专业经验。 官网:https://mt.capital/ 推特:https://twitter.com/mtcap_crypto Medium:https://medium.com/@MTCapital_US 来源:金色财经
lg
...
金色财经
2024-03-13
AI x Crypto 报告:案例研究、发展瓶颈、技术挑战
go
lg
...
的大量内容将由这些模型生成。这意味着,
GPT-5
及以后的模型将使用 GPT-4 生成的数据进行训练。在合成数据上训练模型的效果如何?他们发现,在合成数据上训练语言模型会导致生成的模型出现不可逆转的缺陷。论文作者指出:"我们证明,如果我们要保持从网络上搜刮的大规模数据进行训练所带来的好处,就必须认真对待这一问题。事实上,当从互联网抓取的数据中出现由 LLM 生成的内容时,收集到的有关人类与系统之间真正交互行为的数据的价值将越来越大"。 这可能表明,围绕数据出处(追踪数据来源)的解决方案存在重大机遇。 图 35:模型崩溃示意图。随着使用人工智能模型生成的互联网内容越来越多,下一代模型的训练集中很可能包含合成数据,如本文所示 请注意,这种现象并非LLM所特有,它可能会影响各种机器学习模型和生成式人工智能系统(如变异自动编码器、高斯混合模型)。 现在,让我们来看看监督学习。在监督学习中,我们需要一个贴有标签的数据集。这意味着原始数据本身(一张狗的图片)和一个标签("狗")。标签由模型设计者手动选择,可以通过人工标注和自动化工具相结合的方式获得。这在实践中带来了许多挑战。这包括 主观性:决定数据的标签可能是主观的,从而导致模糊不清和潜在的伦理问题。一个人认为合适的标签,另一个人可能会有不同的看法。 标签的差异:同一个人(更不用说不同的人)重复运行可能会提供不同的标签。这就提供了 "真实标签 "的噪声近似值,因此需要质量保证层。例如,人类可能会收到一个句子,并负责标注该句子的情绪("快乐"、"悲伤"......等)。同一个人有时会给完全相同的句子贴上不同的标签。这就降低了数据集的质量,因为它在标签中引入了差异。在实践中,20% 的标签无法使用的情况并不少见。 想象一下,创建一个数据集来预测区块链上新协议的质量。你很可能会得到一个范围很广的分数,这取决于你所选择的评分系统的次活动性,以及你所调查的人的意见差异。 缺乏专家注释者:对于一个小众的医疗应用,人们可能很难获得大量有意义的标签数据。这是由于能够提供这些标签的人员(医学专家)十分稀缺。 罕见事件:对于许多事件来说,由于事件本身非常罕见,因此很难获得大量的标注数据。例如,发现流星的计算机视觉模型。 高成本:当试图收集大量高质量数据集时,成本可能高得惊人。由于上述问题,如果需要对数据集进行标注,成本尤其高昂。 还有很多问题,比如应对对抗性攻击和标签的可转移性。为了让读者对数据集的规模有一些直观的了解,请看下图。像 ImageNet这样的数据集包含1400万个标签数据点。 图 36:各种机器学习数据集的规模示意图。Common Crawl的近似值为10亿个网页,因此总字数远远超过这个数字。小型数据集(如 Iris)包含 150 幅图像。MNIST 大约有 70,000 张图像。请注意,这是一个对数比例 2.1.2 强化学习中的数据收集 在强化学习中,数据收集是一项独特的挑战。与监督学习不同的是,监督学习的数据是预先标记好的静态数据,而强化学习则依赖于通过与环境互动而产生的数据,这通常需要复杂的模拟或真实世界的实验。这就带来了一些挑战: 这一过程可能会耗费大量资源和时间,对于物理机器人或复杂环境而言尤其如此。如果机器人在真实世界中接受训练,那么它从试验和错误中学习可能会导致事故。或者,也可以考虑让训练机器人通过试验和错误来学习。 奖励稀少且延迟:在收到有意义的反馈之前,代理可能需要探索大量的行动,从而难以学习有效的策略。 确保所收集数据的多样性和代表性至关重要;否则,代理可能会过度适应狭隘的经验集,而不能通用化。在探索(尝试新行动)和利用(使用已知的成功行动)之间取得平衡使数据收集工作更加复杂,需要复杂的策略才能有效收集有用的数据。 值得强调的一点是,数据收集与推理直接相关。在训练一个强化学习代理下棋时,我们可以利用自我对弈来收集数据。自我对弈就像是与自己下棋,以获得进步。代理与自己的副本对弈,形成一个持续学习的循环。这种方法非常适合收集数据,因为它会不断产生新的场景和挑战,帮助代理从广泛的经验中学习。这一过程可以在多台机器上并行执行。由于推理的计算成本很低(与训练相比),这一过程对硬件的要求也很低。通过自我游戏收集数据后,所有数据都将被用于训练模型和改进模型。 闲置计算在分布式推理和数据收集中可以发挥强大作用,因为对硬件的要求比训练低得多。 2.1.3 对抗性数据攻击 数据毒化攻击:在这种攻击中,通过添加扰动来破坏训练数据,从而欺骗分类器,导致不正确的输出。例如,有人可能会在非垃圾邮件中添加垃圾邮件元素。这将导致将来在垃圾邮件过滤器的训练中加入这些数据时,性能下降。这可以通过在非垃圾邮件上下文中增加 "free"、"win"、"offer "或 "token"等词的使用来解决。 规避攻击:攻击者在部署过程中操纵数据,欺骗先前训练好的分类器。规避攻击在实际应用中最为普遍。针对生物识别验证系统的"欺骗攻击 "就是规避攻击的例子。 对抗性攻击:这是对合法输入的修改,目的是愚弄模型,或者使用专门设计的"噪音"来引起错误分类。请看下面的例子,在熊猫图像中添加噪音后,模型将其分类为长臂猿(置信度为99.3%)。 图 37:通过在熊猫图像中添加特殊类型的噪声,模型可预先判断出图像是长臂猿而不是熊猫。在进行对抗攻击时,我们向神经网络提供一幅输入图像(左图)。然后,我们使用梯度下降法构建噪声向量(中)。该噪声向量被添加到输入图像中,从而导致错误分类(右图)。(图片来源:本文图 1解释和利用对抗性实例》论文中的图 1) 在创建开放数据集时,有必要建立一个强大的质量控制层,以避免恶意攻击。此外,数据出处(追溯图像来源)可能会有所帮助。 2.2 训练方面的挑战 训练机器学习模型会面临许多挑战。本节绝不是为了说明这些挑战的严重性。相反,我们试图让读者了解挑战的类型和瓶颈所在。这将有助于建立直觉,从而能够评估将训练模型与密码原语相结合的项目构想。 请看下面这个无监督学习问题的例子。在无监督学习中,没有 "老师 "提供标签或指导模型。相反,模型会发现问题中隐藏的模式。考虑一个猫狗数据集。每只猫狗都有两种颜色:黑色和白色。我们可以使用一个无监督学习模型,通过将它们聚类为两组来找到数据中的模式。该模型有两种有效的方法: 将所有狗集中在一起,将所有猫集中在一起 将所有白色动物集中在一起,将所有黑色动物集中在一起。 请注意,从技术上讲,这两者都没有错。模型找到的模式很好。然而,要完全按照我们的要求来引导模型是非常具有挑战性的。 图 38:训练好的对猫和狗进行分类的模型最终可能会根据颜色将动物聚类在一起。这是因为在实践中很难指导无监督学习模型。所有图像均由人工智能使用 Dalle-E 生成 这个例子说明了无监督学习所面临的挑战。然而,在所有类型的学习中,能够评估模型在训练过程中的学习效果并进行潜在干预至关重要。这可以节省大量资金。 在无权限系统中,模型的训练无需专家监督,因此可能会浪费大量资源。处理早期停止等问题的自动化工具还很不成熟。 训练大型模型的挑战还有很多,这是一个非常简短的清单: 训练大规模机器学习模型,尤其是深度学习模型,需要大量的计算能力。这通常意味着要使用高端 GPU 或 TPU,而它们可能既昂贵又耗能。 与这些计算需求相关的成本不仅包括硬件,还包括连续运行这些机器(有时长达数周或数月)所需的电力和基础设施。 强化学习因其训练的不稳定性而闻名,模型或训练过程中的微小变化都可能导致结果的显著差异。 与Adam等监督学习中使用的更稳定的优化方法不同,强化学习中没有放之四海而皆准的解决方案。通常需要对训练过程进行定制,这不仅耗时,而且需要深厚的专业知识。 强化学习中的探索-开发两难问题使训练变得更加复杂,因为找到正确的平衡点对于有效学习至关重要,但却很难实现。 机器学习中的损失函数定义了模型的优化目标。选择错误的损失函数会导致模型学习到不恰当或次优的行为。 在复杂任务中,例如涉及不平衡数据集或多类分类的任务,选择、有时甚至定制设计正确的损失函数变得更加重要。 损失函数必须与应用的实际目标紧密结合,这就需要深入了解数据和预期结果。 在强化学习中,设计能持续、准确反映预期目标的奖励函数是一项挑战,尤其是在奖励稀少或延迟的环境中。 在国际象棋游戏中,奖励函数可以很简单:赢了得 1 分,输了得 0 分。但是,对于行走机器人来说,这个奖励函数可能会变得非常复杂,因为它将包含 "面向前方行走"、"不要随意摆动手臂 "等信息。 奖励函数(和损失函数)包含了模型去符号化者认为重要的主观因素。可能有必要建立管理制度,以确保为广泛使用的模型选择适当的函数。 在监督学习中,由于深度神经网络的 "黑箱 "性质,要了解是哪些特征驱动了复杂模型(如深度神经网络)的预测具有挑战性。 这种复杂性使得调试模型、了解其决策过程和提高其准确性变得十分困难。 这些模型的复杂性也对可预测性和可解释性提出了挑战,而这对在敏感或受监管领域部署模型至关重要。 同样,训练模式和所涉及的挑战也是非常复杂的话题。我们希望上述内容能让您对所涉及的挑战有一个大致的了解。如果您想深入了解该领域当前面临的挑战,我们推荐您阅读《应用深度学习中的开放性问题》(Open Problems in Applied Deep Learning)和《MLOps 指南》(MLOps guide)。 从概念上讲,机器学习模型的训练是按顺序进行的。但在很多情况下,并行训练模型至关重要。这可能只是因为模型太大,一个 GPU 难以容纳,并行训练可以加快训练速度。然而,并行训练模型会带来重大挑战,包括 通信开销:将模型分割到不同的处理器需要这些单元之间不断进行通信。这可能会造成瓶颈,尤其是对于大型模型而言,因为各单元之间的数据传输可能会耗费大量时间。 负载均衡:确保所有计算单元得到平等利用是一项挑战。不平衡会导致一些单元闲置,而另一些单元超负荷运行,从而降低整体效率。 内存限制:每个处理器单元的内存都是有限的。在不超出这些限制的情况下,有效管理和优化多个单元的内存使用情况是非常复杂的,尤其是大型模型。 实施的复杂性:设置模型并行涉及计算资源的复杂配置和管理。这种复杂性会增加开发时间和出错的可能性。 优化困难:传统的优化算法可能无法直接适用于模型并行化环境,也无法提高效率,这就需要进行修改或开发新的优化方法。 调试和监控:由于训练过程的复杂性和分布性增加,监控和调试分布在多个单元上的模型比监控和调试运行在单个单元上的模型更具挑战性。 分散和并行训练方面的基本新方法可以极大地推动机器学习的进步。 2.3 推理中的挑战 许多类型的机器学习系统面临的最重要挑战之一就是它们可能会"自信地出错"。ChatGPT可能会返回一个我们听起来很有把握的答案,但事实上这个答案是错误的。这是因为大多数模型经过训练后都会返回最有可能的答案。贝叶斯方法可用于量化不确定性。也就是说,模型可以返回一个有根据的答案,来衡量它有多确定。 考虑使用蔬菜数据训练图像分类模型。该模型可以获取任何蔬菜的图像,并返回它是什么,例如 "黄瓜 "或 "红洋葱"。如果我们给这个模型输入一张猫的图像,会发生什么呢?普通模型会返回它的最佳猜测,也许是 "白色洋葱"。这显然是不正确的。但这是模型的最佳猜测。贝叶斯模型的输出则是 "白色洋葱 "和一个确定度,例如 3%。如果模型有 3% 的确定性,我们可能就不应该根据这个预测采取行动。 图 39:常规模型预测(只返回最有可能的答案)和贝叶斯模型预测(返回预测结果的 s 分布)的示意图 这种形式的不确定性定性和推理在关键应用中至关重要。例如,医疗干预或金融决策。然而,贝叶斯模型的实际训练成本非常高,而且面临许多可扩展性问题。 推理过程中出现的更多挑战 维护:随着时间的推移,尤其是数据和现实世界场景发生变化时,保持模型的更新和正常运行。 RL 中的探索-利用:在探索新策略和利用已知策略之间取得平衡,尤其是在推理直接影响数据收集的情况下。 测试性能:确保模型在新的、未见过的数据上表现良好,而不仅仅是在训练过的数据上。 分布偏移:处理输入数据分布随时间发生的变化,这种变化会降低模型性能。例如,推荐引擎需要考虑客户需求和行为的变化。 某些模型生成缓慢:像扩散模型这样的模型在生成输出时可能需要大量时间,而且速度较慢。 高斯过程和大型数据集:随着数据集的增长,使用高斯过程进行推理的速度会越来越慢。 增加防护栏:在生产模型中实施制衡措施,防止出现不良结果或误用。 在封闭源模型中增加哪些防护措施,这对于确保不出现偏差至关重要。 2.4 LLM 面临的挑战 大型语言模型面临许多挑战。不过,由于这些问题受到了相当多的关注,我们在此仅作简要介绍。 LLM 不提供参考文献,但可以通过检索增强生成(RAG)等技术来缓解没有参考文献等问题。 幻觉:产生无意义、虚假或无关的输出。 训练运行需要很长时间,而且数据集重新平衡的边际值很难预测,这就导致了缓慢的反馈循环。 很难将人类的基本评估标准扩展到模型所允许的吞吐量。 量化在很大程度上是需要的,但其后果却鲜为人知。 下游基础设施需要随着模型的变化而变化。在与企业合作时,这意味着长时间的发布延迟(生产总是远远落后于开发)。 不过,我们想重点介绍论文《沉睡代理:训练通过安全训练持续存在的欺骗性 LLMs》一文中的一个例子。作者训练的模型会在提示年份为 2023 年时编写安全代码,但在提示年份为 2024 年时插入可被利用的代码。他们发现,这种后门行为可以持续存在,因此标准的安全训练技术无法将其清除。这种后门行为在最大的模型中最持久,在经过经训练产生思维链路以欺骗训练过程的的模型中也最持久,甚至就算思维链路已经消失也一直存在。 图 40 后门示意图。如果是 2024 年,模型的训练表现为 "正常",但如果是 2024 年,则策略表现不同。资料来源:本文图 1 模型训练过程的透明度至关重要,因为即使是开源模型,也可能被训练出只在特定情况下使用的后门。例如,想象一下,将一个有资金的钱包连接到一个人工智能代理,结果却发现了一个后门。然后,这个代理就会将所有资金转移到一个特定的地址,或者以不同的身份恶意行事。 在本章中,我们讨论了机器学习领域的许多挑战。显而易见,研究的巨大进步解决了许多此类问题。例如,基础模型为训练特定模型提供了巨大优势,因为您只需根据使用情况对其进行微调即可。此外,数据标注不再是全手工过程,使用半监督学习等方法可以避免大量的人工标注。 本章的总体目标是先让读者对人工智能领域的问题有一些直观的了解,然后再探讨人工智能与密码学的交叉问题。 报告外读物 3.1.1 Gensyn 网站: https://www.gensyn.ai/(opens new window) 一句话简介: 去中心化机器学习计算协议,实现人工智能开发民主化。 描述: 旨在通过将全球所有计算能力整合到一个全球超级集群中,彻底改变人工智能和加密货币领域。该网络专为机器学习计算协议设计,任何人都可以随时访问,从而推动机器学习的发展。通过利用区块链技术,Gensyn实现了人工智能训练过程的去中心化,允许点对点、低成本高效率地访问计算资源。这就消除了对云寡头和大型科技公司的依赖,为人工智能开发提供了一个更加民主和无许可的环境。Gensyn的协议使世界各地的设备(包括未充分利用的硬件)都能为去中心化计算网络做出贡献,为任何人、任何地方都能实现人工智能潜力的未来铺平了道路。 简短描述什么是数据类别中的公司,最好使用第 2 章中的框架进行细分。 3.1.2 Axiom 网站: https://www.axiom.xyz/(opens new window) 一句话简介: Axiom利用零知识证明,实现对以太坊历史的无信任链上查询和计算,适用于数据丰富的动态的去中心化应用。 描述: 为人工智能和加密货币的交叉领域铺平了道路,它使开发人员能够在以太坊上创建智能合约,这些合约可以通过零知识(ZK)证明对区块链数据的整个历史进行访问和计算。这一点至关重要,因为它为动态DeFi应用、定制化的预言机和链上忠诚度计划开辟了新的可能性,允许协议根据历史链上活动进行调整,而无需依赖外部预言机或修改已部署的合约。此外,该协议还旨在将 ZK 技术用于人工智能应用,例如通过确保数据完整性和无信任计算,Axiom可以验证在线内容并检测深度伪造。这使得Axiom成为以太坊上未来安全、数据丰富应用的关键参与者,利用人工智能和加密货币的优势,创建一个更加透明、高效和用户驱动的生态系统。 来源:金色财经
lg
...
金色财经
2024-02-22
为什么是AGI的又一个里程碑时刻?
go
lg
...
世界,还能生成稳定的角色,再配合自家的
GPT-5
,一个纯AI生成的、数千平方公里、活跃着各色生物的地图,听上去已经不是异想天开。当然,画面是否能实时生成,是否支持多人联机,这些都是很现实的问题。但无论怎么说,新的游戏模式已经呼之欲出,至少用Sora生成一个《完蛋我被美女包围了》变得毫无问题了”,陈希道。 第二类是基于模拟世界的能力,在更多领域中创造出新的事物。 爱丁堡大学的博士生Yao Fu表示:“生成式模型学习生成数据的算法,而不是记住数据本身。就像语言模型编码生成语言的算法(在你的大脑中)一样,视频模型编码生成视频流的物理引擎。语言模型可以视为近似人脑,而视频模型近似物理世界。” 学会了物理世界中的普遍规律,让具身智能也更加接近人的智能。 例如在机器人领域,以前的传导流程为,先给到机器人大脑一个握手的指令,再传递到手这个部位,但是由于机器人无法真正理解“握手”的含义,所以只能把指令转化为“手的直径缩小为多少厘米”。若世界模拟器成为现实后,机器人就可以直接跳过指令转化的过程,一步到位理解人的指令需求。 跨维智能创始人、华南理工大学教授贾奎向光锥智能表示,显式的物理模拟将来就有可能应用到机器人领域,“Sora的物理模拟是隐式的,它展示出了只有其内部对物理世界理解和模拟才能生成出来的效果,要对机器人直接有用,我觉得还是显式的才行。” “Sora能力还是通过海量视频数据,还有recaptioning技术,实现出来的,甚至也没有 3D 显式建模,更不用说物理模拟了。虽然其生成出来的效果,已经达到/接近了通过物理模拟实现的效果。但物理引擎能做的事情不仅仅是生成视频,还有很多训练机器人必须有的其他要素”,贾奎表示道。 虽然Sora还有许多局限性,但在虚拟和现实世界之间已经建立了一个链接,这让无论是头号玩家式的虚拟世界,还是机器人更像人类,都充满了更大的可能性。 来源:金色财经
lg
...
金色财经
2024-02-19
中国电信中部智算中心正式运营,AI人工智能ETF(512930.SH)涨超1%
go
lg
...
建设给出较为乐观的中长期指引。随着今年
GPT-5
、Llama3与GeminiPro等模型基座的重磅升级以及多模态技术的发展,除微软之外的云厂商也有望开始加码AI算力建设,全球AI算力建设进程有望持续加速。 AI人工智能ETF(512930.SH)紧密跟踪中证人工智能主题指数,中证人工智能主题指数从沪深市场中选取50只业务涉及为人工智能提供基础资源、技术以及应用支持的上市公司证券作为指数样本,以反映人工智能主题上市公司证券的整体表现。 数据显示,截至2023年12月29日,中证人工智能主题指数(930713)前十大权重股分别为海康威视(002415)、科大讯飞(002230)、韦尔股份(603501)、金山办公(688111)、中际旭创(300308)、澜起科技(688008)、中科曙光(603019)、紫光股份(000938)、用友网络(600588)、大华股份(002236),前十大权重股合计占比47.28%。 以上内容与数据,与界面有连云频道立场无关,不构成投资建议。据此操作,风险自担。
lg
...
有连云
2024-01-30
大涨之后,谨慎对待AMD
go
lg
...
特尔竞争。OpenAI希望开发更强大的
GPT-5
LLM,以保持其市场领导地位,相信像AMD这样的“镐和铲子”公司将会从中受益。 回到前面的问题:“问题是,投资者在当前水平上保持谨慎的时机是否已经到来?”AMD最新的远期EBITDA市盈率为62.4倍,远高于其10年平均水平38倍。在考虑其对25财年的预期时,AMD 25财年的EBITDA为30倍,这表明市场在未来两年将出现显著的增长拐点。换句话说,AMD预计到2025年将继续大幅增加市场份额,大幅提升其盈利增长,正如其25财年EBITDA倍数所示。虽然还没有观察到AMD的明确卖出信号,但随着投资者开始消化未来两年盈利增长的拐点,人工智能被过度炒作的可能性已经增加,这可能会增加执行风险。 英伟达是GPU领域的强大玩家,其CUDA软件生态系统加强了它的护城河。此外,AMD还面临着来自超大规模厂商的竞争,这些厂商设计的芯片有可能提高总成本,并为其云计算客户提供更具吸引力的价值主张。因此,AMD并没有类似英伟达的护城河,很难像它因英特尔过去的失误而抢夺英特尔在数据中心的领导地位那样迅速。英伟达首席执行官黄仁勋在人工智能芯片竞争中保持领先地位的能力和承诺表明,AMD可能会在一段时间内继续扮演次要角色。虽然AMD获得更多市场份额的能力不应被低估,但以目前的水平买入,并反映出其估值在两年内的大幅增长变化,在目前的水平上似乎有些过于激进。 观察AMD长期价格走势图相当容易理解。它仍处于长期上升趋势中,方向偏向于在重要回调时购买,包括2022年底的回调。 因此,购买者对AMD保持上行趋势的能力保持信心。最近重新测试其2021年高点并创下新高,证实了AMD的长期投资论点。 尽管如此,有必要了解2021年前的增长可能与AMD在数据中心CPU市场取得重大进展的能力有关。然而,随着英特尔自2023年触底以来的复苏,市场对其执行力越来越有信心,AMD可能会发现,要想获得在新冠疫情前积累的收益,难度越来越大。 这并不认为AMD在未来两年内会经历“绝望”回调。尽管如此,当前水平的风险回报比可能不适合大幅度加仓。实际上,AMD最近的激增在没有摆脱最近的FOMO后期买家的抛售,为积攒更具吸引力的机会提供了不可持续的可能性。 需要理解的是,这并不是卖出信号,表明短期内上行动能可能会持续一段时间。然而,过去三个月内价格急剧上涨,基于投资组合和价格行为的原则,投资者需要谨慎对待最近的狂热。激增的速度也表明现在是更加谨慎的时候。 $美国超微公司(AMD)$
lg
...
老虎证券
2024-01-24
人工智能投资潜力备受全球关注,AI算力持续超预期,AI人工智能ETF(512930.SH)连续4个交易日实现资金净流入!
go
lg
...
益增长的需求并降低对英伟达的依赖。对于
GPT-5
,山姆·奥尔特曼表示,
GPT-5
将是一个多模态模型,支持语音、图像、代码和视频,并在个性化和定制化功能方面实现重大更新,具备更强的推理能力和更高的准确性。此外,他还点明,AI的进步将极大地加快科学发现的速度。 申港证券表示,人工智能将继续是接下来一年最值得关注的主线。国内AI应用将逐步进入集中落地期,教育、办公、创意产业等场景可能率先迎来实质性的商业化落地。 AI人工智能ETF(512930.SH)紧密跟踪中证人工智能主题指数,中证人工智能主题指数从沪深市场中选取50只业务涉及为人工智能提供基础资源、技术以及应用支持的上市公司证券作为指数样本,以反映人工智能主题上市公司证券的整体表现。 数据显示,截至2023年12月29日,中证人工智能主题指数(930713)前十大权重股分别为海康威视(002415)、科大讯飞(002230)、韦尔股份(603501)、金山办公(688111)、中际旭创(300308)、澜起科技(688008)、中科曙光(603019)、紫光股份(000938)、用友网络(600588)、大华股份(002236),前十大权重股合计占比47.28%。 以上内容与数据,与界面有连云频道立场无关,不构成投资建议。据此操作,风险自担。
lg
...
有连云
2024-01-22
奥特曼在达沃斯:未来的AI将看人下菜碟
go
lg
...
首要任务就是推出新模型,很可能被称为“
GPT-5
”。 奥特曼承认,他对AI对今年世界各地选举的影响感到紧张,但对OpenAI在这一领域的投资持辩护态度。近几周,OpenAI宣布将加大力度,减少与2024年全球60多场选举相关的错误信息和对其模型的滥用。 去年11月,奥特曼曾遭公司董事会罢免。数日后奥特曼回归,而参与这一行动的OpenAI联合创始人Ilya Sutskever随后离职。奥特曼对此表示,没有关于Sutskever是否会重返公司担任高级职位的最新消息。确切而言,他甚至不确定Sutskever在公司的合同状态。 针对OpenAI遭《纽约时报》起诉一事,奥特曼称,OpenAI不需要《纽约时报》的内容来建立成功的AI模型。相反,OpenAI与美联社和Axel Springer等主要出版商签署了内容授权协议。
lg
...
金融界
2024-01-18
OpenAI创始人:目前的首要任务是推出新模型
go
lg
...
前的首要任务是推出新模型,很可能被称为
GPT-5
。
lg
...
金融界
2024-01-17
2024 年 AI「魔盒」还能开出什么?
go
lg
...
OpenAI 再次让人惊掉了下巴,而
GPT-5
的商标申请已经在册。根据美国专利商标局展示的信息,
GPT-5
提供的功能包括自然语言处理、文本生成、理解、语音转录、翻译、预测和分析等。 OpenAI 提交了
GPT-5
的商标申请 在 OpenAI 官方的蓝图中,他们之后还会上线 GPTs 商店,支持用户上架自己训练的机器人并提供给其他用户付费使用,由此建立一个新的商业形态。短短不到两个月的时间,用户通过自定义 GPTs 构建的特定领域 ChatGPT 助手已超过数十万个,其欢迎程度可见一斑。 2024 年,OpenAI 若开放 「GPT 商店」,又一波应用热潮将席卷互联网。 应用爆发 OpenAI 成功如同哥伦布发现新大陆一样,他告诉了所有人:这条路走得通。也就在这短短的一年时间内,ChatGPT 直接刺激了全球科技公司之间的人工智能军备竞赛。 数据显示,截至今年 10 月,在不到一年时间,中国拥有 10 亿参数规模以上大模型的厂商及高校院所就超过了 250 家,这里还不包含国外大模型的数量。AI 应用更是喷涌而出,Sensor Tower 报告显示,仅在 2023 年上半年,AI 应用下载量同比增长 114%,突破 3 亿次,超出 2022 年全年水平。与此同时,AI 应用内购收入同比激增 175%,逼近 4 亿美元。 激烈的竞赛中,成千上万个大模型进化出了文生图、图生图、文生视频、图生视频等强大的多模态能力。人们刚刚还惊讶于 ChatGPT 的能说会道,眨眼间,Bard、Clude 等识网梗的模型就出现了。 此外,一些垂直领域也杀出了「独角兽」。 在图片生成上,Midjourney 一马当先,成为最强的文生图工具。从出生到现在,短短半年,Midjourney 已经更迭至 V6 版本,从最初的文生图向图生图、AI 扩图多能力发展。 更令人惊叹的是,在 Midjourney 背后,是仅成立 2 年的 11 人的团队。随着 Midjourney 的蹿红,团队已经扩展至 40 人,仅在今年就实现了 2 亿美元的营收,早早就实现了经济独立。 与大多数追求风投的初创公司不同的是,Midjourney 没有拿 VC 一分钱,「客气一点的说法是,他不需要 VC 进入他的生活。」微软旗下风投基金 M12 的合伙人 Michael Stewart 表示。 AI 应用发展速度之快可用「日更」形容。 Midjourney 走红后不久, Runway 公司的 Gen-2 在视频领域接棒,与其初代产品 Gen-1 相差仅仅 1 个月。最新版本的 Gen-2 不仅可以仅根据一句提示词就可以生成 18 秒的视频,且能熟练运用电影镜头语言。就在最近,Gen-2 新增了图生视频的功能,只需「涂抹」图片中的某个区域,就可以让它动起来。 AI 卷向视频赛道,Pika1.0、Stable Video Diffusion 等后起之秀奋起直追,各类 AI 视频工具「斗法」,进化速度越来越快。其中,刚刚推出没多久的 Pika1.0 的文生视频能力已经可以和 Gen-2 相媲美,甚至首次将 AI 扩图能力带到了视频界。 2024 年,大模型的多模态潜力还将被这些独角兽继续发掘,甚至产生新的独角兽。文本、图片、音频、视频这些代表人类自然语言的产物仍会被 AI 工具精耕细作,而工具将很可能在规模化下变得更加趁手和便宜。 芯片瓶颈 科技大公司卷大模型,小公司卷应用,竞争之外,「卖水者」英伟达赚得盆满钵满。数据显示,英伟达最新第三财季营收达 181 亿美元,同比增长 206%;净利润 92 亿美元,同比增长高达 1259%。而引发这场竞赛的「领头羊」OpenAI 的 2023 年营收仅达到 13 亿美元。在去年,OpenAI 的营收也才 2800 万美元。 2023 年,英伟达无疑坐稳了 AI 的风口,芯片价格一路水涨船高,即便价格高涨,芯片仍是「一卡难求」,有消息称,英伟达 H100 的交付周期长达 36 周至 52 周不等,如此长的交付周期明显无法满足 AI 产品发展的需求。这也可能是
GPT-5
长时间未到来的原因。 算力作为驱动 AI 发展的三驾马车之一,芯片的短缺直接影响了大模型的进化速度,OpenAI、谷歌下场自研芯片,以补充自家大模型训练的缺口。 英伟达的竞争者们也抢着分「蛋糕」,英特尔和 AMD 分别推出 Gaudi3 和 Instinct MI300X 高性能 AI 芯片,微软公布 AI 加速芯片 Azure Maia 100,亚马逊则发布了面向 AI 系统的升级款加速器芯片 Trainium2。 与此同时,美国的芯片制裁进一步加剧了中国芯片短缺的危机。为保市场,英伟达只能推出一些性能缩水的「阉割版」芯片。 为了不再让硬件上被「卡脖子」,华为着力研发 AI 芯片,昇腾 AI 芯片成为了国内支撑,应用方科大讯飞表示,华为昇腾 910B 已经基本做到可对标英伟达 A100。 行至 2023 年末,无论国内还是海外,仍未出现一款可以媲美英伟达 H100 的芯片,尽管芯片厂商已经开足马力,但短期内,芯片资源紧缺的情况仍会持续。或许只有等到 AI 芯片资源问题被解决,
GPT-5
以及更加先进、丰富的产品才能更快到来。 但从安全角度来看,这也并非完全是坏事。在这短暂的喘息之际,人类可以为人工智能的发展方向做一个更佳的选择。 要知道,GPT-4 刚刚发布时,一封上千名科技精英的联名信将 AI 安全问题推至聚光灯下,他们联名请求「暂停训练比 GPT-4 更强大的 AI 系统」,用 AI 领域的专家 Gary Marcus 的话说:「用百分之一的人类毁灭风险换取和机器对话的乐趣,这值得吗?」 的确,ChatGPT 刚刚推出时,其颠覆性的创造力确实让人震撼,微软的创始人比尔·盖茨也强调过 AI 失控的可能性是存在的。 今年初,网络还充满着「AI 抢饭碗」「AI 取代人类」的担忧,甚至出现了「碳奸」的梗。但一年过去了,现在大家对去 AI 的态度已经回归理智。 我们还没有真的看到「打工人」因为 AI 而大规模失业,至少在国内,AI 被普遍运用到工作中仍是未来进行时。与此同时,OpenAI 等代表性企业的 AI 安全措施也不得不跟上,各个国家的 AI 安全审查机构相继成立。 AI 的前进是必然的,「火」到底怎么用还在于人类的选择,一席人在制造控制火苗的炉子,另一些人着力火苗还能点亮哪些荒漠。 2024 年,安全仍将是 AI 发展的主题之一,芯片则是生产力能否进一步提升的关键,唯一可以确定的是,AI 将如同互联网一样,将成为未来必不可少的人类工具。 来源:金色财经
lg
...
金色财经
2024-01-02
调整后迎布局期,文娱传媒ETF(516190)涨超2%,持仓股中文在线、上海电影涨超10%
go
lg
...
型性能较年初有明显提升,2024年,以
GPT-5
为代表的国外大模型有望继续引领全球大模型迭代升级的浪潮,国内大模型如星火认知大模型、文心一言模型将继续积极赶超国外领先厂商,预计国内将出现更多优秀的多模态和垂类模型。 硬件端,英伟达于11月公布最新人工智能超级计算机芯片H200,三星、vivo 等手机厂商公布移动端搭载大模型成果,2024年,国外厂商在AI硬件领域预计将有较大进展,联想 AI PC 预计24年9月后上市,英伟达下一代Blackwell-GPU也有望于24年至25年推出,硬件端设备升级将显著加速模型在端侧布局的进程。 应用端,在模型能力升级的推动下,AI在内容、创意生成领域的落地成果丰富,2024年AI应用新周期有望开启。 在行业底部周期,回购有利于稳定市场信心,更大逻辑在于技术变革驱动行业未来发展,AIGC/XR等新技术运用将有效推动游戏、影视、广告营销、数字媒体、出版等细分方向商业模式进步,对于行业降本增效有显著推动作用,推荐关注华夏中证文娱传媒ETF (516190)。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-12-29
上一页
1
•••
28
29
30
31
32
•••
36
下一页
24小时热点
中美突发重磅!特朗普与习近平周五通话时间定了 特朗普刚刚就中美协议表态
lg
...
贸易战越打越聪明了:中国放弃谷歌,打击英伟达!为了重新布局?
lg
...
中美突传重磅!美媒独家:为与习近平举行峰会 特朗普拒批对台4亿美元军援
lg
...
大行情突袭!日本央行决议惊现令人意外的一幕 美元/日元短线大跌
lg
...
【直击亚市】今日特朗普习近平将通电话!市场几乎逢低买入,日本央行按兵不动
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链界盛会#
lg
...
120讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论