全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
赚翻了!
OpenAI
首席执行官或因Reddit上市赚取数百万美元
go
lg
...
FX168财经报社(北美)讯
OpenAI
首席执行官Sam Altman将因Reddit上市而有可能获得数百万美元,这要归功于他自2014年以来对这家公司的一系列投注。根据公司招股说明书中的信息,Altman持有Reddit上市前9.2%的表决权。#2024宏观展望# #2024投资策略# #科技# 据报道,Altman目前急于为芯片开发筹集数万亿美元,以满足微软支持的
OpenAI
对人工智能计算需求,多年来他投资了数十家初创企业。其中包括Asana,在2020年上市于纽约证券交易所,以及Instacart,在去年9月首次在纳斯达克上市。在2015年
OpenAI
成立之前,Altman曾担任硅谷加速器Y Combinator的总裁,使他接触到许多小公司。 2014年,Altman领导Reddit的5000万美元B轮融资轮,此前他在一篇博客文章中写道,他在使用该服务的九年中每天都使用它。 “Reddit是一个起初看起来像是用来浪费时间的傻瓜玩具的例子,但后来变得非常有趣,”他写道,“这些年来,它对我来说是一个重要的社区——我可以找到在现实世界中并不总能找到的志同道合的人。” 2021年上半年,Reddit正在进行E轮融资,Altman投资了5000万美元。在年底,Altman又向Reddit投资了1000万美元,因为该公司筹集了约5.12亿美元的资金。到那时,Altman在年初投资的5000万美元已经增值了45%。#AI热潮# 据周四(2月22日)的文件显示,Reddit的A类和B类股票股份分布在5个不同的实体之间,Altman将比CEO史蒂夫·赫夫曼甚至拥有更多的股份。Reddit尚未告诉投资者它计划在IPO中出售多少A类股份。 据招股说明书显示,Altman至少在2021年仍然是Reddit的董事会成员。Reddit在2022年1月表示,他最近已经辞去董事会成员职务。 “Sam是一位不可思议的董事会成员,在过去的几年里为Reddit和我本人提供了宝贵的支持和建议,”当时赫夫曼引述说,“我们对他对公司产生的影响深表感激。” 现在,Altman正试图增加
OpenAI
服务的采用率,包括广受欢迎的ChatGPT聊天机器人。Reddit在其招股说明书中表示,它看到来自能够对少量书面输入产生类人文本的大型语言模型的竞争。列出的LLM包括谷歌的Gemini、初创公司Anthropic和ChatGPT。 作为IPO的一部分,Reddit将向一些用户和版主(俗称Redditors)提供股票。对于Altman来说,这可能是一个积极的信号。 “让我一直感到不安的是,用户创造了诸如Reddit之类网站的许多价值,但却没有任何所有权。”他在2014年的博客文章中写道。 他接着说,B轮融资的投资者将会把10%的股份给Reddit的用户。 “我希望随着时间的推移增加社区的所有权。”他写道。
lg
...
Heidi
2024-02-23
Stability AI发布新版文生图模型:依然开源
go
lg
...
在
OpenAI
和谷歌接连发布展现出强大性能的AI(人工智能)大模型后,AI初创企业Stability AI也坐不住了。当地时间2月21日,Stability AI推出了旗下文生图模型的最新版本Stable Diffusion 3 (SD3),在官网上开放等候名单。据公司介绍,SD3是他们最强大的文生图模型,在生成图的质量上取得了显著进步,支持多主题提示词输入,并且能实现更好的文字书写效果。和此前的系列模型一样,SD3最大的优势之一在于其为开源模型。
lg
...
金融界
2024-02-23
Sora横空出世 2024或成AI+Web3变革元年?
go
lg
...
ital Zeke 前言 2月16日,
OpenAI
公布了最新的文本控制视频生成扩散模型“Sora”,通过多段涵盖的广泛视觉数据类型的高质量生成视频,展现了生成式AI的又一个里程碑时刻。不同于Pika这类AI视频生成工具还处于用多张图像生成几秒视频的状态,Sora通过在视频和图像的压缩潜在空间中训练,将其分解为时空位置补丁,实现了可扩展的视频生成。除此之外该模型还体现出了模拟物理世界和数字世界的能力,最终呈现的60秒Demo,说是“物理世界的通用模拟器”也并不为过。 而在构建方式上,Sora延续了此前GPT模型“源数据-Transformer-Diffusion-涌现”的技术路径,这意味着其发展成熟同样需要算力作为引擎,且由于视频训练所需数据量远大于文本训练的数据量,对于算力的需求还将进一步拉大。但我们在早期的文章《潜力赛道前瞻:去中心化算力市场》中已经探讨过算力在AI时代的重要性,并且随着近期AI热度的不断攀升,市面上已经有大量算力项目开始涌现,而被动受益的其它Depin项目(存储、算力等)也已经迎来一波暴涨。那么除了Depin之外,Web3与AI的交织还能碰撞出怎样的火花?这条赛道里还蕴含着怎样的机会?本文的主要目的是对过往文章的一次更新与补全,并思考AI时代下的Web3存在哪些可能。 AI发展史的三大方向 人工智能(Artificial Intelligence)是一门旨在模拟、扩展和增强人类智能的新兴科学技术。人工智能自二十世纪五六十年代诞生以来,在经历了半个多世纪的发展后,现已成为推动社会生活和各行各业变革的重要技术。在这一过程中,符号主义、连接主义和行为主义三大研究方向的相互交织发展,成为了如今AI飞速发展的基石。 符号主义 (Symbolism) 亦称逻辑主义或规则主义,认为通过处理符号来模拟人类智能是可行的。这种方法通过符号来表示和操作问题领域内的对象、概念及其相互关系,并利用逻辑推理来解决问题,尤其在专家系统和知识表示方面已取得显著成就。符号主义的核心观点是智能行为可以通过对符号的操作和逻辑推理来实现,其中符号代表对现实世界的高度抽象; 连接主义 (Connectionism) 或称为神经网络方法,旨在通过模仿人脑的结构和功能来实现智能。该方法通过构建由众多简单处理单元(类似神经元)组成的网络,并通过调整这些单元间的连接强度(类似突触)来实现学习。连接主义特别强调从数据中学习和泛化的能力,特别适用于模式识别、分类及连续输入输出映射问题。深度学习,作为连接主义的发展,已在图像识别、语音识别和自然语言处理等领域取得突破; 行为主义 (Behaviorism) 行为主义则与仿生机器人学和自主智能系统的研究紧密相关,强调智能体能够通过与环境的交互学习。与前两者不同,行为主义不专注于模拟内部表征或思维过程,而是通过感知和行动的循环实现适应性行为。行为主义认为,智能通过与环境的动态交互、学习而展现,这种方法应用于需要在复杂和不可预测环境中行动的移动机器人和自适应控制系统中时,显得尤为有效。 尽管这三个研究方向存在本质区别,但在实际的AI研究和应用中,它们也可以相互作用和融合,共同推动AI领域的发展。 AIGC原理概述 现阶段正在经历爆炸式发展的生成式AI(Artificial Intelligence Generated Content,简称AIGC),便是对于连接主义的一种演化和应用,AIGC能够模仿人类创造力生成新颖的内容。这些模型使用大型数据集和深度学习算法进行训练,从而学习数据中存在的底层结构、关系和模式。根据用户的输入提示,生成新颖独特的输出结果,包括图像、视频、代码、音乐、设计、翻译、问题回答和文本。而目前的AIGC基本由三个要素构成:深度学习(Deep Learning,简称DL)、大数据、大规模算力。 深度学习 深度学习是机器学习(ML)的一个子领域,深度学习算法是仿照人脑建模的神经网络。例如,人脑包含数百万个相互关联的神经元,它们协同工作以学习和处理信息。同样,深度学习神经网络(或人工神经网络)是由在计算机内部协同工作的多层人工神经元组成的。人工神经元是称为节点的软件模块,它使用数学计算来处理数据。人工神经网络是使用这些节点来解决复杂问题的深度学习算法。 从层次上划分神经网络可分为输入层、隐藏层、输出层,而不同层之间连接的便是参数。 输入层(Input Layer):输入层是神经网络的第一层,负责接收外部输入的数据。输入层的每个神经元对应于输入数据的一个特征。例如,在处理图像数据时,每个神经元可能对应于图像的一个像素值; 隐藏层(Hidden Layer):输入层处理数据并将其传递到神经网络中更远的层。这些隐藏层在不同层级处理信息,在接收新信息时调整其行为。深度学习网络有数百个隐藏层,可用于从多个不同角度分析问题。例如,你得到了一张必须分类的未知动物的图像,则可以将其与你已经认识的动物进行比较。比如通过耳朵形状、腿的数量、瞳孔的大小来判断这是什么动物。深度神经网络中的隐藏层以相同的方式工作。如果深度学习算法试图对动物图像进行分类,则其每个隐藏层都会处理动物的不同特征并尝试对其进行准确的分类; 输出层(Output Layer):输出层是神经网络的最后一层,负责生成网络的输出。输出层的每个神经元代表一个可能的输出类别或值。例如,在分类问题中,每个输出层神经元可能对应于一个类别,而在回归问题中,输出层可能只有一个神经元,其值表示预测结果; 参数:在神经网络中,不同层之间的连接由权重(Weights)和偏置(Biases)参数表示,这些参数在训练过程中被优化以使网络能够准确地识别数据中的模式和进行预测。参数的增加可以提高神经网络的模型容量,即模型能够学习和表示数据中复杂模式的能力。但相对应的是参数的增加会提升对算力的需求。 大数据 为了有效训练,神经网络通常需要大量、多样及质量高和多源的数据。它是机器学习模型训练和验证的基础。通过分析大数据,机器学习模型可以学习数据中的模式和关系,从而进行预测或分类。 大规模算力 神经网络的多层复杂结构,大量参数,大数据处理需求,迭代训练方式(在训练阶段,模型需要反复迭代,训练过程中需要对每一层计算进行前向传播和反向传播,包括激活函数的计算、损失函数的计算、梯度的计算和权重的更新),高精度计算需求,并行计算能力,优化和正则化技术以及模型评估和验证过程共同导致了其对高算力的需求。 Sora 作为
OpenAI
最新发布的视频生成AI模型,Sora代表了人工智能处理和理解多样化视觉数据能力的巨大进步。通过采用视频压缩网络和空间时间补丁技术,Sora能够将来自世界各地、不同设备拍摄的海量视觉数据转换为统一的表现形式,从而实现了对复杂视觉内容的高效处理和理解。依托于文本条件化的Diffusion模型,Sora能够根据文本提示生成与之高度匹配的视频或图片,展现出极高的创造性和适应性。 不过,尽管Sora在视频生成和模拟真实世界互动方面取得了突破,但仍面临一些局限性,包括物理世界模拟的准确性、长视频生成的一致性、复杂文本指令的理解以及训练与生成效率。并且Sora本质上还是通过
OpenAI
垄断级的算力和先发优势,延续“大数据-Transformer-Diffusion-涌现”这条老技术路径达成了一种暴力美学,其它AI公司依然存在着通过技术弯道超车的可能。 虽然Sora与区块链的关系并不大,但个人认为之后的一两年里。因为Sora的影响,会迫使其它高质量AI生成工具出现并快速发展,并且将辐射到Web3内的GameFi、社交、创作平台、Depin等多条赛道,所以对于Sora有个大致了解是必要的,未来的AI将如何有效的与Web3结合,也许是我们需要思考的一个重点。 AI x Web3的四大路径 如上文所诉,我们可以知道,生成式AI所需的底层基座其实只有三点:算法、数据、算力,另一方面从泛用性和生成效果来看AI是颠覆生产方式的工具。 而区块链最大的作用有两点:重构生产关系以及去中心化。所以两者碰撞所能产生的路径我个人认为有如下四种: 去中心化算力 由于过去已经写过相关文章,所以本段的主要目的是更新一下算力赛道的近况。当谈到AI时,算力永远是难以绕开的一环。AI对于算力的需求之大,在Sora诞生之后已经是难以想象了。而近期,在瑞士达沃斯2024年度世界经济论坛期间,
OpenAI
首席执行官山姆·奥特曼更是直言算力和能源是现阶段最大的枷锁,两者在未来的重要性甚至会等同于货币。而在随后的2月10日,山姆·奥特曼在推上发表了一个极为惊人的计划,融资7万亿美元(相当于中国23年全国GDP的40%)改写目前全球的半导体产业格局,创立一家芯片帝国。在写算力相关的文章时,我的想象力还局限在国家封锁,巨头垄断,如今一家公司就想要控制全球半导体产业真的还是挺疯狂的。 所以去中心化算力的重要性自然不言而喻,区块链的特性确实能解决目前算力极度垄断的问题,以及购置专用GPU价格昂贵的问题。从AI所需的角度来看,算力的使用可以分为推理和训练两种方向,主打训练的项目,目前还是寥寥无几,从去中心化网络需要结合神经网络设计,再到对于硬件的超高需求,注定是门槛极高且落地极难的一种方向。而推理相对来说简单很多,一方面是在去中心化网络设计上并不复杂,二是硬件和带宽需求较低,算是目前比较主流的方向。 中心化算力市场的想象空间是巨大的,常常与“万亿级”这个关键词挂钩,同时也是AI时代下最容易被频繁炒作的话题。不过从近期大量涌现的项目来看,绝大部分还是属于赶鸭子上架,蹭热度。总是高举去中心化的正确旗帜,却闭口不谈去中心化网络的低效问题。并且在设计上存在高度同质化,大量的项目非常相似(一键L2加挖矿设计),最终可能会导致一地鸡毛,这样的情况想要从传统AI赛道分一杯羹着实困难。 算法、模型协作系统 机器学习算法,是指这些算法能够从数据中学习规律和模式,并据此做出预测或决策。算法是技术密集型的,因为它们的设计和优化需要深厚的专业知识和技术创新。算法是训练AI模型的核心,它定义了数据如何被转化为有用的见解或决策。较为常见的生成式AI算法比如生成对抗网络(GAN)、变分自编码器(VAE)、转换器(Transformer),每个算法都是为了一个特定领域(比如绘画、语言识别、翻译、视频生成)或者说目的而生,再通过算法训练出专用的AI模型。 那么如此之多的算法和模型,都是各有千秋,我们是否能将其整合为一种能文能武的模型?近期热度高涨的Bittensor便是这个方向的领头者,通过挖矿激励的方式让不同AI模型和算法相互协作与学习,从而创作出更高效全能的AI模型。而同样以这个方向为主的还有Commune AI(代码协作)等,不过算法和模型对于现在的AI公司来说,都是自家的看门法宝,并不会随意外借。 所以AI协作生态这种叙事很新奇有趣,协作生态系统利用了区块链的优势去整合AI算法孤岛的劣势,但是否能创造出对应的价值目前尚未可知。毕竟头部AI公司的闭源算法和模型,更新迭代与整合的能力非常强,比如
OpenAI
发展不到两年,已从早期文本生成模型迭代到多领域生成的模型,Bittensor等项目在模型和算法所针对的领域也许要另辟蹊径。 去中心化大数据 从简单的角度来说,将私有数据用来喂AI以及对数据进行标记都是与区块链非常契合的方向,只需要注意如何防止垃圾数据以及作恶,并且数据存储上也能使FIL、AR等Depin项目受益。而从复杂的角度来说,将区块链数据用于机器学习(ML),从而解决区块链数据的可访问性也是一种有趣的方向(Giza的摸索方向之一)。 在理论上,区块链数据可随时访问,反映了整个区块链的状态。但对于区块链生态系统之外的人来说,获取这些庞大数据量并不容易。完整存储一条区块链需要丰富的专业知识和大量的专门硬件资源。为了克服访问区块链数据的挑战,行业内出现了几种解决方案。例如,RPC提供商通过API访问节点,而索引服务则通过SQL和GraphQL使数据提取变得可能,这两种方式在解决问题上发挥了关键作用。然而,这些方法存在局限性。RPC服务并不适合需要大量数据查询的高密度使用场景,经常无法满足需求。同时,尽管索引服务提供了更有结构的数据检索方式,但Web3协议的复杂性使得构建高效查询变得极其困难,有时需要编写数百甚至数千行复杂的代码。这种复杂性对于一般的数据从业者和对Web3细节了解不深的人来说是一个巨大的障碍。这些限制的累积效应凸显了需要一种更易于获取和利用区块链数据的方法,可以促进该领域更广泛的应用和创新。 那么通过ZKML(零知识证明机器学习,降低机器学习对于链的负担)结合高质量的区块链数据,也许能创造出解决区块链可访问性的数据集,而AI能大幅降低区块链数据可访问性的门槛,那么随着时间的推移,开发者、研究人员和ML领域的爱好者将能够访问到更多高质量、相关的数据集,用于构建有效和创新的解决方案。 AI赋能Dapp 自23年,ChatGPT3爆火以来,AI赋能Dapp已经是一个非常常见的方向。泛用性极广的生成式AI,可以通过API接入,从而简化且智能化分析数据平台、交易机器人、区块链百科等应用。另一方面,也可以扮演聊天机器人(比如Myshell)或者AI伴侣(Sleepless AI),甚至通过生成式AI创造链游中的NPC。但由于技术壁垒很低,大部分都是接入一个API之后进行微调,与项目本身的结合也不够完美,所以很少被人提起。 但在Sora到来之后,我个人认为AI赋能GameFi(包括元宇宙)与创作平台的方向将是接下来关注的重点。因为Web3领域自下而上的特性,肯定很难诞生出一些与传统游戏或是创意公司抗衡的产品,而Sora的出现很可能会打破这一窘境(也许只用两到三年)。以Sora的Demo来看,其已具备和微短剧公司竞争的潜力,Web3活跃的社区文化也能诞生出大量有趣的Idea,而当限制条件只有想象力的时候,自下而上的行业与自上而下的传统行业之间的壁垒将被打破。 结语 随着生成式AI工具的不断进步,我们未来还将经历更多划时代的“iPhone时刻”。尽管许多人对AI与Web3的结合嗤之以鼻,但实际上我认为目前的方向大多没有问题,需要解决的痛点其实只有三点,必要性、效率、契合度。两者的融合虽处于探索阶段,却并不妨碍这条赛道成为下个牛市的主流。 对新事物永远保持足够的好奇心和接纳度是我们需要必备的心态,历史上,汽车取代马车的转变瞬息之间便已成定局,亦如同铭文和过去的NFT一样,持有太多偏见只会和机遇失之交臂。 来源:金色财经
lg
...
金色财经
2024-02-23
美国国父变身黑人?马斯克怒批谷歌Gemini:“觉醒病毒”正摧毁一切
go
lg
...
布了一张内涵图,嘲讽谷歌Gemini和
OpenAI
所代表的“觉醒种族主义”。
lg
...
金融界
2024-02-23
“美国散户大本营”即将IPO,向论坛用户募资8亿,奥特曼持有5%股权
go
lg
...
it与科技巨头合作 Reddit表示,
OpenAI
首席执行官Sam Altman通过与他有关的实体在Reddit拥有超过5%的股份。在2021年的融资时,Altman就是Reddit董事会的成员。 Reddit在2021年的最后一轮私募融资中估值达到了100亿美元,但自那以来,一些投资者已将其估值下调了约50%。但Reddit的营业收入仍在稳步增长。据招股说明书显示,Reddit在2023年的销售额达到了8.04亿美元,同比增长21%。 Reddit销售收入的增长主要来源于广告。作为一个曾被认为是自由言论堡垒的平台,Reddit近年来不得不更加严格地监管其平台上的内容,以便为广告客户创造一个更加安全和有吸引力的环境。 除了广告之外,Reddit还在寻求实现收入多样化,例如通过向第三方收取数据访问费、与科技巨头如谷歌合作,以及正式化用户之间的市场交易。 周四,Reddit宣布与谷歌达成了一项协议,该协议将“开创Reddit内容在谷歌产品中展示的新方式”,同时允许谷歌使用Reddit帖子来训练其人工智能模型。据媒体报道,这笔交易每年价值约6000万美元。这不仅为Reddit带来了显著的收入,也可能增加Reddit内容的可见性和影响力,同时支持谷歌在人工智能领域的发展。 此外,Reddit正在探索如何从其平台上的交易活动中来创造收入,例如用户可以在某些特定的社区买卖运动鞋,对照片进行编辑或改造等。服务完成后,发布请求的用户会向提供服务的用户支付一定的费用。 招股说明书透露,截至2023年12月31日,Reddit拥有超过10亿条帖子和超过160亿条评论,并于2023年12月跻身美国访问量最大的十大网站之一。Reddit的内容对于AI尤其重要,尤其是它是许多领先的大型语言模型接受培训的基础部分。 此外,Reddit使用内部构建和训练的模型来改进Reddit的许多方面,包括用户入门、内容翻译以及审核和安全。Reddit庞大的对话数据和知识库使该公司独一无二,Reddit相信,随着用户生成的数据不断增长,其价值将随着时间的推移而不断增长。 Reddit向论坛用户募资 Reddit在其招股说明书中提到,该平台拥有2亿6750万周活跃用户,这些用户分布在超过10万个子版块中。这些子版块几乎覆盖了从娱乐、科技到个人财务等所有领域的讨论。 最著名的子版块是WallStreetBets交易论坛,它因促使散户投资者集体购买GME等散户概念股而引发股市震动而闻名,凸显了社交媒体在金融市场中的影响力。 Reddit联合创始人兼首席执行官Steve Huffman在招股说明书中表达了对社区的重视: “希望公司公开上市能为其社区带来有意义的好处”。 Reddit表示,它将通过“定向股票计划”将股票分配给Reddit用户 ,并计划通过流行的个人投资管理应用如Robinhood和SoFi出售股票,吸引更广泛的散户投资者参与其IPO。Reddit认识到其用户不仅是平台的使用者,而且是构成公司价值的核心部分。通过允许用户参与到公司的股权中,强化用户对平台的归属感。 Huffman还强调了Reddit用户对他们创建的社区有着深厚的归属感,而且用户对他们创建的社区的归属权感常常扩展到整个Reddit平台。在Reddit上,用户不仅消费内容,他们还创造和维护社区。这种归属感是Reddit文化的一个关键方面,使用户感到他们对平台有直接的投入和影响。 分析师认为,Reddit通过公开上市,不仅是为了筹集资金和扩大其业务,还是为了加深与其用户社区的联系,认可用户对平台的贡献,并以实际的股权形式赋予他们所有权。这种做法可能会进一步激励用户参与和投入,从而增强社区的活力和参与度。 但是,Reddit也在其招股说明书中警告称,让数量异常庞大的散户投资者参与上市可能加剧股价波动,并有可能复制2021年Robinhood上市后不久股价短暂跳涨的那种“散户概念股”价格行为。如果股价的上涨主要是由于短期的交易热潮而不是公司基本面的支持,那么这种高价可能不会持续,随着时间的推移,股价可能会下跌。 两年多前,Reddit首次提交了一份保密版本的招股说明书,但由于利率上升和科技股估值下降,其上市计划受阻。然而,近几个月来,随着市场预期加息周期见顶,以及美国股指创出历史新高,市场活动一直在回暖。Reddit等公司正寻找这样的时机来实现它们的上市目标。
lg
...
金融界
2024-02-23
亚马逊警告员工:工作中不要使用第三方AI工具
go
lg
...
据的所有权表示担忧,特别是考虑到微软对
OpenAI
的重大投资。 亚马逊在最近的一封电子邮件中警告员工:“虽然我们可能会发现自己在使用生成式AI工具,尤其是当它似乎让生活更轻松的时候,但我们应该确保不要把它用于亚马逊的机密工作。” “当你使用第三方生成式AI时,不要分享任何机密的亚马逊、客户或员工数据。一般来说,机密数据是指不公开的数据。” 该公司在回应媒体询问时表示:“在亚马逊,我们长期以来一直在开发生成式AI和大型机器学习模型。员工每天都使用我们的AI模型来代表我们的客户进行创新——从使用Amazon CodeWhisperer生成代码推荐到在Alexa上创造新体验。我们为员工使用这些技术制定了保障措施,包括访问第三方生成式AI服务和保护机密信息的指导。” 亚马逊的内部文件指出,严格禁止使用第三方生成人工智能工具,如
OpenAI
的ChatGPT,来完成亚马逊的机密工作。该政策还警告称,提供生成式AI服务的公司可能会声称对其工具中输入的任何数据拥有所有权。 去年,亚马逊公司的一名律师曾经非正式地警告员工不要向
OpenAI
的ChatGPT提供任何亚马逊的机密信息,因为有例子显示ChatGPT的回复中使用了类似于亚马逊内部数据。 尽管有这些警告,亚马逊已经软化了对微软系统的立场,最近以10亿美元的价格获得Microsoft 365的5年授权就是明证。
lg
...
金融界
2024-02-23
金色Web3.0日报 | 周鸿祎:“元宇宙”概念明年可能会东山再起
go
lg
...
财经报道,360创始人周鸿祎表示,受到
OpenAI
推出Sora影响,元宇宙概念在明年可能会东山再起。他认为,有三样东西会对元宇宙发展有巨大帮助,第一是头显设备,包括苹果推出的Vision Pro;第二是AIGC的发展能产生更多3D内容;第三是用AI做3D建模,此后再做渲染。即便如此,元宇宙依然还是应用性概念,不是仿真性概念,仿真性还是人工智能的概念。(澎湃) 免责声明:金色财经作为区块链资讯平台,所发布的文章内容仅供信息参考,不作为实际投资建议。请大家树立正确投资理念,务必提高风险意识。 来源:金色财经
lg
...
金色财经
2024-02-23
Reddit申请IPO 奥特曼将成最大股东之一
go
lg
...
t周四提交了IPO申请,相关文件显示,
OpenAI
首席执行官萨姆·奥特曼成为Reddit的最大股东之一。 文件显示,与奥特曼有关联的实体持有Reddit的8.7%的流通股,其中包括789456股A类股和1140万股B类股。Reddit的最大股东是纽豪斯家族出版帝国旗下的Advance Magazine Publishers Inc.,拥有约三分之一的投票权。 在
OpenAI
于2015年成立之前,奥特曼曾是硅谷创业孵化器Y Combinator的总裁,这让他接触了许多小公司。 2014年,奥特曼领投了Reddit的5000万美元B轮融资,他在一篇博客文章中写道,在此之前的九年里,他每天都在使用Reddit。 他当时写道:“Reddit就是一个例子,它一开始看起来像一个浪费时间的愚蠢玩具,现在却变成了非常有趣的东西。多年来,这对我来说一直是一个重要的社区。” 2021年上半年,Reddit进行了E轮融资,奥特曼又投资了5000万美元。 随后,在2021年下半年,奥特曼又向Reddit投资了1000万美元,当时该公司获得了约5.12亿美元的融资。到那时,奥特曼上半年投资的5000万美元已经增值了45%。 根据周四提交的文件,Reddit的A类和B类股票分布在五个不同的实体中,奥尔特曼将获得比该公司CEO史蒂夫·霍夫曼更多的股份。Reddit尚未告诉投资者计划在IPO中出售多少A类股票。 文件显示,奥特曼直到2021年还是Reddit董事会成员,但现在已不再担任董事。现在,他正在努力提高
OpenAI
人工智能服务的采用率,包括流行的ChatGPT聊天机器人。 Reddit在其提交的文件中表示,它看到了来自大型语言模型的竞争,这些模型可以根据几个单词的书面输入生成类似人类的文本。
lg
...
金融界
2024-02-23
有危机感了?Stability AI发布新版文生图模型:依然开源
go
lg
...
在
OpenAI
和谷歌接连发布展现出强大性能的AI大模型后,AI初创企业Stability AI也坐不住了。当地时间2月21日,Stability AI推出了旗下文生图模型的最新版本Stable Diffusion 3 ,在官网上开放等候名单。和此前的系列模型一样,SD3最大的优势之一在于其为开源模型。Stability AI在官网上写道:“我们坚定不移地致力于确保生成式AI的开放、安全和可以被普遍访问。通过Stable Diffusion 3,我们努力提供具有强适应性的解决方案,使个人、开发人员和企业能够释放他们的创造力,这与我们激活人类潜力的使命相一致。”
lg
...
金融界
2024-02-23
Sora涌现:2024年会是AI+Web3革命年吗
go
lg
...
s@金色财经 前言 2 月 16 日,
OpenAI
宣布推出名为“Sora”的最新文生视频生成式扩散模型,凭借其在各种视觉数据类型上生成高质量视频的能力,标志着生成式AI的另一个里程碑。与 Pika 等从多个图像生成几秒钟视频的 AI 视频生成工具不同,Sora 在视频和图像的压缩潜在空间中进行训练,将它们分解为时空补丁,以生成可扩展的视频。此外,该模型展示了模拟物理和数字世界的能力,其 60 秒的演示被描述为“物理世界的通用模拟器”。 Sora延续了以往GPT模型中“源数据-Transformer-Diffusion-emergence”的技术路径,表明其发展成熟度也依赖于算力。鉴于视频训练所需的数据量比文本更大,其对计算能力的需求预计将进一步增加。然而,正如我们之前的文章《潜力行业前瞻:去中心化算力市场》中所讨论的那样,算力在AI时代的重要性已经被探讨,随着AI的日益普及,众多算力项目应运而生,惠及DePIN项目(存储、计算能力等),它们的价值激增。除了 DePIN之外,本文旨在更新和完善过去的讨论,思考Web3和AI交织可能产生的火花以及AI时代这一赛道中的机会。 AI发展的三大方向 AI是一门旨在模拟、延伸和增强人类智能的新兴科学技术。自20世纪50年代和60年代诞生以来,AI已经发展了半个多世纪,现已成为推动社会生活和各行业变革的关键技术。在此过程中,符号主义、联结主义、行为主义三大研究方向的交织发展,为当今人工智能的快速发展奠定了基础。 符号主义 符号主义也称为逻辑主义或基于规则的推理,认为通过符号的处理来模拟人类智能是可行的。这种方法使用符号来表示和操纵问题域内的对象、概念及其关系,并采用逻辑推理来解决问题。符号主义取得了巨大的成功,特别是在专家系统和知识表示方面。符号主义的核心思想是智能行为可以通过符号的操纵和逻辑推理来实现,其中符号代表了现实世界的高级抽象。 联结主义 或称为神经网络方法,旨在通过模仿人脑的结构和功能来实现智能。该方法构建由许多简单处理单元(类似于神经元)组成的网络,并调整这些单元(类似于突触)之间的连接强度以促进学习。连接主义强调从数据中学习和概括的能力,使其特别适合模式识别、分类和连续输入输出映射问题。深度学习作为联结主义的演变,在图像识别、语音识别、自然语言处理等领域取得了突破。 行为主义 行为主义与仿生机器人和自主智能系统的研究密切相关,强调智能体可以通过与环境的交互来学习。与前两者不同,行为主义并不注重模拟内部表征或思维过程,而是通过感知和行动的循环来实现适应性行为。行为主义认为,智能是通过与环境的动态交互和学习来体现的,这使得它对于在复杂和不可预测的环境中运行的移动机器人和自适应控制系统特别有效。 这三个研究方向虽然存在根本差异,但在AI的实际研究和应用中可以相互作用、相互融合,共同推动人工智能领域的发展。 AIGC的原则 AIGC的爆炸性发展领域代表了联结主义的演变和应用,能够通过模仿人类创造力来生成新颖的内容。这些模型使用大型数据集和深度学习算法进行训练,学习数据中的底层结构、关系和模式。根据用户提示,它们生成独特的输出,包括图像、视频、代码、音乐、设计、翻译、问题答案和文本。目前,AIGC基本上由三个要素组成:深度学习、大数据和海量计算能力。 深度学习 深度学习是机器学习的一个子领域,它采用模仿人脑神经网络的算法。例如,人脑由数百万个相互连接的神经元组成,它们一起工作来学习和处理信息。同样,深度学习神经网络(或人工神经网络)由在计算机内协同工作的多层人工神经元组成。这些人工神经元(称为节点)使用数学计算来处理数据。人工神经网络利用这些节点通过深度学习算法解决复杂问题。 神经网络分为层:输入层、隐藏层和输出层,参数连接不同层。 输入层:神经网络的第一层,负责接收外部输入数据。输入层中的每个神经元对应于输入数据的一个特征。例如,在处理图像数据时,每个神经元可能对应于图像的一个像素值。 隐藏层:输入层处理数据并将其进一步传递到网络中。这些隐藏层在不同级别处理信息,在接收新信息时调整其行为。深度学习网络有数百个隐藏层,可以从多个角度分析问题。例如,当呈现需要分类的未知动物的图像时,你可以通过检查耳朵形状、腿数量、瞳孔大小等将其与你已经知道的动物进行比较。深度神经网络中的隐藏层以类似的方式工作方式。如果深度学习算法尝试对动物图像进行分类,每个隐藏层都会处理动物的不同特征并尝试对其进行准确分类。 输出层:神经网络的最后一层,负责生成网络的输出。输出层中的每个神经元代表一个可能的输出类别或值。例如,在分类问题中,每个输出层神经元可能对应一个类别,而在回归问题中,输出层可能只有一个神经元,其值代表预测结果。 参数:在神经网络中,不同层之间的连接由权重和偏差表示,它们在训练过程中进行优化,以使网络能够准确识别数据中的模式并做出预测。增加参数可以增强神经网络的模型能力,即学习和表示数据中复杂模式的能力。然而,这也增加了对计算能力的需求。 大数据 为了进行有效的训练,神经网络通常需要大量、多样化、高质量和多源的数据。它构成了训练和验证机器学习模型的基础。通过分析大数据,机器学习模型可以学习数据中的模式和关系,从而实现预测或分类。 海量计算能力 神经网络多层结构复杂,参数众多,大数据处理要求,迭代训练方式(训练时模型需要反复迭代,涉及到每一层的前向和后向传播计算,包括激活函数计算、损失函数计算、梯度计算和权重更新)、高精度计算需求、并行计算能力、优化和正则化技术以及模型评估和验证过程共同导致了高计算能力的需求。 Sora 作为
OpenAI
最新的视频生成 AI 模型,Sora 代表了人工智能处理和理解多样化视觉数据的能力的重大进步。通过采用视频压缩网络和时空补丁技术,Sora 可以将全球范围内不同设备捕获的海量视觉数据转换为统一的表示形式,从而实现对复杂视觉内容的高效处理和理解。利用文本条件扩散模型,Sora 可以生成与文本提示高度匹配的视频或图像,展现出高度的创造力和适应性。 然而,尽管Sora在视频生成和模拟现实世界交互方面取得了突破,但它仍然面临一些局限性,包括物理世界模拟的准确性、生成长视频的一致性、理解复杂的文本指令以及训练和生成的效率。本质上,Sora通过
OpenAI
的垄断算力和先发优势,延续了“大数据-Transformer-Diffusion-emergence”的老技术路径,实现了一种蛮力美学。其他人工智能公司仍然有通过技术创新实现超越的潜力。 虽然Sora与区块链的关系并不大,但相信未来一两年,由于Sora的影响力,其他优质的AI生成工具将会出现并迅速发展,冲击各个Web3领域如GameFi、社交平台、创意平台、Depin等。因此,对Sora有一个大致的了解是必要的,未来AI如何与Web3有效结合是一个重点考虑的问题。 AI x Web3融合的四种途径 正如前面所讨论的,我们可以理解生成式AI所需的基本要素本质上有三重:算法、数据和计算能力。另一方面,考虑到其普遍性和产出效果,AI是一种彻底改变生产方式的工具。同时,区块链最大的影响是双重的:重组生产关系和去中心化。 因此,我认为这两种技术的碰撞可以产生以下四种路径: 去中心化算力 如前所述,本节旨在更新计算能力格局的状态。谈到AI,计算能力是不可或缺的一个方面。Sora的出现,让原本难以想象的AI对算力的需求凸显出来。近日,在2024年瑞士达沃斯世界经济论坛期间,
OpenAI
首席执行官Sam Altman公开表示,算力和能源是当前最大的制约因素,暗示它们未来的重要性甚至可能等同于货币。随后,2月10日,Sam Altman在推特上宣布了一项令人震惊的计划,将筹集7万亿美元(相当于2023年中国GDP的40%)来彻底改革当前的全球半导体产业,旨在打造一个半导体帝国。我之前对算力的思考仅限于国家封锁和企业垄断;一家公司想要主宰全球半导体行业的想法确实很疯狂。 因此,去中心化计算能力的重要性是不言而喻的。区块链的特性确实可以解决当前计算能力极度垄断的问题,以及与获取专用 GPU 相关的昂贵成本的问题。从AI需求的角度来看,算力的使用可以分为推理和训练两个方向。专注于训练的项目还很少,因为去中心化网络需要集成神经网络设计,对硬件要求极高,是一个门槛较高、实施难度较大的方向。相比之下,推理相对简单,因为去中心化网络设计没有那么复杂,对硬件和带宽的要求也较低,是更主流的方向。 中心化算力市场想象空间广阔,常常与“万亿级”关键词联系在一起,也是AI时代最容易炒作的话题。然而,纵观最近出现的众多项目,大多数似乎都是利用趋势的考虑不周的尝试。他们经常高举去中心化的旗帜,但却避免讨论去中心化网络的低效率。另外,设计同质化程度很高,很多项目非常相似(一键L2加挖矿设计),最终可能会导致失败,很难在传统AI竞赛中占据一席之地。 算法与模型协同系统 机器学习算法是那些可以从数据中学习模式和规则,并根据它们做出预测或决策的算法。算法是技术密集型的,因为其设计和优化需要深厚的专业知识和技术创新。算法是训练人工智能模型的核心,定义了如何将数据转化为有用的见解或决策。常见的生成式 AI 算法包括生成对抗网络 (GAN)、变分自编码器 (VAE) 和 Transformers,每种算法都是针对特定领域(例如绘画、语言识别、翻译、视频生成)或目的而设计的,然后用于训练专门的 AI模型。 那么,这么多的算法和模型,各有千秋,是否有可能将它们整合成一个通用的模型呢?Bittensor是最近备受关注的一个项目,它通过激励不同的AI模型和算法相互协作和学习,从而创建更高效 、更有能力的AI模型,从而引领了这个方向。其他专注于这个方向的项目包括Commune AI(代码协作),但算法和模型对于AI公司来说是严格保密的,不容易共享。 因此,AI协作生态系统的叙述新颖而有趣。协作生态系统利用区块链的优势来整合孤立的AI算法的劣势,但是否能够创造相应的价值还有待观察。毕竟,拥有自主算法和模型的领先AI公司,拥有强大的更新、迭代和集成能力。例如,
OpenAI
在不到两年的时间内从早期的文本生成模型发展到多领域生成模型。像 Bittensor 这样的项目可能需要在其模型和算法目标领域探索新路径。 去中心化大数据 从简单的角度来看,利用隐私数据来喂养AI和注释数据是与区块链技术非常吻合的方向,主要考虑的是如何防止垃圾数据和恶意行为。此外,数据存储可以使 FIL 和 AR 等 DePIN项目受益。从更复杂的角度来看,使用区块链数据进行机器学习来解决区块链数据的可访问性是另一个有趣的方向(Giza 的探索之一)。 理论上,区块链数据是随时可访问的,反映了整个区块链的状态。然而,对于区块链生态系统之外的人来说,访问这些大量数据并不简单。存储整个区块链需要丰富的专业知识和大量的专业硬件资源。为了克服访问区块链数据的挑战,行业内出现了多种解决方案。例如,RPC 提供商通过 API 提供节点访问,索引服务使通过 SQL 和 GraphQL 进行数据检索成为可能,在解决该问题方面发挥了至关重要的作用。然而,这些方法都有其局限性。RPC服务不适合需要大量数据查询的高密度用例,往往无法满足需求。同时,尽管索引服务提供了一种更加结构化的数据检索方式,但 Web3 协议的复杂性使得构造高效查询变得极其困难,有时需要数百甚至数千行复杂代码。这种复杂性对于一般数据从业者和那些对 Web3 细节了解有限的人来说是一个重大障碍。这些限制的累积效应凸显了需要一种更易于访问和利用的方法来获取和利用区块链数据,这可以促进该领域更广泛的应用和创新。 因此,将ZKML(零知识证明机器学习,减轻链上机器学习的负担)与高质量的区块链数据相结合,可能会创建解决区块链数据可访问性的数据集。AI可以显着降低区块链数据的访问障碍。随着时间的推移,开发人员、研究人员和机器学习爱好者可以访问更多高质量、相关的数据集,以构建有效和创新的解决方案。 AI赋能Dapp 自2023年ChatGPT3爆发以来,AI对Dapp的赋能已经成为一个非常普遍的方向。广泛适用的生成式人工智能可以通过API集成,从而简化和智能化数据平台、交易机器人、区块链百科全书和其他应用程序。另一方面,它还可以充当聊天机器人(如 Myshell)或 AI 伴侣(Sleepless AI),甚至可以使用生成式 AI 在区块链游戏中创建 NPC。但由于技术门槛较低,大多数只是集成API后的调整,与项目本身的集成并不完善,因此很少被提及。 但随着Sora的到来,我个人认为AI对GameFi(包括元宇宙)和创意平台的赋能将是未来的重点。鉴于Web3领域自下而上的性质,它不太可能生产出可以与传统游戏或创意公司竞争的产品。然而,Sora的出现可能会打破这一僵局(也许只需两到三年)。从Sora的演示来看,它有与短剧公司竞争的潜力。Web3活跃的社区文化还可以催生出大量有趣的想法,当唯一的限制就是想象力时,自下而上的行业与自上而下的传统行业之间的壁垒将被打破。 结论 随着生成式人工智能工具的不断发展,未来我们将见证更多突破性的“iPhone时刻”。尽管人们对AI与Web3的整合持怀疑态度,但我相信目前的方向基本上是正确的,只需要解决三个主要痛点:必要性、效率和契合度。虽然这两者的融合还处于探索阶段,但并不妨碍这条路径成为下一次牛市的主流。 对新事物保持足够的好奇心和开放的态度是我们的基本心态。从历史上看,从马车到汽车的转变是瞬间解决的,正如铭文和过去的 NFT 所显示的那样。持有太多偏见只会导致错失机会。 来源:金色财经
lg
...
金色财经
2024-02-23
上一页
1
•••
406
407
408
409
410
•••
699
下一页
24小时热点
中美大消息!彭博:中国敦促特朗普撤销国安限制 考虑向美国投资1万亿美元
lg
...
黄金突然大爆发!金价飙升近35美元、创下历史新高 特朗普刚刚重大发声
lg
...
中美重磅!华尔街日报独家:中国如何秘密向伊朗支付石油货款并避免美国制裁
lg
...
日本政坛突发“黑天鹅”引爆市场!日本将迎来首位女首相 日元暴跌220点
lg
...
特朗普一句话引爆避险买盘!金价暴涨逾45美元创新高 FXStreet高级分析师金价交易分析
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链界盛会#
lg
...
133讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论