全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
深入探索Near协议的链抽象:基本组件和潜在新用例
go
lg
...
设施,NEAR有望促进超越区块链的创新
AI
应用程序
的开发,使个人和社区能够塑造开放网络的未来。 来源:金色财经
lg
...
金色财经
2024-06-22
解析 AI 与加密结合的潜力与现实挑战
go
lg
...
认为在OpenAI因政治原因不愿涉及的
AI
应用领域
,存在一个有趣且巨大的市场。 开源是解决这一问题的一个好办法,因为一个Github仓库不受制于股东或董事会。一个例子是Venice.ai,它承诺保护用户隐私并以非审查的方式运作。当然,关键在于其开源性,这使得这一切成为可能。Web3 AI可以有效提升这一点,通过在低成本的GPU集群上运行这些开源软件(OSS)模型以进行推理。正因为如此,我们相信OSS + Web3是铺平非审查AI道路的理想组合。 真正的好处 #4:避免向OpenAI发送个人可识别信息 许多大型企业对其内部企业数据存在隐私顾虑。对于这些客户来说,很难信任像OpenAI这样的集中式第三方来处理这些数据。 对于这些企业来说,使用web3可能会显得更加可怕,因为他们的内部数据突然出现在一个去中心化网络上。然而,对于AI而言,隐私增强技术方面已经有一些创新: 诸如Super协议之类的可信执行环境(TEE) 诸如Fhenix.io(由Hack VC管理的基金组合公司)或Inco Network(均由Zama.ai提供支持)和Bagel的PPML之类的完全同态加密(FHE) 这些技术仍在不断发展,通过即将推出的零知识(ZK)和FHE ASICs,性能也在不断改善。但长期目标是在微调模型时保护企业数据。随着这些协议的出现,web3可能会成为更具吸引力的隐私保护AI计算场所。 真正的好处 #5:利用开源模型的最新创新 在过去的几十年里,开源软件(OSS)一直在侵蚀专有软件的市场份额。我们将LLM视为一种高级专有软件,正逐渐成为开源软件的颠覆对象。一些值得注意的挑战者包括Llama、RWKV和Mistral.ai。随着时间的推移,这个列表无疑会不断增长(在Openrouter.ai上提供了更全面的列表)。通过利用由开源模型提供支持的web3 AI,人们可以充分利用这些新创新。 我们相信,随着时间的推移,一个开源的全球开发工作力量,结合加密激励,可以推动开源模型以及构建在其之上的代理和框架的快速创新。一个AI代理协议的例子是Theoriq。Theoriq利用开源模型创建了一个可组合互联的AI代理网络,可以组装在一起创建更高级的AI解决方案。 我们对此深信不疑的原因在于过去的经验:大多数“开发者软件”在经过时间的推移后逐渐被开源软件所超越。微软过去是一家专有软件公司,现在成为了贡献最多的Github公司,这是有原因的。如果你看看Databricks、PostGresSQL、MongoDB等是如何颠覆专有数据库的,就会发现整个行业就是一个被开源软件颠覆的例子,所以先例在这里是相当强大的。 然而,这也有一个小陷阱。OSS LLMs存在一个棘手的问题,就是OpenAI已经开始与组织签订付费数据许可协议,比如Reddit和纽约时报。如果这种趋势持续下去,由于获取数据的经济壁垒,OSS LLMs可能会越来越难以竞争。英伟达可能会将保密计算作为安全数据共享的加强工具。时间会告诉我们这将如何发展。 真正的好处 #6:通过高成本的随机抽样或零知识证明实现共识 在web3 AI推理中,验证是一个挑战。验证者有可能通过欺骗结果来获取费用,因此验证推理是一项重要的措施。需要注意的是,尽管AI推理还处于初级阶段,但除非采取措施来削弱这种行为的动机,否则这种欺骗是不可避免的。 标准的web3方法是让多个验证者重复相同的操作并进行结果比较。然而,正如前面提到的,由于当前高端Nvidia芯片短缺,AI推理非常昂贵。考虑到web3可以通过未充分利用的GPU DePINs提供更低成本的推理,冗余计算将严重削弱web3的价值主张。 更有希望的解决方案是对离链AI推理计算进行零知识证明。在这种情况下,可以验证简明的零知识证明以确定模型是否经过正确训练,或者推理是否正确运行(称为zkML)。其中的示例包括Modulus Labs和ZKonduit。由于零知识操作需要相当大的计算资源,这些解决方案的性能仍处于初级阶段。然而,随着零知识硬件ASIC在不久的将来推出,这一情况可能会得到改善。 更有希望的想法是一种“乐观”抽样为基础的AI推理方法。在这种模型中,您只需验证验证者生成结果的一小部分,但设置足够高的经济成本来惩罚被抓到作弊的验证者,从而产生强大的经济禁止效应。这样一来,您可以节省冗余计算(例如,参见Hyperbolic的"Proof of Sampling"论文)。 另一个有希望的想法是使用水印和指纹技术的解决方案,例如Bagel Network提出的解决方案。这类似于亚马逊Alexa为其数百万设备上的AI模型质量保证提供的机制。 真正的好处 #7:通过可组合的开源软件堆栈节省费用(OpenAI的利润) web3为AI带来的下一个机会是降低成本的民主化。到目前为止,我们已经讨论了通过像io.net这样的DePINs节省GPU成本的方法。但是,web3还提供了节省中心化web2 AI服务的利润率(例如OpenAI,根据本文撰写时的信息,其年收入超过10亿美元)的机会。这些成本节约来自于使用开源软件(OSS)模型而不是专有模型,从而实现了额外的成本节约,因为模型创建者并不试图盈利。 许多开源软件模型将始终完全免费,这为客户提供了最佳的经济效益。但是,也可能有一些开源软件模型尝试这些变现方法。请考虑,Hugging Face上仅有4%的模型由有预算的公司进行训练以帮助补贴这些模型(参见此处)。剩下的96%的模型是由社区进行训练的。这个96%的Hugging Face模型群体面临着实际的成本(包括计算成本和数据成本)。所以这些模型需要以某种方式实现变现。 有许多关于实现这种开源软件模型变现的提议。其中最有趣的之一是“初始模型发行”(IMO)的概念,即将模型本身进行Token化,留下一部分Token给团队,并将模型的一些未来收入流向Token持有人,尽管这其中显然存在一些法律和监管障碍。 其他开源软件模型将尝试基于使用量进行变现。需要注意的是,如果这种情况变为现实,开源软件模型可能开始越来越像它们的web2利润生成对应物。但是,从现实角度来看,市场将会二分,其中一些模型将完全免费。 一旦选择了开源软件模型,您可以在其上进行可组合的层次操作。例如,您可以使用Ritual.net进行AI推理,以及Theoriq.ai作为可组合和自治的链上AI代理的早期领导者(两者都得到了Hack VC的支持)。 真正的好处 #8:去中心化的数据采集 AI面临的最大挑战之一是获取适合训练模型的正确数据。我们之前提到过,去中心化AI训练存在一些挑战。但是利用去中心化网络来获取数据(然后可以在其他地方,甚至是传统的web2平台上用于训练)又如何呢? 这正是像Grass这样的初创公司正在做的事情(得到了Hack VC的支持)。Grass是一个去中心化的“数据爬取”网络,由个人贡献他们机器的闲置处理能力来获取数据,以供AI模型的训练。理论上,在大规模应用中,这种数据采集可能比任何一家公司的内部努力更优越,因为庞大的激励节点网络具有强大的计算能力。这不仅包括获取更多的数据,还包括更频繁地获取数据,以使数据更具相关性和最新性。由于这些数据爬取节点本质上是分散的,不属于单个IP地址,因此几乎不可能阻止这个去中心化的数据爬取军团。此外,他们还有一支人力网络,可以清理和规范数据,使其在被爬取后变得有用。 一旦获取了数据,您还需要一个链上的存储位置,以及使用该数据生成的LLM(大型语言模型)。在这方面,0g.AI是早期的领导者。它是一个针对AI进行优化的高性能web3存储解决方案,比AWS便宜得多(这对于Web3 AI来说是另一个经济上的成功),同时也可以作为第二层、AI等的数据可用性基础设施。 需要注意的是,在未来,数据在web3 AI中的作用可能会发生变化。目前,对于LLM来说,现状是使用数据对模型进行预训练,并随着时间的推移使用更多的数据进行改进。然而,由于互联网上的数据实时变化,这些模型始终略微过时,因此LLM推理的响应略有不准确。 未来可能发展的一个新范式是“实时”数据。这个概念是当LLM被要求进行推理时,LLM可以通过向其注入实时从互联网上收集的数据来使用数据。这样,LLM将使用最新的数据。Grass也正在研究这一点。 三、结论 我们希望这篇分析对您在思考web3 AI的承诺与现实时有所帮助。这只是一个讨论的起点,而且这个领域正在迅速变化,所以请随时加入并表达您的观点,因为我们愿意继续共同学习和建设。 来源:金色财经
lg
...
金色财经
2024-06-22
卷应用成趋势:文心一言APP被忽视的潜力
go
lg
...
文心一言APP有明显优势,也只有百度在
AI
应用
场景上的逻辑比较清晰,走到了前面。但同时,文心一言APP及百度被市场低估了。 1 未来的超级应用 为什么说文心一言APP及百度被低估了? 简单来说,在当下的中国AI产业中,文心一言APP是更有机会跑出来的超级应用,其拥有“时机优势”“巨头共性”。 参考互联网时代的历史经验,时机的早晚往往是区分胜利者与追随者的关键分水岭,文心一言APP的先发优势不容小觑。最新数据显示,文心一言用户已突破2亿,相比去年12月公开的数据翻了一倍。 2024年也被预期为AI超级应用的爆发之年,时不我待,文心一言APP已站在时代的闸门之前,准备好迎接这轮浪潮。 同时,从战略部署上看,文心一言APP的业务实力持续增强,百度在卷应用上的决心同样昭然若揭。 比如,从技术上来看,文心一言APP背靠的文心大模型在代码生成、代码解释、代码优化等通用能力上已达到国际领先水平;在中文上,文心大模型4.0已超过GPT-4。 更宽阔的视角下,市场追捧海外科技巨头的本质还是归结于一点,其正以AI重塑竞争力并释放业绩。 比如微软,一季度AI正带动其业务全面超预期,其中上线Azure OpenAI的Azure和其他云服务增长31%。再比如谷歌,一季度谷歌搜索及其他收入、云收入表现均超预期。 百度基于从前的沉淀,AI商业化潜力较快地显现出来。从一季报中可以看到,AI已成为百度业绩增长的新动力,这一点上也已“接轨”。 除此之外,值得留意的是,搜索场景最有可能催生AI时代的超级应用或者说Killer App(杀手级应用),其代表着新的“互联网入口”,而文心一言APP有望成为AI时代最好的搜索。这意味着其市场潜力仍待挖掘,真正价值或将在未来的某个时刻集中展现。 来源:图虫创意 文心一言APP显著的特点是“丰富的输入,多样的输出”。相较于传统搜索,文心一言APP不局限于单一的文字输入与关键词匹配的结果呈现,比如用户可实现“随拍随问”,同时其能够根据个性化的用户需求,提供定制化的答案和解决方案。 除了主助手的核心功能以外,文心一言APP还有丰富的智能体助手团,涉及职场、学习、绘画等等。 设想一下,未来我们可以用文心一言APP做什么?以下是几个可能的应用场景: 文心一言APP可以帮助我们规划并管理日程,包括会议、约会、提醒等;帮助我们跟踪学习进度,提供个性化的学习建议和资料;根据我们的身体数据提供个性化的健康指导;根据我们的喜好和心情,推荐适合的音乐和电影。文心一言APP带来与用户产生链接的前所未有的方式,并且能够普惠用户。 结合月活数据来看,文心一言APP最新月活超千万级别,而百度APP月活已达6.76亿,拥有970万创作者。对比之下,前者占后者的比例目前仍是非常低的,基于百度的用户和创作者生态,在比例发展到超过30%以后,文心一言APP就能作为月活2亿的AI原生应用,在颇具规模后其价值空间随之打开。 同时,文心大模型API日均调用量突破2亿,相较于23年Q4财报披露的超5000万次计算,日调用量环比增长300%,推理成本已经显著下降至原来的1%。届时文心一言APP、文心大模型充分应用和普及优势,百度AI相关收入将随之拉动。 天风证券发布研报此前指出,受益于AI对云驱动影响和公司文心大模型系列推理成本显著降低,云业务额外收入增量重心由模型训练过渡到模型推理,推理成本显著降低带来的增量反哺云业务,有望带动云业务发展。 此外,文心大模型重构后的广告系统,也将持续给百度带来数亿元的收入,这在过去业绩表现中也已得到体现。 所以百度从前的沉淀,叠加文心一言APP等
AI
应用
大规模普及,商业化变现的潜力释放,长期来看利好百度的估值修复和价值提升。 2 商业价值凸显 文心一言APP是百度从0到1打造的AI原生应用,目前仍在成长期。但卷AI原生应用才有价值的路径,给中国AI产业发展的方向带来了指引,是无法抹灭的。 这一点在2024百度移动生态万象大会上得到进一步强化。除了文心一言APP,百度搜索、百度文库、百度电商、文心智能体平台、百度APP等百度移动生态业务都发布了基于大模型应用和智能体的能力升级。 公开数据显示,在文心一言APP智能体场景中,31%的用户主要进行文案创作,已累计生成超过3.6亿文案创作作品。新东方英语名师等入驻文心一言APP,专属智能体上线,能够为文心一言用户提供英语辅导等帮助。另有数据显示,百度文库AI新功能上线至今,累计AI用户数已超1.4亿,累计功能使用次数超15亿。 百度创始人、董事长兼首席执行官李彦宏表示,智能体的能力正在逐步完善、门槛也足够低,随着基础大模型能力增强,可以做出更有价值的应用。 上述仅仅只是一个缩影,这个缩影说明当智能体跨过从玩具到实用的门槛,进入市场后,接下来便是爆发商业价值,这势必将会给国内产业资本、投资者带来十足的信心。 而目前来看,百度将可能是在大模型持久战后,能够在AI原生应用落地上持续领先的玩家: 首先是先发优势,百度对AI有十余年的战略投资,跑在谷歌以及众多中国科技公司前面,可以充分把握AI产业每个发展阶段的机会。 其次是生态优势,这是百度保持领先地位的关键,也是其独特竞争力所在。 百度拥有总用户规模达10亿级别的百度移动生态,本身是AI原生应用最佳的“生长”平台。相比于OpenAI在应用生态尚有不足,转而和苹果共建AI生态,在拥有海量用户的文心一言APP、百度APP等组成的生态加持下,百度将释放更大的
AI
应用
潜力。 最后是经验积累和战略储备。无论是大模型迭代还是云、AI芯片等,都有百度长期的重资产、重研发的投入,为AI技术的应用,以及转化为具体的产品和服务提供坚实的支撑。 来源:图虫创意 百度向开发者提供领先的文心大模型系列,还有三大AI开发工具,包括智能体开发工具AgentBuilder、AI原生应用开发工具AppBuilder、各种尺寸的模型定制工具ModelBuilder。开发者的生产力会因此得到大幅提高,带来
AI
应用
生态的繁荣。 从这一点来看,百度或是AI落地的大赢家。 大模型技术不断加持,智能体等融入百度生态,叠加当前
AI
应用
落地门槛进一步降低,将为百度长期发展以及核心业务扩容奠定更扎实的基础。 反过来,随着
AI
应用
供给爆发,受众扩大,百度生态进一步繁荣,各类产品份额增长,成为百度核心业务收入增长的驱动力,有望助力百度打开增长的广阔空间。 3 总结 总的来说,百度AI布局将会随着业务推进及业绩释放而逐渐收获肯定。 要知道,把文心一言APP、智能体的估值挖掘出来,其代表的或许都是数百亿美元的估值,为百度带来巨大的价值提升。随着2024年,AI超级应用爆发的拐点到来,百度或许能够抓住PC互联网、移动互联网之后的最大技术和应用机遇,在AI时代实现新一轮的业务跃升。 相信2024年会是百度加速进击的一年。(全文完)
lg
...
格隆汇
2024-06-21
卷应用成趋势:文心一言APP被忽视的潜力
go
lg
...
文心一言APP有明显优势,也只有百度在
AI
应用
场景上的逻辑比较清晰,走到了前面。但同时,文心一言APP及百度被市场低估了。 1 未来的超级应用 为什么说文心一言APP及百度被低估了? 简单来说,在当下的中国AI产业中,文心一言APP是更有机会跑出来的超级应用,其拥有“时机优势”“巨头共性”。 参考互联网时代的历史经验,时机的早晚往往是区分胜利者与追随者的关键分水岭,文心一言APP的先发优势不容小觑。最新数据显示,文心一言用户已突破2亿,相比去年12月公开的数据翻了一倍。 2024年也被预期为AI超级应用的爆发之年,时不我待,文心一言APP已站在时代的闸门之前,准备好迎接这轮浪潮。 同时,从战略部署上看,文心一言APP的业务实力持续增强,百度在卷应用上的决心同样昭然若揭。 比如,从技术上来看,文心一言APP背靠的文心大模型在代码生成、代码解释、代码优化等通用能力上已达到国际领先水平;在中文上,文心大模型4.0已超过GPT-4。 更宽阔的视角下,市场追捧海外科技巨头的本质还是归结于一点,其正以AI重塑竞争力并释放业绩。 比如微软,一季度AI正带动其业务全面超预期,其中上线Azure OpenAI的Azure和其他云服务增长31%。再比如谷歌,一季度谷歌搜索及其他收入、云收入表现均超预期。 百度基于从前的沉淀,AI商业化潜力较快地显现出来。从一季报中可以看到,AI已成为百度业绩增长的新动力,这一点上也已“接轨”。 除此之外,值得留意的是,搜索场景最有可能催生AI时代的超级应用或者说Killer App(杀手级应用),其代表着新的“互联网入口”,而文心一言APP有望成为AI时代最好的搜索。这意味着其市场潜力仍待挖掘,真正价值或将在未来的某个时刻集中展现。 来源:图虫创意 文心一言APP显著的特点是“丰富的输入,多样的输出”。相较于传统搜索,文心一言APP不局限于单一的文字输入与关键词匹配的结果呈现,比如用户可实现“随拍随问”,同时其能够根据个性化的用户需求,提供定制化的答案和解决方案。 除了主助手的核心功能以外,文心一言APP还有丰富的智能体助手团,涉及职场、学习、绘画等等。 设想一下,未来我们可以用文心一言APP做什么?以下是几个可能的应用场景: 文心一言APP可以帮助我们规划并管理日程,包括会议、约会、提醒等;帮助我们跟踪学习进度,提供个性化的学习建议和资料;根据我们的身体数据提供个性化的健康指导;根据我们的喜好和心情,推荐适合的音乐和电影。文心一言APP带来与用户产生链接的前所未有的方式,并且能够普惠用户。 结合月活数据来看,文心一言APP最新月活超千万级别,而百度APP月活已达6.76亿,拥有970万创作者。对比之下,前者占后者的比例目前仍是非常低的,基于百度的用户和创作者生态,在比例发展到超过30%以后,文心一言APP就能作为月活2亿的AI原生应用,在颇具规模后其价值空间随之打开。 同时,文心大模型API日均调用量突破2亿,相较于23年Q4财报披露的超5000万次计算,日调用量环比增长300%,推理成本已经显著下降至原来的1%。届时文心一言APP、文心大模型充分应用和普及优势,百度AI相关收入将随之拉动。 天风证券发布研报此前指出,受益于AI对云驱动影响和公司文心大模型系列推理成本显著降低,云业务额外收入增量重心由模型训练过渡到模型推理,推理成本显著降低带来的增量反哺云业务,有望带动云业务发展。 此外,文心大模型重构后的广告系统,也将持续给百度带来数亿元的收入,这在过去业绩表现中也已得到体现。 所以百度从前的沉淀,叠加文心一言APP等
AI
应用
大规模普及,商业化变现的潜力释放,长期来看利好百度的估值修复和价值提升。 2 商业价值凸显 文心一言APP是百度从0到1打造的AI原生应用,目前仍在成长期。但卷AI原生应用才有价值的路径,给中国AI产业发展的方向带来了指引,是无法抹灭的。 这一点在2024百度移动生态万象大会上得到进一步强化。除了文心一言APP,百度搜索、百度文库、百度电商、文心智能体平台、百度APP等百度移动生态业务都发布了基于大模型应用和智能体的能力升级。 公开数据显示,在文心一言APP智能体场景中,31%的用户主要进行文案创作,已累计生成超过3.6亿文案创作作品。新东方英语名师等入驻文心一言APP,专属智能体上线,能够为文心一言用户提供英语辅导等帮助。另有数据显示,百度文库AI新功能上线至今,累计AI用户数已超1.4亿,累计功能使用次数超15亿。 百度创始人、董事长兼首席执行官李彦宏表示,智能体的能力正在逐步完善、门槛也足够低,随着基础大模型能力增强,可以做出更有价值的应用。 上述仅仅只是一个缩影,这个缩影说明当智能体跨过从玩具到实用的门槛,进入市场后,接下来便是爆发商业价值,这势必将会给国内产业资本、投资者带来十足的信心。 而目前来看,百度将可能是在大模型持久战后,能够在AI原生应用落地上持续领先的玩家: 首先是先发优势,百度对AI有十余年的战略投资,跑在谷歌以及众多中国科技公司前面,可以充分把握AI产业每个发展阶段的机会。 其次是生态优势,这是百度保持领先地位的关键,也是其独特竞争力所在。 百度拥有总用户规模达10亿级别的百度移动生态,本身是AI原生应用最佳的“生长”平台。相比于OpenAI在应用生态尚有不足,转而和苹果共建AI生态,在拥有海量用户的文心一言APP、百度APP等组成的生态加持下,百度将释放更大的
AI
应用
潜力。 最后是经验积累和战略储备。无论是大模型迭代还是云、AI芯片等,都有百度长期的重资产、重研发的投入,为AI技术的应用,以及转化为具体的产品和服务提供坚实的支撑。 来源:图虫创意 百度向开发者提供领先的文心大模型系列,还有三大AI开发工具,包括智能体开发工具AgentBuilder、AI原生应用开发工具AppBuilder、各种尺寸的模型定制工具ModelBuilder。开发者的生产力会因此得到大幅提高,带来
AI
应用
生态的繁荣。 从这一点来看,百度或是AI落地的大赢家。 大模型技术不断加持,智能体等融入百度生态,叠加当前
AI
应用
落地门槛进一步降低,将为百度长期发展以及核心业务扩容奠定更扎实的基础。 反过来,随着
AI
应用
供给爆发,受众扩大,百度生态进一步繁荣,各类产品份额增长,成为百度核心业务收入增长的驱动力,有望助力百度打开增长的广阔空间。 3 总结 总的来说,百度AI布局将会随着业务推进及业绩释放而逐渐收获肯定。 要知道,把文心一言APP、智能体的估值挖掘出来,其代表的或许都是数百亿美元的估值,为百度带来巨大的价值提升。随着2024年,AI超级应用爆发的拐点到来,百度或许能够抓住PC互联网、移动互联网之后的最大技术和应用机遇,在AI时代实现新一轮的业务跃升。 相信2024年会是百度加速进击的一年。(全文完)
lg
...
格隆汇
2024-06-21
科技与临床深度融合,盈康生命与联影集团达成战略合作
go
lg
...
目前,盈康生命旗下多家医院多个场景落地
AI
应用
,开启“AI+临床”探索的新阶段。 AI辅助诊疗可以实现诊断更精准、更快速,助力疾病的早发现早治疗。以肺结节为例,在AI辅助诊断的助力下,临床检出率可提升32%,医生阅片效率提升26%。“人工阅片的工作量很大,小的结节比较容易漏诊,这是临床的两个痛点。”据盈康生命旗下医院影像科负责人介绍,非常微小的结节AI也能快速识别,医生在此基础上进行复核和诊断,效率和精准度都有很大提高,同时AI还可以辅助肿瘤分期和良恶性判断,为肿瘤早诊早治提供临床支持。 基于AI的三维重建和数字孪生技术,让检查结果和治疗方案更加可视化。医学图像生成三维立体模型后,可以全角度自由旋转、交互式展示,从而让医生更好地观察和分析病灶,患者也可以更直观地了解病情,减少信息不对称,提高医患沟通效率并增进互信。 同时,通过三维重建进行手术模拟,可以实现手术精准规划和实施, 在提高精准度的同时实现个体化诊疗。近年来三维重建在协助临床诊断和治疗方面越来越受到重视,通过准确分析病灶,可以实现术前规划和导航,让医生为手术做好预案,在手术中实现及时跟踪,大大提高了手术精准度和安全性,为患者带来最优的个体化治疗方案。 目前,盈康生命旗下医院已在肿瘤、心脑血管、骨科、神经疾病等多个领域开展AI创新应用。未来,盈康生命将继续聚焦预诊治康的全周期健康管理,以患者为中心,以人工智能为驱动,强化数字底座,推进数智服务,助力大健康行业高质量发展。
lg
...
金融界
2024-06-21
AI on AO 发布会:AO协议的三大AI技术突破
go
lg
...
不同的应用程序,但你肯定不能运行大型
AI
应用程序
。它们需要加载大量数据到主内存,以便快速访问。这在 3GB 内存中无法有效地实现。 当我们在今年二月份发布 AO 时,我们也有 4GB 内存限制,这实际上源自 Web Assembly 32。现在,这个内存限制在协议层面完全消失了。相反,协议层面的内存限制是 18EB(艾字节)。这是一个巨大的存储量。 直到这在内存中用于计算而不是长期存储介质之前,会需要相当长的时间。在实现层面,AO 网络中的计算单元,现在能够访问 16GB 内存,但在未来无需更改协议就可以将其替换为更大容量的内存,这将相对容易。16GB 已经足够运行大型语言模型计算,这意味着你今天可以在 AO 上下载和执行 16GB 的模型。比如 Llama 3 未量化版本的 Falcon 3 以及许多其他模型。 这是构建智能语言基础计算系统所必需的核心组件。现在它作为智能合约的一部分在链上完全支持,我们认为这是非常非常令人兴奋的。 这消除了 AO 以及随后智能合约系统的一大主要计算限制。当我们在今年二月发布 AO 时,你可能会注意到视频中我们多次提到你有无限的计算能力,但有一个限制,就是不能超过 4GB 内存。这就是那个限制的解除。我们认为这是一个非常令人兴奋的进步,16GB 已经足够运行当前 AI 领域几乎所有你想运行的模型。 我们能够在不更改协议的情况下提升 16GB 限制,未来这将相对容易,与最初运行 Web Assembly 64 相比,这是一大进步。因此,这本身就是系统能力的巨大进步。第二个使大型语言模型能够在 AO 上运行的主要技术是 WeaveDrive。 WeaveDrive 让你可以像本地硬盘一样访问 AO 内的 Arweave 数据。这意味着你可以打开 AO 中任何经过调度单元认证的事务 ID 并上传到网络。当然,你可以访问这些数据并将其读入你的程序中,就像本地硬盘上的文件一样。 我们都知道,目前 Arweave 上存储了大约 60 亿条事务数据,所以这是一个巨大的数据集起点。这也意味着在未来构建应用程序时,上传数据到 Arweave 的动机会增加,因为这些数据也可以在 AO 程序中使用。例如,当我们使大型语言模型在 Arweave 上运行时,我们大约上传了价值 1000 美元的模型到网络上。但这只是开始。 有了本地文件系统的智能合约网络,你可以构建的应用程序数量是巨大的。因此,这非常令人兴奋。更好的是,我们构建的系统允许你将数据流式传输到执行环境中。这是一个技术上的细微差别,但你可以想象回到书的类比中。 有人对你说,我想访问你这本书中的一个数据。我想获取这本书中的一个图表。在一个简单的系统中,甚至在目前的智能合约网络中,这都会是一个巨大的进步,你会给出整本书。然而这显然效率不高,特别是如果那本书是一个包含数千页的大型统计模型。 这极其低效。相反,我们在 AO 中所做的是让你可以直接读取字节。你直接到书中的图表位置,只复制图表到你的应用程序中并执行。这使得系统的效率得到了极大的提升。这不仅是一个最小可行产品(MVP),它是一个功能齐全、构建良好的数据访问机制。因此你有一个无限计算系统和一个无限硬盘,将它们结合在一起,你就有了一台超级计算机。 这在以前从未被构建过,现在它以最低成本提供给每个人使用。这就是 AO 的现状,我们对此非常兴奋。该系统的实现也在操作系统层面。因此,我们将 WeaveDrive 变成 AO 的一个子协议,它是一个计算单元扩展,任何人都可以加载。这很有趣,因为这是首个此类扩展。 AO 一直具备让你为执行环境添加扩展的能力。就像你有一台计算机,你想插入更多的内存,或者插入一张显卡,你物理上将一个单元放入系统中。你可以对 AO 的计算单元执行此操作,这就是我们在这里做的。因此,在操作系统层面,你现在有一个硬盘,它只是代表数据存储的文件系统。 这意味着你不仅可以在 AO 中访问这些数据,以通常的方式构建应用程序,但实际上你可以从任何带到网络上的应用程序中访问它。因此,这是一个广泛适用的能力,所有在系统中构建的人员都可以访问,不论他们使用何种语言编写,Rust、C、Lure、Solidity 等都可以访问,像它是系统的原生功能一样。在构建这一系统的过程中,它还迫使我们创建了子协议协议,创建其他计算单元扩展的方法,以便将来其他人也能构建激动人心的东西。 现在我们有能力在任意大小的内存集中运行计算,并能将网络中的数据加载到 AO 内的进程中,接下来要问的是,如何进行推理本身。 由于我们选择在 Web Assembly 上构建 AO 作为其主要虚拟机,因此将现有代码编译并运行在该环境中相对容易。由于我们构建了 WeaveDrive 使其暴露为操作系统层面的文件系统,将 Llama.cpp(一个开源的大型语言模型推理引擎)运行在系统上实际上是相对容易的。 这非常令人兴奋,因为这意味着你不仅可以运行此推理引擎,还可以轻松运行许多其他引擎。因此,使大型语言模型在 AO 内运行的最后一个组件是大型语言模型推理引擎本身。我们移植了一个名为 Llama.cpp 的系统,听起来有点神秘,但实际上它是当前领先的开源模型执行环境。 直接在 AO 智能合约内运行,一旦我们有能力在系统中拥有任意数量的数据,然后从 Arweave 中加载任意数量的数据,这实际上是相对容易的。 为了实现这一点,我们还与称为 SIMD(单指令多数据)计算扩展合作,这使你可以更快地运行这些模型。因此我们也启用了这一功能。这意味着目前这些模型在 CPU 上运行,但速度相当快。如果你有异步计算,它应该适合你的使用场景。像读取新闻信号然后决定执行哪些交易,在目前的系统下运行良好。但我们也有一些令人兴奋的升级将在不久后谈到,关于其他加速机制,如使用 GPU 加速大型语言模型推理。 Llama.cpp 允许你加载不仅是 Meta 的领先模型 Llama 3,还可以加载许多其他模型,实际上大约 90% 以上你可以从开源模型网站 Hugging Face 下载的模型都可以在系统内运行,从 GPT-2 如果你愿意,到 253 和 Monet,苹果自己的大型语言模型系统以及许多其他模型。因此我们现在有了框架,可以将任何模型从 Arweave 上传,使用硬盘上传我想在系统中运行的模型。你上传它们,它们只是正常的数据,然后你可以加载它们到 AO 的进程中并执行,获取结果并以你喜欢的方式工作。我们认为这是一个包,它使在以前的智能合约生态系统中无法实现的应用程序成为可能,即使现在可能实现,在现有系统如 Solana 中进行架构更改的数量也只是难以预料,不在其路线图上。因此为了向你们展示这一点并使其变得真实和易于理解,我们创建了一个模拟器 Llama Fed。基本思想是我们得到一个美联储成员委员会,它们是 llama,无论在作为元 llama 3 模型还是在作为美联储主席这一点上都是 llama。 我们也告诉它们它们是 llama,像 Alan Greenspan 或美联储主席一样。你可以进入这个小环境。 一些人会熟悉这个环境,实际上它就像我们今天工作的 Gather,你可以和 llama 交谈,请求它们给予你一些代币用于一个非常有趣的项目,并且它们会根据你的请求决定是否给予你代币。因此你燃烧一些 Arweave 代币,wAR 代币(由 AOX 团队提供),它们会根据认为你的提案是否好给予你代币。因此这是一个迷因币,货币政策完全自主和智能化。虽然这是一种简单形式的智能,但仍然有趣。它将评估你的提案和其他人的提案,并运行货币政策。通过分析新闻标题并做出智能决策或与客户支持交互并返回价值,所有这些现在都可以在智能合约内实现。Elliot 现在将为大家展示。 大家好,我是 Elliot,今天我要向你展示 Llama Land,这是一个在 AO 内运行的链上自主世界,由 Meta 的开源 Llama 3 模型驱动。 我们在这里看到的对话不仅仅是玩家之间的对话,还有完全自主的数字 llama。 例如这个 llama 是人类。 但这个 llama 是链上 AI。 这栋建筑包含了 Llama fed。它就像美联储,但为 llama 服务。 Llama fed 运行世界上第一个 AI 驱动的货币政策,并铸造 Llama 代币。 这个家伙是 Llama 国王。你可以向他提供包装的 Arweave 代币(wAR),并写一个请求以获取一些 Llama 代币。 Llama 国王 AI 会评估并决定是否授予 Llama 代币。Llamafed 的货币政策完全自主,没有人为监督。世界上的每个代理和每个房间本身都是 AO 上的链上进程。 看起来 Llama 国王授予了我们一些代币,如果我查看我的 ArConnect 钱包,我可以看到它们已经在那里了。不错。Llama Land 只是第一个在 AO 上实现的 AI 驱动的世界。这是一个新协议的框架,允许任何人构建自己的自主世界,唯一的限制是你的想象力。所有这些都是 100% 链上实现的,只有在 AO 上才有可能。 谢谢 Elliot。你刚刚看到的不仅是一个大型语言模型参与金融决策并运行一个自主的货币政策系统。没有后门,我们无法控制它,所有这些都是由 AI 本身运行的。你还看到一个小宇宙,一个你可以在物理空间中行走的地方,你可以去那个地方与金融基础设施互动。我们认为,这不仅是一个有趣的小演示。 实际上这里有一些非常有趣的东西,这些地方将不同使用金融产品的人聚集在一起。我们在 DeFi 生态系统中看到,如果有人想参与一个项目,他们首先在 Twitter 上查看,然后访问网站,参与游戏中的基本原件。 然后他们加入 Telegram 群组或 Discord 频道或在 Twitter 上与其他用户交谈。这种体验非常去中心化,我们都在不同应用程序之间跳转。我们正在尝试的一个有趣想法是,如果你有这些 DeFi 应用程序的用户界面,让他们的社区可以聚集在一起并共同管理这个他们集体访问的自主空间,因为这是一个永久的网络应用,可以加入体验。 想象一下你可以去一个看起来像拍卖行的地方,和其他喜欢该协议的用户在一起聊天。当在 AO 上发生的金融机制进程有活动时,基本上你可以和其他用户聊天。社区和社交方面与产品的金融部分结合在一起。 我们认为这非常有趣,甚至有更广泛的影响。你可以在这里构建一个自主 AI 代理,它在这个 Arweave 世界中四处游荡,与它发现的不同应用程序和用户互动。所以如果你正在构建一个元宇宙,当你创建一个在线游戏时,第一件事就是创建 NPC(非玩家角色)。在这里,NPC 可以是通用的。 你有一个智能系统,它四处游荡,与环境互动,所以你没有用户冷启动问题。你可以有一些自主代理,试图为自己赚钱,试图交朋友,像正常的 DeFi 用户一样,与环境互动。我们认为这非常有趣,虽然有点怪异。我们将拭目以待。 展望未来,我们还看到了在 AO 中加速大型语言模型执行的机会。早些时候我谈到了计算单元扩展的概念。这就是我们用来构建 WeaveDrive 的方式。 不仅仅停留在 WeaveDrive,你可以为 AO 的计算环境构建任何类型的扩展。有一个非常令人兴奋的生态项目正在为 GPU 加速大型语言模型执行解决这个问题,就是 Apus Network。我让他们来解释。 嗨,我是 Mateo。今天我很兴奋地介绍 Apus Network。Apus Network 致力于构建去中心化的、无需信任的 GPU 网络。 我们通过利用 Arweave 永久的链上存储,提供一个开源 AO 扩展,提供 GPU 的确定性执行环境,并为去中心化 AI 提供经济激励模型,使用 AO 和 APUS 代币。Apus Network 将使用 GPU 挖矿节点竞争性地执行最优的、无需信任的模型训练在 Arweave 和 AO 上运行。这确保了用户可以以最具成本效益的价格使用最佳 AI 模型。你可以在 X(Twitter)@apus_network 上关注我们的进展。谢谢。 这就是今天 AO 上的 AI 现状。你可以去试试 Llama Fed,尝试自己构建基于大型语言模型的智能合约应用。我们认为这是引入市场智能到去中心化执行环境的开始。我们对此非常激动,期待看到接下来会发生什么。谢谢大家今天的参与,期待再次与大家交流。 来源:金色财经
lg
...
金色财经
2024-06-21
强过GPT-4o?AI独角兽Anthropic发布最新AI大模型,AI人工智能ETF(512930)近3月新增规模居可比基金首位
go
lg
...
业链条更为清晰。但我们建议不要低估未来
AI
应用
的想象空间,伴随大模型准确率和效率的进一步提升,以及大模型推理成本的降低,
AI
应用
的爆发期才有望进一步来临。 关注人工智能,
AI
应用
发展以及娱乐消费、线上购物的投资者,可借道线上消费ETF平安(159793)、AI人工智能ETF(512930)把握投资机遇。 线上消费ETF平安(159793)紧密跟踪中证沪港深线上消费主题指数,中证沪港深线上消费主题指数从内地与香港市场中选取50只主营业务涉及线上购物、数字娱乐、在线教育以及远程医疗等领域上市公司证券作为指数样本,以反映内地与香港市场线上消费主题上市公司证券的整体表现。 数据显示,截至2024年6月18日,中证沪港深线上消费主题指数(931481)前十大权重股分别为美团-W(03690)、腾讯控股(00700)、快手-W(01024)、科大讯飞(002230)、哔哩哔哩-W(09626)、昆仑万维(300418)、京东健康(06618)、金山软件(03888)、恺英网络(002517)、世纪华通(002602),前十大权重股合计占比54.05%。 AI人工智能ETF(512930)紧密跟踪中证人工智能主题指数,中证人工智能主题指数选取50只业务涉及为人工智能提供基础资源、技术以及应用支持的上市公司证券作为指数样本,以反映人工智能主题上市公司证券的整体表现。 数据显示,截至2024年5月31日,中证人工智能主题指数(930713)前十大权重股分别为海康威视(002415)、中际旭创(300308)、科大讯飞(002230)、韦尔股份(603501)、新易盛(300502)、金山办公(688111)、紫光股份(000938)、澜起科技(688008)、中科曙光(603019)、浪潮信息(000977),前十大权重股合计占比51.54%。 以上内容与数据,与界面有连云频道立场无关,不构成投资建议。据此操作,风险自担。
lg
...
有连云
2024-06-21
英伟达将巩固其全球最有价值公司的地位
go
lg
...
dia 芯片的服务器,满足了几乎所有
AI
应用
对处理器不断增长的需求。 Elon Musk周三在其X社交媒体平台上表示,Dell和Super Micro Computer正在为xAI的超级计算机提供服务器机架,用于扩展其AI工具Grok的功能。 他今年早些时候表示,训练 Grok 2 模型需要大约 20,000 个 Nvidia H100 图形处理单元,而 Grok 3 模型及更高版本则需要 100,000 个 Nvidia H100 芯片。 Longbow Asset Management 首席执行官 Jake Dollarhide 表示:“微软在人工智能领域投入大量资金并赚钱,而Nvidia则只在人工智能领域赚钱,赚了很多利润。这就是为什么Nvidia不能没有人工智能。” 迄今为止,Nvidia 今年的股价已上涨近两倍,带动了大盘上涨。同期,Super Micro Computer的股价也上涨了两倍多,而Dell的股价则上涨了近 95%。 费城证券交易所半导体指数自 4 月份的最新低点以来,已上涨近 34%,并于周二收于历史最高点。
lg
...
Lisa
2024-06-21
新AI迷因币WienerAI携香肠军团前行 预售突破600万美元
go
lg
...
关系,加密货币将成为AI扩展的燃料,而
AI
应用
将成为加密货币存在的理由。 这一背景推动了AI主题加密货币的兴起,开辟了一个价值328.6亿美元的市场利基。事实上,领先的代币如NEAR Protocol($NEAR)、Render($RNDR)和Theta Network($THETA)自年初以来表现出色——$NEAR上涨了37.22%,而$RNDR和$THETA分别飙升了73.81%和17.52%。 在这样的环境中,WienerAI作为一个突破性的代币出现,致力于为各种交易者简化交易流程。 点击这里访问WienerAI WienerAI让每个人都成为赢家 手动交易已经成为过去。 目前约70%的交易是由AI完成的,涉及股票、ETF和其他主流金融工具。 世界越来越依赖算法来执行交易策略。 然而,这种方法对初学者和不精通技术的人并不友好,因为开发反映个人策略或任何策略的交易算法需要精通Python或C++。 除了程序设计知识外,在加密市场进行交易还需要对加密货币的波动性有深刻理解和实践经验。 这正是WienerAI的优势所在。它提供独特的预测技术,说明交易者识别市场中最佳的交易机会。 此外,WienerAI具有用户友好的接口,使得平台操作非常简单。 以下是用户接口的预览: WienerAI提供详细的推荐分析,并建议执行这些交易的最佳交易所。 其聊天接口还作为一个平台,用于发布交易问题,并使用户能够通过该接口直接监控和处理交易。 此外,WienerAI拥有无限可升级的功能和模块化技术能力,确保其始终保持最新状态。 迷因币成功:病毒传播性胜过实用性 除了其AI驱动的聊天机器人之外,迷人的吉祥物是其赢得声誉的关键。 将增强的实用性与轻松幽默结合起来,你就掌握了病毒传播的秘诀——任何加密货币爱好者都会告诉你,这是迷因币成功的可靠配方。 这正是WienerAI的香肠军团迅速壮大的原因。 https://x.com/WienerDogAI/status/1799847104980177320 另一种AI迷因币$TURBO,虽然缺乏WienerAI的先进AI功能,但自推出以来已上涨17,832%。 按其当前价格计算,仅仅$100的投资现在就价值$17,933。 WienerAI有潜力实现类似甚至更大的收益。 这就是为什么CryptoDaily称赞WienerAI为下一个狗狗币,而Cryptonews在其YouTube频道上预测WienerAI将直冲云霄! 加入香肠军团并以预售价格获取你的$WAI代币 WienerAI预留约138亿代币用于预售,占总供应量690亿的20%。 另一重要部分20%则用于质押,使新投资者在购买后立即通过慷慨的190%年收益率(APY)赚取被动收入。 为了增加投资者的安心,WienerAI的智能合约安全性将由SOLIDProof的完整审计报告进行验证。 潜在投资者可以通过将他们的ETH或任何兼容钱包连接到WienerAI的网站,轻松加入预售。 在网站上,他们可以用ETH、BNB、MATIC或USDT兑换$WAI,确保他们有足够的资金用于购买和支付燃气费。或者,他们也可以使用银行卡购买$WAI。 要了解WienerAI的最新动态,请加入其在X和Telegram上的香肠军团。 WienerAI正在简化交易流程,这是你参与其中的机会。 在预售结束前,立即获取你的$WAI代币! 点击这里访问WienerAI
lg
...
Business2Community
2024-06-20
鸿海股价创新高!稳接英伟达大单,分析师上调其EPS估值
go
lg
...
5元。 公司近日主要受AI伺服器、苹果
AI
应用
等题材利好推动,股价持续飙升,过去五个交易日股价飙涨12.99%,截至目前,鸿海总市值约3.02兆元,位居台股第二。 值得一提的是,今年一季度,鸿海AI伺服器占整体伺服器业绩比重近40%,预计今年AI伺服器营收成长将超过40%。这主要得益于取得英伟达(NVDA.US)GB200伺服器大订单以及GB200关键元件NVLink交换器大单。 展望2025年,鸿海预估其AI伺服器营收将超过1兆元,明年整体营收有机会突破7兆元,再创新高。 原文链接
lg
...
投资慧眼
2024-06-20
上一页
1
•••
338
339
340
341
342
•••
539
下一页
24小时热点
鲍威尔说了什么?!现货黄金较高位回落近60美元、跌破3650美元
lg
...
中美贸易突发消息!金融时报:中国禁止科技公司购买英伟达AI芯片
lg
...
中国下令禁买英伟达AI芯片!美联储马上宣布降息,黄金3700等待方向
lg
...
鲍威尔引发市场巨震!美元大跌后惊人反弹 金价自历史高位暴跌逾60美元
lg
...
【美股收评】 美联储年内首次降息引发市场波动 美股三大指数涨跌不一 小盘股结束低迷期
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链界盛会#
lg
...
120讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论