全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
软通动力"梧桐•招聘"入选中国首部大模型应用权威案例集
go
lg
...
通义千问首批产业战略合作伙伴,首批接入
微软
Azure
云GPT-4,并成为昇思MindSpore开源社区理事会首批成员单位。同时,软通动力还发布了天璇2.0 MaaS平台、天璇AI Copilot数字员工平台、软件开发大模型AISE等多款大模型平台及产品,与客户共同创新,联手研发智能财险、智能司库、智能软件开发测试、智能法律案件分析等多种基于AIGC的行业及专业解决方案。 在人工智能重塑世界的时代,软通动力致力于成为时代变革的加速器。未来,软通动力将携手行业各方共建AI创新生态,共同推动大模型技术创新发展,促进应用落地,赋能千行百业数字化、智能化转型。
lg
...
美通社
2023-12-29
Aptos全方位解析:技术、代币经济学、网络活动、生态系统
go
lg
...
s Labs宣布与微软合作。该合作将把
微软
Azure
AI功能带入Aptos,首先是Aptos助手,一个旨在帮助用户和开发者登陆Aptos的聊天机器人。GitHub的Copilot功能也将支持Aptos Move。 谷歌云:Aptos Labs与谷歌云合作实施了多项计划和整合,例如谷歌云运行Aptos验证器以及为BigQuery索引Aptos数据,提供APT和谷歌云积分的加速器计划,以及共同举办黑客马拉松活动,等等。 阿里云:11月下旬,Aptos基金会与阿里云合作,发展亚太地区的Web3开发者社区。Aptos基金会成为阿里云新加坡创新加速器计划的主要区块链赞助商,计划在亚洲共同推出Move开发者社区,并共同举办一系列黑客马拉松活动及其他活动。 SK电信:11月初,Aptos Labs与SK电信及其技术合作伙伴Atomrigs Labs合作,计划开发一项名为T钱包的Web3钱包服务。Aptos是SK电信的首个非EVM合作伙伴。 Flowcarbon:9月中旬,Aptos基金会与Flowcarbon合作,将Aptos打造成一个负碳(carbon-negative)区块链。Aptos基金会将购买并注销由Flowcarbon代币化的碳积分。 Coinbase Pay:9月中旬,Aptos Labs与Coinbase Pay合作,将Coinbase的法币入金功能整合到Aptos Labs开发的钱包Petra中。6月,Petra移动钱包在Google Play和苹果应用商店推出。10月底,它与硬件钱包Ledger集成。 黑客马拉松和资助计划如下: Aptos世界巡回黑客马拉松:2023年,Aptos基金会在首尔、荷兰和新加坡举办了黑客马拉松大赛,并计划在年底前再举办一届。这三届黑客马拉松大赛的奖金总额超过76万美元。 Aptos资助计划:Aptos基金会在2022年主网上线之前宣布了Aptos资助计划。到2023年5月初,基金会宣布已向50个团队资助超过350万美元,并开放了第二轮申请。 艺术家资助计划:2022年4月,Aptos基金会推出了一项2000万美元的艺术家和创作者资助计划。 注册表资助计划:7月中旬,Aptos基金会发布了注册表资助计划。注册表列出了一些项目创意,最初包括主要与游戏和Move基础设施相关的七个项目。这七个项目的申请已经截止,项目已处于开发阶段。基金会计划定期增加新项目。 Outlier Ventures加速器:8月初,Outlier Ventures宣布与Aptos基金会合作推出Move加速器。这个为期12周的项目于10月初结束,随后在当月举行了demo活动。 Move开发者DAO(MDD):MDD协助举办了几次黑客马拉松大赛和其他活动,最近的活动有Indore区块链日、Pune区块链日和REVA HACK。 ABCDE Highlight:亚洲Web3风投和加速器工作室ABCDE Highlight与Aptos基金会合作推出一个面向亚洲的资助计划,促进社区粘性。 Aptos冬季学校:Aptos基金会将在12月下旬举办一场为期两周的印度学生开发者加速器活动。 Galxe任务:12月初,Aptos基金会宣布了一个为期四周的基于Galxe的链上任务活动。 8、结论 Aptos是一个L1区块链,围绕可扩展性、安全性、可靠性和可升级性的核心原则设计。Aptos诞生于Meta的Diem和Novi项目,于2022年10月发布。Aptos的技术栈具有许多创新之处,例如AptosBFTv4共识机制、Quorum Store内存池协议、Block-STM并行执行引擎和编程语言Aptos Move。 自2023年7月以来,Aptos平均每天处理超过475,000笔交易,日活地址超过72,000个。网络活动主要由社交媒体平台Chingari、oracle Pyth以及在Graffio上为期一天的公共艺术创作活动推动。发展生态系统的计划包括建立合作伙伴关系、黑客马拉松大赛、资助计划等,其中许多计划面向亚太地区。 来源:金色财经
lg
...
金色财经
2023-12-29
TomTom与微软合作打造人工智能车载对话助手
go
lg
...
乐、位置搜索和车辆指挥系统的语音交互。
微软
Azure
OpenAI服务允许企业利用ChatGPT制造商OpenAI的大型语言模型。据悉,语音助手可以集成到其他汽车信息娱乐系统中,也可以内置到TomTom的数字驾驶舱中,这是一个开放的模块化车载信息娱乐平台。
lg
...
金融界
2023-12-19
12月15日证券之星早间消息汇总:北京、上海同日优化购房政策
go
lg
...
In,已经搁置了将网站从实体服务器搬到
微软
Azure
云服务的进程。根据媒体拿到的备忘录显示,LinkedIn首席技术官Raghu Hiremagalur在去年6月告诉研发员工,公司将努力聚焦于扩展和创新“本地基础设施”。令一份备忘录也显示,微软和LinkedIn一致同意,暂缓让LinkedIn在Azure云上运行。 4.美东时间周四,英特尔召开了名为“AI Everywhere”(AI无处不在)的新品发布会,推出了面向个人电脑和数据中心的人工智能(AI)芯片,希望借此在蓬勃发展的AI硬件市场中获得更大份额。英特尔表示,基于新的至强(Xeon)处理器的服务器将在明年第一季度广泛推出,英特尔用于笔记本电脑和台式电脑的酷睿Ultra处理器将让个人电脑拥有直接运行人工智能应用的功能。此外,AI芯片Gaudi 3可能是英特尔最具挑战性的新产品,它将用于深度学习和大型生成式AI模型。据英特尔声称,Gaudi 3的性能超过了英伟达的AI芯片H100。
lg
...
证券之星
2023-12-15
微软豪掷270亿美元收购的LinkedIn搁置Azure云迁移计划
go
lg
...
In,已经搁置了将网站从实体服务器搬到
微软
Azure
云服务的进程。根据媒体拿到的备忘录显示,LinkedIn首席技术官Raghu Hiremagalur在去年6月告诉研发员工,公司将努力聚焦于扩展和创新“本地基础设施”。令一份备忘录也显示,微软和LinkedIn一致同意,暂缓让LinkedIn在Azure云上运行。
lg
...
金融界
2023-12-15
微软要爆发了,AI行业如何选股| AI Financial 恒益投资
go
lg
...
波音将基于云计算的航空分析应用移植到了
微软
Azure
上,以节省燃油消耗。波音的合作伙伴包括劳斯莱斯和博世,用于分析发动机测试数据和自动优化生产线配置。这样的合作使得波音能够更好地存储和分析相关数据,发挥云服务的优势。 现在,我们以旁观者的身份回顾微软走过的47年历程,虽然微软曾经犯过不少错误,但凭借在基础系统领域的强大科技地位,微软依然坚挺并持续发展至今。然而,与苹果相比,微软在我们的视野中出现的频率越来越低,存在感远不及对手苹果。微软从2C(Consumer)逐渐转向了2B(Business),从单纯的个人软件过渡到了云服务。 云服务的最终形态是公共资源化,类似于第二次工业革命催生电力成为一种公共资源的情景。在现代化的生产变革中,不仅需要电力,还需要各种各样的算力。手机游戏需要强大的算力,但是独立硬件的发展存在物理上的限制,而随着摩尔定律的失效,进步速度越来越慢。随着5G和6G的发展,云游戏可能会成为我们的日常,手机只需要处理操作指令和图像,从而提高了手机的续航和降低了发热。 这种形态有多种多样,但在其背后所需要的是各种连接和算力,这就是各种云服务的作用。在未来,我们可能会像现在租服务器一样,按需付费,灵活使用各种服务。虽然现在的技术和网络无法很好地实现这个愿景,云游戏已经开始出现,并在逐步进化,这是一个不可抗的向前发展的过程。从1831年法拉第发现电磁感应到1879年爱迪生点亮第一盏电灯,历经了48年。现在我们这一代正处于另一个48年的时代,这难道不是一个抓住时代风口的绝佳机遇么? 微软与AI 微软在不久前,给人的印象还是一个在B端和c端都乏善可陈的普通巨头,但却在短短一年内脱胎换骨,成了整个硅谷乃至全球最潮的科技公司。点燃这家老牌公司的,无他,只有两个字母——AI。 11 月 15 日,在微软大本营美国西雅图,微软CEO 萨提亚·纳德拉在 Ignite 大会上,一口气公布了 100 多项以 AI 为中心,在云计算基础设施、 模型即服务 MaaS 、数据平台、Copilot 人工智能助手等方方面面的新产品和新功能。 微软在人工智能领域的领先地位体现在多个层面,从硬件设施到云计算、商业服务,形成了一个全面的生态系统。从这次大会。我们可以清晰地看到微软在AI领域的领先和野望: 1. 硬件创新: 微软通过推出自家设计的芯片系列,如Azure Cobalt和Azure Maia,实现了对通用工作负载和人工智能工作负载的性能、功率和成本效益的优化。这标志着微软在硬件创新领域的进一步深入,为其云计算基础设施提供更大的灵活性和效率。 2. 合作伙伴关系: 与业界领先公司,包括AMD和英伟达等硬件制造商的合作,使微软能够集成最新的AI优化芯片,如AMD Instinct MI300X和英伟达H100、H200等,为客户提供多样性的硬件选择,进一步提升AI工作负载的性能。 3. 全栈AI解决方案: 微软通过构建端到端的Copilot堆栈,包括云计算基础设施、基础模型、数据工具链以及Copilot本身,为开发者提供了全面的AI解决方案。这种全栈方法不仅关注于新奇技术,还注重产品制造、部署、安全性以及真正的生产效益。 4. 开源和开放性: 微软积极支持开源模型的模型即服务(MaaS),允许开发者轻松将各种高级模型,如Stable Diffusion、Meta Llama 2、Mistral等,通过API集成到他们的应用中。这种开源和开放的态度促进了创新,使开发者能够更灵活地利用最新的AI模型。 5. 数据驱动: Microsoft Fabric作为数据平台,通过统一化的体验,连接客户数据和微软的AI工具。这个平台致力于创造一种集成、简化的体验,将所有数据和分析工具汇集在一个产品、一个体验、一个架构、一个业务模型中,为企业提供了完整的数据管理解决方案。 6. 协同助手和自定义插件: 微软推出的Copilot Studio和独立的协同助手,如Dynamics 365 Guides中的Copilot,让用户能够通过语音和手势与生成式AI互动,为工业环境中的工人提供支持。这种创新将AI的应用领域扩展到更广泛的场景,促使AI不仅服务于白领工作者,还服务于蓝领工作。 「一切为了 AI,为了 AI 的一切。」用这句话形容这次微软 Ignite 大会,并不算夸张。在 GPT-4 和大语言模型彻底搅动了世界之后,看到机会的微软,成为转身动作最快的巨头。 我们再来看看微软和现如今最如日中天的OpenAI的关系,也可以得出一些启发: 微软与OpenAI关系时间线及发展 2015年:OpenAI的创立 - OpenAI由埃隆·马斯克、彼得·泰尔、雷德·霍夫曼等投资者共同创立,旨在推动人工智能的发展并确保其对人类的益处。 2019年:微软的首次投资与战略合作 - 微软与OpenAI建立战略合作关系,投资金额为10亿美元。共同探索人工智能领域的合作机会。 2020年2月:OpenAI融资设计曝光 - OpenAI的融资设计曝光,包括四个阶段的利润分配计划,展示了对合作伙伴(包括微软)的长期承诺。 2020年6-7月: Chat GPT初始版本发布,这是基于GPT-3的一个技术。 微软购买了GPT-3的核心技术独家许可,并可以进行商用。 2022年11月 GPT-3.5发布,这也是我们现在能免费用的版本 2023年初:微软追加100亿投资 - 微软通过供130亿美元投资,持有约49%股份,并且宣布将ChatGPT整合进搜索引擎Bing,可以看出双方合作紧密 新金主加入 - 头部风险投资机构,如老虎环球、红杉资本、A16Z等,加入OpenAI投资行列。 这些投资使OpenAI的估值达到了270亿至290亿美元。 2023年11月: OpenAI计划寻求新资金支持 - OpenAI计划向微软等投资者寻求新的资金支持,以推动其 “与人类一样智能” 的计算机软件愿景。 Microsoft 365 Copilot发布 - 微软发布Microsoft 365 Copilot,基于OpenAI大语言模型的人工智能补充工具。旨在帮助企业用户更好地组织数据和进行交互操作,标志着微软进军生成式AI的 “货币化”。 Microsoft Copilot商业化计划 - 微软宣布Microsoft 365 Copilot企业版本,将人工智能工具融入Word、Excel、PowerPoint、Outlook和Teams等协同工具,提高企业用户工作效率。 - 微软全球资深副总裁兼消费者业务首席营销官表示,Microsoft Copilot标志着进入全新的AI时代,将改变人们与科技互动和从中获益的方式。 微软财务官Amy Hood关于Copilot的展望 - 微软财务官Amy Hood表示,Copilot的实质性利益可能需要等待一段时间,但对于H2数据充满信心,意味着2024年上半年可能见证实质性利益。 微软股价表现和分析师展望 - 微软股价年内涨幅高达34%,分析师看好微软未来,认为微软股票仍具备上行空间。 微软进入OpenAI董事会 未来展望: - 微软通过整合OpenAI技术,特别是Microsoft Copilot,不断推动人工智能在其产品和服务中的应用。 - 微软可能继续通过与OpenAI等伙伴的合作,推动人工智能技术的创新,以适应市场变化。 - 微软与OpenAI的紧密合作将有助于双方在人工智能领域取得更多突破,为未来的技术发展打下坚实基础。 在这个充满变革的时代,微软和OpenAI的紧密合作显示出两家公司在推动人工智能发展方面的共同愿景和决心。如果说之前微软还是在产品层面进行「AI 集成」,现在它已经在硬件设施、云计算和商业服务的全生态层级,围绕 AI 进行了革新。只要 AI 浪潮继续推进,微软就会是那个最领先、最具有前瞻性和决策力的巨头。 AI与第四次工业革命 经常听我们讲座的朋友,应该都知道,我们Ai Financial从几年前就告诉大家,以AI为核心的,第四次工业革命已经到来。为什么我们会这么说?以及如何去跟上这次时代的东风?在讲座最后一个部分,我们来看一下AI所引领的第四次工业革命及投资AI产业的方向性观点。 新时代开启:人工智能的发展流程 首先,我们来介绍一下人工智能的发展流程。科技发展的进程遵循着一个不可或缺的三阶段递进规律。 第一部分的基础理论的形成是至关重要的,坚实的理论基础可以为后续的技术创新铺垫基石。 在理论打下基础之后,第二阶段便是将理论发展成可实现的技术。这一阶段,科学家和工程师们需不断在第一步理论的基础上进行技术创新和优化,将理论转换成现实,这个阶段的成功实现是基于第一阶段理论基础的支撑。 最后,第三阶段是科技应用于社会,服务于人类。 这一阶段,需要将科技成果转化为实际产品服务和解决方案, 从而推动达到贡献社会,服务于人类的目的。这一阶段的成果,如果没有前两个阶段作为基础是无法实现的。总的来说,科技发展遵循着一个不可分割的三阶段递进关系, 即底层基础理论的形成,理论发展成技术以及技术应用于社会。 AI的理论基础 人工智能 (AI) 的概念,其实已经存在了几个世纪。但我们今天所熟知的现代人工智能领域的相关 理论,在20世纪中叶才开始形成。有几位先驱为该领域的发展做出了贡献,人工智能的发展能走到今天,尤其离不开杰佛瑞.辛顿。 对于人工智能发展方面的努力,杰弗里ꞏ辛顿(Geoffrey Hinton)是一位著名的计算机科学家,并且获得了许多奖项和荣誉,包括被称为“计算机界的诺贝尔奖”的图灵奖 。 杰弗里.辛顿对人工智能(AI)领域做出了重大贡献,尤其是在深度学习领域。 辛顿从20世纪80年代开始研究神经网络。这项技术推进了这一领域的发展,并使其更容易被全球的研究人员和从业者使用,为ChatGPT的诞生奠定了坚实的理论基础。 ChatGPT探索人工智能之路 前面,我们介绍了人工智能的发展流程,在之前的数十年的研究中,人工智能一直处于一个理论 的状态。 那么ChatGPT的横空降世,又意味着什么呢?ChatGPT与其他之前所谓的人工智能的区别,在于它真真实实的是一个人工智能。 它的横空降世宣布了一个人工智能的未来方向,就像水手在海上看到的一个灯塔。ChatGPT的出现会让水手们朝着这个灯塔去前进。 其实,人工智能现今只是停留在一个技术的层面。 虽然技术已经出现,但是人工智能的应用还处 于起步阶段,需要不断地指明方向并制定行业标准。在此过程中,ChatGPT成为了一个重要的引领者。它基于大型语言模型、模仿学习和神经元方式学习的原理,成功实现了自然语言生成和理解的能力, 并且在公共领域开放可以根据不同的需求进行训练。 ChatGPT和之前的AI很不一样,他的逻辑是先有人工智能再根据需求进行数据训练,它更加符合人类发展的一个真实的情况。它的成长是基于摸索并且在摸索中探究出一个方向。所以ChatGPT和人类起源的发展是一样的。 在这个过程中,ChatGPT的公开性和可塑性成为了它的重要优势。可以根据不同的需求和应用场景进行训练和改进。 ChatGPT仿佛是一个刚出生的小孩子,它跟着人类一起成长,从小培养它并且是朝着一个方向去培养的。 为什么说之前的数十年的人工智能只是在卖一个概念?为什么市面上那么多声称自己是人工智能的产品,都不能真正算得上是人工智能? 因为它们是逆着人性的,而人工智能必须得符合人性。 就以讯飞为例,科大讯飞是一家做语音识别的公司,这其实是涉及到了AI的应用。直到现在AI的应用都还没开始,而他们在十年前就提出了AI的概念,同时他们的产品并不能生成新的内容并自我学习,自我调整。所以讯飞的AI并不符合人性的习惯,不能被称为AI。 多年以来,科大讯飞只是在靠着卖概念做着房地产生意。市场上这样的公司不止讯飞一家, 很多公司研发的并不是真正的AI,却靠着AI的噱头割韭菜。 ChatGPT推动人工智能应用 在现今开启的人工智能新时代中,人工智能实际上从来没有达到过一个应用的层面。ChatGPT是支持人工智能这个理论的一个技术。但是因为ChatGPT的出现,让许多公司开发人工智能应用成为了可能。 ChatGPT是首个也是唯一一个将人工智能理论变成一个实际具体的技术。 更重要的是ChatGPT是第一次提出人工智能和人类之间可以协同工作。 我们相信这也是由ChatGPT引领第四次工业革命的方向:未来人工智能,一定会围绕人机的协同共创来展开。这个方向一旦展开后,会带来更大量的应用进而带来生产力格局的演变。然而,尽管我们意识到社会正在快速发展,但如何确定工业革命是否已经到来仍是一个问题。 早在2011年,汉诺威工业展就提出了“工业4.0”的概念,该概念旨在通过物联网实现生产供应、 制造和销售信息的数字化和智能化,从而实现快速高效和个性化的产品供应。 这种新型工厂被称为“智能工厂”,并被认为标志着——第四次工业革命的到来。因此,我们可以确定第四次工业革命已经到来。 前三次工业革命的发生是人类科技进步的重大飞跃,它使人类的生产力和创造力得到了巨大提升。 同时也深刻地改变了人类的生活方式和思维方式。前三次工业革命中,我们不难看出一种共性。 那便是产品会先出现,人类再围绕技术搭建平台,最后在思考如何使用这项新的技术发展商业应用。 第四次工业革命 而我们第四次工业革命则是一个倒推的流程。 早在上世纪五十年代,当时美国政府为了赢得冷战推出了一个名为“达特茅斯会议”的计划, 旨在寻求一种新型的智能来应对冷战带来的挑战。 在达特茅斯会议之后,人工智能开始进入了一个快速发展的时期。 20世纪60年代,IBM公司成立了一个名为 “IBM 人工智能研究中心” 的机构,专门研究和开发人工智能技术。 此外,许多大学和研究机构也开始在人工智能领域进行研究,并获得了政府和企业的资助。 据统计,自2010年以来,人工智能公司的融资额呈现出爆炸式增长。根据CB insights的数据,2021年AI领域全球融资总额超668亿美元。从全球范围来看,对人工智能基础设施市场的投资也在增加。Data Bridge市场研究公司数据显示,到2029年,全球这一市场的支出预计将达到4225.5亿美元,未来六年的复合年增长率将高达44%。 可以看出,我们早已知道人工智能的巨大用途。第四次工业革命变成了募集资金创建平台:了解应用途径再研发这样一个倒推的流程。我们以挖掘石油为例来更好的理解一下其中的逻辑。 在传统的工业生产中,挖掘石油的流程通常是这样的: 首先,需要进行地质勘探,找到可能含有石油的地点开采石油。 其次,需要建立管道系统将石油从油田运输到加油站。 最后,将石油储存于加油站并进行分销。这也是前三次工业革命中的发展流程。 然而,在以人工智能为驱动力的第四次工业革命中恰恰相反。我们首先建立了“加油站”也就是募集资金的平台。 这个平台给我们提供大量的资金来研究人工智能领域。 然后,我们再建立起“管道系统”即如何将人工智能在生活使用。 最后,我们只需要等待“石油”的开采,也就是等待人工智能这项技术的开发。而ChatGPT的问世则完成了这次最后一步。 这意味着,这次的工业革命一旦爆发则是一个多方面,一起爆破的一场革命。而且其发展将非常的迅速势不可挡。 虽然AI行业正在如火如荼地发展,但当然的所有行业都会有其泡沫和局部峰值。如何去辨别行业中值得投资的公司对于我们这些投资人而言是非常重要的。价值链是创建成品的一系列连续步骤,从最初的设计到到达客户手中。该链条确定了增值过程中的每个步骤,包括生产的采购、制造和营销阶段。一般来说,不同的公司拥有链条中的不同步骤。准确预测谁将赢得构建和销售人工智能产品的价值链是很困难的,我们Ai Financial也从不做预测,而是用事实说话,但我们可以讨论每个参与者可能带来的潜在价值。 在AI价值链中,大致包含以下几个角色: 1. 模型构建者Model Builders:包括设计、构建和完善 AI 模型的研究人员、数据科学家和工程师。目前的全世界,AI算法还处于百家争鸣的阶段,随着计算机的计算能力的指数级的上升,要说哪一种算法可以形成技术壁垒,还为时过早。而且,即使AI算法真的成为了技术壁垒,但是否能成为一个企业的真正护城河,那又是另外一回事;历史告诉我们,技术方便最强的,不等于这家企业就能成为最强。 2. 基础设施提供商Infrastructure Providers:这些参与者提供运行人工智能系统所需的云存储和处理能力等基础服务。亚马逊 (AWS)、
微软
(
Azure
) 和谷歌 (云) 等公司在这一领域占据主导地位。尽管竞争激烈,但这些服务必不可少,可以提供稳定的利润流。它们在价值链中的份额将取决于定价动态和竞争,但它们的普遍性确保了它们在市场中占有重要的份额。 3. 硬件和 GPU(“芯片”)Hardware and GPUs (“chips”):人工智能处理通常需要专门的硬件。 Nvidia 和 AMD 等生产 GPU 的公司,以及 Google 等创建定制 AI 硬件(如张量处理单元,Google定制的AI 加速器,根据算法和模型的特征,优化的芯片的使用效率和计算速度)的公司,都是关键参与者。它们可以获取巨大的价值,尤其是随着人工智能计算需求的增长。 4. 应用Applications:这包括使用人工智能模型提供特定服务或产品的企业。这是一个广泛的类别,可能包括从推荐系统到自动驾驶汽车的所有内容。 5. 数据提供者Data Providers:AI 模型通常需要大量数据进行训练。能够提供高质量、独特数据的公司可以获得巨大的价值。 最终,人工智能价值链中的“赢家”很可能是那些能够控制或影响多个阶段的人。例如,一家创建人工智能模型、拥有专有数据并构建应用程序的公司比一家只在某一领域运营的公司能够占据更多的价值链。 投资的基本原理不会发生太大变化,对于人工智能公司来说也是如此——他们可以在价值链中生存并拥有和保护利润池——基本上可以创造一条商业护城河。 微软就是一个非常好的例子,它利用AI拓展了自己的盈利渠道,同时拥有极为庞大的资金背景作为试错成本,并且拥有价值链的很大一部分,有庞大的利润池可供扩展。简单来说,就算在AI领域有所失误,他也有自己稳定的业务,公司盈利有保障;长期来说他有极高的上限,短期增长也具备爆发力,所以我们可以说,在AI赛道已经开始起飞的当下,微软是极具投资价值的共公司。
lg
...
AI Financial恒益投资
2023-12-13
云服务巨头甲骨文第二季度财报不及预期 公司正面临重大选择 盘后股价暴跌9%
go
lg
...
是 Oracle云基础设施,是该公司对
微软
Azure
和市场领先的亚马逊AWS的回击。 同样在本季度,甲骨文的NetSuite部门收购了澳大利亚公司Next Technik,该公司生产现场服务软件,但收购金额未公开。 今年迄今为止,甲骨文股价已上涨约41%,跑赢同期上涨20%的标准普尔500指数。
lg
...
埃尔文
2023-12-12
AMD的AI故事可以一直讲下去了
go
lg
...
D将一长串合作伙伴列上舞台并不奇怪。从
微软
Azure
、Oracle cloud和Meta等主要云提供商到戴尔科技、联想和超微电脑等企业服务器合作伙伴,这些合作伙伴都对此表示赞扬和兴奋。当然,这是可以理解的,因为这些公司都需要一家能够替代英伟达的公司,来满足他们对于生成式AI的巨大需求。 除了MI300X,AMD还讨论了他们的Instinct MI300A,这是该公司专为数据中心设计的第一个APU。MI300A利用与MI300X相同类型的GPU XCD(加速器复杂芯片)元素,但包括六个而不是八个,并利用额外的芯片空间来包含八个Zen4 CPU核心。此外,通过使用AMD的Infinity Fabric芯片对芯片互连技术,它为整个系统提供了对大型、共享的高带宽内存(HBM)的共享和同时访问。 在这次活动中,一个有趣的技术旁注是AMD宣布计划向有限的合作伙伴开放之前专有的Infinity Fabric技术。虽然目前还不知道细节,但可以想象,未来可能会出现一些新的多厂商芯片设计。 这种同时访问CPU和GPU内存的能力对于HPC类型的应用程序至关重要,而且这个能力显然是劝说劳伦斯利物浦国家实验室选择MI300A作为其与HPE合作建造的新一代超级计算机El Capitan核心的一个原因。据预计,El Capitan将是世界上最快且最节能的超级计算机之一。 在软件方面,AMD还在围绕其用于GenAI的ROCm软件平台做了许多宣传,该平台现已升级到第6版。与新硬件一样,他们讨论了几个关键的合作伙伴关系,这些合作伙伴关系建立在之前的新闻基础上(例如与开源模型提供商Hugging Face和PyTorch AI开发平台的合作),并首次亮相了一些关键的新闻。其中最重要的是OpenAI表示将为其自己的Triton开发平台的3.0版本带来对AMD最新硬件的本地支持。这将使许多渴望加入OpenAI阵营的程序员和组织可以轻松利用AMD的最新硬件(并为他们提供了一个到目前为止他们只能选择Nvidia的替代方案)。 AMD公告的最后一部分介绍了他们在人工智能PC电脑方面的进展。虽然该公司没有得到太多的赞誉或认可,但他们实际上是第一个将专用NPU集成到PC芯片中的公司,去年推出了Ryzen 7040。它包含的XDNA AI加速模块利用了AMD通过收购赛灵思获得的技术。在今年的活动中,该公司宣布了新的Ryzen 8040,其中包括升级的NPU, AI性能提高了60%。有趣的是,他们还预览了代号为“Strix Point”的下一代,预计要到2024年底才会推出。与7040相比,它将包含的XDNA2架构有望提供令人印象深刻的3倍提升。考虑到该公司在此期间仍需要销售基于8040的系统,你可能会认为新芯片的“预告”有点不寻常。然而,作者认为AMD想要做的,是在预览中强调这是一个令人难以置信的快速发展的市场,他们已经准备好竞争。当然,这也是对竞争对手英特尔和高通的一次打击,这两家公司都将在未来几个月推出NPU加速的PC芯片。 再次强调,除了硬件,AMD还讨论了一些有趣的PC AI软件的进步,包括官方发布的Ryzen AI 1.0软件,用于简化和加速基于生成式AI的模型和应用程序在个人电脑上的使用。AMD还邀请了微软新任Windows业务负责人Pavan Davuluri上台,介绍了他们在未来版本Windows中为AMD的XDNA加速器提供原生支持的工作,并讨论了混合人工智能(hybrid AI)这一日益热门的话题,公司希望能够在云和客户端PC之间分割某些类型的人工智能工作负载。在这个领域以及整个AI PC领域,还有很多工作要做,但在2024年肯定将是一个有趣的观察领域。 总而言之,AMD的人工智能故事令人印象深刻,毫无疑问,人们对它充满了热情。从行业的角度来看,看到更多的竞争是件好事,因为这将让这个新领域更快的发展。然而,为了真正有所作为,AMD需要继续执行好自己的愿景,他们还有很多工作要做。 译者案 可以说,这次Instinct MI300X给市场打了一剂强心剂,无论后续市场买单与否,就显得不那么重要了。因为Instinct MI300X确实证明了AMD有参与AI游戏的能力。但是英伟达的新芯片也不可忽视,这注定是一场追逐赛。而AMD只要不掉队,随着技术的发展,以后AI的框架对底层硬件支持会越来越弹性,不太需要特定硬件生态,那英伟达的护城河也会越来越弱。AMD关于AI的故事,就可以一直讲下去。 $美国超微公司(AMD)$ $英伟达(NVDA)$
lg
...
老虎证券
2023-12-08
重塑计算界限:去中心化算力的现状与展望
go
lg
...
I 为代表的巨头,有微软的加持,背后是
微软
Azure
提供的丰富算力资源,这使得 OpenAI 每次新产品的发布,都是对当下 AI 行业的重塑和整合,让其余团队在大模型领域难以望其项背。 那么在面对高昂的硬件成本、地域限制、产业发展不均衡的情况,是否有其他解决方案? 去中心化算力平台则应运而生,平台的目的是创建一个开放、透明且自我调节的市场来更有效地利用全球计算资源。 适应性分析 1. 去中心化算力供给侧 目前高昂的硬件价格和供给侧的人为控制,都给去中心化算力网络的建设提供了土壤。 • 从去中心化算力的组成方式来看,多样的算力提供方小到个人PC、小型物联网设备大到数据中心、IDC等,大量累积的算力可提供更灵活和可扩展的计算解决方案,从而帮助更多的AI开发者和组织更有效地利用有限的资源。都可以通过个人或组织的闲置算力,来实现去中心化算力共享,但这些的算力的可用性、稳定性,受本身用户的使用限制或分享上限的限制。 • 有可能的潜在优质算力来源,则是以太坊转 PoS 后,直接由相关矿场转型提供的算力资源。以美国领先的 GPU 集成式算力提供商 Coreweave 为例,前身是北美以太坊最大的矿场,基于已构建的完备基础设施。此外,退役的以太坊矿机,其中也包含了大量的闲置 GPU,据悉此前以太坊挖矿时代巅峰在网工作的 GPU 约2700万张,盘活这些 GPU 也能进一步成为去中心化算力网络重要的算力来源。 2. 去中心化算力需求侧 • 从技术实现来看,去中心化算力资源在图形渲染类,视频转码类,这种计算复杂程度不高的任务,结合区块链技术和web3的经济体系能在确保信息数据安全传递情况下,为网络参与者带来了切实的收益激励,积累了有效的商业模式和客群。而 AI 领域则涉及大量的并行计算,节点间的通信、同步等环节,对网络环境等方面有非常高的要求,因而目前应用也都集中于微调、推理、AIGC 等更偏应用层。 • 从商业逻辑来看,单纯算力买卖的市场是缺乏想象力的,行业只能卷供应链、定价策略,但这些又恰好是中心化云服务的优势。因而,市场上限较低也缺乏更多想象空间,所以也能看到原本做单纯图形渲染的网络在寻求 AI 转型,如 Render Network 与2023 Q1 也推出了原生集成Stability AI 工具集,用户可以的该项功能引入Stable Diffusion作业,业务也不再局限于渲染作业而向 AI 领域扩展。 • 从主要客群来看,很显然大B端客户会更倾向于中心化集成式云服务,他们通常有充足的预算,他们通常是从事底层大模型的开发,需要更高效的算力聚合形式;因而,去中心化算力更多的是服务于中小型开发团队或个人,从事多是模型微调,或应用层开发,对算力的提供形式没有太高的要求。他们对价格更敏感,去中心化算力的能从根本上减轻初始成本的投入,因而整体的使用成本也更低,以 Gensyn 此前测算的成本来看,将算力换算成V100 提供的等值算力,Gensyn 价格仅为0.4美元每小时,相比AWS 同类型的算力需要2美元每小时,能下降80%。虽然这部分生意并不在目前行业中占开销大头,但伴随 AI 类应用的使用场景持续延展,未来的市场规模不容小觑。 • 从提供的服务来看,可以发现目前的项目更像是去中心化云平台的概念,提供的是一整套从开发、部署、上线、分发、交易全流程的管理,这样的好处在于吸引开发者,可以利用相关工具组件来简化开发部署,提升效率;同时能吸引用户来平台使用这些完整的应用产品,形成基于自身算力网络的生态护城河。但这同时也对项目运营提出了更高的要求。如何吸引优秀开发者和用户并实现留存显得尤为重要。 不同领域的应用 1. 数字媒体处理 Render Network 一个基于区块链的全球渲染平台,其目标是为创作者数字创意提供帮助。它允许创作者按需将 GPU 渲染工作扩展到全球 GPU 节点,提供了以一种更为高速且便宜的渲染工作能力,在创作者确认过渲染结果后,再由区块链网络向节点发送代币奖励。相比传统的视觉效果实现方法,在本地建立渲染基础设施或在购置的云服务中增加相应的GPU开支,这都需要高昂的前期投入。 自2017年创立以来,Render Network 用户在网络上渲染了超过1600万帧和近50万个场景。从Render Network 2023 Q2 发布数据也能表明,渲染帧数作业和活跃节点数都呈增长的趋势。此外,Render Network 与2023 Q1 也推出了原生集成Stability AI 工具集,用户可以的该项功能引入Stable Diffusion作业,业务也不再局限于渲染作业而向AI领域扩展。 Livepeer 则是通过网络参与者贡献自己的GPU算力和带宽,为创作者提供实时视频转码服务。广播者可以通过将视频发送至Livepeer,完成各类视频转码,并向各类端侧用户分发,进而实现视频内容的传播。同时,可以便捷地通过法币形式支付,获得视频转码、传输、存储等服务。 在Livepeer 网络中,任何人都允许贡献个人计算机资源(CPU、GPU 和带宽)以进行转码和分发视频来赚取费用。 原生代币(LPT)则代表了网络参与者在网络中的权益,通过质押代币的数量,决定节点在网络中的权重,从而影响其获得转码任务的机会。同时,LPT也起到了引导节点安全、可靠、快速地完成分派的任务。 2. AI领域的扩展 在目前AI领域的生态系统中,主要参与者大致可以划分成: 从需求方入手,在产业的不同阶段,对算力的诉求是有明显区别的。以底层模型开发为例,在预训练环节为确保训练结果的有效对并行计算、存储、通信等方面要求都非常高,这就需要通过大型的算力集群来完成相关的任务。当下主要算力供给主要还是依赖自建机房、中心化的云服务平台来集中提供。而在后续模型微调、实时推理和应用开发等环节则对并行计算、节点间通信的要求没有那么高,这恰恰是去中心化算力能一展拳脚的部分。 纵观此前已颇具的声量的项目, Akash Nework 在去中心化算力方向做了一些尝试: Akash Network 结合不同的技术组件,让用户可以在去中心化的云环境中高效、灵活地部署和管理应用程序。用户可以利用 Docker 容器技术打包应用,然后通过 Kubernetes 在 Akash 提供的云资源上通过 CloudMOS 进行部署和扩展。Akash 采用“反向拍卖”的方式,这使得价格比传统云服务更低。 Akash Network 在今年8月也发布将推出了主网第6次升级,将对 GPU 的支持纳入其云服务中,未来向更多 AI 团队提供算力供给。 Gensyn.ai,今年颇受行业瞩目的项目由 a16z 领投完成了4300万美元A轮融资,就目前公布项目公布的文档来看, 该项目是一个主网基于波卡网络的 L1 PoS 协议,聚焦于深度学习,它旨在通过创建一个全球性的超级计算集群网络来推动机器学习的边界。这个网络连接了从拥有算力富余的数据中心到潜在可贡献个人 GPU 的 PC,定制的 ASIC 和 SoC 等多种设备。 为解决的目前去中心化算力中存在的一些问题,Gensyn 借鉴了学术界的一些理论研究新成果: 1. 采用概率学习证明,即使用基于梯度的优化过程的元数据来构建相关任务执行的证明,来加快验证过程; 2. 图形基准协议(Graph-based Pinpoint Protocol),GPP作为一个桥梁,连接了DNN(Deep Neural Network)的离线执行与区块链上的智能合约框架,解决了跨硬件设备间容易发生的不一致性,并确保了验证的一贯性。 3. 与 Truebit 类似的激励方式,通过质押和惩罚相结合的方式,建立一个能让经济理性参与者能诚实地执行分派的任务。该机制采用了密码学和博弈论方法。这个验证系统对于维持大型模型训练计算的完整性和可靠性。 但值得注意的是以上内容更多的是解决任务完成验证层面,而非在项目文档中作为主要亮点讲述的关于去中心化算力来实现模型训练方面的功能,特别是关于并行计算和分布式硬件间通信、同步等问题的优化。当前受网络延迟(Latency)和带宽(Bandwidth)的影响,频繁的节点间通信会使得迭代时间和通信成本都发生增长,这不仅不会带来实际的优化,相反会降低训练效率。Gensyn 在模型训练中处理节点通信和并行计算的方法可能涉及复杂的协调协议,以管理计算的分布式性质。然而,如果没有更详细的技术信息或对他们具体方法的更深入了解,Gensyn通过其网络实现大型模型训练的确切机制需要等项目上线才能真正揭晓。 我们还关注到 Edge Matrix Computing (EMC) protocol 它通过区块链技术将算力运用至 AI、渲染、科研、AI电商接入等类型的场景,通过弹性计算把任务分发到不同的算力节点。这种方法不仅提高了算力的使用效率,还确保了数据传输的安全性。同时,它提供了一个算力市场,用户可以访问和交换计算资源。方便开发者部署,更快地触达用户。结合 Web3 的经济形式,也能使算力提供方在根据用户的实际使用情况获取真实收益和协议方补贴,AI开发者也获得更低的推理和渲染成本。以下是其主要组成部分和功能的概述: 预期还将推出了基于 GPU 的 RWA 类产品,此项的关键在于将原本在机房固定住的硬件盘活,以 RWA 的形式分割流通,获得额外的资金流动性,高质量 GPU 能作为 RWA 底层资产的原因在于,算力可以算得上 AI 领域的硬通货,目前有明显的供需矛盾,且该矛盾并不能在短期内解决,因而 GPU 的价格相对比较稳定。 此外,通过部署 IDC 机房实现算力集群也是 EMC protocol 会重点布局的部分,这不仅能让 GPU 在统一环境下的运转,更高效地处理相关大型算力消耗的任务,如模型的预训练,由此来匹配专业用户的需求。同时,IDC 机房也能集中托管和运行大量的 GPU,确保同类型高质量硬件的技术规格,方便将其打包作为 RWA 产品推向市场,开启DeFi 新思路。 近年学界在边缘计算领域也有新的技术理论发展和应用实践。边缘计算作为云计算的一种补充和优化,一部分的人工智能正在加快速度从云端走向边缘,进入到越来越小的物联网设备中。而这些物联网设备往往体积很小,为此轻量机器学习受到青睐,以满足功耗、延时以及精度等问题。 Network3 是通过构建了一个专门的AI Layer2,通过AI 模型算法优化和压缩,联邦学习,边缘计算和隐私计算,为全球范围内的AI开发者提供服务,帮助他们快速、便捷、高效地训练或者验证模型。它通过利用大量智能物联网硬件设备,可聚焦小模型,来做相应的算力供给,且通过构建TEE(Trusted Execution Environment)能让用户仅通过上传模型梯度,来完成相关训练,确保用户相关数据隐私安全。 综上 • 伴随 AI 等领域的发展,许多行业会从底层逻辑上实现巨大变革,算力会上升到更重要的地位,与之关联的各个方面也都会引起行业的广泛探索,去中心化算力网络有其自身优势,可答复降低中心化风险,同时也能作为中心化算力的一种补足。 • 且本身 AI 领域的团队也处于一个分岔口上,是否利用已训练好的大模型构建自身产品,还是参与到训练各自地域内的大模型,这样的选择也多是辩证的。因而去中心化算力能满足不同的业务需求,这样的发展趋势是喜闻乐见的,且伴随技术的更新和算法的迭代,势必在关键领域也会有所突破。 • 至不惧,而徐徐图之。 来源:金色财经
lg
...
金色财经
2023-11-28
机构:三季度全球云服务支出达735亿美元,同比增长16%
go
lg
...
大云服务厂商,亚马逊云科技(AWS)、
微软
Azure
和谷歌云,共同增长了20%,略高于整体市场,占总支出的65%。AWS的表现与上一季度相同,
微软
Azure
的增速则有所上升。而谷歌云在2023年第三季度的同比增长则有所下降。
lg
...
金融界
2023-11-23
上一页
1
•••
15
16
17
18
19
•••
25
下一页
24小时热点
特朗普宣布对欧盟和墨西哥商品征收30%关税,金融圈大佬如何看?
lg
...
黄金周评:金价上演“过山车”,震荡中守住涨势!地缘风险叠加通胀预期,机构预判后市或突破上行
lg
...
德银警告:若特朗普罢免鲍威尔,将引发美元与美债抛售潮
lg
...
前首席经济顾问警告:美国“债务冲击”风险逼近,财政路线如同“失控学生贷款”
lg
...
本周展望:美股冲高后迎“大考” 财报和CPI通胀数据将揭示关税冲击?
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论