全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
Palantir还需要更多的时间
go
lg
...
tir 将利用企业级人工智能软件来利用
大型
语言
模型
和算法的力量。 在2023年第二季度财报电话会议上,首席技术官 Shyam Sankar 描述了
大型
语言
模型
存在的限制因素,如下所示:
大型
语言
模型
处于算法推理和人类思维之间的中间地带。它们精通自然语言,但实际上并不理解自己在说什么。它们不擅长执行算法,但可以用普通散文对其进行指导。 它们是另一种非算法计算。
大型
语言
模型
是统计数据,而不是微积分。即使在确定性系统中引入一个随机变量,整个系统也变成了随机的。 关键在于这使得 Palantir 可以向客户提供企业级人工智能解决方案,以利用
大型
语言
模型
的能力。公司利用算法和软件工具来支持
大型
语言
模型
中总结的统计数据,例如使用 AIP,以产生结果并加速工作流程。 对 Palantir 而言,问题在于销售和软件研发需要时间。公司仅报告了2023年第二季度销售额为5.33亿美元,增长仅为13%,创下自上市以来的新低季度增长率。 来源:YCharts 去年11月开始,人们对
大型
语言
模型
和ChatGPT的兴奋情绪就已经开始。当然,随着英伟达报告人工智能芯片需求的巨大增长,过去几个季度的兴奋情绪有所增长,但是实际上,这种提振并没有让
大型
语言
模型
需求转化为更高的收入。 正如在财报电话会议上强调的那样,AIP正在缩短销售周期,但并没有阻止销售周期的存在。更不用说,AIP产品现在已经在市场上销售了3个月。 C3.ai为投资者提供了有关生成式人工智能对企业软件销售周期影响的更多细节。在2023财年第四季度的财报电话会议上,首席执行官Tom Siebel讨论了销售周期的缩短,这是由于公司转向消费定价模型导致的: 新交易和扩张交易的平均销售周期从上一年第四季度的五个月缩短到了3.7个月。 明显的企业级人工智能软件行业迹象表明,生成式人工智能聊天已经增加了产品兴趣,但大公司仍然需要很长时间来签署交易并实施新软件。Palantir可能要等到2024年以后才能真正从生成式人工智能聊天的需求中受益。 另一个问题是,实际的ChatGPT使用量在过去几个月有所下降,这表明生成式人工智能的使用正在被合理化。用户现在正在寻找聊天机器人来证明其价值,并与Palantir合作是一个潜在的途径,但这种转变需要时间。 来源:ZDNET 仅有10亿美元的最小回购计划 许多科技公司都在急于进行股票回购,尽管股票实际上并未交易到提供价值的水平。Palantir 宣布了一个10亿美元的股票回购计划,但当前的股票估值已经超过360亿美元,稀释后的股票数量为22.8亿股。 这个股票回购计划只相当于回购未流通股份的2.7%,为股东提供有限的利益。Palantir 有31亿美元的现金余额,但公司不应该以任何价格都在股票回购上花费现金。 如果股票跌回10美元,Palantir 更有逻辑地利用股票回购。这家企业级人工智能软件公司可以以降低的价格回购超过4%的未流通股份。 毕竟,在仅一个季度的时间里,稀释后的股票数量就从2023年第一季度的22.2亿股增加了6.1万股。公司通过股票为基础的薪酬以列出的成本在2023年第二季度对股东进行了大幅稀释,金额为1.15亿美元。实际上,季度内的额外股份稀释基于当前股票价格,市值实际上接近10亿美元。 Palantir 预计第三财季的收入为5.53亿至5.57亿美元,增长约为16%。分析师的预测目标无法使企业级人工智能软件业务在短时间内恢复到20%的增长率。 来源:Seeking Alpha 所有关于人工智能的炒作并没有真正反映在财务预测中。由于股票的支撑作用,14 美元的股价要有趣得多,而且比 Palantir 在 20 美元时的价值要高得多,当时 Palantir 的市盈率接近20倍预测销售额。 该股票仍然以2024年销售目标2.63亿美元的13倍市销率交易。AIP 产品为长期人工智能软件增长提供了许多希望,但 Palantir 仍然无法避免销售周期。 当前的收入目标表明,在生成式人工智能热潮开始将近一年后,由于推出了ChatGPT和AIP产品在市场上的第二个季度,实际上没有真正的销售动力。市场共识是,仍然没有显示人工智能炒作推动企业软件加速增长的趋势。 结论 投资者的关键观点是,Palantir 在14美元左右是一个更好的交易。企业级人工智能软件股票的理想入场点应该更接近10美元,当股价跌破未来十倍的销售目标时。当股价接近10美元时,股票回购计划将产生真正的影响,股份回购可以回购多达5%的未流通股份,以帮助抵消股份稀释。 Palantir 可能不会跌到那么低,但投资者没有理由在这里采取激进行动,因为企业级人工智能软件支出并没有像生成式人工智能聊天的炒作那样加速增长。 $Palantir Technologies Inc.(PLTR)$
lg
...
老虎证券
2023-08-31
谷歌“牵手”英伟达,能否凭借AI工具抢夺微软、亚马逊的市场份额?
go
lg
...
拓展至高级云计算领域,以支持人工智能和
大型
语言
模型
的发展。 具体来看,谷歌云宣布全面推出由英伟达H100 GPU驱动的新款A3超级计算机。这些GPU为各种AI应用程序带来前所未有的性能,专门用于加速
大型
语言
模型
。 谷歌还表示,双方将扩大从基础设施设计到软件支持方面的合作,以使在谷歌云平台上构建和部署人工智能应用程序变得更加容易。 对于扩大合作,英伟达创始人兼首席执行官黄仁勋表示:“我们正处于一个拐点,生成式人工智能以前所未有的速度加速创新。”“我们与谷歌云扩大合作,将帮助开发人员加快他们在基础设施、软件和服务方面的工作,从而提高能源效率并降低成本。” 谷歌云首席执行官托马斯·库里安(Thomas Kurian)则表示:“谷歌云在人工智能领域有着悠久的创新历史,致力于为我们的客户培育和加速创新。”“谷歌的许多产品都是在英伟达的GPU上构建和服务的,我们的许多客户都在寻求英伟达的加速计算,以提高
大型
语言
模型
的效率,从而推进生成式人工智能。” 此外,库里安周二在旧金山举行的谷歌云年度会议上向数千名客户展示了公司最新的AI应用,包括计划推出的GE Appliances应用程序,该应用程序使用谷歌的人工智能模型,能够根据客户冰箱中的食物创建食谱。 这些努力是谷歌刺激云业务增长的最新尝试,也是谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)减少公司对搜索引擎依赖的重要举措。谷歌的基础设施和软件产品年销售额达320亿美元,约占母公司总收入的10%。 谷歌将推广其当前的大型PaLM 2模型,该模型为谷歌的许多生成式人工智能功能提供支持。 该公司周二还宣布推出一套适用于企业Gmail帐户和其他工作场所软件产品的人工智能工具。这些工具要求用户每月额外支付30美元,与微软的竞品价格相匹配。 库里安补充说,对人工智能计算资源的需求几乎超过了云业务一年多前设定的长期预期。 许多企业仍处于对生成式人工智能的早期试验阶段,目前还不确定大多数企业是否会为这项技术找到有效的用途。用户还报告说,ChatGPT等热门产品的性能最近有所下降。 库里安在活动前的一次采访中表示:“当技术真的有用时,人们往往会继续使用它。”他引用的数据显示,在Gmail中使用AI写作工具的员工发送的电子邮件比正常情况下多了大约30%。 皮查伊则表示,谷歌正在积极增加运行人工智能软件所需的资源,同时也对公司规划未来的能力提出了警告。他表示:“很难完全预测需求,我想我们会没事的,但这会让我夜不能寐吗?答案是肯定的。” 作为生成式人工智能的早期开发商,谷歌发现,自去年11月发布ChatGPT以来,自己正在被微软、亚马逊等竞争对手“迎头赶上”。在这股最新潮流中,谷歌员工人数最多的云业务部门发挥了核心作用。 谷歌云负责管理数据中心,这些数据中心拥有为大型算法提供动力的芯片,随着人工智能系统吸收越来越多的数据,这些硬件的重要性也越来越大。其中包括TPU,谷歌于2015年开始使用这种处理器来开发其人工智能模型。
lg
...
金融界
2023-08-30
英伟达股票收盘创下历史新高 市值达到1.2万亿美元
go
lg
...
中心芯片正在为谷歌云平台及其PaxML
大型
语言
模型
提供支持。
lg
...
金融界
2023-08-30
谷歌大会发布新版本人工智能机器人及芯片,与微软展开激烈竞争
go
lg
...
之前,谷歌已经开放了针对基因人工智能和
大型
语言
模型
进行优化的芯片版本。 这款名为TPU v5e的新芯片旨在训练大型模型,但也能有效地为这些模型提供内容。谷歌将TPU v5e芯片拼接成256个批次,并称之为“超级计算机”。云客户可以将多个pod连接在一起,从而解决更复杂的计算问题。
lg
...
Sue
2023-08-29
如果人工智能拥有了自主意识——科学家怎样才能发现?
go
lg
...
能系统。 例如,报告对ChatGPT等
大型
语言
模型
进行了评估,发现这类系统可以说具有与全局工作空间理论相关的一些意识指标。不过,这项工作并未暗示任何现有的人工智能系统是意识的强有力候选者,至少目前还没有。 原文由Mariana Lenharo撰写,中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们 来源:金色财经
lg
...
金色财经
2023-08-29
Meta发布Code Llama:开源AI代码生成模型
go
lg
...
我们坚信人工智能模型,尤其是用于编码的
大型
语言
模型
,从开放的方法中受益最多。公开的、针对代码的模型可以推动新技术的发展,从而改善人们的生活。通过发布Code Llama等代码模型,整个社区可以评估其能力、识别问题并修复漏洞。” Code Llama有多个版本,包括专为Python优化的版本和经过微调以理解指令的版本。这些模型使用了来自网络公开资源的数据集进行训练,着重于包含代码的数据子集。模型的大小从70亿个参数到340亿个参数不等,使用5000亿个代码标记进行训练。其中,Python特定的版本在1000亿个Python代码标记上进行了微调,指令理解版本使用人类注释者的反馈进行微调,以生成“有用”且“安全”的问题答案。 代码生成工具在程序员和非程序员中都可能产生巨大的吸引力。例如,GitHub声称有超过400个组织正在使用Copilot,这使得开发人员的编码速度比以前提高了55%。Stack Overflow的调查也显示,70%的人已经在使用或计划使用人工智能编码工具,以提高生产力和学习速度。 然而,与所有形式的生成人工智能一样,编码工具可能会带来新的风险。研究表明,使用人工智能工具的工程师更有可能在其应用程序中引入安全漏洞。此外,一些代码生成模型可能会在受版权保护或受限制的许可下进行训练,可能引发知识产权问题。还有黑客试图将开源代码生成器用于编写恶意代码的风险。 Code Llama已经在Meta内部进行了红队部署,但尽管如此,它仍然可能会在一些情况下产生不准确或令人反感的响应。Meta坦承,Code Llama在某些情况下可能会出错,因此在将其部署到应用程序中之前,开发人员需要对其进行安全测试和调整。 虽然存在风险,但Meta对于Code Llama的部署设置了相对宽松的限制。开发人员只需同意不将模型用于恶意目的,并且在将其部署在超过7亿月活跃用户的平台上时,需要申请许可证。 Code Llama的开源发布旨在为各领域的软件工程师提供支持,包括研究、工业、开源项目、非政府组织和企业。Meta希望这一举措能够激发其他人利用Llama 2创建新的创新工具,为研究和商业产品开发提供更多的支持。 总的来说,Meta的Code Llama代表了人工智能领域的一项重要进展,将代码生成的能力推向了一个新的高度。尽管存在一些潜在的风险和挑战,但随着技术的不断发展,我们可以期待看到更多创新和解决方案的出现,以更好地满足开发人员和用户的需求。 声明:本文来自潮外音创作者,内容仅代表作者观点和立场,且不构成任何投资建议,请谨慎对待,如文章/素材有侵权,请联系官方客服处理。 来源:金色财经
lg
...
金色财经
2023-08-29
定制化AI新篇章:OpenAI发布GPT-3.5 Turbo微调功能 或将超越GPT-4
go
lg
...
1000个代币0.0004美元,代表着
大型
语言
模型
处理信息的基本单位)。但经过微调的版本则需要更高的费用,每1000个输入代币0.012美元,每1000个输出代币0.016美元。此外,初始训练过程的费用也会根据数据的大小而变化。尽管如此,考虑到实现定制功能所带来的价值,这些费用或许是合理的。 这一次升级是继7月份为ChatGPT Plus用户引入“自定义指令”功能之后的又一重要举措。用户现在能够根据自己的选择指定编程语言,以确保ChatGPT始终提供Python解决方案。此外,OpenAI还推荐了其他个性化选项,如位置、爱好、目标和首选语气等。 自定义指令使用户能够将ChatGPT打造成适合其独特需求的个性化数字助理。每次对话都将遵循这些个性化准则,消除了由于偏好重复造成的困扰。可以说,这次升级不仅仅是一个全新的车型,更是一种以不同“思维方式”来提升的创新。 为了确保微调功能的负责任使用,OpenAI采取了相应的措施。他们解释道:“为了保持经过微调的模型的安全特性,微调训练数据将经过我们的审核API以及GPT-4支持的审核系统。”这一系统旨在识别和清除不安全的训练数据,以确保即使是定制的输出也符合OpenAI的安全标准。 然而,这也暗示着OpenAI在一定程度上对用户输入模型的数据进行了控制。尽管如此,这一举措有助于确保生成的内容是安全和合适的。 总之,OpenAI通过推出微调和自定义指令等功能,为用户提供了更多的控制权和定制化选择。然而,目前这些功能主要针对付费客户,随着生成式人工智能领域的竞争不断升级,定制化有望成为OpenAI在这场竞争中脱颖而出的关键因素。 声明:本文来自潮外音创作者,内容仅代表作者观点和立场,且不构成任何投资建议,请谨慎对待,如文章/素材有侵权,请联系官方客服处理。 来源:金色财经
lg
...
金色财经
2023-08-29
最后一个空头认输 晨星放弃对英伟达“卖出”评级
go
lg
...
示:“虽然我们长期以来一直将英伟达视为
大型
语言
模型
/生成式人工智能训练集群不断增加的投资的主要受益者,但我们低估了从通用计算到加速计算架构的1万亿美元安装数据中心基础设施潜在转变的机会。”
lg
...
金融界
2023-08-25
AI会引发下一次能源危机?
go
lg
...
好消息。据英伟达表示,在某些应用中,如
大型
语言
模型
训练,其基于GPU的服务器使用的能量比基于CPU的替代方案少25倍。 二、数据中心的改进:在2022年,谷歌DeepMind发布了一个为期三个月的实验结果,训练一个名为BCOOLER的学习代理来优化谷歌的数据中心冷却程序。 结果是:BCOOLER实现了大约13%的能源节约,这表明数据中心的能源效率正在提高,即使数据中心的数量在增长。 而随着AI的发展,数据中心建设的过程中,相关公司也有强烈的动力来优化数据中心的设计和能源消耗。 三、可再生能源的普及:根据美国能源信息管理局的数据,2022年可再生能源占美国电力产生的21.5%。随着美国电力网中80%的能源来自非可再生能源,短期内电力可能仍主要来自传统化石燃料。但随着时间推移,AI的能源需求可能为促进更多可再生能源的开发。 未来,随着AI的普及,这种革命性的机器学习形式的能源影响不应被忽视。能源问题的重视,或许能为投资者创造一次新的机遇。 $美国超微公司(AMD)$ $英伟达(NVDA)$ $微软(MSFT)$
lg
...
老虎证券
2023-08-25
AllianceDAO:AI与Web3的互利共赢
go
lg
...
度。 2. 对私有数据运行推理 当前,
大型
语言
模型
(LLM)存在一个重要问题,即如何处理私有数据。举例来说,当用户与ChatGPT进行交互时,OpenAI会收集用户的私有数据,并将其用于模型的训练,从而引发敏感信息的泄露。近期的案例中,有员工在使用ChatGPT辅助办公时不小心泄露了涉密数据,这使得这个问题更加突出。零知识(ZK)技术有望解决机器学习模型在处理私人数据时出现的问题。在这里,我们将探讨两种场景:开源模型和专有模型。 对于开源模型,用户可以下载模型并在本地私有数据上运行。举例来说,Worldcoin的“World ID”升级计划(“ZKML”)需要处理用户的生物特征数据,如虹膜扫描,以创建每个用户的独特标识符(IrisCode)。在这种情况下,用户可以在保护其生物特征数据隐私的情况下下载IrisCode生成的机器学习模型,并在本地运行。通过创建零知识证明(ZKP),用户可以证明他们已经成功生成了 IrisCode ,从而保证了推理的真实性,同时保护了数据隐私。重要的是,高效的ZK证明机制(如Modulus Labs开发的机制)在训练机器学习模型时具有关键作用。 另一种情况是,当用于推理的机器学习模型是专有的时,情况会稍微复杂。因为在本地进行推理可能不是一个选项。然而,零知识证明可以通过两种可能的方式来帮助解决问题。第一种方法是在将匿名化数据发送到机器学习模型之前,使用 ZKP 对用户数据进行匿名化处理,正如前面在数据集创建案例中所讨论的。另一种方法是在将预处理输出发送到机器学习模型之前,对私有数据进行本地预处理。在这种情况下,预处理步骤隐藏了用户的私有数据,使其无法重构。用户可以生成 ZKP 来证明预处理步骤的正确执行,而模型的其他专有部分可以在模型所有者的服务器上远程执行。这些示例用例可能包括能够分析患者医疗记录以进行潜在诊断的 AI 医生,以及评估客户私人财务信息以进行金融风险评估的算法。 通过 ZK 技术,Web3可以提供更高的数据隐私保护,使得 AI 在处理私有数据时更加安全可靠,同时也为隐私敏感领域的 AI 应用提供了新的可能性。 3. 保证内容真实性,打击深度伪造内容这类骗局 ChatGPT 的出现可能使人们忽略了一些专注于生成图片、音频和视频的生成式人工智能模型。然而,这些模型目前已经能够生成逼真的深度伪造内容。例如,最近流行的 AI 生成的写真照片,以及模仿 Drake 新歌的 AI 生成版本,这些内容已经在社交媒体上广泛传播。由于人们天生倾向于相信所见所听,这些深度伪造内容可能构成潜在的骗局危险。虽然一些初创公司试图使用 Web2 技术来解决这个问题,但数字签名等 Web3 技术可能更有效地解决这个问题。 在 Web3 中,用户之间的交易由用户的私钥签名以证明其有效性。类似地,文本、图片、音频和视频内容也可以通过创作者的私钥进行数字签名,以证明其真实性。任何人都可以通过与创作者的公开地址进行签名验证,这个公开地址可以在创作者的网站或社交媒体账户上找到。Web3网络已经建立了所有必要的基础设施来满足这种内容验证的需求。一些投资者已经将他们的社交媒体配置文件,如 Twitter,或去中心化社交媒体平台,如 Lens Protocol 和Mirror,与加密的公开地址相关联,以增加内容验证的可信度。例如,美国头部投资机构 USV 的合伙人 Fred Wilson 讨论了将内容与公共加密密钥相关联如何在打击虚假信息方面起到作用。 尽管这个概念看起来很简单,但要改善身份验证过程的用户体验还需要很多工作。例如,内容的数字签名过程需要自动化,以便为创作者提供无缝、流畅的体验。另一个挑战是如何在不需要重新签名的情况下生成已签名数据的子集,例如音频或视频片段。目前,许多项目都在努力解决这些问题,并且 Web3 在解决这些问题方面具有独特的优势。通过数字签名等技术, Web3 有望在保护内容真实性和打击深度伪造内容等方面发挥关键作用,从而提高用户的信任和网络环境的可信度。 4. 专有模型的信任最小化 Web3 技术还可以在专有机器学习(ML)模型作为服务提供时,实现最大程度地减少对服务提供商的信任。用户可能希望验证他们所付费购买的服务,或获得关于ML模型公平执行的保证,即相同的模型用于所有用户。零知识证明(ZKP)可以用于提供这些保证。在这个架构中, ML 模型的创建者生成一个代表 ML 模型的 ZK 电路。然后,在需要的时候,使用该电路为用户的推理生成零知识证明。这些证明可以发送给用户进行验证,也可以发布到负责处理用户验证任务的公共链上。如果 ML 模型是私有的,独立的第三方可以验证所使用的 ZK 电路是否代表该模型。在模型的执行结果具有高风险的情况下,这种信任最小化的方法尤其有用。以下是一些具体的用例: 医疗诊断的机器学习应用 在这种情况下,患者将自己的医疗数据提交给 ML 模型进行潜在的诊断。患者需要确保目标机器学习模型没有滥用他们的数据。推理过程可以生成一个零知识证明,用于证明 ML 模型的正确执行。 贷款信用评估 ZKP可以确保银行和金融机构在评估信用价值时考虑了申请人提交的所有财务信息。此外,通过证明所有用户使用相同的模型,ZKP可以证明公平性。 保险理赔处理 当前的保险理赔处理是手动和主观的。然而,ML 模型可以更公平地评估保险单和索赔细节。与 ZKP 相结合,这些索赔处理 ML 模型可以被证明考虑了所有保单和索赔细节,并且同一模型用于处理同一保单下的所有索赔。 通过利用零知识证明等技术,Web3 有望为专有 ML 模型的信任问题提供创新的解决方案。这不仅有助于提高用户对模型执行的信任,还能够促进更加公平和透明的交易过程。 5. 解决模型创建的集中化问题 创建和训练 LLM(
大型
语言
模型
)是一个耗时且昂贵的过程,需要特定领域的专业知识、专用的计算基础设施以及数百万美元的计算成本。这些特征可能会导致强大的集中实体,例如 OpenAI ,它们可以通过控制对其模型的访问来对其用户行使重大权力。 考虑到这些集中化风险,关于 Web3 如何促进。创建不同方面的去中心化的重要讨论正在进行中。一些 Web3 倡导者提出了将去中心化计算作为与集中式参与者竞争的一种方法。这个观点认为,去中心化计算可以是一种更便宜的替代方案。然而,我们的观点是,这可能不是与集中式参与者竞争的最佳角度。去中心化计算的缺点在于,由于不同异构计算设备之间的通信开销, ML 训练可能会慢10到100倍。 一种方法是通过去中心化计算来分散模型创建的成本和资源。虽然有人认为去中心化计算可能成为替代集中式实体的更便宜方案,但通信开销问题可能会限制其效率。这意味着在涉及大规模计算任务时,去中心化计算可能导致训练速度减缓。因此,在寻求解决模型创建集中化问题时,需要仔细权衡去中心化计算的利弊。 另一种方法是采用 Proof of Private Work(PoPW)的方式来创建独特而具有竞争力的 ML 模型。这个方法的优势在于它可以通过将数据集和计算任务分散到网络的不同节点来实现去中心化。这些节点可以为模型训练做出贡献,同时维护各自的数据隐私。Together 和 Bittensor 等项目正在朝这个方向发展,试图通过 PoPW 网络来实现模型创建的去中心化。 人工智能代理的支付和执行轨道 人工智能代理的支付和执行轨道在最近的几周中引起了极大的关注。使用LLM(
大型
语言
模型
)来执行特定任务并实现目标的趋势不断上升,这一潮流起源于BabyAGI的概念,并迅速扩散至高级版本,包括AutoGPT等。这引发了一个重要的预测,即在未来,人工智能代理将在某些任务中表现出色并变得更加专业。如果出现了专门的市场,人工智能代理就有能力搜索、雇用和支付其他人工智能代理的费用,从而协同完成重要项目。 在这一进程中,Web3 网络为人工智能代理提供了理想的环境。特别是在支付方面,人工智能代理可以配置加密货币钱包,用于接收付款并向其他代理付款,实现任务分工和合作。除此之外,人工智能代理还可以无需许可地委托资源,将其插入加密网络。例如,如果一个人工智能代理需要存储数据,他们可以创建一个Filecoin钱包,支付去中心化存储网络IPFS上的存储费用。另外,人工智能代理还可以委托去中心化计算网络(如Akash)的计算资源,以执行特定任务,甚至扩展其执行范围。 防止AI侵犯隐私 然而,在这一发展过程中,隐私和数据保护问题变得尤为重要。鉴于训练高性能机器学习模型需要大量数据,因此可以安全地假设任何公共数据都会进入机器学习模型,这些模型可以使用这些数据来预测个人的行为。特别是在金融领域,建立机器学习模型可能导致用户财务隐私受到侵犯。为了解决这个问题,一些隐私保护技术如 zCash、Aztec支付,以及Penumbra和Aleo等私人DeFi协议可以用来确保用户的隐私得到保护。这些技术可以在保护用户数据的同时进行交易和数据分析,从而实现金融交易和机器学习模型开发的平衡。 结论 我们相信 Web3 和 AI 在文化和技术上是相互兼容的。与 Web2 中对机器人的抵触情绪不同,Web3 凭借其无需许可的可编程性质,为人工智能的蓬勃发展创造了机会。 从更宏观的角度来看,如果将区块链视为一个网络,那么人工智能有望在这个网络的边缘发挥主导作用。这一观点适用于各种消费应用程序,从社交媒体到游戏。迄今为止,Web3 网络的边缘主要由人类组成。人类会发起并签署交易,或者通过预先设定的策略让机器人代表他们采取行动。 随着时间的推移,我们可以预见网络边缘会出现越来越多的人工智能助理。这些 AI 助理将通过智能合约与人类以及彼此互动。我们相信这些互动将带来全新的消费者和用户体验,可能会引发创新的应用场景。 Web3 的无需许可特性赋予了人工智能更大的自由度,可以更紧密地与区块链和分布式网络集成。这有望促进创新、扩展应用领域,并为用户创造更富有个性化和智能化的体验。同时,需要密切关注隐私、安全和伦理问题,以确保人工智能的发展不会给用户带来负面影响,而是真正实现技术与文化的和谐共存。 来源:金色财经
lg
...
金色财经
2023-08-24
上一页
1
•••
77
78
79
80
81
•••
115
下一页
24小时热点
“大空头”重出江湖!沉默18个月后发声:警惕AI版“郁金香泡沫”
lg
...
美银警告:这一风险正在酝酿 中国股票与黄金成“最强对冲组合”
lg
...
美财长贝森特:中国做出“战略误判”,美国两年内将实现稀土自给
lg
...
鹰声阵阵!四位美联储高官罕见”放鹰“ 集体反对继续降息
lg
...
“十月连涨神话”终结!比特币月跌近5% 为2018年以来首次
lg
...
最新话题
更多
#AI热潮:从芯片到资本的竞赛#
lg
...
10讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#VIP会员尊享#
lg
...
1989讨论
#比特日报#
lg
...
9讨论
#Web3项目情报站#
lg
...
6讨论