全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
文承凯:2.23黄金走势符合预期、今日行情走势操作建议
go
lg
...
加。 美国2023年第四季度的实际
GDP
增长稳健,但与前一季度的强劲增长相比有所放缓。劳动力市场虽然持续紧张,但已初现缓解迹象。同时,消费价格通胀在这一年中已显著下降,但仍略高于2%的目标水平。 美联储在决策中展现出谨慎态度,既担忧实际利率可能仍过紧,也顾虑过早或过度降息可能带来的风险。市场正在对可能的降息次数进行猜测,而最终的降息决策可能会对近期的高收益率构成挑战。 最近公布的FOMC会议纪要显露出美联储的强硬立场,这与主席鲍威尔的谨慎态度相呼应。美联储希望在降息之前能够观察到更多关于通胀进展的确凿证据。自上次会议以来,市场对降息的预期已有所降低。目前,市场普遍认为3月份不太可能降息,而对于2024年的降息次数,预期已从6次减少至3次至4次之间。 美联储的决议已公布,如市场预期所料,利率维持不变。盘面价格对此反应平淡。本周还剩两个交易日,市场将面临众多消息面的考验,投资者应密切关注消息面的冲击,灵活应对市场变化。 我们一直期待的多头反弹在2032目标位得以实现,上一交易日盘面价格顺利触及该位。尽管亚欧盘时段价格走高,但在2032附近遇到了明显阻力。我们曾寄望于美盘时段能够突破这一压力位,但最终市场陷入了震荡,未能实现突破。因此,我们在2030一线对短线多单进行了清仓。 日线图上,价格形成了一个十字星,并随后走出一波小慢牛行情,连续震荡上行。从1984到2032,已经积累了近50美元的涨幅。值得注意的是,这一涨幅已经收复了前期的下跌失地,显示出市场力量的平衡。 随着价格再次回到大区间震荡的中轴位置,这进一步证实了市场仍处于震荡格局中,尚未打破这种平衡状态。从短线布局的角度看,之前的下跌在1984点止步,并开启了反弹上升阶段。目前价格已升至2032附近,占据了震荡区间的一半位置。这意味着上升行情仍有延续的空间。今日黄金操作思路上文承凯建议低多看涨为主,反弹高空为辅,上方关注2032-38的阻力,下方关注2016-10支撑; 建议2020做多看涨,防守2014,上看2030;上方不破2035看跌,止损2040,下看2022; 错误的方向,即使付出再多努力也只是徒劳无功;而正确的方向,往往事半功倍。目前市场已明显呈现出多头趋势,我们应当顺势操作,把握回落的机会积极做多。在上涨行情中,不要过早预测顶部,避免因为小利而失去大利。逆势操作如同在刀口上舔血,或在火中取栗,风险极大。只有顺应市场趋势,我们才能轻松自如;而逆势而为,只会让我们陷入混乱。所以,让我们一起顺应市场,把握多头趋势带来的机遇。 如果你仓位被套,我会根据你的进场点位和风险状况,为你提供合理的策略。因为每个人的情况都有所不同,因此我会根据你的具体情况,提供最合适的解决方案。如果你目前处于被套状态,那种越套越慌、浮亏不断放大的感觉确实让人焦虑。如果你错过了机会,感到无助和迷茫,那么你可以找到【文承凯wck1889】会尽我所能帮助你解决这些问题。
lg
...
文承凯
2024-02-22
泰国总理称还会继续推动央行降息 投资者也提高宽松预期
go
lg
...
通缩的大背景下,我们看到泰国2023年
GDP
增速降至1.9%,”State Street Global Advisors亚太区固定收益主管Kheng Siang Ng表示。“所以市场预期很快降息也就不足为奇。”
lg
...
金融界
2024-02-22
韩国央行行长:一位政策委员对降息持开放态度
go
lg
...
率维持在3.50%不变,并维持今明两年
GDP
和通胀预期。韩国央行将2024年
GDP
增长预测维持在2.1%、2025年预测为2.3%;将2024年和2025年的CPI预测分别维持在2.6%和2.1%不变。
lg
...
金融界
2024-02-22
标普预计美国今年实际
GDP
增长2.4% 美联储六月开始降息
go
lg
...
普周三表示,目前预计美国2024年实际
GDP
将增长2.4%。 标普在一份报告中说,美国2023年下半年的经济扩张超出了我们的预期。除了有利的年底基数效应外,2024年第一季度的经济活动比我们预期的要温暖。 标普表示,尽管到目前为止反通胀进程并不均衡,但未来几个月通胀可能会进一步降温。 该评级机构没有改变其对2024年美国货币政策的展望,并表示预计美联储将在6月份的会议上降息25个基点,到年底总共降息75个基点。
lg
...
金融界
2024-02-22
出生人口塌陷?!智库报告:中国育儿成本“几乎全球最高” 生育意愿极低
go
lg
...
中国,养育一个孩子至18岁的成本与人均
GDP
之比约为6.3倍,远高于澳大利亚的2.08倍,法国的2.24倍,美国的4.11倍,日本的4.26倍,几乎是全球最高的。 报告称,通过研究分析得出:全国家庭0至17岁孩子的养育成本平均为53.8万元;0岁至大学本科毕业的养育成本平均为约68万元。 女性承担着养育孩子的特殊负担。报告说,为了养育孩子,女性有薪工作时间和工资水平都有较大幅度的下降,女性受到的影响要比男性大得多。报告说,由于中国当前的社会环境对女性的生育不友好,女性生育的“时间成本和机会成本太高。” 报告称,“由于生育成本高、女性平衡家庭和工作的困难等原因,中国人的平均生育意愿几乎是世界上最低的。” 由于生育成本过高、女性难以兼顾家庭和工作等原因,中国人平均生育意愿(理想子女数)也几乎是世界最低的。根据经合组织的数据,绝大部分国家的平均理想子女数均超过2个,而多次生育意愿调查结果表明,中国人的平均理想子女数均低于2个。 报告指,2023年中国出生人口和出生率双双创下1949年以来最低水平。出生人口从2017年开始持续下降,2023年已是连续第七年下降。2023年出生人口不到2016年的一半,用出生人口塌陷来形容现在的人口形势一点也不夸张。 报告建议通过补贴生育、增加出生人口,减轻家庭负担,增强国家经济发展的信心,提升中国的创新力和竞争力。 报告所称的生育成本,包括从怀孕到分娩的成本(即“生的成本”),也包括养育和教育成本(即“育的成本”)。其中“育的成本”占了大头,“生的成本”仅占很小一部分。此外,生育成本还包括时间成本和机会成本。 报告称,生育成本过高是影响育龄家庭生育意愿的最重要负面因素。为此,中国亟需尽快出台减轻生育成本的政策。 育娲研究报告强调,国家层面迫切需要采取政策尽快降低生育成本,例如提供现金和税收补贴、改善儿童保育服务、实行平等的产假和陪产假、引进外国保姆、允许灵活工作并赋予单身女性与已婚女性相同的生育权利。报告说,这些措施综合起来将可以增加新生儿约300万个。
lg
...
超启
2评论
2024-02-22
梁建章团队:给三孩家庭购房打五折 每年多生200万个孩子
go
lg
...
本平均为53.8万元,该成本相对于人均
GDP
的倍数为6.3倍,在全球范围内仅次于韩国等极少数国家。基于中国在2023年已成为全球总和生育率(约1.0)最低国家之一的现状,梁建章团队提出了现金和税收补贴、购房补贴、增减托儿所、提供男女平等的育产假、引进保姆在内的外国劳工、推广灵活办公、保障单身女性生育权等9大建议。在购房补贴上,该团队建议通过按揭利息返还或房价打折进行补贴。比如,返还二孩家庭房贷利息的50%,对于三孩家庭的房贷利息可全部补贴返还。或者在高房价地区,实施一孩房价九折,二孩房价七折,三孩房价五折的政策(不超过一个封顶补贴的上限)。该团队预计,购房补贴政策也能够将生育率提升20%左右,每年多生200万个孩子。
lg
...
金融界
2024-02-22
凯投宏观:PMI数据显示英国经济衰退已经结束
go
lg
...
。他补充称,尽管PMI很少能准确反映出
GDP
的增长率,但即使增长仍然低迷,其未来表现也会更好。
lg
...
金融界
2024-02-22
Big Ideas 2024报告加密部分一览:机构配置将如何影响BTC
go
lg
...
如我们所相信的那样,未来五到十年,实际
GDP
的增长可能会加速并打破纪录。 ChatGPT 让消费者满意,让企业惊叹 自谷歌在 2017 年发明 Transformer 架构以来,经过多年的进步,ChatGPT 催化了公众对生成式 AI 的理解。不再仅仅是开发人员的工具,ChatGPT 的简单聊天界面使说任何语言的人都能够利用大语言模型 (LLM) 的强大功能。2023 年,企业争先恐后地理解和部署生成式 AI。 AI 已经显著提高了生产力 像 GitHub Copilot 和 Replit AI 这样的编码助手是早期的成功案例,它们提高了软件开发人员的生产力和工作满意度。AI助手正在提高知识工作者的绩效,有趣的是,它们对表现不佳的员工比高绩效者更有利。 基础模型正在跨领域改进 随着更大的训练数据集和更多参数,GPT-4 显著优于 GPT-3.5。越来越多的基础模型成为“多模态”——支持文本、图像、音频和视频——不仅更动态、更易于用户使用,而且性能也更高。 文生图模型正在重塑图形设计 在多伦多大学的研究人员首次推出现代文生图模型八年后,图像模型的输出现在已经可以媲美专业平面设计师的作品。人类设计师可以在几个小时内花费数百美元创建一个图像,例如一群大象穿过绿草地。文生图模型可以在几秒钟内以几分钱生成相同的图像。专业应用程序如 Adobe Photoshop 和消费者应用程序如 Lensa 和 ChatGPT 将图像模型集成到他们的产品和服务中。 创作文字内容的成本已经暴跌 在过去的世纪里,创作书面内容的成本在实际价值方面一直相对稳定。在过去两年里,随着 LLM 的写作质量提高,成本暴跌。 AI 训练性能正在迅速提高 AI 研究人员正在跨训练和推理、硬件和模型设计进行创新,以提高性能并降低成本。 训练成本继续每年下降 75% 根据Wright定律,加速计算硬件的改进应该使 AI 相对计算单元 (RCU) 的生产成本每年降低 53%,而算法模型的改进可以进一步将训练成本降低 47%。换句话说,硬件和软件的融合可以推动到 2030 年 AI 训练成本每年以 75% 的速度下降。 随着生产用例的出现,AI 的重点正在转移到推理成本 研究人员在最初专注于 LLM 训练成本优化之后,现在将推理成本作为优先事项。基于企业规模的用例,推理成本似乎以大约 86% 的年增长率下降,甚至比训练成本下降更快。今天,与 GPT-4 Turbo 相关的推理成本低于一年前的 GPT-3。 开源社区正在与私有模型竞争 为挑战 OpenAI 和谷歌的闭源模型,开源社区及其企业巨头 Meta 正在将生成式 AI 的访问民主化。总而言之,开源模型的性能提升速度比闭源模型更快,最近中国的一些模型也助了一臂之力。 语言模型性能提升需要细致的技术 GPT-4 在从 SAT 到高级酿酒师考试等标准化教育测试中,表现明显优于普通人类。然而,根据 WinnoGrande 的衡量,它在常识推理方面落后于人类水平。斯坦福大学的框架——语言模型整体评估 (HELM) 是最全面、不断更新的评估方法之一,其已经测试了 80 多个模型,针对 73 个场景和 65 个指标进行组合评估。 语言模型会用完数据,限制其性能吗? 计算能力和高质量的训练数据似乎是模型性能的主要贡献因素。随着模型变得越来越大,需要更多训练数据,数据不足会否导致模型性能停滞?Epoch AI 估计,到 2024 年,高质量的语言/数据来源,例如书籍和科学论文,可能会被耗尽,尽管仍存在大量未开发的视觉数据。 定制的人工智能产品应该拥有更大的定价权 随着开源替代品的出现和成本下降,将AI定制到最终用途应用程序的软件供应商应该能够更轻松地实现盈利。 来源:金色财经
lg
...
金色财经
2024-02-22
美联储泡沫正在破裂!分析师:崩溃对黄金非常有利 “降息背后原因才是关键信号”
go
lg
...
为经济崩溃。 他称,美国国内生产总值(
GDP
)趋势依然稳健,没有出现连续两季下降的迹象。 他最后也指出,主要放债人资产负债表上,出现堆积如山的利率敏感衍生品,高达250万亿美元。
lg
...
颜辞
2024-02-22
AI x Crypto 报告:案例研究、发展瓶颈、技术挑战
go
lg
...
着尊重用户同意、防止数据泄露以及遵守
GDPR
等隐私法规。这可能非常具有挑战性(见下文示例)。 在机器学习模型中,删除特定用户的数据(遵守
GDPR
)是一项非常具有挑战性的工作。与数据库不同,我们不能随便删除一个条目。模型参数会根据提供的所有数据进行调整,因此在模型训练完成后删除特定用户的信息是非常困难的。 图 34: 数据隐私的一个特殊问题源于机器学习模型的性质。在普通数据库中,我可以有关于多人的条目。如果我的公司要求我删除这些信息,你只需从数据库中删除即可。然而,当我的模型经过训练后,它持有几乎整个训练数据的参数。不清楚哪个数字对应训练中的哪个数据库条目 2.1.1 模型崩溃 在无监督学习中,我们要强调的一个特殊挑战是模型崩溃。 在本文中,作者进行了一项有趣的实验。GPT-3.5 和 GPT-4 等模型是使用网络上的所有数据训练而成的。然而,这些模型目前正在被广泛使用,因此一年后互联网上的大量内容将由这些模型生成。这意味着,GPT-5 及以后的模型将使用 GPT-4 生成的数据进行训练。在合成数据上训练模型的效果如何?他们发现,在合成数据上训练语言模型会导致生成的模型出现不可逆转的缺陷。论文作者指出:"我们证明,如果我们要保持从网络上搜刮的大规模数据进行训练所带来的好处,就必须认真对待这一问题。事实上,当从互联网抓取的数据中出现由 LLM 生成的内容时,收集到的有关人类与系统之间真正交互行为的数据的价值将越来越大"。 这可能表明,围绕数据出处(追踪数据来源)的解决方案存在重大机遇。 图 35:模型崩溃示意图。随着使用人工智能模型生成的互联网内容越来越多,下一代模型的训练集中很可能包含合成数据,如本文所示 请注意,这种现象并非LLM所特有,它可能会影响各种机器学习模型和生成式人工智能系统(如变异自动编码器、高斯混合模型)。 现在,让我们来看看监督学习。在监督学习中,我们需要一个贴有标签的数据集。这意味着原始数据本身(一张狗的图片)和一个标签("狗")。标签由模型设计者手动选择,可以通过人工标注和自动化工具相结合的方式获得。这在实践中带来了许多挑战。这包括 主观性:决定数据的标签可能是主观的,从而导致模糊不清和潜在的伦理问题。一个人认为合适的标签,另一个人可能会有不同的看法。 标签的差异:同一个人(更不用说不同的人)重复运行可能会提供不同的标签。这就提供了 "真实标签 "的噪声近似值,因此需要质量保证层。例如,人类可能会收到一个句子,并负责标注该句子的情绪("快乐"、"悲伤"......等)。同一个人有时会给完全相同的句子贴上不同的标签。这就降低了数据集的质量,因为它在标签中引入了差异。在实践中,20% 的标签无法使用的情况并不少见。 想象一下,创建一个数据集来预测区块链上新协议的质量。你很可能会得到一个范围很广的分数,这取决于你所选择的评分系统的次活动性,以及你所调查的人的意见差异。 缺乏专家注释者:对于一个小众的医疗应用,人们可能很难获得大量有意义的标签数据。这是由于能够提供这些标签的人员(医学专家)十分稀缺。 罕见事件:对于许多事件来说,由于事件本身非常罕见,因此很难获得大量的标注数据。例如,发现流星的计算机视觉模型。 高成本:当试图收集大量高质量数据集时,成本可能高得惊人。由于上述问题,如果需要对数据集进行标注,成本尤其高昂。 还有很多问题,比如应对对抗性攻击和标签的可转移性。为了让读者对数据集的规模有一些直观的了解,请看下图。像 ImageNet这样的数据集包含1400万个标签数据点。 图 36:各种机器学习数据集的规模示意图。Common Crawl的近似值为10亿个网页,因此总字数远远超过这个数字。小型数据集(如 Iris)包含 150 幅图像。MNIST 大约有 70,000 张图像。请注意,这是一个对数比例 2.1.2 强化学习中的数据收集 在强化学习中,数据收集是一项独特的挑战。与监督学习不同的是,监督学习的数据是预先标记好的静态数据,而强化学习则依赖于通过与环境互动而产生的数据,这通常需要复杂的模拟或真实世界的实验。这就带来了一些挑战: 这一过程可能会耗费大量资源和时间,对于物理机器人或复杂环境而言尤其如此。如果机器人在真实世界中接受训练,那么它从试验和错误中学习可能会导致事故。或者,也可以考虑让训练机器人通过试验和错误来学习。 奖励稀少且延迟:在收到有意义的反馈之前,代理可能需要探索大量的行动,从而难以学习有效的策略。 确保所收集数据的多样性和代表性至关重要;否则,代理可能会过度适应狭隘的经验集,而不能通用化。在探索(尝试新行动)和利用(使用已知的成功行动)之间取得平衡使数据收集工作更加复杂,需要复杂的策略才能有效收集有用的数据。 值得强调的一点是,数据收集与推理直接相关。在训练一个强化学习代理下棋时,我们可以利用自我对弈来收集数据。自我对弈就像是与自己下棋,以获得进步。代理与自己的副本对弈,形成一个持续学习的循环。这种方法非常适合收集数据,因为它会不断产生新的场景和挑战,帮助代理从广泛的经验中学习。这一过程可以在多台机器上并行执行。由于推理的计算成本很低(与训练相比),这一过程对硬件的要求也很低。通过自我游戏收集数据后,所有数据都将被用于训练模型和改进模型。 闲置计算在分布式推理和数据收集中可以发挥强大作用,因为对硬件的要求比训练低得多。 2.1.3 对抗性数据攻击 数据毒化攻击:在这种攻击中,通过添加扰动来破坏训练数据,从而欺骗分类器,导致不正确的输出。例如,有人可能会在非垃圾邮件中添加垃圾邮件元素。这将导致将来在垃圾邮件过滤器的训练中加入这些数据时,性能下降。这可以通过在非垃圾邮件上下文中增加 "free"、"win"、"offer "或 "token"等词的使用来解决。 规避攻击:攻击者在部署过程中操纵数据,欺骗先前训练好的分类器。规避攻击在实际应用中最为普遍。针对生物识别验证系统的"欺骗攻击 "就是规避攻击的例子。 对抗性攻击:这是对合法输入的修改,目的是愚弄模型,或者使用专门设计的"噪音"来引起错误分类。请看下面的例子,在熊猫图像中添加噪音后,模型将其分类为长臂猿(置信度为99.3%)。 图 37:通过在熊猫图像中添加特殊类型的噪声,模型可预先判断出图像是长臂猿而不是熊猫。在进行对抗攻击时,我们向神经网络提供一幅输入图像(左图)。然后,我们使用梯度下降法构建噪声向量(中)。该噪声向量被添加到输入图像中,从而导致错误分类(右图)。(图片来源:本文图 1解释和利用对抗性实例》论文中的图 1) 在创建开放数据集时,有必要建立一个强大的质量控制层,以避免恶意攻击。此外,数据出处(追溯图像来源)可能会有所帮助。 2.2 训练方面的挑战 训练机器学习模型会面临许多挑战。本节绝不是为了说明这些挑战的严重性。相反,我们试图让读者了解挑战的类型和瓶颈所在。这将有助于建立直觉,从而能够评估将训练模型与密码原语相结合的项目构想。 请看下面这个无监督学习问题的例子。在无监督学习中,没有 "老师 "提供标签或指导模型。相反,模型会发现问题中隐藏的模式。考虑一个猫狗数据集。每只猫狗都有两种颜色:黑色和白色。我们可以使用一个无监督学习模型,通过将它们聚类为两组来找到数据中的模式。该模型有两种有效的方法: 将所有狗集中在一起,将所有猫集中在一起 将所有白色动物集中在一起,将所有黑色动物集中在一起。 请注意,从技术上讲,这两者都没有错。模型找到的模式很好。然而,要完全按照我们的要求来引导模型是非常具有挑战性的。 图 38:训练好的对猫和狗进行分类的模型最终可能会根据颜色将动物聚类在一起。这是因为在实践中很难指导无监督学习模型。所有图像均由人工智能使用 Dalle-E 生成 这个例子说明了无监督学习所面临的挑战。然而,在所有类型的学习中,能够评估模型在训练过程中的学习效果并进行潜在干预至关重要。这可以节省大量资金。 在无权限系统中,模型的训练无需专家监督,因此可能会浪费大量资源。处理早期停止等问题的自动化工具还很不成熟。 训练大型模型的挑战还有很多,这是一个非常简短的清单: 训练大规模机器学习模型,尤其是深度学习模型,需要大量的计算能力。这通常意味着要使用高端 GPU 或 TPU,而它们可能既昂贵又耗能。 与这些计算需求相关的成本不仅包括硬件,还包括连续运行这些机器(有时长达数周或数月)所需的电力和基础设施。 强化学习因其训练的不稳定性而闻名,模型或训练过程中的微小变化都可能导致结果的显著差异。 与Adam等监督学习中使用的更稳定的优化方法不同,强化学习中没有放之四海而皆准的解决方案。通常需要对训练过程进行定制,这不仅耗时,而且需要深厚的专业知识。 强化学习中的探索-开发两难问题使训练变得更加复杂,因为找到正确的平衡点对于有效学习至关重要,但却很难实现。 机器学习中的损失函数定义了模型的优化目标。选择错误的损失函数会导致模型学习到不恰当或次优的行为。 在复杂任务中,例如涉及不平衡数据集或多类分类的任务,选择、有时甚至定制设计正确的损失函数变得更加重要。 损失函数必须与应用的实际目标紧密结合,这就需要深入了解数据和预期结果。 在强化学习中,设计能持续、准确反映预期目标的奖励函数是一项挑战,尤其是在奖励稀少或延迟的环境中。 在国际象棋游戏中,奖励函数可以很简单:赢了得 1 分,输了得 0 分。但是,对于行走机器人来说,这个奖励函数可能会变得非常复杂,因为它将包含 "面向前方行走"、"不要随意摆动手臂 "等信息。 奖励函数(和损失函数)包含了模型去符号化者认为重要的主观因素。可能有必要建立管理制度,以确保为广泛使用的模型选择适当的函数。 在监督学习中,由于深度神经网络的 "黑箱 "性质,要了解是哪些特征驱动了复杂模型(如深度神经网络)的预测具有挑战性。 这种复杂性使得调试模型、了解其决策过程和提高其准确性变得十分困难。 这些模型的复杂性也对可预测性和可解释性提出了挑战,而这对在敏感或受监管领域部署模型至关重要。 同样,训练模式和所涉及的挑战也是非常复杂的话题。我们希望上述内容能让您对所涉及的挑战有一个大致的了解。如果您想深入了解该领域当前面临的挑战,我们推荐您阅读《应用深度学习中的开放性问题》(Open Problems in Applied Deep Learning)和《MLOps 指南》(MLOps guide)。 从概念上讲,机器学习模型的训练是按顺序进行的。但在很多情况下,并行训练模型至关重要。这可能只是因为模型太大,一个 GPU 难以容纳,并行训练可以加快训练速度。然而,并行训练模型会带来重大挑战,包括 通信开销:将模型分割到不同的处理器需要这些单元之间不断进行通信。这可能会造成瓶颈,尤其是对于大型模型而言,因为各单元之间的数据传输可能会耗费大量时间。 负载均衡:确保所有计算单元得到平等利用是一项挑战。不平衡会导致一些单元闲置,而另一些单元超负荷运行,从而降低整体效率。 内存限制:每个处理器单元的内存都是有限的。在不超出这些限制的情况下,有效管理和优化多个单元的内存使用情况是非常复杂的,尤其是大型模型。 实施的复杂性:设置模型并行涉及计算资源的复杂配置和管理。这种复杂性会增加开发时间和出错的可能性。 优化困难:传统的优化算法可能无法直接适用于模型并行化环境,也无法提高效率,这就需要进行修改或开发新的优化方法。 调试和监控:由于训练过程的复杂性和分布性增加,监控和调试分布在多个单元上的模型比监控和调试运行在单个单元上的模型更具挑战性。 分散和并行训练方面的基本新方法可以极大地推动机器学习的进步。 2.3 推理中的挑战 许多类型的机器学习系统面临的最重要挑战之一就是它们可能会"自信地出错"。ChatGPT可能会返回一个我们听起来很有把握的答案,但事实上这个答案是错误的。这是因为大多数模型经过训练后都会返回最有可能的答案。贝叶斯方法可用于量化不确定性。也就是说,模型可以返回一个有根据的答案,来衡量它有多确定。 考虑使用蔬菜数据训练图像分类模型。该模型可以获取任何蔬菜的图像,并返回它是什么,例如 "黄瓜 "或 "红洋葱"。如果我们给这个模型输入一张猫的图像,会发生什么呢?普通模型会返回它的最佳猜测,也许是 "白色洋葱"。这显然是不正确的。但这是模型的最佳猜测。贝叶斯模型的输出则是 "白色洋葱 "和一个确定度,例如 3%。如果模型有 3% 的确定性,我们可能就不应该根据这个预测采取行动。 图 39:常规模型预测(只返回最有可能的答案)和贝叶斯模型预测(返回预测结果的 s 分布)的示意图 这种形式的不确定性定性和推理在关键应用中至关重要。例如,医疗干预或金融决策。然而,贝叶斯模型的实际训练成本非常高,而且面临许多可扩展性问题。 推理过程中出现的更多挑战 维护:随着时间的推移,尤其是数据和现实世界场景发生变化时,保持模型的更新和正常运行。 RL 中的探索-利用:在探索新策略和利用已知策略之间取得平衡,尤其是在推理直接影响数据收集的情况下。 测试性能:确保模型在新的、未见过的数据上表现良好,而不仅仅是在训练过的数据上。 分布偏移:处理输入数据分布随时间发生的变化,这种变化会降低模型性能。例如,推荐引擎需要考虑客户需求和行为的变化。 某些模型生成缓慢:像扩散模型这样的模型在生成输出时可能需要大量时间,而且速度较慢。 高斯过程和大型数据集:随着数据集的增长,使用高斯过程进行推理的速度会越来越慢。 增加防护栏:在生产模型中实施制衡措施,防止出现不良结果或误用。 在封闭源模型中增加哪些防护措施,这对于确保不出现偏差至关重要。 2.4 LLM 面临的挑战 大型语言模型面临许多挑战。不过,由于这些问题受到了相当多的关注,我们在此仅作简要介绍。 LLM 不提供参考文献,但可以通过检索增强生成(RAG)等技术来缓解没有参考文献等问题。 幻觉:产生无意义、虚假或无关的输出。 训练运行需要很长时间,而且数据集重新平衡的边际值很难预测,这就导致了缓慢的反馈循环。 很难将人类的基本评估标准扩展到模型所允许的吞吐量。 量化在很大程度上是需要的,但其后果却鲜为人知。 下游基础设施需要随着模型的变化而变化。在与企业合作时,这意味着长时间的发布延迟(生产总是远远落后于开发)。 不过,我们想重点介绍论文《沉睡代理:训练通过安全训练持续存在的欺骗性 LLMs》一文中的一个例子。作者训练的模型会在提示年份为 2023 年时编写安全代码,但在提示年份为 2024 年时插入可被利用的代码。他们发现,这种后门行为可以持续存在,因此标准的安全训练技术无法将其清除。这种后门行为在最大的模型中最持久,在经过经训练产生思维链路以欺骗训练过程的的模型中也最持久,甚至就算思维链路已经消失也一直存在。 图 40 后门示意图。如果是 2024 年,模型的训练表现为 "正常",但如果是 2024 年,则策略表现不同。资料来源:本文图 1 模型训练过程的透明度至关重要,因为即使是开源模型,也可能被训练出只在特定情况下使用的后门。例如,想象一下,将一个有资金的钱包连接到一个人工智能代理,结果却发现了一个后门。然后,这个代理就会将所有资金转移到一个特定的地址,或者以不同的身份恶意行事。 在本章中,我们讨论了机器学习领域的许多挑战。显而易见,研究的巨大进步解决了许多此类问题。例如,基础模型为训练特定模型提供了巨大优势,因为您只需根据使用情况对其进行微调即可。此外,数据标注不再是全手工过程,使用半监督学习等方法可以避免大量的人工标注。 本章的总体目标是先让读者对人工智能领域的问题有一些直观的了解,然后再探讨人工智能与密码学的交叉问题。 报告外读物 3.1.1 Gensyn 网站: https://www.gensyn.ai/(opens new window) 一句话简介: 去中心化机器学习计算协议,实现人工智能开发民主化。 描述: 旨在通过将全球所有计算能力整合到一个全球超级集群中,彻底改变人工智能和加密货币领域。该网络专为机器学习计算协议设计,任何人都可以随时访问,从而推动机器学习的发展。通过利用区块链技术,Gensyn实现了人工智能训练过程的去中心化,允许点对点、低成本高效率地访问计算资源。这就消除了对云寡头和大型科技公司的依赖,为人工智能开发提供了一个更加民主和无许可的环境。Gensyn的协议使世界各地的设备(包括未充分利用的硬件)都能为去中心化计算网络做出贡献,为任何人、任何地方都能实现人工智能潜力的未来铺平了道路。 简短描述什么是数据类别中的公司,最好使用第 2 章中的框架进行细分。 3.1.2 Axiom 网站: https://www.axiom.xyz/(opens new window) 一句话简介: Axiom利用零知识证明,实现对以太坊历史的无信任链上查询和计算,适用于数据丰富的动态的去中心化应用。 描述: 为人工智能和加密货币的交叉领域铺平了道路,它使开发人员能够在以太坊上创建智能合约,这些合约可以通过零知识(ZK)证明对区块链数据的整个历史进行访问和计算。这一点至关重要,因为它为动态DeFi应用、定制化的预言机和链上忠诚度计划开辟了新的可能性,允许协议根据历史链上活动进行调整,而无需依赖外部预言机或修改已部署的合约。此外,该协议还旨在将 ZK 技术用于人工智能应用,例如通过确保数据完整性和无信任计算,Axiom可以验证在线内容并检测深度伪造。这使得Axiom成为以太坊上未来安全、数据丰富应用的关键参与者,利用人工智能和加密货币的优势,创建一个更加透明、高效和用户驱动的生态系统。 来源:金色财经
lg
...
金色财经
2024-02-22
上一页
1
•••
815
816
817
818
819
•••
1000
下一页
24小时热点
重大转向:普京-特朗普会晤倒计时!中国经济传坏消息,今日别忘了“恐怖数据”
lg
...
彭博独家爆料道中国政府重磅计划 或有助加快清理4.08亿平方米房市过剩库存
lg
...
中国经济突传坏消息!彭博:中国经济活动大幅放缓 关键指标令人失望
lg
...
路透:中国又一位高级外交官被拘留问话!
lg
...
【直击亚市】特朗普贸易战开始冲击中国!PPI数据给100%降息泼冷水,日元领涨
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
111讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论