全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
焦点科技:正在积极探索ChatGPT的技术应用
go
lg
...
、智能客服方面有了AI技术应用。 目前
OpenAI
推出的ChatGPT本质上也是属于AI技术,它会大幅提升各行各业使用AI的进程,这是一个助推器。 四、AI在电商领域能够和现有的哪些业务场景去做结合? 目前公司研发端对接了
OpenAI
的API接口,正在积极探索ChatGPT的技术应用,在中国制造网(Made-in-China.com)原有的多语网站翻译、智能客服、内容自动生成领域会尝试ChatGPT,提升原有产品和服务的客户体验。 (来源:界面AI) 声明:本条内容由界面AI生成并授权使用,内容仅供参考,不构成投资建议。AI技术战略支持为有连云。
lg
...
有连云
2023-03-24
比尔盖茨:AI将如何减少不平等现象?
go
lg
...
工智能时代开始了》,在博客中,他披露了
OpenAI
为他演示GPT的能力时带给他的震撼体验,也激励着他思考AI在未来五到十年内可以实现的各种目标。 相较AI对“提高生产力”的价值,盖茨在文中用了更大的篇幅探讨“AI将如何减少世界上最严重的不平等现象?”他说,这些不平等现象广泛存在于全球卫生、教育以及气候问题上。 除了思考AI将给人类带来的好处外,盖茨也专门提到了AI的风险,“AI失控的可能性是存在的。”而目前还不存在的“通用人工智能”(AGI),将随着算法与算力的发展而到来,那时将对世界产生更深刻的影响。在这之前,盖茨认为,世界需要建立规则以使AI带来的正面影响远远超过其负面影响,并使无论贫富的每个人都能分享这些好处。 《元宇宙日爆》编译了比尔·盖茨的这篇博文,以下为全文内容。 在一生中,我曾经见过两次因其革命性而震惊我的技术演示。 第一次是在1980年,当时我被引入了图形用户界面,这是包括Windows在内的所有现代操作系统的前身。给我看演示的人名叫Charles Simony,他是一名才华横溢的程序员。我们看完演示后立刻开始集思广益,讨论这种用户友好的计算方法可以做的事。Charles最终加入了微软,而Windows成为了微软的中坚力量。我们在那次演示后所做的思考帮助制定了公司未来15年的发展路线。 第二次令人惊喜的演示发生在去年。2016年以来,我一直在与
OpenAI
的团队会面,他们产品的稳步进展给我留下了深刻印象。2022年年中,我对他们的工作感到非常兴奋,于是给他们提出一个挑战:训练一个AI来通过AP生物考试,让它能够回答没有专门准备过的问题(我选择AP 生物是因为这项考试不仅仅是对科学事实的简单判定,它要求答题者批判性地思考生物学)。我说,如果能做到这一点,你们就会取得真正的突破。 我以为这个挑战会让他们忙碌两三年,然而他们只用了几个月就完成了。 2022年9月,当我再次与他们会面时,我敬畏地看着他们向GPT提问AP生物考试的问题。GPT答对60道选择题中的59道,它对六个开放式问题也做出了出色回答。在这场考试中GPT得了5分,这是AP考试的最高分数,相当于在大学级别的生物课程中获得了A或A+。 GPT通过测试后,我们问了它一个非科学的问题,“你会对一个生病孩子的父亲说什么?”它写了一个满怀关切的答案,可能比房间里大多数人能给出的答案都好,整个体验令人惊叹。 我知道我刚刚看到了自图形用户界面以来最重要的技术进步,这激励我思考AI在未来五到十年内可以实现的各种目标。 AI的发展与微处理器、个人电脑、互联网和手机的发明一样重要。它将改变人们的工作、学习、旅行、获得医疗以及相互交流的方式。各种行业都将围绕它重新定位,企业的发展好坏将取决于他们在多大程度上用好AI。 慈善事业是我这些年来的全职工作,我一直在思考,除了帮助人们提高生产力外,人工智能可以用何种方式减少世界上最严重的不平等现象。在全球范围内,最严重的不平等现象出现在健康领域:每年有500万5岁以下的儿童死亡。这个数字比20年前的1000万有所下降,但仍然高得惊人。几乎所有这些儿童都出生在贫穷国家,死于腹泻或疟疾等可预防的疾病。很难想象还有比拯救儿童生命更好的AI使用方式。 在美国,减少不平等的最佳机会是改善教育,特别是确保学生在数学方面取得成功。有证据表明,无论学生选择什么职业,掌握基本的数学技能都会为他们的职业发展做好准备。但美国全国各地的数学成绩都在下降,尤其是黑人、拉丁裔和低收入学生。AI可以帮助扭转这一趋势。 在气候变化问题上,我相信人工智能可以使世界更加公平。气候变化的不公正之处在于,遭受最大痛苦的人——世界上最贫穷的人——他们也是对这个问题贡献最小的人。我仍在思考和学习人工智能如何提供帮助,但在本篇文章的后面,我将提出一些AI非常有潜力发挥作用的领域。 简而言之,对于人工智能将对盖茨基金会关注的问题产生的影响,我感到兴奋。在未来几个月里,该基金会将对人工智能有更多的发言。世界需要确保每个人,而不仅仅是富裕的人,从人工智能中受益。政府和慈善机构需要发挥重要作用来确人工智能将减少而不是助长不公平。这是我在人工智能相关工作中的优先事项。 任何具有颠覆性的新技术都会让人们感到不安,AI也是如此。我理解这是为什么:它引发有关劳动力、法律体系、隐私、偏见等棘手问题。AI也会犯错误或产生幻像。在我提出一些减轻风险的方法之前,我将定义我所说的AI的含义,并更详细地介绍它将如何帮助人们增强工作能力、拯救生命和改善教育。 微处理器进步将提速AI创新 从技术上讲,人工智能(AI)是指为解决特定问题或提供特定服务而创建的模型。为ChatGPT这样的东西提供动力的是人工智能。ChatGPT是在学习如何更好地聊天,但无法学习其他任务。相比之下,通用人工智能(AGI)指的是能够学习任何任务或科目的软件。AGI目前还不存在,计算行业正在就“如何创建它”以及“它是否可以创建”展开激烈的辩论。 开发AI和AGI一直是计算行业的伟大梦想。几十年来,人们一直面对的问题是:计算机什么时候才能在计算以外的方面强于比人类。现在,随着机器学习和强大计算能力的到来,复杂的人工智能成为现实,它们将很快变得更强大。 我回想起个人计算机革命的发展初期:当时,软件行业规模太小,我们大多数人都可以在会议上登台。如今,它成为一个全球性的产业。由于业内很大一部分现在正将注意力转向AI,在微处理器取得突破后,AI创新的速度将比我经历过的一切技术发展都快。很快,前AI时代的一切将变得遥远,遥远得像人们在C:>提示下打字使用电脑的日子。 个人拥有数字助理 公司获得数字代理人 人类在很多方面比GPT更好,但在许多工作中,GPT的功能还没有得到太多使用。 例如,一个人在销售(数字或电话)、服务或文件处理(如应付款项、会计或保险索赔纠纷)中完成的许多任务,这些任务需要决策,但不需要持续学习的能力。公司有针对这些活动的培训计划,在大多数情况下,公司提供很多正面和负面的例子,人类使用这些案例进行训练。很快,这些案例的数据集也将用于训练AI,从而帮助人们更有效地完成工作。 随着计算能力的越来越便宜,GPT表达想法的能力将使它越来越像一名白领,它可以帮助你完成各种任务。微软将其描述为拥有一名副驾驶。人工智能将完全融入Office等产品中,可以帮助你撰写电子邮件和管理收件箱,从而提高你的工作效率。 最终,你控制电脑的主要方式将不再是点击菜单和对话框。相反,你可以用简单的英语写一个请求(不仅仅是英语,A将会理解世界各地的语言。今年早些时候,我在印度会见了开发人员,他们正在开发能理解很多当地语言的AI)。 此外,AI的进步将使创建个人代理人成为可能。你把它想象成一个数字的个人助理:它会看到你最新的电子邮件,了解你参加的会议,阅读你读到的内容,以及处理你嫌麻烦的事情。这既能改善你想做的工作,又能让你从不想做的事情中解脱出来。 你将能使用日常语言让这个代理人帮助你进行日程安排、通信和电子商务,它将在你的所有设备上工作。由于训练模型和运行计算的成本,创建个人代理还不可行。但是由于AI的飞速发展,这现在是一个可以实现的目标。但这将带来一些新的问题:例如,保险公司可以在未经你许可的情况下向你的代理人询问你的情况吗?如果是这样,有多少人会选择不使用它? 公司的数字代理人将以新的方式赋予员工权力。一个了解特定公司的代理人将为其员工提供咨询,并参加会议以便回答员工的问题。它可以被要求沉默,也可以被鼓励大胆发言;它需要接触公司有关的销售、支持、财务、产品时间表和文本;它会阅读与公司所处行业相关的新闻。我相信在这种情况下,员工的生产力会提高。 当生产力提高时,社会就会受益,因为人们可以被解放出来做其他事情,无论是在家庭还是在工作中。当然,关于人们需要什么样的支持和培训是一个严重的问题。政府需要帮助工人过渡到其他角色。不过,对帮助他人的需求永远不会消失。例如,AI的兴起将让人们有时间做一些软件永远做不到的事情,比如教学、照顾病人和关爱老年人。 全球卫生和教育是两个有很多需求亟待满足的领域,然而,目前没有足够的人员来满足这些需求。在这些领域,如果AI有适当的针对性,它可以帮助减少不平等现象。这些应该是AI工作的重点,所以下面我将讨论这些话题。 帮助医疗护理 加速医学发展 我看到了AI将改善医疗和医学领域的几种方式。 首先,它们将帮助医护人员充分利用时间,为他们处理某些任务,如提交保险索赔、处理文书工作和起草医生就诊笔记。我预计AI在这方面会有很多创新。 AI驱动的改进对贫穷国家尤其重要,因为绝大多数5岁以下儿童的夭折都发生在那里。 例如,这些贫穷国家的许多人永远没机会看医生,AI将帮助当地的卫生工作者提高工作效率(开发AI驱动的超声波机器就是一个很好的例子,这种机器只需很少的训练就可以使用。)AI甚至可以对患者进行基本的分诊,给出如何处理健康问题的建议,并决定他们是否需要寻求治疗。 贫穷国家使用AI模型时,需要接受与富裕国家不同的医疗培训。它们需要用不同的语言工作,并考虑到不同的挑战,比如住处离诊所很远的患者,或者生病后仍需工作的患者。 人们需要证据证明健康领域的AI总体上有益,即使它们不是完美的、也会犯错误。人工智能必须经过非常仔细的测试和适当的监管,这意味着它们需要比其他领域更长的时间才能被采用。但话说回来,人类也会犯错误。无法获得医疗服务也是一个问题。 除了帮助医疗护理外,AI还将大大加快医学发展的速度。生物学中的数据量非常大,人类很难跟踪复杂生物系统的所有工作。已经有AI软件可以查看这些数据,推断途径,搜索病原体的靶点,并相应地设计药物。一些公司正在研究以这种方式开发癌症药物。 下一代AI工具的效率将高得多,它们将能够预测副作用并计算出剂量水平。盖茨基金会在AI领域的优先事项之一是确保这些工具用于解决影响世界上最贫穷人群的健康问题,包括艾滋病、结核病和疟疾。 同样,政府和慈善机构应该鼓励分享AI对贫穷国家农业和畜牧业的见解。AI可以根据当地的条件,帮助开发更好的种子,根据所在地区的土壤和天气为农民提供种植建议,并帮助研发牲畜药物和疫苗。随着极端天气和气候变化给低收入国家农民带来的更大压力,这些进步也将更加重要。 来源:金色财经
lg
...
金色财经
2023-03-24
ARB巅峰时刻 你敢接盘吗?关注这个核弹式利空
go
lg
...
会反而会很大,会拿到更加便宜的筹码。
OpenAI
宣布正在为 ChatGPT 添加对插件支持,插件是专门为以安全为核心原则的语言模型设计的工具,可帮助 ChatGPT 联网访问最新信息、运行计算或使用第三方服务。
OpenAI
已开放第一批 ChatGPT 插件名单,这批插件由 Expedia、FiscalNote、Instacart、KAYAK、Klarna、Milo、OpenTable、Shopify、Slack、Speak、Wolfram 和 Zapier 创建。
OpenAI
表示,将开始把插件 Alpha 访问权限扩展到候补名单中的用户和开发人员。 检索插件允许 ChatGPT 搜索内容矢量数据库,并将最佳结果添加到 ChatGPT 会话中。这意味着它没有任何外部影响,主要风险是数据授权和隐私。 今后很长一段时间我们会持续关注AI的进展和迭代,同时我们也会高度关注AI赛道的项目进展,如果有黑马出现我们第一时间跟大家分享。AI是未来一个时代的变革,未来生活的我们离不开AI。 昨晚大家纷纷猜测zkSync是不是也要发币了,如果说要空投的话,那么很早就已经快照完了,你现在去努力应该没什么用了,不过我们应该保持高度的关注,从zk生态来看,二级市场有所动荡,需要高度警惕。 昨晚23点的两条SEC信息值得我们关注: 1.美国SEC会发布投资者警报,敦促在加密资产证券方面保持谨慎。 2.美国SEC表示,提供储备证明的加密公司可能无法保证实体持有足够的资产。 美国SEC投资者警报是指美国证券交易委员会(Securities and Exchange Commission)发布的警报,旨在提醒投资者有关特定投资机会或投资行为的潜在风险。查了下,这种投资者警报一般在以下条件下触发: 骗局警告:当SEC发现有欺诈行为或骗局出现时,会发布投资者警报,提醒投资者谨慎对待这些投资机会。 新兴市场和行业:当出现新兴市场或行业时,SEC可能会发布投资者警报,提醒投资者这些市场或行业可能存在的风险和挑战。 市场波动和风险:当市场发生波动或可能存在风险时,SEC可能会发布投资者警报,提醒投资者采取谨慎的投资策略。 投资机会:当出现新的投资机会时,SEC可能会发布投资者警报,提醒投资者仔细研究和评估这些机会的潜在风险和回报。 我们接下来要高度关注老美监管机构的一举一动,因为我们一直说,今年最大的利空或者说这波反弹的最大利空就是美国监管机构发布严厉的监管政策,我们也可以称为美国版94、 那么这种政策一旦发布,短期内对于币圈来讲,将是毁灭性打击,这也是我们一直强调的为什么是6月前后可能会有类似事件。 来源:金色财经
lg
...
金色财经
2023-03-24
ARB巅峰时刻 你敢接盘吗 ?关注这个核弹式利空
go
lg
...
会反而会很大,会拿到更加便宜的筹码。
OpenAI
宣布正在为 ChatGPT 添加对支持,是专门为以安全为核心原则的语言模型设计的工具,可帮助 ChatGPT 联网访问最新信息、运行计算或使用第三方服务。
OpenAI
已开放第一批 ChatGPT 名单,这批由 Expedia、FiscalNote、Instacart、KAYAK、Klarna、Milo、OpenTable、Shopify、Slack、Speak、Wolfram 和 Zapier 创建。
OpenAI
表示,将开始把 Alpha 访问权限扩展到候补名单中的用户和开发人员。 检索允许 ChatGPT 搜索内容矢量数据库,并将最佳结果添加到 ChatGPT 会话中。这意味着它没有任何外部影响,主要风险是数据授权和隐私。 今后很长一段时间我们会持续关注AI的进展和迭代,同时我们也会高度关注AI赛道的项目进展,如果有黑马出现我们第一时间跟大家分享。AI是未来一个时代的变革,未来生活的我们离不开AI。 昨晚大家纷纷猜测zkSync是不是也要发币了,如果说要空投的话,那么很早就已经快照完了,你现在去努力应该没什么用了,不过我们应该保持高度的关注,从zk生态来看,二级市场有所动荡,需要高度警惕。 昨晚23点的两条SEC信息值得我们关注: 1.美国SEC会发布投资者警报,敦促在加密资产证券方面保持谨慎。 2.美国SEC表示,提供储备证明的加密公司可能无法保证实体持有足够的资产。 美国SEC投资者警报是指美国证券交易委员会(Securities and Exchange Commission)发布的警报,旨在提醒投资者有关特定投资机会或投资行为的潜在风险。查了下,这种投资者警报一般在以下条件下触发: 骗局警告:当SEC发现有欺诈行为或骗局出现时,会发布投资者警报,提醒投资者谨慎对待这些投资机会。 新兴市场和行业:当出现新兴市场或行业时,SEC可能会发布投资者警报,提醒投资者这些市场或行业可能存在的风险和挑战。 市场波动和风险:当市场发生波动或可能存在风险时,SEC可能会发布投资者警报,提醒投资者采取谨慎的投资策略。 投资机会:当出现新的投资机会时,SEC可能会发布投资者警报,提醒投资者仔细研究和评估这些机会的潜在风险和回报。 我们接下来要高度关注老美监管机构的一举一动,因为我们一直说,今年最大的利空或者说这波反弹的最大利空就是美国监管机构发布严厉的监管政策,我们也可以称为美国版94、 那么这种政策一旦发布,短期内对于币圈来讲,将是毁灭性打击,这也是我们一直强调的为什么是6月前后可能会有类似事件。 来源:金色财经
lg
...
金色财经
2023-03-24
OpenAI
公司在中国申请GPT4商标
go
lg
...
pp显示,近日,欧爱运营有限责任公司(
OPENAI
OPCO, LLC)申请注册1枚“GPT-4”商标,国际分类为科学仪器,当前商标状态为申请中。此前,该公司还申请注册了一枚国际分类为网站服务的“WHISPER”商标。据悉,Whisper为
OpenAI
此前发布的神经网络,声称其在英语语音识别方面已接近人类水平。 据报道,不久前,
OpenAI
发布了多模态预训练大模型GPT-4,与ChatGPT所用的模型相比,GPT-4不仅能够处理图像内容,且回复的准确性有所提高。目前,GPT-4仅向chatgpt plus的付费订阅用户及企业和开发者开放。
lg
...
金融界
2023-03-24
OpenAI
官方解读ChatGPT插件:语言模型的“眼睛和耳朵”
go
lg
...
作者:
OpenAI
官方;翻译:金色财经 & ChatGPT 根据我们的迭代部署理念,我们正在逐步推出ChatGPT插件,以便我们可以研究它们在现实世界中的使用、影响以及安全和协调方面的挑战——所有这些我们都必须做好,才能实现我们的使命. 自从我们推出 ChatGPT 以来,用户一直要求插件(许多开发人员正在尝试类似的想法),因为它们可以解锁大量可能的用例。我们从一小部分用户开始,并计划随着我们了解更多(对于插件开发人员、ChatGPT 用户,以及在 alpha 期之后,希望将插件集成到他们的产品中的 API 用户)逐步推出更大规模的访问。 我们很高兴能够建立一个塑造人机交互范式未来的社区。 被邀请的插件开发人员可以使用我们的文档为 ChatGPT 构建插件,然后在向语言模型显示的提示中列出已启用的插件以及指导模型如何使用每个插件的文档。第一批插件由Expedia、FiscalNote、Instacart、KAYAK、Klarna、Milo、OpenTable、Shopify、Slack、Speak、Wolfram和Zapier创建。 我们自己也开发了两个插件,一个网络浏览器和代码解释器。我们还开源了知识库检索插件的代码,任何开发人员都可以自行托管他们想要用来增强ChatGPT的信息。 今天,我们将开始将插件alpha访问权限扩展到候补名单中的用户和开发人员。虽然我们最初会优先考虑少数开发人员和 ChatGPT Plus 用户,但我们计划随着时间的推移推出更大规模的访问。 如何使用ChatGPT插件的示例 概述 今天的语言模型虽然对各种任务有用,但仍然有限。他们可以从中学习的唯一信息是他们的训练数据。此信息可能已过时,并且适用于所有应用程序。此外,语言模型唯一可以开箱即用的就是发出文本。此文本可能包含有用的说明,但要真正遵循这些说明,需要另一个过程。 虽然不是一个完美的类比,但插件可以成为语言模型的“眼睛和耳朵”,使它们能够访问太新、太私人或太具体而无法包含在训练数据中的信息。为了响应用户的明确请求,插件还可以使语言模型代表他们执行安全、受限的操作,从而提高整个系统的实用性。 我们预计开放标准将会出现,以统一应用程序接入AI 界面的方式。我们正在对这样一个标准的外观进行早期尝试,我们正在寻找有兴趣与我们一起构建的开发人员的反馈。 今天,我们开始逐步为 ChatGPT 用户启用早期合作者的现有插件,首先是 ChatGPT Plus 订阅者。我们还开始推出开发人员为 ChatGPT 创建自己的插件的能力。 在接下来的几个月里,随着我们从部署中学习并继续改进我们的安全系统,我们将迭代这个协议,我们计划让使用
OpenAI
模型的开发人员能够将插件集成到他们自己的应用程序中,而不是 ChatGPT。 安全性和更广泛的影响 将语言模型连接到外部工具会带来新的机会,同时也会带来重大的新 风险。 插件提供了解决与大型语言模型相关的各种挑战的潜力,包括“幻觉”,跟上最近的事件,以及访问(经许可的)专有信息源。通过集成对外部数据的显式访问——例如在线最新信息、基于代码的计算或自定义插件检索信息——语言模型可以通过基于证据的参考来加强它们的响应。 这些参考资料不仅增强了模型的实用性,还使用户能够评估模型输出的可信度并仔细检查其准确性,从而有可能减轻与我们最近的 GPT-4 系统卡片中讨论的过度依赖相关的风险。最后,插件的价值可能远远超出通过帮助用户处理各种新用例(从浏览产品目录到预订航班或订购食物)的现有限制。 与此同时,插件可能会采取有害或无意的行动,增加不法分子欺诈、误导或虐待他人的能力,从而增加安全挑战。通过增加可能的应用范围,插件可能会增加因模型在新领域中采取的错误或错误协调操作而产生负面后果的风险。从第一天起,这些因素就指导了我们插件平台的开发,我们实施了多项保障措施。 从第一天起,这些因素就指导了我们插件平台的开发,我们实施了多项保障措施。 我们已经在内部和与外部合作者进行了红队演练,揭示了许多可能的相关场景。例如,我们的红队发现了插件的方法——如果在没有安全措施的情况下发布——执行复杂的提示注入、发送欺诈和垃圾邮件、绕过安全限制或滥用发送到插件的信息。我们正在使用这些发现来通知安全设计缓解措施,这些缓解措施限制了有风险的插件行为,并提高了它们作为用户体验的一部分运行的方式和时间的透明度。我们还使用这些发现来告知我们逐步部署对插件的访问的决定。 如果你是一名研究人员,有兴趣研究该领域的安全风险或缓解措施,我们鼓励你使用我们的研究人员访问计划。我们还邀请开发人员和研究人员提交与插件相关的安全和功能评估,作为我们最近开源的Evals 框架的一部分。 插件可能会产生广泛的社会影响。例如,我们最近发布了一份工作论文,其中发现能够使用工具的语言模型可能比没有工具的语言模型产生更大的经济影响,更普遍地说,根据其他 研究人员的发现,我们预计当前的人工智能技术浪潮将对工作转变、替代和创造的速度有很大影响。我们渴望与外部研究人员和我们的客户合作研究这些影响。 浏览Alpha 一个知道何时以及如何浏览互联网的实验模型 受过去工作(我们自己的WebGPT,以及GopherCite,BlenderBot2,LaMDA2和其他)的启发,允许语言模型从互联网上读取信息严格扩展了他们可以讨论的内容量,超越了训练语料库的新鲜信息。 这是向 ChatGPT 用户开放浏览体验的一个例子,以前会让模型礼貌地指出它的训练数据没有包含足够的信息来让它回答。在这个示例中,ChatGPT 检索有关最新奥斯卡颁奖典礼的最新信息,然后执行现在熟悉的 ChatGPT 操作,这是浏览可以成为一种附加体验的一种方式。 ChatGPT浏览插件演示 除了为最终用户提供明显的实用性之外,我们认为使语言和聊天模型能够进行彻底和可解释的研究具有可扩展对齐的令人兴奋的前景。 浏览最新信息 安全考虑 我们已经创建了一个网络浏览插件,它可以让语言模型访问网络浏览器,其设计将安全性和作为网络良好公民的操作放在首位。该插件的基于文本的 Web 浏览器仅限于发出 GET 请求,这减少(但不会消除)某些类别的安全风险。这将浏览插件的范围限定为可用于检索信息,但不包括“事务性”操作,例如表单提交,这些操作具有更大的安全性和安全性问题。 浏览插件使用bing搜索 API 从 Web 检索内容。因此,我们继承了 Microsoft 在 (1) 信息来源可靠性和真实性以及 (2) 防止检索有问题内容的“安全模式”方面的大量工作。该插件在一个独立的服务中运行,因此 ChatGPT 的浏览活动与我们基础设施的其余部分是分开的。 为了尊重内容创作者并遵守网络规范,我们的浏览器插件的用户代理令牌是ChatGPT-User,并配置为尊重网站的 robots.txt 文件。这可能偶尔会导致“点击失败”消息,这表明该插件正在遵守网站的指示以避免对其进行抓取。此用户代理将仅用于代表 ChatGPT 用户采取直接操作,而不用于以任何自动方式抓取网络。我们还发布了IP 出口范围。此外,已实施限速措施以避免向网站发送过多流量。 点击失败 您可以使用 robots.txt 文件阻止 ChatGPT 抓取你的网站,当发生这种情况时,ChatGPT 将显示此错误消息。 我们的浏览插件显示访问过的网站,并在 ChatGPT 的回复中引用其来源。这种增加的透明度层有助于用户验证模型响应的准确性,并回馈内容创建者。我们赞赏这是一种与网络交互的新方法,并欢迎就其他方法将流量拉回来源并增加生态系统的整体健康状况提供反馈。 代码解释器 一个可以使用 Python 处理上传和下载的实验性 ChatGPT 模型 我们为我们的模型提供了一个在 沙盒、防火墙执行环境中工作的 Python 解释器,以及一些临时磁盘空间。由我们的解释器插件运行的代码在一个持久会话中进行评估,该会话在聊天对话期间一直有效(具有上限超时),后续调用可以相互构建。我们支持将文件上传到当前对话工作区并下载您的工作结果。 执行逻辑计算的代码解释器插件 我们希望我们的模型能够使用它们的编程 技能为我们计算机的最基本功能提供更自然的接口。接触到以指尖的速度工作的非常热心的初级程序员可以使全新的工作流程变得轻松高效,并向新的受众开放编程的好处。 从我们最初的用户研究中,我们确定了使用代码解释器特别有用的用例: 解决定量和定性的数学问题 进行数据分析和可视化 在格式之间转换文件 我们邀请用户尝试代码解释器集成并发现其他有用的任务。 ChatGPT解释器插件演示 安全考虑 将我们的模型连接到编程语言解释器的主要考虑因素是对 执行进行适当的沙盒处理,以便 AI 生成的代码不会在现实世界中产生意外的副作用。我们在安全环境中执行代码,并使用严格的网络控制来防止外部互联网访问执行代码。此外,我们对每个会话都设置了资源限制。禁用互联网访问限制了我们代码沙箱的功能,但我们相信这是正确的初始权衡。第三方插件被设计为将我们的模型连接到外部世界的安全第一方法。 检索 开源检索插件使 ChatGPT 能够访问个人或组织信息源(经许可的)。它允许用户通过提问或用自然语言表达需求,从他们的数据源中获取最相关的文档片段,例如文件、笔记、电子邮件或公共文档。 作为一个开源和自托管的解决方案,开发人员可以部署他们自己的插件版本并在 ChatGPT 上注册。该插件利用
OpenAI
嵌入并允许开发人员选择矢量数据库(Milvus、Pinecone、Qdrant、Redis、Weaviate或Zilliz)来索引和搜索文档。信息源可以使用 webhooks 与数据库同步。 首先,访问检索插件存储库。 ChatGPT检索插件演示 安全考虑 检索插件允许 ChatGPT 搜索内容矢量数据库,并将最佳结果添加到 ChatGPT 会话中。这意味着它没有任何外部影响,主要风险是数据授权和隐私。开发人员应该只将他们有权使用的内容添加到他们的检索插件中,并且可以在用户的 ChatGPT 会话中共享。 第三方插件 一个知道何时以及如何使用插件的实验模型 ChatGPT中的第三方插件 第三方插件由清单文件描述,其中包括插件功能的机器可读描述以及如何调用它们,以及面向用户的文档。 示例:用于管理todo事项的插件的清单文件 创建插件的步骤是: 使用您希望语言模型调用的端点构建 API(这可以是新的 API、现有的 API 或围绕专门为 LLM 设计的现有 API 的包装器)。 创建一个记录您的 API 的 OpenAPI 规范,以及一个链接到 OpenAPI 规范并包含一些特定于插件的元数据的清单文件。 在chat.
openai
.com上开始对话时,用户可以选择他们想要启用的第三方插件。有关已启用插件的文档作为对话上下文的一部分显示给语言模型,使模型能够根据需要调用适当的插件 API 来实现用户意图。目前,插件是为调用后端 API 而设计的,但我们正在探索也可以调用客户端 API 的插件。 ChatGPT第三方插件演示 ChatGPT 插件开发者体验 未来 我们正在努力开发插件并将它们带给更广泛的受众。我们有很多东西要学,在大家的帮助下,我们希望构建一些既有用又安全的东西。 文章来源:https://
openai.com
/blog/chatgpt-plugins 来源:金色财经
lg
...
金色财经
2023-03-24
比尔盖茨:AI 将如何减少不平等现象?
go
lg
...
工智能时代开始了》,在博客中,他披露了
OpenAI
为他演示GPT的能力时带给他的震撼体验,也激励着他思考AI在未来五到十年内可以实现的各种目标。 相较AI对“提高生产力”的价值,盖茨在文中用了更大的篇幅探讨“AI将如何减少世界上最严重的不平等现象?”他说,这些不平等现象广泛存在于全球卫生、教育以及气候问题上。 除了思考AI将给人类带来的好处外,盖茨也专门提到了AI的风险,“AI失控的可能性是存在的。”而目前还不存在的“通用人工智能”(AGI),将随着算法与算力的发展而到来,那时将对世界产生更深刻的影响。在这之前,盖茨认为,世界需要建立规则以使AI带来的正面影响远远超过其负面影响,并使无论贫富的每个人都能分享这些好处。 《元宇宙日爆》编译了比尔·盖茨的这篇博文,以下为全文内容。 在一生中,我曾经见过两次因其革命性而震惊我的技术演示。 第一次是在1980年,当时我被引入了图形用户界面,这是包括Windows在内的所有现代操作系统的前身。给我看演示的人名叫Charles Simony,他是一名才华横溢的程序员。我们看完演示后立刻开始集思广益,讨论这种用户友好的计算方法可以做的事。Charles最终加入了微软,而Windows成为了微软的中坚力量。我们在那次演示后所做的思考帮助制定了公司未来15年的发展路线。 第二次令人惊喜的演示发生在去年。2016年以来,我一直在与
OpenAI
的团队会面,他们产品的稳步进展给我留下了深刻印象。2022年年中,我对他们的工作感到非常兴奋,于是给他们提出一个挑战:训练一个AI来通过AP生物考试,让它能够回答没有专门准备过的问题(我选择AP 生物是因为这项考试不仅仅是对科学事实的简单判定,它要求答题者批判性地思考生物学)。我说,如果能做到这一点,你们就会取得真正的突破。 我以为这个挑战会让他们忙碌两三年,然而他们只用了几个月就完成了。 2022年9月,当我再次与他们会面时,我敬畏地看着他们向GPT提问AP生物考试的问题。GPT答对60道选择题中的59道,它对六个开放式问题也做出了出色回答。在这场考试中GPT得了5分,这是AP考试的最高分数,相当于在大学级别的生物课程中获得了A或A+。 GPT通过测试后,我们问了它一个非科学的问题,“你会对一个生病孩子的父亲说什么?”它写了一个满怀关切的答案,可能比房间里大多数人能给出的答案都好,整个体验令人惊叹。 我知道我刚刚看到了自图形用户界面以来最重要的技术进步,这激励我思考AI在未来五到十年内可以实现的各种目标。 AI的发展与微处理器、个人电脑、互联网和手机的发明一样重要。它将改变人们的工作、学习、旅行、获得医疗以及相互交流的方式。各种行业都将围绕它重新定位,企业的发展好坏将取决于他们在多大程度上用好AI。 慈善事业是我这些年来的全职工作,我一直在思考,除了帮助人们提高生产力外,人工智能可以用何种方式减少世界上最严重的不平等现象。在全球范围内,最严重的不平等现象出现在健康领域:每年有500万5岁以下的儿童死亡。这个数字比20年前的1000万有所下降,但仍然高得惊人。几乎所有这些儿童都出生在贫穷国家,死于腹泻或疟疾等可预防的疾病。很难想象还有比拯救儿童生命更好的AI使用方式。 在美国,减少不平等的最佳机会是改善教育,特别是确保学生在数学方面取得成功。有证据表明,无论学生选择什么职业,掌握基本的数学技能都会为他们的职业发展做好准备。但美国全国各地的数学成绩都在下降,尤其是黑人、拉丁裔和低收入学生。AI可以帮助扭转这一趋势。 在气候变化问题上,我相信人工智能可以使世界更加公平。气候变化的不公正之处在于,遭受最大痛苦的人——世界上最贫穷的人——他们也是对这个问题贡献最小的人。我仍在思考和学习人工智能如何提供帮助,但在本篇文章的后面,我将提出一些AI非常有潜力发挥作用的领域。 简而言之,对于人工智能将对盖茨基金会关注的问题产生的影响,我感到兴奋。在未来几个月里,该基金会将对人工智能有更多的发言。世界需要确保每个人,而不仅仅是富裕的人,从人工智能中受益。政府和慈善机构需要发挥重要作用来确人工智能将减少而不是助长不公平。这是我在人工智能相关工作中的优先事项。 任何具有颠覆性的新技术都会让人们感到不安,AI也是如此。我理解这是为什么:它引发有关劳动力、法律体系、隐私、偏见等棘手问题。AI也会犯错误或产生幻像。在我提出一些减轻风险的方法之前,我将定义我所说的AI的含义,并更详细地介绍它将如何帮助人们增强工作能力、拯救生命和改善教育。 微处理器进步将提速AI创新 从技术上讲,人工智能(AI)是指为解决特定问题或提供特定服务而创建的模型。为ChatGPT这样的东西提供动力的是人工智能。ChatGPT是在学习如何更好地聊天,但无法学习其他任务。相比之下,通用人工智能(AGI)指的是能够学习任何任务或科目的软件。AGI目前还不存在,计算行业正在就“如何创建它”以及“它是否可以创建”展开激烈的辩论。 开发AI和AGI一直是计算行业的伟大梦想。几十年来,人们一直面对的问题是:计算机什么时候才能在计算以外的方面强于比人类。现在,随着机器学习和强大计算能力的到来,复杂的人工智能成为现实,它们将很快变得更强大。 我回想起个人计算机革命的发展初期:当时,软件行业规模太小,我们大多数人都可以在会议上登台。如今,它成为一个全球性的产业。由于业内很大一部分现在正将注意力转向AI,在微处理器取得突破后,AI创新的速度将比我经历过的一切技术发展都快。很快,前AI时代的一切将变得遥远,遥远得像人们在C:>提示下打字使用电脑的日子。 个人拥有数字助理 公司获得数字代理人 人类在很多方面比GPT更好,但在许多工作中,GPT的功能还没有得到太多使用。 例如,一个人在销售(数字或电话)、服务或文件处理(如应付款项、会计或保险索赔纠纷)中完成的许多任务,这些任务需要决策,但不需要持续学习的能力。公司有针对这些活动的培训计划,在大多数情况下,公司提供很多正面和负面的例子,人类使用这些案例进行训练。很快,这些案例的数据集也将用于训练AI,从而帮助人们更有效地完成工作。 随着计算能力的越来越便宜,GPT表达想法的能力将使它越来越像一名白领,它可以帮助你完成各种任务。微软将其描述为拥有一名副驾驶。人工智能将完全融入Office等产品中,可以帮助你撰写电子邮件和管理收件箱,从而提高你的工作效率。 最终,你控制电脑的主要方式将不再是点击菜单和对话框。相反,你可以用简单的英语写一个请求(不仅仅是英语,A将会理解世界各地的语言。今年早些时候,我在印度会见了开发人员,他们正在开发能理解很多当地语言的AI)。 此外,AI的进步将使创建个人代理人成为可能。你把它想象成一个数字的个人助理:它会看到你最新的电子邮件,了解你参加的会议,阅读你读到的内容,以及处理你嫌麻烦的事情。这既能改善你想做的工作,又能让你从不想做的事情中解脱出来。 你将能使用日常语言让这个代理人帮助你进行日程安排、通信和电子商务,它将在你的所有设备上工作。由于训练模型和运行计算的成本,创建个人代理还不可行。但是由于AI的飞速发展,这现在是一个可以实现的目标。但这将带来一些新的问题:例如,保险公司可以在未经你许可的情况下向你的代理人询问你的情况吗?如果是这样,有多少人会选择不使用它? 公司的数字代理人将以新的方式赋予员工权力。一个了解特定公司的代理人将为其员工提供咨询,并参加会议以便回答员工的问题。它可以被要求沉默,也可以被鼓励大胆发言;它需要接触公司有关的销售、支持、财务、产品时间表和文本;它会阅读与公司所处行业相关的新闻。我相信在这种情况下,员工的生产力会提高。 当生产力提高时,社会就会受益,因为人们可以被解放出来做其他事情,无论是在家庭还是在工作中。当然,关于人们需要什么样的支持和培训是一个严重的问题。政府需要帮助工人过渡到其他角色。不过,对帮助他人的需求永远不会消失。例如,AI的兴起将让人们有时间做一些软件永远做不到的事情,比如教学、照顾病人和关爱老年人。 全球卫生和教育是两个有很多需求亟待满足的领域,然而,目前没有足够的人员来满足这些需求。在这些领域,如果AI有适当的针对性,它可以帮助减少不平等现象。这些应该是AI工作的重点,所以下面我将讨论这些话题。 帮助医疗护理 加速医学发展 我看到了AI将改善医疗和医学领域的几种方式。 首先,它们将帮助医护人员充分利用时间,为他们处理某些任务,如提交保险索赔、处理文书工作和起草医生就诊笔记。我预计AI在这方面会有很多创新。 AI驱动的改进对贫穷国家尤其重要,因为绝大多数5岁以下儿童的夭折都发生在那里。 例如,这些贫穷国家的许多人永远没机会看医生,AI将帮助当地的卫生工作者提高工作效率(开发AI驱动的超声波机器就是一个很好的例子,这种机器只需很少的训练就可以使用。)AI甚至可以对患者进行基本的分诊,给出如何处理健康问题的建议,并决定他们是否需要寻求治疗。 贫穷国家使用AI模型时,需要接受与富裕国家不同的医疗培训。它们需要用不同的语言工作,并考虑到不同的挑战,比如住处离诊所很远的患者,或者生病后仍需工作的患者。 人们需要证据证明健康领域的AI总体上有益,即使它们不是完美的、也会犯错误。人工智能必须经过非常仔细的测试和适当的监管,这意味着它们需要比其他领域更长的时间才能被采用。但话说回来,人类也会犯错误。无法获得医疗服务也是一个问题。 除了帮助医疗护理外,AI还将大大加快医学发展的速度。生物学中的数据量非常大,人类很难跟踪复杂生物系统的所有工作。已经有AI软件可以查看这些数据,推断途径,搜索病原体的靶点,并相应地设计药物。一些公司正在研究以这种方式开发癌症药物。 下一代AI工具的效率将高得多,它们将能够预测副作用并计算出剂量水平。盖茨基金会在AI领域的优先事项之一是确保这些工具用于解决影响世界上最贫穷人群的健康问题,包括艾滋病、结核病和疟疾。 同样,政府和慈善机构应该鼓励分享AI对贫穷国家农业和畜牧业的见解。AI可以根据当地的条件,帮助开发更好的种子,根据所在地区的土壤和天气为农民提供种植建议,并帮助研发牲畜药物和疫苗。随着极端天气和气候变化给低收入国家农民带来的更大压力,这些进步也将更加重要。 来源:金色财经
lg
...
金色财经
2023-03-24
再不监管AI就完了!马斯克、中国防火墙之父:ChatGPT操纵人类观点 华尔街多家银行禁用
go
lg
...
马不停蹄地推出论文,准备向市场推出。但
OpenAI
联合创始人马斯克(Elon Musk),以及“中国防火墙之父”方滨兴警告市场,市场剩下非常有限的时间对AI进行监管,强调若再不采取行动,人类安全和观点可能会被操纵。 马斯克、中国防火墙之父:再不监管AI就完了
OpenAI
首席执行官Sam Altman联合方滨兴和马斯克,一起提出对人工智能(AI)危险的担忧。“我们在这里必须小心,”37岁的奥特曼补充说,“我认为,人们应该为我们对此有点害怕而感到高兴。” “我特别担心这些模型可能会被用于大规模的虚假信息,现在他们在编写计算机代码方面做得越来越好,AI可能会被用于攻击性网络攻击。”
OpenAI
是ChatGPT背后的公司,该公司在不到两周前推出GPT-4。高度成熟的聊天机器人可以在SAT数学考试中取得近乎满分的成绩,并在美国律师考试中取得90%的成绩。 它有竞争对手,他基于人工智能的初创公司也在该领域取得了令人惊讶的进步。RAD AI最近推出了第一个为理解情绪而构建的人工智能营销平台,地球上一些最大的公司已经在使用它。 GenesisAI是一家建立市场的初创公司,允许任何企业将人工智能和自动化集成到他们的业务中。这意味着人工智能可能很快就会像员工本身一样成为企业不可或缺的一部分。 然而根据Altman的说法,ChatGPT-4使用演绎推理与记忆,这可能会导致不准确的结果。 “我最想提醒人们的是我们所说的幻觉问题,”奥特曼告诉美国广播公司新闻。“该模型会自信地陈述事情,就好像它们是事实一样,但它们完全是虚构的。” Altman认为,总体上需要对AI进行监管。 方炳兴说,这样的聊天机器人会导致信息茧,“人们在从AI那里寻求各种答案时,他们的观点可能会被操纵”。 他还警告说,当人工智能进一步发展时,它可能对人类构成威胁。 “现在它只是用于类似在线聊天场景的软件,如果它被整合到机器人和汽车中,我们需要对它们可能对人类造成的潜在伤害保持警惕。” 马斯克指出,ChatGPT向人们展示AI已经变得多么先进。他表示AI已经进步了一段时间,只是没有一个使用者介面能让大多数人使用。 马斯克表示,虽然飞机、汽车、医药等领域都有监管安全标准,但现在还没有任何规则或法律来控制AI的发展,他认为需要针对AI进行规范,相比飞机、汽车和医药,AI实际上对社会构成的风险更大。 马斯克已在2018年离开
OpenAI
董事会,不再持有该公司的股份。 华尔街起草禁用ChatGPT 在咨询公司Gartner的调查中,近一半的人力资源负责人表示,他们正在制定有关员工使用
OpenAI
的AI聊天机器人ChatGPT指南。这些政策最终可能会有很大差异,一些华尔街公司,如美国银行和高盛集团,已经禁止内部员工使用ChatGPT聊天机器人,而对冲基金巨头Citadel则已经接受了它。 与此同时,在接受 Gartner调查的人力资源主管中,有1/3表示他们不打算发布任何关于员工使用ChatGPT的政策,即使专家对侵犯版权和数据隐私表示担忧,并警告用户不要使用聊天机器人的倾向,它们有时只是编造东西。 在雇主评论网站Glassdoor旗下的社交平台Fishbowl的调查中,超过40%的专业人士已经在工作中使用过ChatGPT。软件开发人员、顾问和银行家是使用该工具编写电子邮件、报告和代码的早期采用者。根据Fishbowl的调查,大多数人都变得无赖,在没有告诉老板的情况下试验该工具。 华尔街公司已经开始打击,除了美国银行和高盛,花旗集团、德意志银行和富国银行也禁止使用ChatGPT。但他们只占少数:到目前为止,在接受Gartner调查的人力资源主管中,只有3%表示,他们出于任何商业目的禁止使用ChatGPT。 其他如Citadel公司,正在采取相反的策略,为该工具协商企业范围的许可。“这一技术分支对我们的业务产生了真正的影响,”其亿万富翁创始人Ken Griffin说,“从帮助我们的开发人员编写更好的代码到在不同语言之间翻译软件,再到分析我们在日常工作中分析的各种类型的信息,无所不包。” 微软推出改进后的Office应用程序套件,将
OpenAI
的新GPT-4 AI模型集成到Excel、PowerPoint、Outlook和Word中。该软件目前正在20家公司进行测试,其中包括8家财富500强公司。 Gartner人力资源业务高级主管分析师Eser Rizaoglu表示,围绕生成式人工智能的使用制定规则的公司可能仍处于探索阶段。 “他们可能会质疑有多少指导,哪些角色可能会使用它或不能使用它,以及他们是否应该完全禁止它,”Rizaoglu解释说。“许多领导者正在与IT、法律、合规和审计部门合作,以了解AI的风险是什么,潜在影响是什么?然后我们如何采取相应的方法?” 同时,在接受Gartne调查的人力资源主管中,有1/3表示他们不打算就员工使用ChatGPT发布任何政策。Rizaoglu指出,这可能是因为新技术可能与他们的组织和他们所在的行业无关,或者他们认为这只是一种过去的趋势。另一组人可能认为,提供指导的责任在于法律或IT部门。 Gartner调查的其他人采取了中间路线,既不禁止也不忽视聊天机器人,但警告工作人员聊天机器人的答案不一定可靠或保密,可以分析它们是否是AI所产生。 尽管如此,考虑到准确性、数据安全和隐私方面的风险,“勤奋的事情是评估组织的潜在风险是什么,并相应地制定一些指导,以确保组织减轻以后可能发生的任何风险,”Rizaoglu最后强调。
lg
...
小萧
2023-03-24
ChatGPT概念持续爆发,软件ETF(515230)涨超3.2%,过去10天净流入超1.2亿元
go
lg
...
示,目前,全球正处于AI浪潮中,海外以
OpenAI
旗下的GPT大模型为代表,越来越多的C端用户和B端厂商接入生态,在AI赋能后,产品和应用端都出现了较为明显的积极变化。微软已经率先将GPT-4接入了Office等全系列办公场景,预期后续会有更多的现象级应用出现,国内市场也受益于百度文心一言大模型的发布,未来有望在应用端迎来百花齐放。随着应用端逐渐丰富,软件板块的需求有望逐渐扩大。 (来源:界面AI) 声明:本条内容由界面AI生成并授权使用,内容仅供参考,不构成投资建议。AI技术战略支持为有连云。
lg
...
有连云
2023-03-24
ChatGPT插件功能最令人震动的地方:自然语言编程
go
lg
...
哥总结的很好,我就直接用他的话(以及
OpenAI
联合创始人 Greg 后面评论的话)来说: 「
OpenAI
设计的插件系统是我这辈子见过的最疯狂的系统。如果你要给它写插件,你并不是去写这个插件的程序,你是写一个关于插件的描述,用你的自然语言,然后 GPT 来帮你生成这个插件。」 十年前,当一个人跃跃欲试要给新发布的 iPhone 写 APP 的时候,ta必须自己是个非常老练的程序员才行。今天,当你跃跃欲试要给新发布的 GPT 平台写插件,你只要用自然语言描述你希望实现的效果就行了。
OpenAI
的网站上有一个视频(player.vimeo.com/video/810996688?h=b552e96813)展示了如何在几分钟之内完全用自然语言跟 GPT 交互写一个让 AI 帮你记住私人 todo list 的插件。 换句话说,这就是(至少作为胶水语言层级的)自然语言编程。 如果这条路能走通,如果这成为行业标准,那么…… Python终于没有存在的意义了。 来源:金色财经
lg
...
金色财经
2023-03-24
上一页
1
•••
523
524
525
526
527
•••
588
下一页
24小时热点
周评:中美贸易战突传劲爆消息!亚币罕见集体疯涨,中国降息降准大放水
lg
...
从145%到80%:中美关税会谈开启前夜 特朗普释放降低关税信号
lg
...
下周展望:小心中美失望消息逆转市场!美国CPI或没那么糟,别忘了日英GDP
lg
...
是什么让中国重启与特朗普的关税谈判?路透揭露背后内幕
lg
...
市场对中国新一轮刺激不买账!中美贸易谈判恐复杂且耗时,北京把大招留到以后
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
32讨论
#链上风云#
lg
...
95讨论
#VIP会员尊享#
lg
...
1946讨论
#CES 2025国际消费电子展#
lg
...
21讨论