全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
微软宣布为美国Azure政府平台客户提供GPT-4及GPT-3两种人工智能模型
go
lg
...
中心是国防部的一部分,专注于收集和分享
军事
研究,将通过微软的新产品对OpenAI模型进行试验,一名DTIC官员证实。 微软已经向其商业客户提供了OpenAI模型,最近几个月Azure OpenAI服务增长迅速。微软5月份表示,该服务的客户从上一季度的2500个大幅增加到4500个,其中包括沃尔沃(Volvo AB)、宜家(Ikea)、梅赛德斯-奔驰集团(Mercedes-Benz Group AG)和壳牌(Shell Plc),周三宣布的这一举措是一家大公司首次将聊天机器人技术广泛应用于美国政府。 自2022年底OpenAI的ChatGPT聊天机器人公开发布以来,人们对大型语言模型的兴趣激增。大型语言模型是在大量互联网数据上进行训练的,这样它们就可以预测并对用户提示产生类似人类的反应。从那以后,大大小小的科技公司开始向用户提供功能强大的聊天机器人,国会也爆发了关于是否以及如何监管人工智能的讨论。 微软的Bill Chappell在博客中写道,联邦、州和地方政府的客户可以使用OpenAI的GPT-4和GPT-3模型来完成诸如生成研究问题的答案、生成计算机代码和总结现场报告等任务。一位微软发言人证实,虽然他们将能够使用具有聊天界面的模型,但Azure政府用户将无法访问ChatGPT。ChatGPT通常通过Azure OpenAI服务提供,Chappell此前曾在美国国防高级研究计划局(DARPA)工作。 微软在商业云计算空间中托管OpenAI模型,这与Azure政府平台客户使用的云是分开的,Azure政府平台遵守各种特定的安全和数据遵从规则。 Chappell写道,由于微软在Azure基础设施中托管这些模型,发送给它们的任何数据都保留在Azure OpenAI服务中,并补充说,来自Azure政府客户的数据不会用于训练人工智能模型。
lg
...
Sue
2023-06-08
GQY视讯:公司就相关事项正在积极研究相应措施,并保留追究有关方相应责任的权利
go
lg
...
,提供公安、消防、电力、检察院、交通、
军事
、能源、公用事业及大型企业等行业客户大屏显示的综合解决方案,并以此构建云计算、人工智能、大数据等硬软结合的互联网应用平台。 以上内容由证券之星根据公开信息整理,由算法生成,与本站立场无关。证券之星力求但不保证该信息(包括但不限于文字、视频、音频、数据及图表)全部或者部分内容的的准确性、完整性、有效性、及时性等,如存在问题请联系我们。本文为数据整理,不对您构成任何投资建议,投资有风险,请谨慎决策。
lg
...
证券之星
2023-06-07
超级大国太空竞赛!美国今夏将发射“无声巴克”监视卫星,追踪中俄威胁
go
lg
...
回应,这是美国日益关注的问题。 众议院
军事委员会
战略小组委员会负责监督太空项目的前首席工作人员Sarah Mineiro说,新的卫星“将大大提高太空军跟踪在轨敌方卫星的能力,这些卫星可能在我们的卫星周围或附近机动。” 她说,“无声巴克”解决了地面或低轨道监视系统的局限性,并允许美国“真正弄清楚太空中发生了什么。” 在今年的年度威胁评估中,国家情报总监办公室表示,中国拥有瞄准美国及其盟国卫星的武器,“太空对抗行动将是潜在的解放军
军事行动
不可或缺的一部分”。 其中一个例子是中国的SJ-21卫星,该卫星于2021年发射,后来成功地将一颗报废的中国卫星送入数百英里外的更高轨道。 根据美国国防情报局2022年的一份报告,中国的另一颗卫星“实践十七号卫星”(Sijian-17)配备了一个机械臂,“可以用来锚定其他卫星”。 今年3月,美国太空司令部司令James Dickinson在国会作证时表示,SJ-21“显然可以发挥太空对抗作用,使我们的地球同步卫星处于危险之中。” 太空军说,SJ-21是无声巴克将追踪的卫星类型,因为它寻求“探测或发现新物体”。” 太空军和NRO没有详细说明将有多少颗卫星组成“无声巴克”,只是说将有“多个太空飞行器”参与其中。 太空军说,太空监视增强了地面传感器,“通过提供及时的24小时全天候卫星数据收集,克服了地面传感器的限制”。 它说,地球同步轨道上的地面传感器“受到距离、地理和天气的限制”,但“无声巴克”将克服观测空白。
lg
...
风起
2023-06-07
会员
拜登将会见中国最高领导人!白宫安全顾问:两国努力恢复正常关系 负责任管理竞争与外交
go
lg
...
Times指出,英国正在寻求与美国建立
军事
式的“经济联盟”,以对抗中国的崛起和人工智能(AI)的威胁。 英国首相里希·苏纳克(Rishi Sunak)将抵达华盛顿,寻求与美国的“经济互操作性”,因为他似乎与拜登推动更具干预主义的产业政策保持一致,以保持西方对关键技术的控制。 苏纳克将在美国逗留两天,预计他将在那里会见国会和商界领袖,并在今年第四次与拜登会面,寻求加强他们的私人关系,并表明英国再次成为一个重要的全球盟友。
lg
...
小萧
1评论
2023-06-07
a16z创始人万字长文:为什么AI会拯救世界
go
lg
...
限的情况下做出可怕的决策为特征。现在,
军事
指挥官和政治领导人将有人工智能顾问,帮助他们做出更好的战略和战术决策,最小化风险、错误和不必要的流血。 • 简而言之,人们今天用自己的自然智能做的任何事情,通过人工智能都能做得更好,我们将能够接手那些没有人工智能无法解决的新挑战,从治愈所有疾病到实现星际旅行。 • 而且这不仅仅涉及智能!人们最低估的人工智能质量也许是它的人性化。人工智能艺术给那些本来缺乏技术技能的人自由创作和分享他们的艺术思想。与富有同理心的人工智能朋友交谈确实能提高他们应对逆境的能力。而且,与人类对比,人工智能医疗聊天机器人已经更富同情心。无限耐心和同情心的人工智能将使世界变得更加温暖、更加友好。 这里的利害关系重大,机遇深远。人工智能很可能是我们文明有史以来最重要、最好的事物,至少与电力和微芯片不相上下,甚至可能更超越它们。 发展和普及人工智能——并远离我们应该害怕的风险——是我们对自己、对我们的孩子和对我们的未来的道义义务。 我们应该生活在一个有了人工智能的更好的世界,现在我们可以实现这个目标。 那么,为什么会引发恐慌? 与这种积极的观点相反,目前关于人工智能的公众对话充斥着恐慌和偏执。 我们听到各种声称人工智能将毁灭我们所有人、破坏我们的社会、夺走我们的工作、导致严重的不平等,并使坏人做出可怕的事情。 为什么在潜在的结果中存在着这种从接近乌托邦到可怕的反乌托邦的分歧呢? 从历史上看,每一项重要的新技术,从电灯到汽车、从收音机到互联网,都引发了道德恐慌——一种社会传染,让人们相信新技术将摧毁世界,或者社会,或者两者都会毁灭。悲观主义档案馆的优秀人员已经记录了这些几十年来由技术驱动的道德恐慌事件;他们的历史清晰地显示出这种模式。事实证明,现在对于人工智能的恐慌甚至不是第一次出现。 现在,确实有许多新技术导致了不良后果——通常是那些对我们福利有巨大好处的技术。所以,并不是说道德恐慌的存在就意味着没有任何需要担心的事情。 但是,道德恐慌本质上是非理性的——它将可能是合理关切的问题夸大成一种歇斯底里的程度,讽刺的是,这使得我们更难以面对真正严重的问题。 现在我们正处于对人工智能的一场全面的道德恐慌中。 这场道德恐慌已经被多种行为者利用为推动政策行动——推动制定新的人工智能限制、规定和法律。这些行为者正在公开发表关于人工智能危险的极端戏剧化的言论——它们以此滋养并进一步煽动道德恐慌——它们都自诩为无私的公益捍卫者。 但他们真的是这样吗? 他们是对还是错? 人工智能的浸礼会和私酒贩子 经济学家观察到,在这类改革运动中存在一种长期以来的模式。这些运动中的行动者可以分为两类——“浸礼会”和“私酒贩子”,这是基于20世纪20年代美国禁酒令的历史例子: • “浸礼会”是真正的信徒社会改革者,他们深深而情感上(尽管不一定是理性上)相信,需要采取新的限制、规章和法律来防止社会灾难。对于禁酒令来说,这些行动者通常是真诚的基督徒,他们认为酒精正在破坏社会的道德结构。对于人工智能风险来说,这些行动者是真正相信人工智能会带来一种或另一种生存风险的人——如果将他们绑在测谎仪上,他们是真心相信的。 • “私酒贩子”是自利的机会主义者,他们在新的限制、规章和法律实施后可以从中获利,并使自己免受竞争对手的影响。对于禁酒令来说,这些人是指那些在合法酒类销售被禁止时,通过非法销售酒精赚取巨额财富的走私者。对于人工智能风险来说,这些人是指那些如果建立起一种由政府批准的人工智能供应商组成的垄断联盟,并受到新创企业和开源竞争的保护,那么他们可以赚更多钱的首席执行官们——这是“太大而不能失败”的银行的软件版本。 愤世嫉俗的人可能会认为,一些表面上的浸礼会也是私酒贩子——特别是那些受他们的大学、智库、活动组织和媒体机构支付薪水或获得拨款来攻击人工智能的人。如果你获得薪水或拨款来煽动人工智能恐慌,你很可能是个走私者。 私酒贩子的问题在于他们会取得胜利。浸礼会是天真的意识形态信奉者,私酒贩子是愤世嫉俗的运作者,因此,这类改革运动的结果通常是私酒贩子得到了他们想要的——获得监管控制、免受竞争的保护、形成垄断,而浸礼会则对社会改善的推动感到困惑。 我们刚刚经历了一个令人震惊的例子——2008年全球金融危机后的银行改革。浸礼会告诉我们,我们需要新的法律和规章来解散“太大而不能失败”的银行,以防止类似危机再次发生。因此,美国国会通过了2010年的多德-弗兰克法案,这被宣传为满足洗礼者目标的法案,但实际上被走私者——大银行——利用了。结果是,2008年那些“太大而不能失败”的银行现在变得更加庞大。 因此,在实践中,即使浸礼会是真诚的,即使浸礼会是正确的,他们也会被狡猾和贪婪的走私者利用,以使自己受益。 这正是当前推动人工智能监管的情况。 然而,仅仅识别行动者并对其动机进行指责是不够的。我们应该根据浸礼会和私酒贩子的论点进行评估。 AI风险 1:人工智能会杀死我们吗? 第一个和最早的人工智能末日风险是人工智能将决定杀死人类的担忧。 我们对技术自身将会崛起并摧毁我们的恐惧在我们的文化中根深蒂固。希腊人通过普罗米修斯神话表达了这种恐惧——普罗米修斯给人类带来了破坏性的火焰力量,更一般地说是技术("techne"),因此普罗米修斯被神永远地折磨。后来,玛丽·雪莱在她的小说《弗兰肯斯坦》中为现代人创造了我们自己的这个神话版本,其中我们开发了永生的技术,然后这个技术崛起并试图摧毁我们。当然,关于人工智能的恐慌报纸报道中必不可少的是詹姆斯·卡梅隆的《终结者》电影中一个闪闪发光的红眼杀人机器人的静止图像。 这个神话的假设进化目的是激励我们认真考虑新技术的潜在风险——毕竟,火确实可以用来烧毁整个城市。但是,就像火同时也是现代文明的基础一样,用来保暖和保护我们在寒冷和充满敌意的世界中,这个神话忽视了大多数甚至可能所有新技术的更大优势,并实际上引起了破坏性情绪而不是理性分析。只因为古人像这样恐慌不安,并不意味着我们也要恐慌;我们可以运用理性。 我认为人工智能会决定杀死人类的想法是一个深刻的范畴错误。人工智能不是经历了数十亿年演化来参与适者生存之争的活生生的存在,如同动物和我们自己。它是数学——代码——计算机,由人类构建、拥有、使用和控制。认为它会在某个时刻发展出自己的思想,并决定它有导致它试图杀死我们的动机是一种迷信的挥手。 简而言之,人工智能没有意愿、没有目标,它不想杀死你,因为它不是活的。人工智能是一台机器——不会比你的烤面包机更有生命。 现在,显然,有些人对人工智能杀手深信不疑——浸入它们的可怕警告的媒体报道突然疯狂增加,其中一些人声称他们研究这个主题已经几十年了,现在对他们所了解的内容感到恐惧不安。其中一些真正相信者甚至是技术的实际创新者。这些人主张对人工智能实施各种离奇而极端的限制,从禁止人工智能的发展一直到对数据中心进行
军事
空袭和核战争。他们主张,因为像我这样的人无法排除人工智能未来可能造成的灾难性后果,我们必须采取一种预防性的立场,可能需要大量的实体暴力和死亡,以防止潜在的存在风险。 我的回应是,他们的立场是非科学的——有什么可测试的假设?什么样的事实可以证明这个假设是错误的?我们如何知道我们何时进入了危险区域?这些问题基本上得不到回答,除了"你无法证明它不会发生!"实际上,这些浸礼会的立场是如此非科学和极端——一个关于数学和代码的阴谋论——他们已经呼吁实施物理暴力,所以我将做一件我通常不会做的事情,质疑他们的动机。 具体而言,我认为有三件事情正在发生: 首先,回想一下约翰·冯·诺伊曼对罗伯特·奥本海默关于他在创造核武器方面的担忧的回应——这有助于结束了第二次世界大战并阻止了第三次世界大战。他说:"有些人为了声称他们的罪行而承认罪行。"什么是以夸张的方式声称自己工作的重要性而不显得过于自夸的最好方式呢?这解释了那些实际上正在建造和资助人工智能的浸礼会的言行不一致——观察他们的行动,而不是他们的言辞。(杜鲁门在与奥本海默会面后更加严厉地说:"别让那个爱哭鬼再进来。") 其次,一些浸礼会实际上是私酒贩子。有一个完整的职业称为"人工智能安全专家"、"人工智能伦理学家"、"人工智能风险研究员"。他们的工作是成为末日预言者,并且应该适当地对待他们的陈述。 第三,加利福尼亚州以众多的邪教而闻名,从EST到人民寺庙,从天堂之门到曼森家族。其中许多,尽管不是所有,邪教是无害的,甚至为在其中找到归宿的疏离感的人提供了帮助。但有些非常危险,邪教往往很难在导致暴力和死亡的那条线上徘徊。 而现实情况是,显然对湾区的每个人都很明显,"人工智能风险"已经演变成一个邪教,突然出现在全球媒体的关注和公众讨论中。这个邪教不仅吸引了一些边缘人物,还吸引了一些真正的行业专家和不少富裕的捐助者——包括直到最近的Sam Bankman-Fried。它发展出了一套完整的邪教行为和信仰。 这个邪教不是什么新鲜事——有一个长期存在的西方传统称为千禧年主义,它产生了启示录邪教。"人工智能风险"邪教具有千年主义启示录邪教的所有特征。从维基百科来看,我做了一些补充: "千禧年主义是一种由一组或运动[人工智能风险预言者]相信社会即将发生根本性转变[人工智能的到来]的信仰,在此之后,一切都将改变[人工智能的乌托邦、反乌托邦或世界末日]。只有戏剧性的事件[对人工智能的禁令、对数据中心的空袭、对非受控人工智能的核打击]被认为能够改变世界[阻止人工智能],而这种变革被认为将由一群虔诚和忠诚的人带来或幸存下来。在大多数千禧年主义情节中,即将到来的灾难或战斗[人工智能的启示或预防]将在之后紧随着一个新的、洁净的世界[人工智能的乌托邦]。” 这种世界末日教派的模式是如此明显,以至于我很惊讶为什么更多的人没有看到。 不要误会,教派是有趣的,他们的书面材料通常很有创意和吸引力,他们的成员在晚宴和电视上也很有魅力。但是他们的极端信仰不应决定法律和社会的未来-显然不应如此。 AI风险2:AI会摧毁我们的社会吗? 广为流传的第二个AI风险观点是,AI将通过产生“有害”的结果(以此类末日论者的说法)来毁灭我们的社会,即使我们并非真正被杀害。 简而言之:如果机器杀手没有伤害我们,仇恨言论和错误信息也会伤害我们。 这是一个相对较新的末日论关注点,它从上面我描述的“AI风险”运动中分支出来,并在一定程度上占据主导地位。实际上,AI风险的术语最近从“AI安全”(由那些担心AI会真正杀死我们的人使用的术语)变为“AI对齐”(由那些担心社会“危害”的人使用的术语)。原始的AI安全人士对这种转变感到沮丧,尽管他们不知道如何将其收回,但他们现在主张将实际的AI风险主题更名为“AI不杀伤所有人主义”(AI notkilleveryoneism),尽管这个术语尚未被广泛采用,但至少很明确。 AI社会风险主张的提示是其自己的术语“AI对齐”。与什么对齐?人类价值观。哪些人类价值观?哦,这就是事情变得棘手的地方。 恰好,我亲眼目睹了类似情况——社交媒体“信任和安全”战争。显而易见的是,多年来,社交媒体服务一直受到政府和活动家的巨大压力,要求他们禁止、限制、审查和压制各种内容。而且“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的担忧直接从社交媒体背景转移到了“AI对齐”的新领域。 我从社交媒体战争中学到的重要经验是: 一方面,不存在绝对的言论自由立场。首先,包括美国在内的每个国家都将至少某些内容视为非法。其次,有某些类型的内容,比如儿童色情和煽动现实世界暴力,几乎被几乎所有社会普遍认为是禁区的内容——无论其是否合法。因此,任何促进或生成内容-言论-的技术平台都将有一些限制。 另一方面,滑坡效应不是谬见,而是必然。一旦建立了对甚至极为糟糕的内容进行限制的框架——例如对仇恨言论,对某些有伤害性的词汇,或对错误信息,显然虚假的主张(比如“教皇去世了”)——各种政府机构、活动家压力团体和非政府实体将迅速行动起来,要求越来越大的审查和压制对他们认为对社会和/或他们个人偏好构成威胁的言论。他们会以包括公然犯罪在内的方式这样做。这种循环在实践中似乎可以永远进行下去,得到我们精英权力结构中充满热情的官方监控员的支持。社交媒体领域的这种情况已经持续了十年,并且除了某些例外情况外,这种情况也在不断加剧。 因此,现在“AI对齐”周围形成了这种动态。其拥护者声称拥抱对社会有益的工程化AI生成的言论和思想的智慧,并禁止对社会有害的AI生成的言论和思想。其反对者声称,思想警察极度傲慢和专横,并且通常是公然犯罪,至少在美国是如此,并且实际上试图成为一种新的由政府-企业-学术融合的权威言论独裁,直接来到乔治·奥威尔的《1984》。 由于“信任和安全”以及“AI对齐”的支持者都集中在以美国沿海精英为特征的全球人口非常狭窄的一部分中,其中包括许多在科技行业工作和撰写文章的人。因此,我的很多读者会发现自己有条件争辩,认为需要对AI输出进行大规模限制以避免破坏社会。我现在不会试图说服你们,我只会简单地说这就是需求的本质,世界上大多数人既不同意你的意识形态,也不希望看到你们胜利。 如果你不同意当前通过不断加剧的言论规范对社交媒体和AI施加的狭窄道德观念,你还应该意识到,AI被允许说什么/生成什么的斗争将比对社交媒体审查的斗争更重要,远远更重要。AI极有可能成为世界上一切的控制层。它被允许如何运作将可能比任何其他事情都更重要。你应该意识到,一小撮孤立的党派社会工程师正在试图在追求保护你的旧说辞的掩护下决定现在的AI应该如何操作。 简而言之,不要让思想警察压制AI。 AI风险3:AI会抢走我们所有的工作吗? 由于机械化、自动化、电脑化或人工智能等各种形式的机器取代人力劳动,人们一直担心失去工作的问题。这种担忧已经持续了数百年,自从出现了机械织布机等机械装置以来。尽管每一项新的重大技术在历史上都会带来更多的高薪工作,但每一波恐慌的出现都伴随着“这一次与以往不同”的说法——这一次会发生,这一次是技术终将给人类劳动以致命打击的时候。然而,这种情况从未发生过。 在最近的过去,我们经历了两次技术驱动的失业恐慌周期——2000年代的外包恐慌和2010年代的自动化恐慌。尽管在这两个十年中,许多传媒人士、专家和甚至技术行业高管都不断敲打桌子,声称大规模失业即将来临,但在2019年年底——也就是COVID爆发之前——世界上的工作机会比历史上任何时候都要多,而且工资也更高。 然而,这个错误的想法却不会消失。 果不其然,它又回来了。 这一次,我们终于拥有了能夺走所有工作并使人类劳动变得无关紧要的技术——真正的人工智能。当然,这一次历史不会简单重复,这一次是:人工智能将导致大规模失业,而不是经济迅速增长、就业机会增多和工资水平上升。对不对? 不是这样,这种情况肯定不会发生,如果允许人工智能在整个经济中得以发展和推广,它可能会导致有史以来最激动人心和持续时间最长的经济繁荣,相应地带来创纪录的就业机会和工资增长——恰恰与人们的担忧相反。原因如下。 自动化杀死就业论者一直在犯的核心错误被称为“劳动总量谬误”。这种谬误是指在任何特定时间内经济中需要完成的劳动量是固定的,要么由机器完成,要么由人类完成,如果由机器完成,那么人们就没有工作可做。 劳动总量谬误是自然而然地从直觉产生的,但这种直觉是错误的。当技术应用于生产时,我们获得了生产力增长——通过减少输入产生的产出增加。结果是商品和服务的价格下降。随着商品和服务价格的下降,我们支付的费用也减少了,这意味着我们现在有额外的消费能力来购买其他东西。这增加了经济中的需求,推动了新的生产——包括新产品和新产业——从而为被机器替代的人们创造了新的工作机会。结果是经济规模扩大,物质繁荣增加,产业增加,产品增加,就业机会增多。 但好消息不仅如此。我们还获得了更高的工资。这是因为在个体工人的层面上,市场根据工人的边际生产力确定报酬。在技术融入的行业中,一名工人的生产力比传统行业的工人更高。雇主要么会根据工人的提高生产力而支付更多的钱,要么另一家雇主会出于纯粹的自利而这样做。结果是,引入技术的行业不仅会增加就业机会,而且会提高工资。 总之,技术使人们能够更加高效地工作。这导致现有商品和服务的价格下降,工资上涨。这反过来又促进了经济增长和就业增长,并激励了新的工作和新产业的创造。如果市场经济能够正常运行,技术能够自由引进,这将是一个永无止境的向上循环。正如弗里德曼所观察到的那样,“人类的欲望和需求是无穷无尽的”——我们总是想要比我们拥有的更多。拥抱技术的市场经济是我们更接近实现每个人都可以想象到的一切,但永远无法完全实现的方式。这就是为什么技术不会摧毁就业岗位,永远不会。 对于那些尚未接触过这些想法的人来说,这些都是令人震惊的思想,可能需要一些时间来理解。但我发誓我并没有编造它们——实际上,你可以在标准经济学教科书中阅读到所有这些观点。我推荐亨利·哈兹利特《一课经济学》中的《机械的诅咒》一章,以及弗雷德里克·巴斯夏的讽刺性作品《蜡烛制造商的请愿书》,这些蜡烛制造商因太阳对照明产业进行了不公平竞争而抗议太阳。我们也有我们这个时代的现代版本。 但你可能会认为这一次与以往不同。这一次,随着人工智能的出现,我们拥有了可以替代所有人类劳动的技术。 但是,按照我上面描述的原则,想象一下如果所有现有的人类劳动都被机器取代会意味着什么。 这将意味着经济生产力增长的起飞速度将是绝对天文数字,远远超过任何历史先例。现有商品和服务的价格将全面下降到几乎为零。消费者福利将飙升。消费者的消费能力将飙升。经济中的新需求将激增。企业家将创建令人眼花缭乱的新产业、新产品和新服务,并尽可能快地雇佣尽可能多的人工智能和工人来满足所有新的需求。 假设人工智能再次取代了这些工人呢?这个循环将重复,推动消费者福利、经济增长和就业与工资增长更高。这将是一种直线式的向上螺旋,将人们带向亚当·斯密和卡尔·马克思从未敢于梦想的物质乌托邦。 我们应该如此幸运。 AI风险4:人工智能是否会导致严重的不平等? 谈到卡尔·马克思,对于人工智能夺走工作岗位的担忧直接引出了下一个声称的人工智能风险,那就是,好吧,Marc,假设人工智能确实夺走了所有的工作,无论是出于好还是出于坏。那么,作为人工智能的所有者获得了所有的经济回报,普通人一无所获,这难道不会导致巨大而且严重的财富不平等吗? 恰好,这是马克思主义的一个核心论点,即生产资料的所有者——资产阶级——不可避免地会从实际劳动的人们——无产阶级——那里窃取所有的社会财富。无论现实如何一再证明这是一个错误,这个谬论似乎永远无法消亡。但让我们无论如何驳斥它。 这个理论的缺陷在于,作为一件技术的所有者,保留不分享它并不符合你自身的利益——事实上恰恰相反,你的利益是将它销售给尽可能多的客户。世界上最大的市场是全世界的市场,包括80亿人口。因此,在现实中,每一项新技术——即使开始时是向高薪大公司或富裕消费者销售——都会迅速普及,直到它落入尽可能大的大众市场的手中,最终覆盖整个地球上的人。 这个经典的例子是埃隆·马斯克在2006年发布的所谓“秘密计划”——他当然公开发布的——关于特斯拉的计划: 第一步,制造[昂贵的]跑车; 第二步,用第一步挣的钱造一辆价格实惠的车; 第三步,用第二步挣的钱造一辆更实惠的车。 这当然是他所做的事情,结果成为世界首富。 最后一点是关键的。如果今天他只卖车给有钱人,马斯克会更富有吗?不会。如果他只为自己造车,他会比现在更富有吗?当然不会。不,他通过销售给尽可能大的市场全世界,来最大化自己的利润。 简而言之,每个人都能够拥有这个东西,正如我们过去在汽车、电力、无线电、计算机、互联网、移动电话和搜索引擎等领域所看到的。制造这些技术的公司高度积极地降低价格,直到地球上的每个人都能够负担得起。这正是人工智能领域已经发生的事情——这就是为什么你今天可以在微软Bing和谷歌Bard等形式的免费或低成本的最先进的生成式人工智能上使用它——而且这将继续发生。不是因为这些供应商愚蠢或慷慨,而恰恰是因为他们贪婪——他们希望最大化市场规模,从而最大化利润。 因此,发生的情况与技术推动财富集中的理论相反——技术的个体用户,最终包括地球上的每个人,反而被赋予权力,并获得了大部分产生的价值。与之前的技术一样,构建人工智能的公司——假设它们必须在自由市场中运作——将竞相努力使这一点成为现实。 马克思当时错了,现在也错了。 这并不是说不平等在我们社会中不是一个问题。它是一个问题,只是它不是由技术驱动的,而是相反,是由那些对新技术最抵制、政府干预最多以阻止采用人工智能等新技术的经济部门驱动的,具体来说是住房、教育和医疗保健。人工智能和不平等的实际风险不在于人工智能会导致更多的不平等,而在于我们不允许使用人工智能来减少不平等。 AI风险5:人工智能是否会导致坏人做坏事? 到目前为止,我已经解释了五个最常提出的人工智能风险中有四个实际上并不真实的问题——人工智能不会活过来杀死我们,人工智能不会摧毁我们的社会,人工智能不会导致大规模失业,人工智能不会导致破坏性的不平等增加。但是现在让我们来讨论第五个,这也是我实际上同意的一个:人工智能会让坏人更容易做坏事。 从某种意义上说,这是一个循环论证。技术是一种工具。从火和石头开始,工具可以用来做好事——烹饪食物和建造房屋——也可以用来做坏事——烧伤人和殴打人。任何技术都可以被用于好的或坏的目的。可以理解。而人工智能会让罪犯、恐怖分子和敌对政府更容易做坏事,毫无疑问。 这让一些人提出,好吧,既然这样,那么在这种情况下,让我们在坏事发生之前禁止人工智能。不幸的是,人工智能不是一种难以获得的玄妙物质,比如钚。恰恰相反,它是世界上最容易获得的材料——数学和代码。 显然,AI猫已经出了包。你可以通过数千个免费在线课程、书籍、论文和视频学习如何构建人工智能,而且每天都有杰出的开源实现在不断增加。人工智能就像空气一样——它将无处不在。为了抓捕它,所需要的极权压迫程度将是如此严厉——一个监视和控制所有计算机的世界政府?戴着黑色直升机的武装警察突袭流氓GPU?——我们将没有一个社会来保护。 因此,我们有两种非常直接的方式来应对坏人利用人工智能做坏事的风险,而这正是我们应该关注的。 首先,我们已经制定了法律来让使用人工智能干坏事的大多数行为犯罪化。黑入五角大楼?那是犯罪。从银行偷钱?那是犯罪。制造生物武器?那是犯罪。实施恐怖袭击?那是犯罪。我们只需专注于在可能时预防这些犯罪,并在不能时予以起诉。我们甚至不需要新的法律——我不知道是否有一个已经被提出的恶意利用人工智能的实际案例不是已经是非法的。如果发现了新的坏用途,我们禁止那些用途。证毕。 但是你会注意到我刚才提到的——我说我们应该首先专注于在坏事发生之前防止人工智能辅助犯罪——这难道不意味着要禁止人工智能吗?好吧,还有另一种方法可以防止这样的行为,那就是将人工智能作为一种防御性工具。让拥有坏目标的坏人具备能力的人工智能,同样也在好人手中具有强大的力量——特别是那些负责防止坏事发生的好人。 例如,如果你担心人工智能生成虚假人物和虚假视频,答案是构建新的系统,使人们可以通过加密签名验证自己和真实内容。在人工智能之前,数字化创造和修改真实和虚假内容已经存在;答案不是禁止文字处理器和Photoshop——或者人工智能——而是利用技术构建一个真正解决问题的系统。 因此,第二个方法是,让我们大力利用人工智能进行善意、合法和防御性的目的。让我们在网络防御、生物防御、追踪恐怖分子以及我们为保护自己、社区和国家所做的一切其他方面利用人工智能。 当然,政府内外已经有许多聪明人正在做这样的工作——但是如果我们将目前那些专注于无效的禁止人工智能的努力和智力用于使用人工智能来防止坏人做坏事,我相信一个充斥着人工智能的世界将比我们今天生活的世界更加安全。 不以最大力量和速度开展人工智能的真实风险 还有一个最终而真实的人工智能风险可能是最令人恐惧的: 人工智能不仅在相对自由的西方社会中得到开发,也在中国得到开发。 中国对人工智能有着与我们截然不同的愿景。他们对此甚至并不保密,他们非常明确地表示,他们已经在追求他们的目标。而且,他们不打算将人工智能战略限制在中国境内——他们打算在他们提供5G网络、提供“一带一路”贷款、提供像TikTok这样的友好消费应用作为他们集中控制和指挥的人工智能前端的地方,将其传播到全世界的每一个角落。 人工智能的最大风险就是中国在全球人工智能主导地位上取得胜利,而我们——美国和西方——却没有取得胜利。 我提出了一个简单的策略来应对这个问题——事实上,这也是罗纳德·里根总统在与苏联赢得第一次冷战时采取的策略。 “我们赢,他们输。” 与其被围绕着关于人工智能杀手、有害人工智能、破坏就业岗位的人工智能和产生不平等的人工智能等毫无根据的恐慌放在被动位置,我们美国和西方应该尽可能全力投入人工智能。 我们应该争取全球人工智能技术优势的竞赛,并确保中国不会取得胜利。 在这个过程中,我们应该尽可能快速、尽可能大力地将人工智能引入我们的经济和社会,以最大化其对经济生产力和人类潜能的利益。 这是抵消真正人工智能风险和确保我们的生活方式不被中国愿景所取代的最佳方式。 我们该怎么办? 我提出了一个简单的计划: • 大型人工智能公司应该被允许尽快、尽可能激进地构建人工智能——但不能实现监管垄断,不能建立一个由政府保护的卡特尔,由于对人工智能风险的不正确宣称而免于市场竞争。这将最大限度地发挥这些公司惊人能力的技术和社会回报,它们是现代资本主义的宝石。 • 初创人工智能公司应该被允许尽快、尽可能激进地构建人工智能。它们既不应该面对大公司获得政府授予的保护,也不应该获得政府援助。它们应该只被允许竞争。如果初创公司不成功,它们在市场上的存在也将不断激励大公司发挥出色——我们的经济和社会无论如何都是赢家。 • 开源人工智能应该被允许自由传播和与大型人工智能公司和初创公司竞争。开源应该没有任何监管壁垒。即使开源没有战胜公司,其广泛可用性也对世界各地想要学习如何构建和使用人工智能以成为技术未来一部分的学生们是一个福音,并确保无论他们是谁、有多少钱,人工智能都对他们可用。 • 为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作应该积极参与潜在风险领域的每一个方面,利用人工智能最大化社会的防御能力。这不应仅限于人工智能风险,而是包括更一般的问题,如营养不良、疾病和气候问题。人工智能可以是解决问题的极其强大的工具,我们应该将其视为这样的工具。 • 为了防止中国取得全球人工智能主导地位的风险,我们应该充分利用我们的私营部门、科研机构和政府的力量,共同推动美国和西方人工智能在全球范围内的绝对主导地位,最终甚至在中国境内也如此。我们赢,他们输。 这就是我们如何利用人工智能拯救世界。 是时候行动了。 传奇与英雄 我以两个简单的陈述来结束。 人工智能的发展始于上世纪40年代,与计算机的发明同时开始。第一篇关于神经网络的科学论文——即我们今天拥有的人工智能的架构——发表于1943年。在过去的80年中,整个一代人的人工智能科学家出生、上学、工作,很多情况下去世,他们没有看到我们现在所获得的回报。他们是传奇,每一个人。 如今,越来越多的工程师——其中许多人年轻,可能有祖父母甚至曾祖父母参与了人工智能背后思想的创造——正努力将人工智能变为现实,尽管有一堵试图将他们描绘成鲁莽的恶棍的恐慌和悲观主义的墙。我不认为他们鲁莽或者是恶棍。他们是英雄,每一个人。我和我的公司非常高兴支持尽可能多的他们,我们将100%地支持他们和他们的工作。 "多年来,千年主义者经常[人工智能风险预言者不断地]试图预测这种未来事件的确切时间,通常是通过各种标志和先兆的解释。然而,历史上的预测几乎都以失败告终[目前没有可靠的证据表明人工智能会杀死人类]。然而,他们的[人工智能风险预言者的]粉丝通常会试图修正解释,以便与事件发生时[人工智能未来的潜在风险]相对应。" 那些热衷于"人工智能风险"邪教的人可能会不同意我的观点,他们可能会坚称他们是理性的、基于科学的,并且我是一个被洗脑的追随者。但请注意,我并没有声称"人工智能绝对不会成为人类的威胁"。我只是指出,迄今为止没有证据支持"人工智能将杀死我们"这一论点。我们应该根据现有的证据进行理性的评估,而不是沉溺于邪教般的恐慌和反应。 来源:金色财经
lg
...
金色财经
2023-06-07
中美最新消息!布林肯将于未来几周访问中国 韩国议员:中美像一个火药桶,随时会爆炸
go
lg
...
月份时称,该飞行器能够从几个敏感的美国
军事
地点收集情报。 时任美国国务院发言人普莱斯说,布林肯当时向中国最高外交官王毅表示,放飞气球是“一种不负责任的行为,明显侵犯了美国主权和国际法,破坏了此行的目的”。 中国外交部此前称该气球为用于气象研究的“民用飞艇”。 事件发生后,美国和中国的关系急转直下,领导人推迟或拒绝谈判。就在上周,中国拒绝了美国要求两国国防部长在新加坡举行的安全峰会上会面的请求。 台湾和领土紧张局势是两位领导人讨论的话题之一,这些问题在接下来的几个月里没有消失。 美国国家安全委员会发言人柯比周二说,拜登“有信心”两国能够“恢复巴厘岛的精神”。他指的是去年11月的会议。 美国军方周一公布了上周末的一段视频,据美国军方说,视频显示一艘中国军舰和一艘美国驱逐舰在台湾海峡相距不到150码。一名中国政府代表周一在接受NBC新闻采访时对此进行了辩护,称“中国一直尊重航行权”。 有关台湾未来的辩论,预计将是布林肯访问北京时的重要议题。 自1979年通过《与台湾关系法》(Taiwan Relations Act)以来,美国通常拒绝透露是否会保护台湾免受中国大陆入侵,这一政策被称为“战略模糊”。该法案要求美国向台湾提供防御性武器,并明确表示华盛顿与北京建立外交关系的期望是和平决定台湾的未来。 与此同时,美国和中国之间的其他争论点也继续使两国关系恶化:去年10月,拜登政府限制向中国出售关键半导体,中国外交部长称此举为“欺凌策略”。布林肯还说,中国对维吾尔少数民族的系统性拘留构成了“种族灭绝和反人类罪”,他一直严厉批评中国镇压香港和西藏的公民自由。 布林肯即将到来的访问也可能旨在缓解美国在印度-太平洋地区的主要盟友,如韩国和日本的安全担忧。 今年3月,韩国国会外交事务委员会成员、韩国众议员李在祯在接受美国全国广播公司采访时表示:“中美两国关系的现状就像一个火药桶,我担心随时会爆炸。”
lg
...
财经风云
2023-06-07
苹果的Vision Pro VR头显值3499美元吗?掏腰包前先读读这个
go
lg
...
价格数千美元的商业级虚拟现实耳机,用于
军事
模拟等活动。 但大多数人愿意付多少钱呢?他说,500美元的价格是大多数消费者目前能承受的最高价格,而不是3500美元。顺便说一句,这是美国月供中位数的两倍多 恩德勒说:“消费者还没有意识到,他们想要的是那种价位的设备。”“这将需要大量的营销工作。”周一收盘时,苹果股价下跌0.76%。道琼斯工业股票平均价格指数收跌0.6%,标准普尔500指数收跌0.2% 消费者正在寻求真实的体验 如果你现在不打算购买电子产品,你并不孤单。 阿诺德说,与2020年和2021年相比,在COVID-19大流行的早期,消费者在电子产品上的支出减少了。他指出,为体验付费和应对通货膨胀是消费类电子产品的消费优先级较低的两个原因。 根据消费市场和分析公司Numerator的数据,在接下来的几个月里,超过三分之一的消费者表示,由于价格上涨,他们将削减电子产品的开支。 与去年同期相比,消费电子产品的销售收入从1月到4月下降了13%,特别是VR头显的销售收入下降了64%,阿诺德说。 阿诺德表示,去年美国消费者购买了420万部VR头显,低于2021年的500万部。他指出,截至今年4月,消费者已经购买了48.5万台耳机。根据Circana的研究,拥有VR头显的人往往是年轻、富裕的男性。 Enderle说:“现在推出一款昂贵的产品是不合适的。” 许多美国年轻人已经有很多事情要做。夏末恢复学生贷款偿还迫在眉睫。在冻结了三年多的支付之后,作为拜登总统周六签署的提高联邦政府债务上限政治协议的一部分,这笔支付将于9月恢复。 与此同时,最高法院正在决定是否应该阻止拜登取消借款人至多2万美元学生债务的命令。预计这项裁决将于本月晚些时候做出,届时最高法院目前的任期将结束。 摩根大通(JPMorgan)分析师上周说,包括百思买(Best Buy)在内的零售商将间接感受到压力,因为重启贷款后,许多消费者的可支配收入将减少。 Meta和索尼有更便宜的VR头显 对于消费者来说,Vision Pro的价格很高。以下是与3499美元的苹果设备的价格对比。 Facebook母公司Meta的虚拟现实头盔Meta Quest Pro的价格从1499美元降至999美元。Meta Quest 3将于秋季上市,起价为499美元。索尼(Sony) PlayStation VR2的售价为549.99美元。 Enderle表示,Meta迅速进军面向消费者的虚拟和增强现实市场,“设定了500美元左右的预期价格点”。 阿诺德说,将会有一些早期的采用者想要第一个看到苹果在虚拟和扩展现实方面的表现。“谈谈自己是朋友圈里最酷的人,或者是邻居中最受欢迎的人。这是有价值的,”他说。 但苹果的设备——凭借“pro”这个词——表明了它对开发者的关注。 阿诺德说,Vision Pro看起来确实“非常令人印象深刻”。价格可能会很高,但他指出,也有更高端的MacBook Pro,价格在3,500美元左右。“我认为这是一个开发者版本,我们可能会看到一些更迎合日常消费者的东西。” 恩德勒表示同意。他说,苹果最终可能会推出一款更便宜的Vision Pro。但只有当开发者看到值得开发的消费市场时,他们才会为头戴式耳机开发扩展现实应用和功能。 “你需要开发商对市场感到兴奋,”他说。“这是一个巨大的问题。” 根据周一的声明,Disney+应用DIS从一开始就将成为Vision Pro的一部分。 但恩德勒质疑,这种安排与Vision Pro的功能相结合,是否足以吸引寻求新内容和新体验的买家。他说:“我们确实没有一个适合这款耳机的生态系统。”
lg
...
金融界
2023-06-07
人工智能用于战争?!“假普京”发布紧急讲话,俄多家电台遭黑客攻击
go
lg
...
人物的虚假信息的风险越来越大,”前英国
军事情报
官员和北约策划人Colonel Philip Ingram说。“在战争宣传中,‘深度伪造’以一种令人信服的方式传递,以达到
军事
或政治效果,它们是一种预期的武器——但它们可能非常有说服力。” 这次明显的网络攻击发生在亲乌克兰武装分子打着自由俄罗斯军团和俄罗斯志愿军的旗号,发动了一连串越境袭击。据称,这些武装分子是俄罗斯公民,意图反抗普京的统治。周日,其中一个组织表示,它在一次这样的袭击中俘虏了数十名囚犯,并将用他们交换被俘的乌克兰士兵。 越来越多的人预计,基辅将发动大规模进攻,夺回被俄罗斯占领的领土。让莫斯科军队处于劣势,迫使他们投入稀缺的人力和武器来保卫1000公里长的共同边界的努力已经升级。 乌克兰国防部副部长Hanna Maliar周一表示,乌克兰军队正在前线的一些地区“转向进攻行动”。与此同时,基辅地面部队指挥官Oleksandr Syrskyi说,他的部队正在向有争议的城市巴赫穆特“前进”。 “乌克兰方面,或者那些代表他们行事的人,正在玩一个聪明的游戏,他们利用俄罗斯久经考验的战术来传播混乱,反对他们,”俄罗斯宣传专家,也是一本关于这场战争的新书的作者Ian Garner说,“随着模糊真相与现实界限的视频和新闻报道不断出现,亲乌克兰的演员将让俄罗斯民众保持警惕。”
lg
...
超启
2023-06-06
中美会谈基调乐观!中美外交官员在北京会晤,但风险犹存
go
lg
...
列问题而恶化,台海局势以及在南中国海的
军事
活动。 但批评人士质疑美国对中国的友好姿态,认为过去几十年的接触未能改变中国的行为。 中国官方报纸《环球时报》周一晚些时候报道,最近中美之间的互动表明,双方都在努力管控争端,但如果华盛顿不停止挑衅,不表现出改善关系的诚意,冲突的风险仍将上升。 《环球时报》写道,中美关系已经进入了一个“更加复杂”的阶段——虽然中国愿意稳定关系,并对可能的合作持开放态度,但它也将坚决反击美国的挑衅。 Kritenbrink周二在北京被记者问及双边关系的现状时表示:“我们正在尽最大努力管理好两国关系。”
lg
...
超启
2023-06-06
会员
中俄突发!中国和俄罗斯刚刚进行联合空中战略巡航
go
lg
...
逻,该行动恰逢美国及其盟友在亚太地区的
军事演习
和演习增加。 中国国防部周二在一份声明中表示,根据中俄两军年度合作计划,6月6日,双方在日本海、东海相关空域组织实施第6次联合空中战略巡航。 在去年11月中国与俄罗斯的最近一次联合空中巡逻中,在中国的轰-6k轰炸机、俄罗斯的图-95轰炸机和苏-35战斗机进入韩国防空识别区(KADIZ)后,韩国紧急起飞战斗机。 在中国轰炸机和两架俄罗斯无人机飞入日本海后,日本当时也紧急出动战机。 防空识别区是一个国家要求外国飞机采取特殊步骤来表明自己身份的区域。与一个国家的领空(即其领土和领海之上的空域)不同,防空识别区没有国际规则。 在2022年5月的巡逻中,中国和俄罗斯战机靠近日本领空,当时东京正在与美国、印度和澳大利亚领导人举行四方峰会。这让日本感到震惊,尽管中国表示,这些飞行并非针对第三方。 路透社称,中国在该地区日益增强的
军事
自信引起邻国以及美国等西方盟友的担忧。自上周以来,美国、日本和菲律宾的海岸警卫队在南中国海举行了首次三边海军演习。 上周末,当美国和加拿大海军在敏感的台湾海峡进行联合演习时,一艘中国军舰距离一艘美国驱逐舰不到150码(约合137米),引发对演习安全性的抱怨。 在此之前不久,一段视频显示,一架中国战斗机从一架美国RC-135侦察机的机头前飞过,RC-135的驾驶舱在飞行造成的湍流中摇晃。
lg
...
tqttier
2023-06-06
上一页
1
•••
514
515
516
517
518
•••
725
下一页
24小时热点
美国重大突发!洛杉矶爆发“暴乱”,特朗普紧急出兵 警方向抗议人群开枪
lg
...
中美重磅!特朗普称习近平已同意重启稀土供应 并确定中美贸易谈判日期
lg
...
今日:全球都盯着中美伦敦会谈!中国率先进入牛市,特朗普下令“解放”洛杉矶
lg
...
中美突传重磅消息!华尔街日报:出口管制将是美中贸易谈判首要议题
lg
...
为金价巨震做准备!ChatGPT预测6月底金价 这些情景下黄金会怎么表现?
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
34讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论