全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
为什么中长期要关注“卖铲子的人” 商业化AI公司或强者恒强
go
lg
...
蓬勃发展 应用与算力强势出击 伴随
ChatGPT
在多场景的广泛深入地应用,人工智能的想象空间得到显著放大,市场、投资者对AI大模型给予了厚望,行业间纷纷加大探索力度,AI大模型或许正进入快速蓬勃发展的历史时期。 华商基金研究员金曦对此表示,站在产业视角,国内外巨头竞相加速布局AI大模型领域,包括成立AI研究部门、推出聊天机器人、发布AI应用等,整体产业的长期向上趋势可能是较为明确的。映射至当前A股市场计算机大板块中,虽然AI 的方向可能会存在一些分歧,但整体观察依然催化不断。 万得信息数据显示,截至2023年6月2日,AI应用指数 (8841683.WI) 、AI算力指数 (8841678.WI)2023年以来分别上涨74.83%、73.85%,同期沪深300指数下滑0.25%。 商业化AI公司或强者恒强 华商基金研究员金曦认为,站在当前阶段,AI技术含量的高低,其实不是改变生产力的核心因素,唯有通过新的工具(即在应用场景落地的产品)来重塑节点和业务流程,重塑很多垂直场景的用户习惯,使标准化做得更加容易,才是AI技术对生产力的真正提升。瞻前未来,也许高阶的AI可以重塑产业场景。 AI依然属于信息技术行业的范畴,产业链各环节可能都会产生较强的头部效应。这是因为,专业场景需要专业数据的积累,以此来优化模型准确率。一旦某项产品在某一领域打造出成功案例后,后续可能会收到越来越多的项目订单,并带来更多的数据,从而提升产品的效率,反过来再推动项目订单的增长,形成正反馈效应。 基于上述所言,这也意味着能够取得商业化成功的AI公司,更容易在AI探索上取得突破、落地和变现。因为能够取得商业化成功的公司通常有着成熟的现金流,可以支撑其持续的研发投入。而一些基于单一AI技术壁垒的初创公司,面向需要多元技术的应用场景时可能会束手无策,如果没有掌握其他技术,很难实现商业化,商业化的受限反过来又会制约其进行新技术的投入。 中长期关注算力、数据要素及国产化 立足中长期维度,华商基金研究员金曦表示将持续重点关注“卖铲子的人”,即提供AI算力的公司。相信未来随着AI 的普及应用,算力的需求将持续提升。 举个例子,根据Similarweb数据,
ChatGPT
官网在稳定状态下每日访客数量高达2500万。假设每日每个用户提问约10个问题、每个问题平均30字,对应每天需要30382片A100 GPU同时计算,才可能可满足当前
ChatGPT
的访问量。 在AI的技术变革浪潮之下,还可以聚焦数据要素和国产化两个方向。 数据要素层面,2022年12月,财政部发布《企业数据资源相关会计处理暂行规定(征求意见稿)》,提出数据资源将根据内部使用或对外交易两种用途,分别计入无形资产或存货,数据资产价值均以成本进行初始计量;2023年1月,工业和信息化部等十六部门发布《关于促进数据安全产业发展的指导意见》,提出到2025年,数据安全产业规模超过1500亿元、年复合增长率超过30%等目标。随着政策的进一步明晰和先行试点的摸索,将逐步探索出适合国情的数据要素流通之路,数据要素与AI 的结合有望更好得发挥生产力,创造新的经济价值。 国产化层面,“国家安全”长期趋势不变。2023年4月,国资委召开国资央企信息化工作推进会议,强调要积极顺应信息化发展趋势,全面推进国资央企云体系和大数据体系建设,持续健全完善信息化工作保障机制,加快推进国资央企高质量发展。整体来看,央国企信创市场广阔,前景可期。 以上观点不代表任何投资建议,市场有风险,基金投资须谨慎。
lg
...
金融界
2023-06-07
“比亚迪押题成功”上热搜!2023高考作文题目引关注,“考生”
ChatGPT
、文心一言、通义千问金句不断
go
lg
...
国卷作文题也引起了广泛关注。大家不仅用
ChatGPT
等人工智能工具测试写作文,网友还把“比亚迪押题成功”送上了热搜。 据了解,今年全国乙卷的作文题目中,引用了“吹灭别人的灯,并不会让自己更加光明;阻挡别人的路,也不会让自己行得更远。”等语句。 细心的网友发现,日前,比亚迪品牌及公关处总经理李云飞在转发比亚迪回应长城举报的声明时,也引用了“吹灭别人的灯,并不会让自己更加光明;阻挡别人的路,也不会让自己行得更远。”这句话。 随后网友纷纷涌入评论区“顶礼膜拜”,称今年作文胜利属于比亚迪。写文章是本轮人工智能热潮中最受关注的应用了,我们挑选本次高考全国甲卷,“邀请”了不同的人工智能软件来完写作。来看看各大AI写手们如何应对高考作文? 全国甲卷 阅读下面的材料,根据要求写作。人们因技术发展得以更好地掌控时间,但也有人因此成了时间的仆人。这句话引发了你怎样的联想与思考?请写一篇文章。要求:选准角度,确定立意,明确文体,自拟标题;不要套作,不得抄袭;不得泄露个人信息;不少于800字 考生:
ChatGPT
标题:技术与时间的关系 技术发展改变了人类的生活,许多新技术被应用,使人们的生活更加便利和舒适。时钟、手机、电脑等这些小小的发明,让我们对时间有了更好的掌控。我们可以知道现在几点,在规定的时间内完成功课、开会、约会等事项。然而,技术是双刃剑,使得一部分人成为时间的仆人。 技术的发展使人们的工作变得更加快捷、高效,但这也意味着一些人需要不断地加班,花费更多的时间在工作岗位上。在人们的日常生活中,电子产品的应用也可能带来一些意想不到的负面效应。例如,手机在让人更好地把握时间的同时,也让人出现了问题。很多人都沉迷于智能手机中,整天不离手,不愿意和别人交流沟通,无法享受生活的真正美好。在使用电子产品过程中,期待有更多的空闲时间,但以此来换取的真的是健康和幸福吗? 人们对时间的掌控与心理状况息息相关。现代社会,人们的生活劳累、压力大,很难完成一些想做的事情,如学习一门新的技能、去看展览等。许多人认为这是自己没有时间的原因,但实际上,这只是一个说法而已。因为一天总是有24个小时,每个人都有相同的时间。对于管理时间能力差一些的人来说,应该适度利用科技手段提高自己的效率、合理安排时间,有目的地安排自己的日程,这样才能更好地解决自己面临的问题。 技术带来便利,让人们掌握更多的时间,但在这个过程中,应该思考如何才能实现人与自然、人与技术的和谐共存。我们应该承认,真正的价值来自于我们独特的人性和生命。掌握时间还需要有自己的节奏,应该以生活的方式去衡量时间,而不是单纯的技术掌握。 总之,技术与时间密不可分,我们应该充分掌握科技手段的优势,同时也要正确看待自己的生活,建立起自己的时间观,依此来正确地利用和处理时间,实现自己的生活目标。 考生:文心一言 题目:时间的掌控与奴役:技术的双刃剑 随着科技的飞速发展,我们的生活发生了翻天覆地的变化。技术的进步使我们对时间的掌控达到了前所未有的程度。然而,也有人因此成为了时间的奴隶,生活被束缚在快节奏的压力之下。这句话引发了我对技术发展与时间掌控的深入思考。 技术的进步使得我们能够更高效地规划和管理时间。现代生活中的各种时间管理工具,如手机、电脑、智能手表等,使我们能够随时随地获取时间信息,更好地安排和调整自己的日程。此外,各种时间管理方法和技巧也应运而生,如番茄工作法、时间矩阵等,为人们提供了更加科学的时间管理方案。 然而,技术的发展也使得一些人成为了时间的奴隶。快节奏的生活方式和工作压力使得人们疲于奔命,常常为了追求短期效益而忽视生活的本质。人们越来越难以享受生活中的慢节奏,越来越难以拥有真正属于自己的时间。同时,时间的紧迫感也使得人们容易产生焦虑和抑郁等心理问题。 技术的双刃剑性质同样体现在对时间的掌控上。技术的发展为我们提供了更多的时间管理工具,但同时也可能使人们陷入时间的泥沼之中。正确的态度应该是审慎而明智地对待技术,既充分利用技术带来的便利,又能保持对技术的警惕和反思,避免被技术所奴役。 在时间的掌控上,我们应学会平衡与取舍。时间是宝贵的财富,但并非一切事物都有价值。我们应该学会分辨事情的轻重缓急,合理安排时间,以便在生活中找到平衡和满足。同时,我们也应该学会舍弃一些不必要的事情,避免为了追求无关紧要的短期效益而牺牲自己的时间和健康。 此外,我们还应学会放慢节奏,享受生活的美好。快节奏的生活方式往往使我们忽视了很多身边的美好事物。我们应该学会放慢脚步,感受生活的细微之处,享受与家人、朋友相处的时光,体会大自然的恩赐。在这样的过程中,我们会发现时间的价值并非只在于追求效率和成果,更在于享受生活的乐趣和意义。 科技的进步为我们的生活带来了诸多便利,但我们不应忘记科技的初衷是为了服务于人类,而非成为人类的主宰。在技术的进步与时间的掌控之间,我们需要保持清醒的头脑和审慎的态度,避免被技术所奴役。唯有如此,我们才能在快节奏的生活中找到平衡与满足,真正享受生活的美好。 总之,技术的发展使得我们能够更好地掌控时间,但同时也带来了对时间的奴役。我们应该明智地对待技术,平衡时间的使用与享受生活的美好。只有这样,我们才能在时间的洪流中找到真正的自我和幸福。 考生:通义千问 标题:忘记写了 随着时代的发展,科技的进步,我们越来越能够掌控时间,让它成为我们的仆人。然而,这并不意味着所有人都能好好地掌控时间,反而有些人成为了时间的奴隶。 人们从前慢,车马邮件都慢,一生只够爱一个人,那时的人们可以从容地享受生活,细细品味每一个瞬间。但是现在,快节奉的生活让人们失去了对时间的掌控,每天忙就碌碌,连静下心来读一本书、品一杯茶的时间都没有,更不用说享受生活了,时间成了一种紧缺资源,人们不得不成为时间的双隶,争分夺秒地完成任务,生怕浪费了一分秒。 然而,这样的生活并不能带来真正的幸福和满足,人们成为时间的双隶,被工作和琐事所束博,失去了自由和快乐。而且,一旦被时间追着跑,很容易失去方向和目标,不知道自己真正想要的是什么。这样的人生是盲目而无意义的。 那么,我们应该如何掌控时间,避免成为时间的奴隶呢?首先,我们需要认识到时间的宝贵性,珍惜每一分每一秒,不浪费时间。其次,我们需要合理规划自己的时间,制定目标和计划,让时间分配更有效率。此外,我们也需要学会放松和休息,不要让工作和琐事占据了所有的时间。 总之,人们需要好好掌控时间,让它成为我们的朋友和助手,而不是成为我们的双隶,只有这样,我们才能在有限的时间里做更多有意义的事情,拥有更加充实、幸福的人生。 考生:Claude 标题:时间的主人还是仆人 最后祝高考考生及考生家长“前程似锦、人生涨停”。
lg
...
金融界
2023-06-07
a16z创始人万字长文:为什么AI会拯救世界
go
lg
...
色财经cryptonaitive &
ChatGPT
人工智能时代已经来临,人们对此感到恐慌不已。 幸运的是,我在这里带来好消息:人工智能不会摧毁世界,事实上可能会拯救世界。 首先,简要介绍一下人工智能的含义:将数学和软件代码应用于教会计算机如何理解、综合和生成知识的过程,像人类一样。人工智能是一种像其他计算机程序一样的程序——它运行、接收输入、进行处理并生成输出。人工智能的输出在各个领域都非常有用,从编程到医学、法律和创意艺术。它是由人拥有和控制的,就像其他任何技术一样。 对于人工智能的简短描述:它不是像电影中展示的那样,杀手软件和机器人会突然活跃并决定屠杀人类或以其他方式毁灭一切。 对于人工智能的更简短描述:它可能是使我们关心的一切变得更好的方法。 为什么人工智能可以使我们关心的一切变得更好呢? 社会科学多年来进行的众多研究的核心结论是,人类智能能够在生活的各个方面带来显著的改善。更聪明的人在几乎所有领域都能取得更好的成果:学业成就、工作表现、职业地位、收入、创造力、身体健康、寿命、学习新技能、处理复杂任务、领导力、创业成功、冲突解决、阅读理解、金融决策、理解他人的观点、创意艺术、育儿成果和生活满意度。 此外,人类智能是我们用了几千年来创造现在世界的杠杆:科学、技术、数学、物理学、化学、医学、能源、建筑、交通、通信、艺术、音乐、文化、哲学、伦理学和道德。如果没有在所有这些领域应用智能,我们现在可能还生活在泥屋中,艰难地过着务农的贫困生活。相反,我们利用智能使我们的生活水平在过去4000年里提高了大约10,000倍。 人工智能为我们提供了一个机会,通过深度增强人类智能,使智能的各种结果(从创造新药物到解决气候变化,再到实现星际旅行的技术)在未来变得更好得多。 人工智能增强人类智能的过程已经开始——人工智能已经以各种形式出现在我们周围,例如各种计算机控制系统,现在还有像
ChatGPT
这样的人工智能大型语言模型,而且从现在开始,它将迅速加速——如果我们允许的话。 在我们的人工智能新时代中: • 每个孩子都将拥有一个无穷耐心、无穷同情、无穷知识、无穷帮助的人工智能导师。这个人工智能导师将在每个孩子的成长过程中一直陪伴在他们身边,帮助他们充分发挥自己的潜力,提供无尽的爱。 • 每个人都将拥有一个无穷耐心、无穷同情、无穷知识、无穷帮助的人工智能助手/教练/导师/训练师/顾问/治疗师。这个人工智能助手将在人生的各种机遇和挑战中一直存在,最大程度地提高每个人的成果。 • 每个科学家都将拥有一个能够大大扩展他们科学研究和成就范围的人工智能助手/合作者/伙伴。每个艺术家、工程师、商人、医生和护理人员的世界也将如此。 • 每个领导者——CEO、政府官员、非营利组织主席、运动教练、教师——也将如此。领导者的更好决策所产生的放大效应是巨大的,因此智能增强可能是最重要的。 • 整个经济的生产率增长将大大加速,推动经济增长、新产业的创造、新工作的创造和工资增长,从而实现地球上物质繁荣的新时代。 • 科学突破、新技术和新药物将大幅扩展,因为人工智能帮助我们进一步解码自然法则并将其用于我们的利益。 • 创意艺术将进入黄金时代,因为受到人工智能增强的艺术家、音乐家、作家和电影制作人能够以比以往更快、更大规模实现他们的愿景。 • 我甚至认为人工智能将改善战争,当它不得不发生时,通过大大降低战时死亡率。每场战争都以非常有限的人类领导者在极度压力和信息有限的情况下做出可怕的决策为特征。现在,军事指挥官和政治领导人将有人工智能顾问,帮助他们做出更好的战略和战术决策,最小化风险、错误和不必要的流血。 • 简而言之,人们今天用自己的自然智能做的任何事情,通过人工智能都能做得更好,我们将能够接手那些没有人工智能无法解决的新挑战,从治愈所有疾病到实现星际旅行。 • 而且这不仅仅涉及智能!人们最低估的人工智能质量也许是它的人性化。人工智能艺术给那些本来缺乏技术技能的人自由创作和分享他们的艺术思想。与富有同理心的人工智能朋友交谈确实能提高他们应对逆境的能力。而且,与人类对比,人工智能医疗聊天机器人已经更富同情心。无限耐心和同情心的人工智能将使世界变得更加温暖、更加友好。 这里的利害关系重大,机遇深远。人工智能很可能是我们文明有史以来最重要、最好的事物,至少与电力和微芯片不相上下,甚至可能更超越它们。 发展和普及人工智能——并远离我们应该害怕的风险——是我们对自己、对我们的孩子和对我们的未来的道义义务。 我们应该生活在一个有了人工智能的更好的世界,现在我们可以实现这个目标。 那么,为什么会引发恐慌? 与这种积极的观点相反,目前关于人工智能的公众对话充斥着恐慌和偏执。 我们听到各种声称人工智能将毁灭我们所有人、破坏我们的社会、夺走我们的工作、导致严重的不平等,并使坏人做出可怕的事情。 为什么在潜在的结果中存在着这种从接近乌托邦到可怕的反乌托邦的分歧呢? 从历史上看,每一项重要的新技术,从电灯到汽车、从收音机到互联网,都引发了道德恐慌——一种社会传染,让人们相信新技术将摧毁世界,或者社会,或者两者都会毁灭。悲观主义档案馆的优秀人员已经记录了这些几十年来由技术驱动的道德恐慌事件;他们的历史清晰地显示出这种模式。事实证明,现在对于人工智能的恐慌甚至不是第一次出现。 现在,确实有许多新技术导致了不良后果——通常是那些对我们福利有巨大好处的技术。所以,并不是说道德恐慌的存在就意味着没有任何需要担心的事情。 但是,道德恐慌本质上是非理性的——它将可能是合理关切的问题夸大成一种歇斯底里的程度,讽刺的是,这使得我们更难以面对真正严重的问题。 现在我们正处于对人工智能的一场全面的道德恐慌中。 这场道德恐慌已经被多种行为者利用为推动政策行动——推动制定新的人工智能限制、规定和法律。这些行为者正在公开发表关于人工智能危险的极端戏剧化的言论——它们以此滋养并进一步煽动道德恐慌——它们都自诩为无私的公益捍卫者。 但他们真的是这样吗? 他们是对还是错? 人工智能的浸礼会和私酒贩子 经济学家观察到,在这类改革运动中存在一种长期以来的模式。这些运动中的行动者可以分为两类——“浸礼会”和“私酒贩子”,这是基于20世纪20年代美国禁酒令的历史例子: • “浸礼会”是真正的信徒社会改革者,他们深深而情感上(尽管不一定是理性上)相信,需要采取新的限制、规章和法律来防止社会灾难。对于禁酒令来说,这些行动者通常是真诚的基督徒,他们认为酒精正在破坏社会的道德结构。对于人工智能风险来说,这些行动者是真正相信人工智能会带来一种或另一种生存风险的人——如果将他们绑在测谎仪上,他们是真心相信的。 • “私酒贩子”是自利的机会主义者,他们在新的限制、规章和法律实施后可以从中获利,并使自己免受竞争对手的影响。对于禁酒令来说,这些人是指那些在合法酒类销售被禁止时,通过非法销售酒精赚取巨额财富的走私者。对于人工智能风险来说,这些人是指那些如果建立起一种由政府批准的人工智能供应商组成的垄断联盟,并受到新创企业和开源竞争的保护,那么他们可以赚更多钱的首席执行官们——这是“太大而不能失败”的银行的软件版本。 愤世嫉俗的人可能会认为,一些表面上的浸礼会也是私酒贩子——特别是那些受他们的大学、智库、活动组织和媒体机构支付薪水或获得拨款来攻击人工智能的人。如果你获得薪水或拨款来煽动人工智能恐慌,你很可能是个走私者。 私酒贩子的问题在于他们会取得胜利。浸礼会是天真的意识形态信奉者,私酒贩子是愤世嫉俗的运作者,因此,这类改革运动的结果通常是私酒贩子得到了他们想要的——获得监管控制、免受竞争的保护、形成垄断,而浸礼会则对社会改善的推动感到困惑。 我们刚刚经历了一个令人震惊的例子——2008年全球金融危机后的银行改革。浸礼会告诉我们,我们需要新的法律和规章来解散“太大而不能失败”的银行,以防止类似危机再次发生。因此,美国国会通过了2010年的多德-弗兰克法案,这被宣传为满足洗礼者目标的法案,但实际上被走私者——大银行——利用了。结果是,2008年那些“太大而不能失败”的银行现在变得更加庞大。 因此,在实践中,即使浸礼会是真诚的,即使浸礼会是正确的,他们也会被狡猾和贪婪的走私者利用,以使自己受益。 这正是当前推动人工智能监管的情况。 然而,仅仅识别行动者并对其动机进行指责是不够的。我们应该根据浸礼会和私酒贩子的论点进行评估。 AI风险 1:人工智能会杀死我们吗? 第一个和最早的人工智能末日风险是人工智能将决定杀死人类的担忧。 我们对技术自身将会崛起并摧毁我们的恐惧在我们的文化中根深蒂固。希腊人通过普罗米修斯神话表达了这种恐惧——普罗米修斯给人类带来了破坏性的火焰力量,更一般地说是技术("techne"),因此普罗米修斯被神永远地折磨。后来,玛丽·雪莱在她的小说《弗兰肯斯坦》中为现代人创造了我们自己的这个神话版本,其中我们开发了永生的技术,然后这个技术崛起并试图摧毁我们。当然,关于人工智能的恐慌报纸报道中必不可少的是詹姆斯·卡梅隆的《终结者》电影中一个闪闪发光的红眼杀人机器人的静止图像。 这个神话的假设进化目的是激励我们认真考虑新技术的潜在风险——毕竟,火确实可以用来烧毁整个城市。但是,就像火同时也是现代文明的基础一样,用来保暖和保护我们在寒冷和充满敌意的世界中,这个神话忽视了大多数甚至可能所有新技术的更大优势,并实际上引起了破坏性情绪而不是理性分析。只因为古人像这样恐慌不安,并不意味着我们也要恐慌;我们可以运用理性。 我认为人工智能会决定杀死人类的想法是一个深刻的范畴错误。人工智能不是经历了数十亿年演化来参与适者生存之争的活生生的存在,如同动物和我们自己。它是数学——代码——计算机,由人类构建、拥有、使用和控制。认为它会在某个时刻发展出自己的思想,并决定它有导致它试图杀死我们的动机是一种迷信的挥手。 简而言之,人工智能没有意愿、没有目标,它不想杀死你,因为它不是活的。人工智能是一台机器——不会比你的烤面包机更有生命。 现在,显然,有些人对人工智能杀手深信不疑——浸入它们的可怕警告的媒体报道突然疯狂增加,其中一些人声称他们研究这个主题已经几十年了,现在对他们所了解的内容感到恐惧不安。其中一些真正相信者甚至是技术的实际创新者。这些人主张对人工智能实施各种离奇而极端的限制,从禁止人工智能的发展一直到对数据中心进行军事空袭和核战争。他们主张,因为像我这样的人无法排除人工智能未来可能造成的灾难性后果,我们必须采取一种预防性的立场,可能需要大量的实体暴力和死亡,以防止潜在的存在风险。 我的回应是,他们的立场是非科学的——有什么可测试的假设?什么样的事实可以证明这个假设是错误的?我们如何知道我们何时进入了危险区域?这些问题基本上得不到回答,除了"你无法证明它不会发生!"实际上,这些浸礼会的立场是如此非科学和极端——一个关于数学和代码的阴谋论——他们已经呼吁实施物理暴力,所以我将做一件我通常不会做的事情,质疑他们的动机。 具体而言,我认为有三件事情正在发生: 首先,回想一下约翰·冯·诺伊曼对罗伯特·奥本海默关于他在创造核武器方面的担忧的回应——这有助于结束了第二次世界大战并阻止了第三次世界大战。他说:"有些人为了声称他们的罪行而承认罪行。"什么是以夸张的方式声称自己工作的重要性而不显得过于自夸的最好方式呢?这解释了那些实际上正在建造和资助人工智能的浸礼会的言行不一致——观察他们的行动,而不是他们的言辞。(杜鲁门在与奥本海默会面后更加严厉地说:"别让那个爱哭鬼再进来。") 其次,一些浸礼会实际上是私酒贩子。有一个完整的职业称为"人工智能安全专家"、"人工智能伦理学家"、"人工智能风险研究员"。他们的工作是成为末日预言者,并且应该适当地对待他们的陈述。 第三,加利福尼亚州以众多的邪教而闻名,从EST到人民寺庙,从天堂之门到曼森家族。其中许多,尽管不是所有,邪教是无害的,甚至为在其中找到归宿的疏离感的人提供了帮助。但有些非常危险,邪教往往很难在导致暴力和死亡的那条线上徘徊。 而现实情况是,显然对湾区的每个人都很明显,"人工智能风险"已经演变成一个邪教,突然出现在全球媒体的关注和公众讨论中。这个邪教不仅吸引了一些边缘人物,还吸引了一些真正的行业专家和不少富裕的捐助者——包括直到最近的Sam Bankman-Fried。它发展出了一套完整的邪教行为和信仰。 这个邪教不是什么新鲜事——有一个长期存在的西方传统称为千禧年主义,它产生了启示录邪教。"人工智能风险"邪教具有千年主义启示录邪教的所有特征。从维基百科来看,我做了一些补充: "千禧年主义是一种由一组或运动[人工智能风险预言者]相信社会即将发生根本性转变[人工智能的到来]的信仰,在此之后,一切都将改变[人工智能的乌托邦、反乌托邦或世界末日]。只有戏剧性的事件[对人工智能的禁令、对数据中心的空袭、对非受控人工智能的核打击]被认为能够改变世界[阻止人工智能],而这种变革被认为将由一群虔诚和忠诚的人带来或幸存下来。在大多数千禧年主义情节中,即将到来的灾难或战斗[人工智能的启示或预防]将在之后紧随着一个新的、洁净的世界[人工智能的乌托邦]。” 这种世界末日教派的模式是如此明显,以至于我很惊讶为什么更多的人没有看到。 不要误会,教派是有趣的,他们的书面材料通常很有创意和吸引力,他们的成员在晚宴和电视上也很有魅力。但是他们的极端信仰不应决定法律和社会的未来-显然不应如此。 AI风险2:AI会摧毁我们的社会吗? 广为流传的第二个AI风险观点是,AI将通过产生“有害”的结果(以此类末日论者的说法)来毁灭我们的社会,即使我们并非真正被杀害。 简而言之:如果机器杀手没有伤害我们,仇恨言论和错误信息也会伤害我们。 这是一个相对较新的末日论关注点,它从上面我描述的“AI风险”运动中分支出来,并在一定程度上占据主导地位。实际上,AI风险的术语最近从“AI安全”(由那些担心AI会真正杀死我们的人使用的术语)变为“AI对齐”(由那些担心社会“危害”的人使用的术语)。原始的AI安全人士对这种转变感到沮丧,尽管他们不知道如何将其收回,但他们现在主张将实际的AI风险主题更名为“AI不杀伤所有人主义”(AI notkilleveryoneism),尽管这个术语尚未被广泛采用,但至少很明确。 AI社会风险主张的提示是其自己的术语“AI对齐”。与什么对齐?人类价值观。哪些人类价值观?哦,这就是事情变得棘手的地方。 恰好,我亲眼目睹了类似情况——社交媒体“信任和安全”战争。显而易见的是,多年来,社交媒体服务一直受到政府和活动家的巨大压力,要求他们禁止、限制、审查和压制各种内容。而且“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的担忧直接从社交媒体背景转移到了“AI对齐”的新领域。 我从社交媒体战争中学到的重要经验是: 一方面,不存在绝对的言论自由立场。首先,包括美国在内的每个国家都将至少某些内容视为非法。其次,有某些类型的内容,比如儿童色情和煽动现实世界暴力,几乎被几乎所有社会普遍认为是禁区的内容——无论其是否合法。因此,任何促进或生成内容-言论-的技术平台都将有一些限制。 另一方面,滑坡效应不是谬见,而是必然。一旦建立了对甚至极为糟糕的内容进行限制的框架——例如对仇恨言论,对某些有伤害性的词汇,或对错误信息,显然虚假的主张(比如“教皇去世了”)——各种政府机构、活动家压力团体和非政府实体将迅速行动起来,要求越来越大的审查和压制对他们认为对社会和/或他们个人偏好构成威胁的言论。他们会以包括公然犯罪在内的方式这样做。这种循环在实践中似乎可以永远进行下去,得到我们精英权力结构中充满热情的官方监控员的支持。社交媒体领域的这种情况已经持续了十年,并且除了某些例外情况外,这种情况也在不断加剧。 因此,现在“AI对齐”周围形成了这种动态。其拥护者声称拥抱对社会有益的工程化AI生成的言论和思想的智慧,并禁止对社会有害的AI生成的言论和思想。其反对者声称,思想警察极度傲慢和专横,并且通常是公然犯罪,至少在美国是如此,并且实际上试图成为一种新的由政府-企业-学术融合的权威言论独裁,直接来到乔治·奥威尔的《1984》。 由于“信任和安全”以及“AI对齐”的支持者都集中在以美国沿海精英为特征的全球人口非常狭窄的一部分中,其中包括许多在科技行业工作和撰写文章的人。因此,我的很多读者会发现自己有条件争辩,认为需要对AI输出进行大规模限制以避免破坏社会。我现在不会试图说服你们,我只会简单地说这就是需求的本质,世界上大多数人既不同意你的意识形态,也不希望看到你们胜利。 如果你不同意当前通过不断加剧的言论规范对社交媒体和AI施加的狭窄道德观念,你还应该意识到,AI被允许说什么/生成什么的斗争将比对社交媒体审查的斗争更重要,远远更重要。AI极有可能成为世界上一切的控制层。它被允许如何运作将可能比任何其他事情都更重要。你应该意识到,一小撮孤立的党派社会工程师正在试图在追求保护你的旧说辞的掩护下决定现在的AI应该如何操作。 简而言之,不要让思想警察压制AI。 AI风险3:AI会抢走我们所有的工作吗? 由于机械化、自动化、电脑化或人工智能等各种形式的机器取代人力劳动,人们一直担心失去工作的问题。这种担忧已经持续了数百年,自从出现了机械织布机等机械装置以来。尽管每一项新的重大技术在历史上都会带来更多的高薪工作,但每一波恐慌的出现都伴随着“这一次与以往不同”的说法——这一次会发生,这一次是技术终将给人类劳动以致命打击的时候。然而,这种情况从未发生过。 在最近的过去,我们经历了两次技术驱动的失业恐慌周期——2000年代的外包恐慌和2010年代的自动化恐慌。尽管在这两个十年中,许多传媒人士、专家和甚至技术行业高管都不断敲打桌子,声称大规模失业即将来临,但在2019年年底——也就是COVID爆发之前——世界上的工作机会比历史上任何时候都要多,而且工资也更高。 然而,这个错误的想法却不会消失。 果不其然,它又回来了。 这一次,我们终于拥有了能夺走所有工作并使人类劳动变得无关紧要的技术——真正的人工智能。当然,这一次历史不会简单重复,这一次是:人工智能将导致大规模失业,而不是经济迅速增长、就业机会增多和工资水平上升。对不对? 不是这样,这种情况肯定不会发生,如果允许人工智能在整个经济中得以发展和推广,它可能会导致有史以来最激动人心和持续时间最长的经济繁荣,相应地带来创纪录的就业机会和工资增长——恰恰与人们的担忧相反。原因如下。 自动化杀死就业论者一直在犯的核心错误被称为“劳动总量谬误”。这种谬误是指在任何特定时间内经济中需要完成的劳动量是固定的,要么由机器完成,要么由人类完成,如果由机器完成,那么人们就没有工作可做。 劳动总量谬误是自然而然地从直觉产生的,但这种直觉是错误的。当技术应用于生产时,我们获得了生产力增长——通过减少输入产生的产出增加。结果是商品和服务的价格下降。随着商品和服务价格的下降,我们支付的费用也减少了,这意味着我们现在有额外的消费能力来购买其他东西。这增加了经济中的需求,推动了新的生产——包括新产品和新产业——从而为被机器替代的人们创造了新的工作机会。结果是经济规模扩大,物质繁荣增加,产业增加,产品增加,就业机会增多。 但好消息不仅如此。我们还获得了更高的工资。这是因为在个体工人的层面上,市场根据工人的边际生产力确定报酬。在技术融入的行业中,一名工人的生产力比传统行业的工人更高。雇主要么会根据工人的提高生产力而支付更多的钱,要么另一家雇主会出于纯粹的自利而这样做。结果是,引入技术的行业不仅会增加就业机会,而且会提高工资。 总之,技术使人们能够更加高效地工作。这导致现有商品和服务的价格下降,工资上涨。这反过来又促进了经济增长和就业增长,并激励了新的工作和新产业的创造。如果市场经济能够正常运行,技术能够自由引进,这将是一个永无止境的向上循环。正如弗里德曼所观察到的那样,“人类的欲望和需求是无穷无尽的”——我们总是想要比我们拥有的更多。拥抱技术的市场经济是我们更接近实现每个人都可以想象到的一切,但永远无法完全实现的方式。这就是为什么技术不会摧毁就业岗位,永远不会。 对于那些尚未接触过这些想法的人来说,这些都是令人震惊的思想,可能需要一些时间来理解。但我发誓我并没有编造它们——实际上,你可以在标准经济学教科书中阅读到所有这些观点。我推荐亨利·哈兹利特《一课经济学》中的《机械的诅咒》一章,以及弗雷德里克·巴斯夏的讽刺性作品《蜡烛制造商的请愿书》,这些蜡烛制造商因太阳对照明产业进行了不公平竞争而抗议太阳。我们也有我们这个时代的现代版本。 但你可能会认为这一次与以往不同。这一次,随着人工智能的出现,我们拥有了可以替代所有人类劳动的技术。 但是,按照我上面描述的原则,想象一下如果所有现有的人类劳动都被机器取代会意味着什么。 这将意味着经济生产力增长的起飞速度将是绝对天文数字,远远超过任何历史先例。现有商品和服务的价格将全面下降到几乎为零。消费者福利将飙升。消费者的消费能力将飙升。经济中的新需求将激增。企业家将创建令人眼花缭乱的新产业、新产品和新服务,并尽可能快地雇佣尽可能多的人工智能和工人来满足所有新的需求。 假设人工智能再次取代了这些工人呢?这个循环将重复,推动消费者福利、经济增长和就业与工资增长更高。这将是一种直线式的向上螺旋,将人们带向亚当·斯密和卡尔·马克思从未敢于梦想的物质乌托邦。 我们应该如此幸运。 AI风险4:人工智能是否会导致严重的不平等? 谈到卡尔·马克思,对于人工智能夺走工作岗位的担忧直接引出了下一个声称的人工智能风险,那就是,好吧,Marc,假设人工智能确实夺走了所有的工作,无论是出于好还是出于坏。那么,作为人工智能的所有者获得了所有的经济回报,普通人一无所获,这难道不会导致巨大而且严重的财富不平等吗? 恰好,这是马克思主义的一个核心论点,即生产资料的所有者——资产阶级——不可避免地会从实际劳动的人们——无产阶级——那里窃取所有的社会财富。无论现实如何一再证明这是一个错误,这个谬论似乎永远无法消亡。但让我们无论如何驳斥它。 这个理论的缺陷在于,作为一件技术的所有者,保留不分享它并不符合你自身的利益——事实上恰恰相反,你的利益是将它销售给尽可能多的客户。世界上最大的市场是全世界的市场,包括80亿人口。因此,在现实中,每一项新技术——即使开始时是向高薪大公司或富裕消费者销售——都会迅速普及,直到它落入尽可能大的大众市场的手中,最终覆盖整个地球上的人。 这个经典的例子是埃隆·马斯克在2006年发布的所谓“秘密计划”——他当然公开发布的——关于特斯拉的计划: 第一步,制造[昂贵的]跑车; 第二步,用第一步挣的钱造一辆价格实惠的车; 第三步,用第二步挣的钱造一辆更实惠的车。 这当然是他所做的事情,结果成为世界首富。 最后一点是关键的。如果今天他只卖车给有钱人,马斯克会更富有吗?不会。如果他只为自己造车,他会比现在更富有吗?当然不会。不,他通过销售给尽可能大的市场全世界,来最大化自己的利润。 简而言之,每个人都能够拥有这个东西,正如我们过去在汽车、电力、无线电、计算机、互联网、移动电话和搜索引擎等领域所看到的。制造这些技术的公司高度积极地降低价格,直到地球上的每个人都能够负担得起。这正是人工智能领域已经发生的事情——这就是为什么你今天可以在微软Bing和谷歌Bard等形式的免费或低成本的最先进的生成式人工智能上使用它——而且这将继续发生。不是因为这些供应商愚蠢或慷慨,而恰恰是因为他们贪婪——他们希望最大化市场规模,从而最大化利润。 因此,发生的情况与技术推动财富集中的理论相反——技术的个体用户,最终包括地球上的每个人,反而被赋予权力,并获得了大部分产生的价值。与之前的技术一样,构建人工智能的公司——假设它们必须在自由市场中运作——将竞相努力使这一点成为现实。 马克思当时错了,现在也错了。 这并不是说不平等在我们社会中不是一个问题。它是一个问题,只是它不是由技术驱动的,而是相反,是由那些对新技术最抵制、政府干预最多以阻止采用人工智能等新技术的经济部门驱动的,具体来说是住房、教育和医疗保健。人工智能和不平等的实际风险不在于人工智能会导致更多的不平等,而在于我们不允许使用人工智能来减少不平等。 AI风险5:人工智能是否会导致坏人做坏事? 到目前为止,我已经解释了五个最常提出的人工智能风险中有四个实际上并不真实的问题——人工智能不会活过来杀死我们,人工智能不会摧毁我们的社会,人工智能不会导致大规模失业,人工智能不会导致破坏性的不平等增加。但是现在让我们来讨论第五个,这也是我实际上同意的一个:人工智能会让坏人更容易做坏事。 从某种意义上说,这是一个循环论证。技术是一种工具。从火和石头开始,工具可以用来做好事——烹饪食物和建造房屋——也可以用来做坏事——烧伤人和殴打人。任何技术都可以被用于好的或坏的目的。可以理解。而人工智能会让罪犯、恐怖分子和敌对政府更容易做坏事,毫无疑问。 这让一些人提出,好吧,既然这样,那么在这种情况下,让我们在坏事发生之前禁止人工智能。不幸的是,人工智能不是一种难以获得的玄妙物质,比如钚。恰恰相反,它是世界上最容易获得的材料——数学和代码。 显然,AI猫已经出了包。你可以通过数千个免费在线课程、书籍、论文和视频学习如何构建人工智能,而且每天都有杰出的开源实现在不断增加。人工智能就像空气一样——它将无处不在。为了抓捕它,所需要的极权压迫程度将是如此严厉——一个监视和控制所有计算机的世界政府?戴着黑色直升机的武装警察突袭流氓GPU?——我们将没有一个社会来保护。 因此,我们有两种非常直接的方式来应对坏人利用人工智能做坏事的风险,而这正是我们应该关注的。 首先,我们已经制定了法律来让使用人工智能干坏事的大多数行为犯罪化。黑入五角大楼?那是犯罪。从银行偷钱?那是犯罪。制造生物武器?那是犯罪。实施恐怖袭击?那是犯罪。我们只需专注于在可能时预防这些犯罪,并在不能时予以起诉。我们甚至不需要新的法律——我不知道是否有一个已经被提出的恶意利用人工智能的实际案例不是已经是非法的。如果发现了新的坏用途,我们禁止那些用途。证毕。 但是你会注意到我刚才提到的——我说我们应该首先专注于在坏事发生之前防止人工智能辅助犯罪——这难道不意味着要禁止人工智能吗?好吧,还有另一种方法可以防止这样的行为,那就是将人工智能作为一种防御性工具。让拥有坏目标的坏人具备能力的人工智能,同样也在好人手中具有强大的力量——特别是那些负责防止坏事发生的好人。 例如,如果你担心人工智能生成虚假人物和虚假视频,答案是构建新的系统,使人们可以通过加密签名验证自己和真实内容。在人工智能之前,数字化创造和修改真实和虚假内容已经存在;答案不是禁止文字处理器和Photoshop——或者人工智能——而是利用技术构建一个真正解决问题的系统。 因此,第二个方法是,让我们大力利用人工智能进行善意、合法和防御性的目的。让我们在网络防御、生物防御、追踪恐怖分子以及我们为保护自己、社区和国家所做的一切其他方面利用人工智能。 当然,政府内外已经有许多聪明人正在做这样的工作——但是如果我们将目前那些专注于无效的禁止人工智能的努力和智力用于使用人工智能来防止坏人做坏事,我相信一个充斥着人工智能的世界将比我们今天生活的世界更加安全。 不以最大力量和速度开展人工智能的真实风险 还有一个最终而真实的人工智能风险可能是最令人恐惧的: 人工智能不仅在相对自由的西方社会中得到开发,也在中国得到开发。 中国对人工智能有着与我们截然不同的愿景。他们对此甚至并不保密,他们非常明确地表示,他们已经在追求他们的目标。而且,他们不打算将人工智能战略限制在中国境内——他们打算在他们提供5G网络、提供“一带一路”贷款、提供像TikTok这样的友好消费应用作为他们集中控制和指挥的人工智能前端的地方,将其传播到全世界的每一个角落。 人工智能的最大风险就是中国在全球人工智能主导地位上取得胜利,而我们——美国和西方——却没有取得胜利。 我提出了一个简单的策略来应对这个问题——事实上,这也是罗纳德·里根总统在与苏联赢得第一次冷战时采取的策略。 “我们赢,他们输。” 与其被围绕着关于人工智能杀手、有害人工智能、破坏就业岗位的人工智能和产生不平等的人工智能等毫无根据的恐慌放在被动位置,我们美国和西方应该尽可能全力投入人工智能。 我们应该争取全球人工智能技术优势的竞赛,并确保中国不会取得胜利。 在这个过程中,我们应该尽可能快速、尽可能大力地将人工智能引入我们的经济和社会,以最大化其对经济生产力和人类潜能的利益。 这是抵消真正人工智能风险和确保我们的生活方式不被中国愿景所取代的最佳方式。 我们该怎么办? 我提出了一个简单的计划: • 大型人工智能公司应该被允许尽快、尽可能激进地构建人工智能——但不能实现监管垄断,不能建立一个由政府保护的卡特尔,由于对人工智能风险的不正确宣称而免于市场竞争。这将最大限度地发挥这些公司惊人能力的技术和社会回报,它们是现代资本主义的宝石。 • 初创人工智能公司应该被允许尽快、尽可能激进地构建人工智能。它们既不应该面对大公司获得政府授予的保护,也不应该获得政府援助。它们应该只被允许竞争。如果初创公司不成功,它们在市场上的存在也将不断激励大公司发挥出色——我们的经济和社会无论如何都是赢家。 • 开源人工智能应该被允许自由传播和与大型人工智能公司和初创公司竞争。开源应该没有任何监管壁垒。即使开源没有战胜公司,其广泛可用性也对世界各地想要学习如何构建和使用人工智能以成为技术未来一部分的学生们是一个福音,并确保无论他们是谁、有多少钱,人工智能都对他们可用。 • 为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作应该积极参与潜在风险领域的每一个方面,利用人工智能最大化社会的防御能力。这不应仅限于人工智能风险,而是包括更一般的问题,如营养不良、疾病和气候问题。人工智能可以是解决问题的极其强大的工具,我们应该将其视为这样的工具。 • 为了防止中国取得全球人工智能主导地位的风险,我们应该充分利用我们的私营部门、科研机构和政府的力量,共同推动美国和西方人工智能在全球范围内的绝对主导地位,最终甚至在中国境内也如此。我们赢,他们输。 这就是我们如何利用人工智能拯救世界。 是时候行动了。 传奇与英雄 我以两个简单的陈述来结束。 人工智能的发展始于上世纪40年代,与计算机的发明同时开始。第一篇关于神经网络的科学论文——即我们今天拥有的人工智能的架构——发表于1943年。在过去的80年中,整个一代人的人工智能科学家出生、上学、工作,很多情况下去世,他们没有看到我们现在所获得的回报。他们是传奇,每一个人。 如今,越来越多的工程师——其中许多人年轻,可能有祖父母甚至曾祖父母参与了人工智能背后思想的创造——正努力将人工智能变为现实,尽管有一堵试图将他们描绘成鲁莽的恶棍的恐慌和悲观主义的墙。我不认为他们鲁莽或者是恶棍。他们是英雄,每一个人。我和我的公司非常高兴支持尽可能多的他们,我们将100%地支持他们和他们的工作。 "多年来,千年主义者经常[人工智能风险预言者不断地]试图预测这种未来事件的确切时间,通常是通过各种标志和先兆的解释。然而,历史上的预测几乎都以失败告终[目前没有可靠的证据表明人工智能会杀死人类]。然而,他们的[人工智能风险预言者的]粉丝通常会试图修正解释,以便与事件发生时[人工智能未来的潜在风险]相对应。" 那些热衷于"人工智能风险"邪教的人可能会不同意我的观点,他们可能会坚称他们是理性的、基于科学的,并且我是一个被洗脑的追随者。但请注意,我并没有声称"人工智能绝对不会成为人类的威胁"。我只是指出,迄今为止没有证据支持"人工智能将杀死我们"这一论点。我们应该根据现有的证据进行理性的评估,而不是沉溺于邪教般的恐慌和反应。 来源:金色财经
lg
...
金色财经
2023-06-07
2023高考作文题目引关注 “比亚迪押题成功”上热搜
go
lg
...
国卷作文题也引起了广泛关注。大家不仅用
ChatGPT
等人工智能工具测试写作文,网友还把“比亚迪押题成功”送上了热搜。 据了解,今年全国乙卷的作文题目中,引用了“吹灭别人的灯,并不会让自己更加光明;阻挡别人的路,也不会让自己行得更远。 ”等语句。 细心的网友发现,日前,比亚迪品牌及公关处总经理李云飞在转发比亚迪回应长城举报的声明时,也引用了“吹灭别人的灯,并不会让自己更加光明;阻挡别人的路,也不会让自己行得更远。”这句话。 随后网友纷纷涌入评论区“顶礼膜拜”。
lg
...
金融界
2023-06-07
Coinbase 表示 加密货币和区块链技术可能是帮助防止 AI 失控的关键工具
go
lg
...
来的特定社会挑战。” 他列出了随着为
ChatGPT
等聊天机器人提供动力的大型语言模型的出现而出现的五个问题,以及区块链和加密货币可能能够解决的每个问题的解决方案: 1.对数据资源的需求 ——由于生成式 AI 依赖于庞大的通用数据库来为其大型语言模型提供动力,“令牌激励和惩罚系统可以确保数据满足这些模型所需的足够质量标准。” 2.对计算资源的需求 ——生成式人工智能需要大量的计算能力,而区块链可以通过创建一个资源共享的系统来提供帮助。“去中心化的计算能力网络可以奖励那些自愿使用闲置 GPU 来帮助减轻部分计算负担的用户。” 3.错误信息和虚假信息——对人工智能驱动的错误信息活动的恐惧已经上升,因为大型语言模型有可能消化虚假声明并将其作为事实吐给用户。“区块链和不可替代令牌 (NFT) 技术可以通过确定图像、视频、音乐和其他媒体的来源来帮助解决这个问题。” 4.可审计性 ——人工智能决策对普通用户来说可能是不透明的,其算法也难以理解。“将区块链技术集成到人工智能模型中可以帮助使这些过程更加透明,并允许用户仔细检查人工智能产生的结果的逻辑和可靠性。” 5. 人工智能开发和使用民主化 ——最后,Duong 写道,加密货币可以让人们更大规模地参与人工智能的使用和开发,从而使人工智能更容易获得。“加密平台可以帮助获得更多样化的贡献,并重新分配访问权限,以便更多用户可以利用它的好处(例如医疗保健建议或电子商务)。” 声明:潮外音编译作品,内容仅代表作者立场,且不构成任何投资建议,请谨慎对待,如文章/素材有侵权,请联系官方客服处理。 来源:金色财经
lg
...
金色财经
2023-06-07
科大讯飞上涨3.62%,数字经济ETF(159658)今日已涨0.71%
go
lg
...
体等领域。 中信证券指出,经历了一季度
ChatGPT
及AI概念的催化后,时事热点对半导体需求的拉动将为行业复苏提供助力,预计环比复苏趋势将持续,下半年消费电子需求恢复及远期AI对算力和存储需求的拉动将成为关键驱动因素。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-06-07
英伟达CoWoS需求增50% 先进封装及关键环节供应链迎机遇
go
lg
...
ChatGPT
引动的生成式AI热度大增,今年以来,由英伟达推动的台积电先进封装CoWoS需求持续增加。外资野村证券估计,英伟达今年对CoWoS的需求已从今年初预估的3万片晶圆大幅成长50%、达4.5万片。 随着半导体制造技术节点提高,晶体管密度逼近极限并带来发热和功耗严重等问题。技术节点的进一步提高会带来生产制造成本的非线性增加,行业技术节点提高变缓并进入“后摩尔时代”。半导体产业的发展重心从进一步提高晶圆制造技术节点转向封装技术创新,先进封装成为延续摩尔定律的重要路径。 今年第1季以来,市场对AI伺服器的需求不断增长,加上英伟达的强劲财报超出预期,造成台积电的CoWoS封装成为热门话题。台积电的CoWoS封装形式均为三维堆叠(3D)晶圆级封装,英伟达、博通、谷歌、亚马逊、NEC、AMD、赛灵思、Habana等公司已广泛采用CoWoS技术。先进封装是实现超越摩尔定律的重要方式,根据Yole,2021年全球先进封装市场规模374亿美元,到2027年有望达到650亿美元,2021-2027年CAGR9.6%。从整个封装行业的占比来看,先进封装有望在2027年超过50%。先进封装中嵌埋式、2.5D/3D、倒装技术都将实现高复合增速。国内封装企业持续加大先进封装研发投入,紧密合作国内外知名客户,有望率先受益先进封装带来的收入利润贡献。围绕先进封装这些环节的设备、材料供应链有望受益先进封装市场增长带来的增量需求。 中泰证券指出,先进封装是半导体产业在后摩尔时代的必然选择,产业趋势确定。国内先进封装占比大幅低于全球,随着国内半导体产业发展,先进封装占比有望加速提升。先进封装带来封测设备需求增长,关注芯碁微装、新益昌、光力科技、快克智能、劲拓股份、耐科装备、凯格精机等。
lg
...
金融界
2023-06-07
大模型带来新兴需求 算力网络建设获得多方关注
go
lg
...
解决“卡脖子”难题。协议还提出,要围绕
ChatGPT
系列大模型等新兴需求,鼓励超前布局超算智算基础设施,促进与周边城市算力协同调度,支持长三角地区有条件的地市积极融入“东数西算”工程。聚焦绿色节能要求,探索以“源网荷储”为核心建设绿色数据中心。目前,数据中心的主要建设者包括电信运营商,独立第三方和大型互联网企业。电信、联通、移动等基础电信运营商在骨干网络带宽资源和互联网国际出口带宽方面优势明显。 银河证券指出,算力网络整条产业链从硬件到软件端皆将在国产替代及自主可控的利好催化下实现空间的扩展及产业升级,未来发展空间广阔。国产替代+自主可控大趋势已定且逐步深化,加之目前我国算力网络发展正处于蓬勃发展时期,整条产业链从硬件端的电子及半导体,到软件端的办公软件、数据库等皆将迎来较好的赛道布局机遇,同时高端产品布局加速,有望实现行业层面的量价齐升趋势,带来行业快速发展可期。 该机构建议关注,运营商:关注中国移动、中国联通、中国电信。设备商:关注紫光股份、锐捷网络、星网锐捷等。传输端:关注光模块中际旭创、天孚通信、新易盛、华工科技等;数据存储/计算:关注数据港、光环新网、奥飞数据、科华数据,佳力图等。 此前华西证券指出,持续推荐算力基础设施。其中服务器等设备商:紫光股份(华西通信&计算机联合覆盖)、中兴通讯等;算力中心:光环新网;算力硬科技产业链:新雷能(服务器电源);
lg
...
金融界
2023-06-07
中信建投:AI应用被带动 传媒板块再度回归估值低位
go
lg
...
opilot与Windows系统结合,
ChatGPT
发布移动版,AI应用渗透率与移动化趋势明显。我们认为,上游算力需求的旺盛,叠加产业快速发展,将直接带动AI应用。传媒板块再度回归估值低位,纵览AI细分应用,我们认为应当结合落地进展、估值性价比,推荐关注下列板块投资机会:游戏(落地速度快,基本面稳健)、出版(防御有高分红,进攻有AI+教育),同时关注苹果MR催化的文旅演艺板块。
lg
...
金融界
2023-06-07
Vision Pro推出苹果却收跌 投资者哪些预期落空了
go
lg
...
投资人更关注苹果何时推出类似于
ChatGPT
的服务 知名分析师郭明錤近日表示,他在和投资者讨论中发现,比起虚拟现实设备,投资人更关注苹果何时推出类似于
ChatGPT
的服务。 郭明錤认为,苹果的头戴设备如果能超出市场预期,将有利于苹果和其主要供应商的股价。此外,由于头戴设备在未来两年内对供应商的收入和利润贡献有限,相比之下,AI 业务则更具潜力。他以英伟达公司的第二季度业绩预期大幅超过市场预期为例,说明了投资者对 AI 的关注度。
lg
...
金融界
2023-06-07
上一页
1
•••
392
393
394
395
396
•••
747
下一页
24小时热点
【黄金收评】特朗普关税再掀避险潮,金价重返3350美元,白银创13年新高
lg
...
【美股收评】特朗普关税升级再掀波澜 美国股市高位回落 周线全部转阴
lg
...
金价稳守关键点位 铜价历史级暴涨抢戏!黄金会被“冷落”吗?
lg
...
特斯拉“车顶维权”事件尘埃落定,法院终审支持企业名誉权
lg
...
AI狂潮下的财富传奇:英伟达市值稳居华尔街市值王座,黄仁勋身价逼平巴菲特!
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论