狭义AI超越人类的危险:2. AI应用的威胁

我们都知道机器人目前已经在社会的各行各业中大量使用。在它们能够执行的每一项具体任务中,它们都比人类做得更快更好更稳定。尽管这些机器人使用的技术对很多人而言甚至还不到狭义AI的水平。当狭义AI大规模的进入经济,自动技术的研发和应用都会以惊人的速度完成和推广。人类会很快发现,在自己从事的任何领域,都有相应的AI技术在单一任务上比我们做得更快更好。在AGI和ASI出现以前,人类还有的有限安慰可能就是狭义AI和AGI/ASI之间的差距。但是,狭义AI已经可以给人类带来毁灭性的威胁。下面我们列举一些很快会出现,或者已经出现被狭义AI威胁的领域:

新技术快速迭代的双刃剑:狭义人工智能的快速进展不仅令工业生产实现了自动化和效率最大化,也推动了产品开发的迅速迭代。然而,这种速度带来的新技术和新产品,常常在我们完全理解其长远影响之前就已经被广泛采用,这种现象可能对社会和环境产生意想不到的后果。

以当前的新能源汽车为例,这些车辆主要依赖电池技术,特别是锂电池,以支持其运行。虽然新能源汽车被广泛宣传为减少温室气体排放和依赖化石燃料的环保选择,但电池生产过程中的环境影响及其后续的回收处理问题,却往往被忽视。电池制造涉及到大量稀有金属的开采,这一过程不仅破坏自然景观,还可能造成水源污染和其他环境问题。此外,用尽的电池处理问题尚未找到经济且环保的解决方案,这增加了环境负担。

这种技术推进的速度远远超出了我们对其潜在负面影响评估的速度。例如,虽然电动汽车在减少城市空气污染方面可能具有明显优势,但如果电池原材料的开采和电池废物的处理未能妥善管理,那么它们在生命周期内的总体环境影响可能与传统燃油车无异甚至更糟。这种情况反映了一个更广泛的问题:技术进步可能会在没有足够的市场、法规或社会准备的情况下推向市场,从而带来长期的社会和环境成本。

一些欧美汽车制造商对新能源汽车市场的犹豫和退出,反映了对这些长期影响和成本的担忧。他们的顾虑并非无的放矢,而是基于对当前电池技术环境影响深度理解的缺乏,以及对未来可能出现的法规和市场变化的不确定性。这种短视的市场行为可能需要通过更加审慎的技术评估和政策制定来纠正,确保技术进步真正符合可持续发展的长远目标。

经济上的冲击和社会承受能力:狭义AI最直接的威胁之一,也是大家已经直接体会到的,自然是对经济的冲击。AI系统正越来越多地用于各行各业的自动化,从制造业和物流到客户服务和零售业。虽然自动化历来促进了生产力和经济增长,但AI技术的应用速度和规模可能会以大家完全没有经历过的速度导致前所未有的工作岗位流失。

根据麦肯锡全球研究所的一项研究,到2030年,自动化可能会导致高达8亿个工作岗位流失。这个估计是根据现有的AI技术和目前的进步速度。但我们很可能低估了AI演化迭代的速度以指数型增长带来的后果。这种快速的变革可能远远超乎我们大家以往的经验,我们已经看到,与以往的技术革命不同,AI的影响速度比以往任何技术都快。它们很可能在几年内就会改变整个行业,一个最新的范例就是前不久中国推出的无人驾驶出租汽车的试点。如果没有控制,即使还有很多缺陷和隐患,在资本的推动下,廉价的电动汽车可以很快让绝大多数出租车司机失业。

当资本和AI驱动的自动化导致财富和权力集中在少数几家掌握最先进AI技术的大型科技公司手中时,没有有效的调整机制,在短时间内就可能集中体现少数人控制大部分资源,而大多数人则在产业决策上被边缘化。这种时候,变化的速度是社会最大的敌人。它们会使工人和社会难以有时间做出调整和适应,社会将承受的冲击的程度之深和范围之广,可能是前所未有,甚至完全冲垮社会现有的福利和就业保障机制,从而进一步冲垮社会的心理承受能力,带来巨大的社会问题,甚至造成巨大的社会混乱和动荡。

全球经济体系的巨大冲击:狭义AI对生产力的提升无疑是显著的,它不仅可能在不同的国家内部带来动荡,也更可能给世界经济体系带来的巨大冲击。逼迫全球经济体系的再次重塑。

随着AI技术广泛应用于自动化生产和服务领域,生产效率在不同国家不同水平的大幅不平衡提升可能会导致全球经济严重的不平衡发展。依赖低成本劳动力且技术水平低下的国家可能会面临生产力严重落后于竞争,在全球自动化大范围迅速提升的冲击下面临需求和失业率严重上升的问题。而科技发达生产力更新速度快的国家不仅可以通过AI技术巩固或者扩大其在全球经济中的主导地位。在没有有效协调和控制的情况下,生产力差距的迅速扩大就非常可能迅速打乱现有的国际贸易秩序,导致国际贸易摩擦加剧。这不仅可能引发大规模的经济制裁和保护主义抬头,更可能诱发更大的国际对立和冲突。

此外,AI的快速发展可能导致传统行业和新兴行业之间的供需失衡,使得全球经济体系难以在短期内找到新的平衡点。全球供应链的重组和国际分工的调整进一步加剧经济的不确定性,使得全球经济体系面临前所未有的挑战。最近几年,特别是新冠疫情以后,全球很多国家都在承受全球供应链重整带来的影响。如果注意到这次供应链重整到目前为止一直是在资本的影响做有序而缓慢的调整。资本运作起到了非常重要的“润滑”调节作用,全球经济体系作为一个整体,并没有奔溃。但是在生产力突然不均匀迅速发展的情况下,全球经济就可能没有时间应对了。现在一个相关的例子就是中国的新能源汽车涌现出的巨大产量对全球工业和经济的潜在冲击。

AI的军事化:另一个主要风险是AI的军事化。世界各国的军队正在大量投资AI技术,以期获得战略优势。自主无人机、AI驱动的网络武器和战场决策算法是AI进入现代战争的一些例子。目前的俄乌战争已经给大家展示了完全不一样的作战环境和方式。已有的战争武器的有效性真被重新定位。而AI在军事应用中的使用不仅可能完全改变战争的形式和走向,也可能会降低冲突的门槛,尤其当机器可以在超越人类决策能力的速度下做出战争决定。

更让人警觉的是,AI的进步和军事应用不仅仅可能提高武器的威力和提供新的作战模式,AI的进步还可能让战争武器的开发和生产成本急剧降低和加速。人类的杀戳能力成指数型提升。战争的危害进一步加深加快。以前人类担心的是核战带来的毁灭。而对AI加入战争的危害,人类社会可能还根本没有做好思想准备,且不提物质准备。当然,大家相对熟知的是AI可能被用于开发更先进的通讯和网络战工具,能够破坏关键基础设施、窃取敏感信息,并在大规模上操纵公众舆论。AI驱动的虚假信息宣传尤其令人担忧,因为AI系统可以生成非常逼真的假新闻、深度伪造和社交媒体机器人,以影响政治结果并扰乱社会秩序。

信息的操控和控制:在数字时代,信息即力量。AI系统已经被用来在社交媒体平台上策划内容、推荐新闻文章,甚至调节在线讨论。虽然这些系统的设计目的是为了增强用户体验并保持用户参与度,但它们也可以被用来操纵公众舆论和控制信息流动。

AI驱动的内容推荐算法可能会导致信息的“回音室效应”,即用户只能接触到与其现有观点一致的信息。这可能导致社会的进一步极化,破坏民主讨论的基础。此外,AI系统还可能被用来审查信息或推广宣传,实质上控制了人们所能看到、听到和相信的内容。这种危害在民主社会中比较容易得到应对,因为社会对媒体有相当的审视能力。但在某些威权政权下,AI驱动的信息操纵尤其令人担忧,因为政府可能利用AI以前所未有的规模来监控和控制其公民。然而,即使在民主社会中,AI的滥用也可能破坏言论自由和开放社会的基本原则。

生物研究和开发的影响与严重后果:狭义AI在生物研究和开发中的应用也带来了重大的风险。虽然AI技术在基因编辑、药物开发和疾病预测方面有着巨大潜力,但它同样可能引发一些不可预见的严重后果。

首先,AI的使用可能加速新型生物技术的开发,这些技术如果没有得到充分监管和控制,可能会带来新的疾病或生物安全问题。更令人担忧的是,AI有可能被用于开发新型生化武器,这些武器可能比传统武器更难检测和防御,对全球安全构成新的威胁。最近的全球新冠疫情就是一个血淋淋的例子。全球不同的社会在新冠的袭击下都已到了几乎全面奔溃的边缘。

此外,AI在农业生物技术中的应用,可能导致对基因改造作物的过度依赖,而这种依赖可能破坏现有的生态平衡和生物链。如果某些基因改造作物或生物技术因意外或蓄意行为导致大规模生态破坏,更可能会对全球粮食安全和人类生存构成重大威胁。如果这些危险同时出现,人类的整个生态系统都可能崩溃。新冠的记忆告诉我们,这并非杞人忧天,而是随时随地都可能出现的危机。

人类自主性和自决权的丧失:随着AI系统日益融入我们的生活,有一种风险是它们可能开始削弱人类的自主性和自决权。AI驱动的决策算法已经在招聘、贷款和刑事司法等领域得到应用,这些领域的决策对个人生活有着重大影响。虽然这些系统的设计初衷是为了比人类决策者更加客观和无偏见,但它们往往不透明且难以问责,使得个人难以理解或质疑其决策。

如果决策过程中过于依赖AI,可能会导致一个未来:人们越来越多地被机器的决策所主导,而不是人类做出决定。这可能会破坏个人自主和自决的基本原则,形成一个人们失去对自己生活控制的社会。特别是社会的基础设施越来越多的使用AI。狭义AI的进步完全可能让人类在突如其来的变化中无法迅速有效的夺回对这些基础设施的控制。

监视和隐私问题:AI的兴起也促进了监视技术的发展。面部识别系统、社交媒体监控工具和预测性警务算法正越来越多地被政府和公司用于监视个人行为和预测其行动。虽然这些技术可以增强安全性和预防犯罪,但它们也对个人隐私和公民自由构成了重大威胁。广泛使用AI驱动的监视可能导致一个反乌托邦的未来,在这样的未来中,人们的行动和行为被持续监视、记录、分析,并由机器进行评估。这可能会形成一个言论受限、自由受压的社会,人们无法逃脱国家或企业的严密监视。当这些监控技术成为AI的工具和手段,人类同样面临失去掌控的可能。

(未完待续)

No post found!

Scroll to Top