当前位置:首页 > 旅游 > 正文

忧虑人工智能没错,但别过于玄幻

  刘海明(重庆大学教授、博士生导师)

  这几天,中国C919成功投入商业运营的消息,触动了全球航空业的神经。面对波音、空客和C919形成的三足鼎立之势,航空业界议论纷纷。波音CEO卡尔·霍恩表示:三足鼎立不是坏事,对我们而言,过度焦虑是一种愚蠢的想法。

  就在航空业内一些人为出现新的竞争者感到焦虑之时,人工智能业界的精英也出现了群体性焦虑。5月30日,350多位AI业界领袖和专家发表联合声明,认为“人工智能(AI)可能导致人类灭绝,危险程度不亚于大规模疫情和核战争”,提出将AI危机视为全球优先事项,呼吁决策者认真对待即将到来的“AI革命”并制定相关法规。

  技术就像硬币,有正面也有反面。当许多人对ChatGPT称赞有加时,不少业界顶尖级专家却担忧这类技术被滥用。两种截然相反的态度,折射出人类对新兴技术的复杂心态。

  同行之间,跟主流唱反调挺难的,因为同行之间对被忧虑的对象比较熟悉,拿出相反的论据谈何容易。对于外行来说,如果新兴技术的危害不是现实可感的,他们的反应可能比较喜感。

  当AI领域众多顶尖级专家对人工智能技术的未来忧心忡忡时,社交媒体舆论场的“吃瓜网友”继续发扬娱乐精神,关于人工智能可能灭绝人类的讨论,有三种不同的态度——

  既有聊以自慰派,他们一半是忧虑,一半在宽慰自己:“AI这事开始玄幻了么?”“我不想毁灭,把坏人毁了就行。”“根据‘物以类聚’的自然法则,人工智能破坏的也必定是智能装备。”“人类会在它具备这种反人类能力之前,发现并消灭之。”

  也有幽默自嘲派,他们无法改变事实,以想象力进行自我调侃却是信手拈来:“以后会怎么样?人类还会喜欢人工智能吗?”“给AI打工能有八小时工作和双休不加班吗?”“地球上的其他生物还存在就好。”

  更有天生乐观派,再大的问题也不会让他们犯愁:“各种哗众取宠博眼球,离真正的人工智能差的十万八千里呢。”“当年全球工业化机械化时也是一堆人这么说。”

  内行的忧虑值得重视,外行的乐观也有抚慰作用。双方都是人类对于人工智能的态度,对这个话题人工智能又持什么态度呢?

  出于好奇,笔者就前引新闻中的专家的忧心忡忡和联合署名发出警告,请ChatGPT4来谈谈对这个问题的看法。ChatGPT4的回答概括如下:

  这些专家在人工智能领域具有很高的权威,他们的担忧值得关注。当人工智能发展到一定程度时,确实可能带来潜在的风险。这些风险包括但不限于以下五个方面:

  1.无法控制的智能。

  2.恶性竞争。

  3.滥用AI技术。

  4.道德和伦理风险。

  5.AI与人的关系。

  最后,ChatGPT4总结道:

  这些专家的警告提醒我们在发展人工智能技术时需要保持谨慎,并采取必要的措施来预防潜在的风险。通过加强全球合作、制定合适的法规和伦理准则,以及关注人类价值观,我们可以确保AI技术的积极发展,为人类的未来做出贡献。

  这次人机对话表明,在评估一种技术的功能和危害时,专家群体“春江水暖鸭先知”,先于公众意识到这种技术的消极影响。他们处在技术研发的一线,特殊的感性环境造成了他们的过度焦虑。他们对这种忧虑的群体性表达,可以唤醒全社会对技术被滥用的重视,并及时采取必要的预防措施。

  忧虑人工智能的危害没错,只是别过于玄幻就行。毕竟,人类有自己的智慧和群体诉求,人类的智慧决定了自己可以发明一种技术,也必然可以限制这种技术。比如有人认为,危急关头,人总可以拉闸断电,让再聪明的人工智能物动弹不得。真到人工智能意欲与整个人类为敌之时,相信人类不会坐以待毙,甘当被人工智能绞杀的“俘虏”。

  技术的价值主要在于适应人类社会发展的需要。再尖端的技术,也是人类的工具和自我发展的手段。就像菜刀可能划伤人的手指,但理性的人不会任其伤害自己一样,类似ChatGPT这样的人工智能技术在造福人类的同时,也可能被缺乏伦理道德观念的人滥用。对于技术的滥用,每出现一次,就越能提高社会的警惕,从而加强防范。

  辩证地评价人工智能对人类社会的双重影响,我们不妨学习一下ChatGPT的“理性思维”,尽可能列出人工智能存在的各种风险,将这样的风险作为加强管理和攻坚克难的对象,使人工智能发展的全过程受到更多重视。相反,如果片面夸大这种技术的消极作用,反而可能造成新的因噎废食故事。果真如此,就是人类的不明智和不自信了。

  从容看待人工智能的是非功过,别用玄幻文学家的口吻制造新的舆论恐慌,这才是当务之急。