在喜欢以末日思维思考的人看来,技术必将给文明带来灾难。诚然,我们也许永远看不到通过CRISPR基因编辑技术出生的婴儿、失去控制的自动驾驶汽车、或者想杀害人类的人工智能。但随着技术加速进步,万一这一天真的到来,事态可能远超我们的想象。但与此同时,有一个问题值得思考:最危险的新兴技术是什么?让我们看看专家们对此怎么说吧。
泽菲尔·蒂乔特 (福特汉姆大学法学副教授)
办公室监控。这种技术会造成严重的信息不对称,让雇主可以像对待实验室小白鼠一样监视自己的员工,使本就恶劣的上下级关系进一步恶化。雇主们深知如何以不健康的方式刺激员工工作,也知道如何用更少的工资榨取更多的价值。这让他们可以排除异己,还能通过区别对待离间员工。这种技术如今在职场中已经随处可见,假如不加以制止,很快就会泛滥成灾。
迈克尔·利特曼 (布朗大学计算机科学教授)
在2021 AI100报告中,有一章描述了人工智能当前对我们最紧迫的威胁有哪些。这支包含17人的专家团队认为,虽然人工智能系统在现实世界中的应用可以造福人类,但随着其应用范围的扩大,误用、过度使用、以及滥用的风险也将激增。
专家团队对人工智能最大的担忧在于所谓的“技术解决主义”,即“认为像人工智能这样的技术可以用来解决任何问题”的心态。许多人都认为,人工智能所做的决策客观中立、不偏不倚,但这些决策结果可能得到不恰当的应用,也可能基于历史偏见、甚至明晃晃的歧视。如果数据或数据解读算法不够透明,公众就可能被蒙在鼓里,根本不清楚这些决策会对自己的生活造成怎样的影响。
人工智能系统目前已经被用来在网上发布虚假信息了,因此很可能对民主造成威胁,被用作散播法西斯主义的工具。另外,如果对人工智能中的人为因素考虑不够充分,就会导致人们在“不信任人工智能系统”和“过度依赖这些系统”之间来回摇摆。人工智能算法也在涉及器官分配、疫苗等医疗问题的决策制定中起到了一定作用,很可能导致生死攸关的后果。
如果在出现问题时,对系统效果负责的个人或组织可以负起主要责任,人工智能的危险性或许能得到缓解。将所有利益相关方牵涉进来,虽然会大大减慢人工智能解决困难问题的速度,但却是不可或缺的一步,因为技术滥用的负面后果实在过于严重。技术专家也应当像医疗行业一样,坚决遵守“不伤害”原则。
戴维·沙姆韦·琼斯(哈佛大学流行病学教授)
至于谁能担得起“最危险的新兴技术”这一头衔,候选人显然有很多。例如,CRISPR等基因编辑技术的效果不一定有支持者们宣称的那样强大,反而有可能造成严重破坏。此外,社交媒体也展现出了造成大范围伤害的威力。但最令我担心的,还是人脸识别技术在监控领域的大规模应用。从很多方面来说,这项技术都是一项重要的社会资产。例如,人脸识别可以提高交易效率,登机时无需出示身份证或登机牌,在商店买东西时也可以直接刷脸付账。人脸识别也可以加强社会治安,更容易找到和逮捕犯罪分子。
所以这种技术危险在哪里呢?首先,我们的一举一动都将不再隐私,总有人能知道我们在哪、我们去过哪里。就算这些个人信息没有被滥用,隐私感和匿名感的丧失也会让人感觉不适。此外还有信息滥用问题,并且这种风险是真实存在的。任何有途径拿到这些信息的人都有可能将其用于不法目的。从心理扭曲的追求者到政府部门,都有可能对我们去的地方和见的人进行监视,甚至预测我们的下一步行动。并且我还怀疑,这种技术的危害也许远超我们的想象。
瑞安·卡罗(华盛顿大学法学教授)
我认为最危险的信息技术当属量子计算机。除了加密破解之外,量子计算的危险性其实已经不是什么新鲜事了。早从超级计算机时代开始,量子计算对个人隐私的威胁就已有加速增长之势。如今有了足够的数据和处理能力,当今的计算机系统抓取私人信息的能力更是在不断增强。我担心的是,利用量子计算技术,政府和企业都将变成“福尔摩斯”,从公开信息中猜出我们的所有秘密。
艾米·韦伯 (前景、趋势及情境规划公司Future Today Institute首席执行官)
最危险的新型技术应该是生物学,或者说得更准确些,合成生物学。这门技术的目标只有一个:利用细胞编写全新的(或者更好的)遗传编码。合成生物学运用工程学、人工智能、遗传学和化学方法,对生物身体部件或生物体进行重新设计,从而加强特定能力或创造新功能。利用一系列最新合成生物学技术,我们不仅能读取和编辑DNA编码,还能编写出新的编码。这就意味着,我们很快就能给生物体编程了,就好像它们是微型电脑一样。
合成生物学让我们可以将DNA序列变为软件工具,就像Word一样,只不过编辑的对象是DNA编码而已。研究者按自己的想法完成DNA编写或编辑后,新的DNA分子就可以借助3D打印机之类的技术凭空“打印”出来。这种DNA合成技术正在飞速进步中。如今的技术已经能常规打印出包含几千个碱基对的DNA链了,可用于建立新的细胞代谢通路、甚至足以构成一个完整的细胞基因组。
这样可能会造成什么问题呢?用不了多久,我们就能编写出任何病毒的基因组。想到新冠病毒,这种设想似乎很吓人,但病毒不一定都是坏事。事实上,病毒只是盛放遗传编码的容器而已。未来我们也许可以创造出对人体有益的病毒,用于治疗癌症等特定疾病。
合成生物学将在气候危机和食物及水资源短缺中发挥重要作用。它将减少我们对动物蛋白质的依赖,最终还能实现药品定制化,人们的身体将成为自己的“药房”。
但合成生物学之所以是最危险的新兴技术,原因并不在科学本身,而是出在我们人类身上。这要求我们挑战现有的心智模式,提出一系列复杂艰深的问题,还要对生命的起源展开理性讨论,否则我们就会制造风险、错失机会。在接下来10年里,我们要充分利用数据、证据及科学精神来制定关键决策,比如制造哪些治病专用的新病毒、基因隐私是什么样的概念、以及谁拥有“生物体”的所有权等等。监管机构也要确定企业应如何从人工编辑细胞中盈利、以及在实验室中保存合成生物体需遵守什么流程。
我们本身在合成生物学中也扮演了重要的角色。如果你可以重新编辑自己的身体,你会做出什么选择?如果可以对你未来的子女进行编辑,你会不会对此感到困扰?如果食用合成生物可以缓解气候变化,你会接受吗?合成生物学将成为人类有史以来打造过最强大、最可持续的制造平台。我们如今正处于这场工业革命的风口浪尖。
杰伦·范登霍文(代尔夫特理工大学伦理与技术教授)
我认为最危险的技术是那些阻挡人们了解世界和他人需求的社会或认知技术。这些技术容易导致人性的泯灭,使人们变得自私自恋、不为他人考虑。这些技术就像造雾机一样蒙住了我们的双眼,让我们对人类共同体和人类的责任视而不见。这些技术完全没有信仰可言。研发它们的人要么是被别人当成工具利用,要么极其天真幼稚,要么是同谋,要么就是伪造假象的大师、坚决否认人类未来可能遭遇的一切苦痛。
所以我认为,这些助长认知混乱的数字技术是我们面临的最大威胁。这些技术的危险性很容易被遮蔽或否认,因此大多数人都觉得没什么不对。而与此同时,其它真正能造福人类的技术反而会被污名化。暴君和恶棍饱受赞誉,英雄和救世主却被肆意抹黑。
有的人还未放弃抵抗气候变化、寻找抗疫方法、阻止医院利用人工智能分诊、揭露深层骗局等等。但这些人如今已难以辨明哪些才是真相、哪些做法在道义上可以接受。而多数人恐怕都早已放弃了对真相的追寻,变得温驯顺从、洋洋自满。
希德·约翰逊 (纽约州立上州医科大学生物伦理与人类学副教授)
异种移植(即将一种动物的器官和组织移植到另一种动物体内)一直被视作移植器官短缺的解决方案之一。有成千上万人在苦苦等待救命的器官,有些人最终熬不过漫长的等待、在这个过程中不幸逝世。从上世纪60年代到90年代,研究人员做了无数次将灵长动物器官移植给人类的尝试。但到目前为止,还没有患者在接受异种器官后存活下来。有人只活了短短几小时,有人坚持了几天活几周,原因之一在于免疫系统对新器官产生的排异反应、甚至可怕的超急性排异反应。
物种之间差异越大,排异风险越大,就像人类和猪一样,毕竟两个物种之间隔了8000万年的进化差异。但猪目前被我们视作较为理想的器官来源,因为饲养难度低,器官大小适合人类使用,并且每年被屠宰的猪本就达到了数亿头之多,所以为了器官杀死它们似乎也不存在太大的伦理道德问题。
灵长类动物与人类之间的遗传相似性会增加人畜共患病的感染风险。美国食药监局就明确禁止了将灵长类动物的器官用于异种移植。但猪也可能感染与人类相似的病毒,也可能传播人畜共患病。1998和1999年,马来西亚的养猪户中就爆发了一次因猪传播的尼帕病毒导致的病毒性脑炎,导致100人死亡、超过1百万头猪被扑杀。
新冠也是一种人畜共患病,可能先后跨越了好几个物种、最终才传播到人类身上,引发了这起已夺走数百万条生命的全球大流行,给医疗体系造成了重击,引发了一系列全球性社会经济动乱。目前,我们已在狗、猫、雪貂、黑猩猩、大猩猩、水獭、大型猫科动物、欧洲的人工养殖貂、以及美国的野生白尾鹿身上都发现了新冠病毒。
人畜共患病通过异种器官移植传播的风险是个十分严肃的话题,许多组织都建议对器官接受者、其密切接触者、以及参与移植过程的医疗工作者进行终生观察。观察的目的倒不是保护器官接受者本身,而是出于公共卫生考虑。因此异种移植是一项极其危险的新兴技术。在最糟糕的情况下,也许会爆发另一场全球性大流行病,造成灾难性后果。
除了异种移植之外,器官短缺其实还有其它解决方案,并且有些已经可以投入应用了,例如增加人类捐赠者的数量。还有些正在研发中(例如:体外培育人体器官,利用3D生物打印技术实现受损器官的体内修复和再生等等)。这些技术都没有造成全球大流行病的风险。而异种移植技术在经历了数十年的研究、以及无数次失败后,仍存在诸多疑点。如今新冠疫情已进入第三个年头,异种移植的疾病传染风险已经成为了一个重点问题,其危险性再怎么高估也不为过。
约翰娜·布莱森 (柏林赫尔蒂行政学院伦理与技术教授)
我认为最危险的新兴技术其实是各种国家治理形式。我们对社会控制已经有了充分的了解。有些国家对这些信息的使用主要出于好意,但有些则用其压迫和操纵少数群体、甚至削弱占多数群体的权力,无论是哪种方式,结果都很残酷。我们还要意识到,这种暴行也包括“文化种族屠杀”,即抹去人们留下的所有记录和历史、否认其祖先的存在和身份。这种做法虽然不一定会真的杀死这些人,但也会严重打击其蓬勃发展的能力。
要想解决这些问题,唯一的办法就是创新治理形式,鼓励合作行为,尊重基本权利。很多技术事实上都有“双重用途”。我们不能选择躺平、认为解决方案不在自己掌控范围内。在任何社会层级上,政治觉醒度和参与度都十分重要。而且有趣的是,我们利用社交媒体等工具,已经在很大程度上提高了人们的政治意识。所以我认为还是有希望的,只不过要做的工作还有很多。
伊丽莎白·希尔特 (伊利诺伊理工学院哲学教授)
最危险的新兴技术应该是某种能够脱离人类控制和监管的技术。技术不会奇迹般地凭空出现,本身也并不危险,危险之处其实在于设计、改造和部署它们的人类。
虽然有很多人猜测,未来可能会出现超级人工智能、对人类进行统治和支配,但我认为,新兴技术有很多更加实际的方法逃离人类掌控。
例如,技术的作用原理若不够透明,就很容易脱离我们的控制。此外,针对某一技术的功能和影响,制造商或企业也许会对公众歪曲事实、或有所隐瞒。
人类的情感投入也可能导致失去对技术的掌控。我们与技术开展互动时,越是符合自己的直觉和情感,就越容易掌握这门技术。因此类人机器人常常会模仿人与人之间的互动方式。但如果赋予技术情绪等人类特征,可能会导致人类单方面的情感投入,使得人与技术之间的互动不再受理性主导、而是受感性因素驱使。在这类互动关系中,人类将成为更容易受伤害的一方。
本文来自“新浪科技”,作者:叶子,36氪经授权发布。