你或许,甚至大概率遇到过这样的情况:当你打开手机中的某一款 App 时,第一眼看到的内容正是你几分钟前和朋友或者家人们谈论的东西。
第一次,你会觉得很惊讶。但时间久了,你就会觉得习以为常、见怪不怪了。而其中作祟的元凶之一,就是如今已无处不在且时刻“偷听”你的麦克风(Microphones),它们被嵌入手机、电视、手表等设备中,实时将你的声音传输到神经网络和人工智能系统中,帮助推荐系统为你作出“定制化”的推送服务。
(来源:Pixabay)
那么,如何才能避免这样的情况发生呢?
网络上有很多方法,比如放一首完全不相关的歌曲,将声音调到最大,主动制造一些噪音;比如不授权长期开启麦克风权限,而是选择采取一次一授权的方式等。
如今,来自美国哥伦比亚大学的研究团队提出了一种新方法:他们研发了一种人工智能系统,只需要在房间内播放一种该系统产生的极为轻微的声音,就可以避免“监听”事件的发生。也就是说,这一系统会把人们交谈的声音进行伪装,在不影响正常对话的前提下,不被麦克风等监听系统听到。
相关研究论文以“Real-Time Neural Voice Camouflage”为题,已发表在预印本网站 arXiv 上。而且,研究人员还表示,这种人工智能系统很容易部署在电脑、手机等硬件上,可以时时保护你的隐私。
用 AI 击败 AI
由人工智能利用的问题,要由人工智能来解决。
虽然该团队干扰麦克风等系统的成果理论上在人工智能领域是可行的,但要以足够快的速度将其用于实际应用,仍然是一个艰难的挑战。
问题在于,在某个特定时刻干扰麦克风监听人们谈话的声音,或许并不能干扰接下来几秒的谈话。当人们说话时,他们的声音会随着他们说出的不同单词和语速而不断变化,这些变化使得机器几乎不可能跟上人说话的快节奏。而在此次研究中,人工智能算法能够通过预测一个人接下来要说的话的特点,有足够的时间来产生合适的耳语(whisper)。
(来源:Pixabay)
哥伦比亚大学计算机科学系助理教授 Carl Vondrick 表示,这一算法能够以 80% 的效率阻止流氓麦克风听清(人们的)对话,甚至在人们对流氓麦克风的位置等信息毫无察觉的情况下,也能发挥作用。
为此,研究人员需要设计一种可以实时破坏神经网络的算法,这种算法可以在说话时连续生成,并适用于一种语言的大部分词汇。在以往的研究中,没有一项工作可以同时满足以上三个要求。
新算法使用了一种称之为“预测攻击”(predictive attacks)的信号,这种信号可以干扰任何被自动语音识别模型训练来转录的单词。
此外,当攻击声音在空中播放时,它们需要足够大的音量来干扰任何可能在远处的流氓“窃听”麦克风。攻击声音需要像声音一样传播相同的距离。该人工智能系统通过预测未来对信号或单词的攻击,以两秒钟的输入语音为条件,实现了实时性能。
同时,研究团队还对攻击进行了优化,使其音量类似于正常的背景噪音,让人们在房间内可以自然地交谈,而不会被麦克风等系统监控。
此外,他们成功证明了这一方法在有自然环境噪声和复杂形状的真实房间中的有效性。但 Vondrick 也表示,目前该系统还只是对大多数英语单词有效,他们正在将该算法应用到更多语言中。
我们能为 ethical AI 做些什么?
有人说,在大数据时代,我们的个人信息都处于“裸奔”的状态,身边也有越来越多的智能设备在偷窥着我们的个人隐私。如果这一研究成果在未来能够应用于更多语言,在更多场景内落地,或许能够帮助我们免受各式各样人工智能的利用。
正如宾夕法尼亚大学(University of Pennsylvania)计算机与信息科学系教授 Jianbo Shi 评价道:他们提出了一个新问题,即如何使用人工智能保护我们免受无意识的人工智能所利用?同时,Shi 也建议道,在未来的工作中,研究人员需要从最初的设计阶段就“有意识地”思考人工智能会对人类和社会产生的影响,不要再问有道德的人工智能(ethical AI)可以为我们做些什么,而是要问我们能为 ethical AI 做些什么?一旦我们相信这个方向,ethical AI 的相关研究就会充满趣味和创意。
原文链接:
https://arxiv.org/abs/2112.07076
https://techxplore.com/news/2022-04-spying-ai-block-rogue-microphones.html
https://c3.ai/glossary/artificial-intelligence/ethical-ai/
本文来自微信公众号 “学术头条”(ID:SciTouTiao),作者:学术头条,36氪经授权发布。