AI制图
“嘿,小X,开灯!”
类似的唤醒词,或许已成为人们日常生活中的高频用语,每天与智能音箱亲切对话,让智能手表记录健康数据,语音遥控电视……不过,当我们享受AI助手带来的便捷时,是否想过这些看似乖巧的智能设备,可能在你没留意时“偷偷开工”,把你的声音、习惯甚至生活小秘密,一点点记录下来?
唤醒之外的“秘密录音”
AI语音助手多采用“声控唤醒+后台处理”的机制。理论上,只有听到类似“嘿,小X”这样的指令,它们才会激活录音。但现实往往并非如此。系统有时会“听错”你的某个词,误以为你在召唤它,从而悄悄开启录音。
更令人担忧的是,这些被录下的音频,通常会上传到云端,美其名曰“优化识别模型”“提高服务质量”。可这背后意味着,你和家人、朋友的生活片段,可能正存储在别人的服务器里。
翻看一些厂商的隐私政策,确实能看到“收集部分语音数据用于学习”的条款,但这些内容往往藏在几十页的用户协议中,需要你点开五层设置才能找到关闭选项。当你不小心“全选同意”时,你的语音可能就成为训练AI的“素材库”。这并非危言耸听,曾有媒体披露,部分平台会把误唤醒的语音数据交由人工审听,以改进识别系统。也就是说,你深夜讲的心事,可能被一个真实的人听过。
从云端到黑产的“危险旅程”
这些“偷听”来的声音,究竟去了哪里?
从技术层面看,它们先被设备记录,再上传到服务器,进入厂商的大数据仓库。当系统存在漏洞,或者内部人员操作不当,这些原本属于你的声音记录就可能泄露出去。
一旦流入黑灰产业链,这些声音的用途将超出你的想象。不法分子可能通过录音精准判断你的作息习惯、家庭关系,甚至掌握你常提到的银行卡号、地址、昵称等信息,进而实施精准诈骗。
语音信息还能与其他信息源“拼图整合”。比如,你在语音助手前,提到快递公司、餐厅名字、公司名,这些“线索”可被黑灰产用于构建完整的“人物画像”。更可怕的是,有的诈骗团伙利用AI语音合成技术“克隆”你的声音,假冒你给亲友打电话求助。这种攻击方式从过去的“猜猜我是谁”升级为“我就是你本人”。当你沉浸在语音助手“变聪明”的错觉中时,你的声音可能已成为别人赚钱的工具。
语音助手确实“懂你”,它能根据你的语音习惯推荐内容、安排日程、推送广告。你说过几次“咖啡”,它就推咖啡机广告;你常聊育儿话题,它就精准“投喂”儿童课程。这种个性化体验背后,实则是你隐私的“碎片换算法”,而且这笔交易是默认进行的,你从未真正“同意”。
管住技术更要管住“人心”
面对技术与商业合谋的“偷听风暴”,我们该如何保护自己呢?
首先,可以在设备设置中查找并关闭“录音存储”“语音上传”等选项。虽然这些选项藏得比较深,但绝大多数平台都提供此功能。其次,尽量避免在语音助手附近谈论敏感话题,尤其是身份证号、银行卡号、家庭矛盾、医疗信息等。记住,别把AI当亲人,它没有情感,但有硬盘存储。
你还可以定期登录语音助手账户后台,查看系统保存了哪些语音记录。部分厂商甚至允许你手动删除这些记录,尽管操作不便,但值得尝试。购买设备时,不妨选择注重隐私保护、强调本地语音识别功能的产品。
最重要的是,不要掉以轻心,别以为“我只是个普通人,没人偷听我”。数据时代,“普通人”的日常也是最值钱的训练素材。每一段看似普通的对话,都可能成为别人眼中的“宝藏”。
(作者系中国计算机学会科学普及工作委员会委员)