腾讯AI搜索姓名就能“开盒”?
微信AI搜索姓名就能“开盒”?
近日,有网友反映,用微信AI搜索自己的名字,会得到一份个人信息集纳汇总,内容涵盖曾参与的活动、获得的奖项等内容。部分信息附带引用链接,大多数是微信公众号推文,而在推文内出现姓名时,自带蓝色超链接,点击即可一键浏览个人经历。
对此,腾讯方面今天对媒体表示,AI搜索仅整合公众号及互联网相关公开信息,不涉及用户隐私信息。根据用户近期的相关反馈,微信搜索将进一步优化使用体验,依法处理和保护用户个人信息,不存在个人信息泄露的情况。
今年2月,微信搜索上线“AI搜索”功能,并接入DeepSeek-R1提供的“深度思考”服务。上海市数据科学重点实验室主任肖仰华介绍,当前开启搜索功能的大模型,与传统搜索引擎获取信息的方式相似,通过网络爬虫工具,在不违反协议的前提下抓取信息。如果平台越界抓取或使用,的确存在侵犯隐私的风险。
法律专家:公开信息也可能被越界使用
记者尝试搜索自己的名字,发现AI生成的信息,虽不涉及身份证号、手机号等敏感信息,但整合后的信息,足以构建出一个清晰的“数字画像”,这种利用公开信息拼接的内容是不是涉嫌侵犯隐私?
上海政法学院教授张继红表示,要判断AI整合的信息是否侵犯隐私,关键要看信息来源是否合法、处理方式是否合规。即便是公开信息,也必须遵循《个人信息保护法》中“合理使用”的原则。对公开信息的二次加工也存在法律边界,比如:如果对公开信息进行组合推理,关联到手机号、住址等内容,则可能触发“敏感个人信息”处理条款;如果相关信息被用于商业营销、信用评级等,也存在侵权的可能。张继红说:“AI工具的开发者、运营方,若在处理过程中未遵守相关规定,未取得用户授权,未做去标识或匿名化处理,可能面临民事、行政甚至刑事责任风险。”
AI整合个人信息可能带来哪些风险?
被整合好的个人“数字画像”,本质上是对公开信息的二次整合,在降低信息可得性的同时,也放大了诸多风险。上海市数据科学重点实验室主任肖仰华提醒,当前的AI大模型不同于传统搜索引擎,在整理信息时,会进行一定程度的推理,比如,通过奖学金公示、考公考研等信息推断用户年龄、职业背景等,这会加大个人信息泄露风险。
肖仰华指出,要避免类似问题发生,有必要加强AI“安全对齐”训练,也就是让AI学会哪些问题可以回答,哪些问题不能回答。此外,AI大模型在训练过程中,使用过的信息不会“遗忘”,这可能导致负面信息一直留存。如果遇到重名的情况,还会造成信息混淆,生成不准确、甚至是虚假的内容。
公众如何应对?三招降低被“开盒”风险
1.减少非必要公开:尽量避免在网络平台公开工作单位、住址、身份证号、照片、声音等核心信息。
2. 明确拒绝授权:在发布内容时主动声明,不授权平台将内容用于AI训练或商业用途,可作为后续维权依据。
3. 行使删除权+调整平台设置:若发现信息被不当抓取,可依据《个人信息保护法》要求平台删除。同时,注意关闭平台中“参与AI模型训练”的默认设置,管理好个人数据使用权限。
编辑: 杜梦渊
责编: 樊昊