当前位置:首页  > 专题专栏  > 网络安全
警惕AI大模型过度采集用户隐私信息
发布时间:2023-11-21  查看次数:
近日有网友发现,WPS在其“隐私政策”中提到,“我们将对您主动上传的文档材料,在采取脱敏处理后作为AI训练的基础材料使用”。11月18日,WPS官方微博做出回应,在向用户致歉的同时,承诺用户文档不会被用于AI训练目的。
此前,WPS发布AI公测,声称可以帮助用户润色、续写、扩充文档,写表格公式,生成PPT等,有助于提升用户学习、办公效率。但是,WPS在隐私政策方面的越界行为,违反采集数据信息的“最小化原则”,涉嫌不当获取用户隐私信息。在广大用户和社会舆论的质疑下,WPS被迫公开致歉,并修改相关条款,也算是悬崖勒马了。
然而,这件事引发的争议,并未就此终结。目前,AI处于炙手可热的发展阶段,各大科技公司发布的AI大模型,已经超过了上百个,这些AI大模型在各个领域均需要海量数据用于训练,而数据来源的合法性、持续性,就成了问题。
早在今年7月,一款骤然爆火的“妙鸭相机”,亦曾在“用户协议”中,声称可将用户信息以“任何形式任何范围使用”,在引起网友和舆论批评后,删除了相关条款。可见,随着AI技术的落地应用,一些科技公司急于市场竞争,试图使用用户隐私信息,不可避免地会触及相关法律红线,埋下信息安全隐患。
过度采集用户隐私信息,可能对用户的个人安全和财产安全造成威胁。一旦这些隐私信息遭到非法泄露,被不法分子获取,就可能利用信息实施诈骗、盗用身份等违法行为,给用户带来巨大的财产损失。因此,监管部门要提高警惕,及早采取措施打击乱象,防范AI大模型过度采集、滥用个人隐私信息数据。
国家网信办等多部门发布的《生成式人工智能服务管理暂行办法》明确,应当依法开展预训练、优化训练等训练数据处理活动,使用具有合法来源的数据和基础模型;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形。各大科技公司要主动遵守相关规定,做AI训练时,应严格遵循“最小化原则”,不得跨越红线。