搜索
查看 3968 回复 0

[阳光评论] “投喂”AI不能滥用隐私数据

  [复制链接]
发表于 2023-11-23 08:42:25 | 显示全部楼层 |阅读模式

登录可以看到更多精彩内容

您需要 登录 才可以下载或查看,没有账号?立即注册

×
“我们将对您主动上传的文档材料,在采取脱敏处理后作为AI训练的基础材料使用……”近日,办公软件WPS在其隐私政策中的表述被质疑滥用用户隐私,随后其官方向用户致歉,并承诺用户文档不会被用于人工智能训练目的。

随着生成式人工智能应用场景日益增多,带来的潜在风险隐患不容小觑。向AI“投喂”用户数据价值,目的是帮助训练生成式人工智能的“大脑”,实现数据资源化利用。但由于目前对于人工智能的各种风险识别仍处在摸索阶段,如何科学规避其进化成“脱缰野马”,仍然存在不少盲区。

追求更高的人工智能准确度,让机器越来越懂人,是人工智能不断接受训练的目标。越来越智能的机器,离不开大量数据的训练和培养。理论上讲,投喂的数据越多,生成式人工智能就会越“聪明”,如果没有海量数据“充饥”,生成式人工智能就难以填饱“数据饥饿”。但在AI数据训练中,有的涉及技术风险,有的涉及经济风险,有的涉及伦理风险,有的涉及法律风险,这一过程让人工智能与安全隐私之间的关系更加微妙。更高质量的数据获取及人工智能模型的自动迭代,是目前在技术层面亟待解决的问题。保护隐私是人的基本权益,享受智能化便利,不意味着对侵犯隐私之举可以无底线纵容、无规则约束。如果让AI“胃口”越来越大,越界吞噬不加甄别的数据,增加错误技术打开的漏洞,就难以体现技术进步带来的福祉。

今年7月,我国出台《生成式人工智能服务管理暂行办法》,强调开展训练数据处理活动“涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形”。任何行业发展和技术进步,不能以牺牲隐私安全为代价,不能游离在监管的真空地带。侵犯个人隐私、数据信息伪造、算法歧视等与生成式人工智能发展相伴相生的社会问题,不仅需要与时俱进的有效监管,还需要整个社会的约束。创新要在法律框架之内,虽然没有一种算法是完美的,但实现机器“智”变和保护隐私安全并不是非此即彼。

遵守法律法规,尊重社会公德、公序良俗,才是大模型发展的正轨。规避不良情形,加强安全底线、伦理标准与合规规范,才能让技术手段真正造福于民。

看透彻了,心会晴的
回复

使用道具 举报

快速回帖

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

联系客服 关注微信 下载APP 返回顶部 返回列表