数据需要“枷锁”,技术和立法对于隐私保护缺一不可资讯
图片来源:Unsplash
如果说前两年大家对于隐私保护的讨论还停留在初步阶段,如今,为数据上“枷锁”已经成为行业和社会的共识。
在2021年世界人工智能大会上,关于如何保护隐私,众多行业人士认为,技术和立法的推进,是两大必不可少的重要手段。
其中,不少参与嘉宾提到了“隐私计算”这一技术;除此之外,很多企业已经在为隐私保护采取行动,随着立法的推进,保证用户的数据安全已经成为自我规范。
悉尼科技大学副校长、澳大利亚人工智能协会理事长张成奇在“可信AI”的论坛上指出,谈人工智能福祉的问题,就要谈到尽量避免负面效应,“除了技术之外,法律也要跟上。”
从数据本身的安全性上来说,富数科技 CTO卞阳认为,“没有数据就没有AI,没有可信的数据,就没有可信的算法模型,也没有可信AI的应用。”至于什么是可信的数据,他提出,首先数据质量一定要好,其次数据的来源必须合法合规。
他提到,保护隐私一方面需要立法,例如《数据安全法》和已经有了草案的《个人信息安全保护法》;另一方面是合适的技术手段,例如现在备受关注的“隐私计算”。
实际上,在去年的人工智能大会上,图灵奖得主、中国科学院院士姚期智就在开幕式上强调,将人工智能与“多方计算”技术相结合,有望实现对数据的隐私保护。
隐私计算就是这样一种实现“多方计算”的技术。隐私计算是通过密码学和软硬件技术,在保证用户隐私及数据安全、符合法律法规要求的前提下,将多个数据源的数据相联结,构建一个跨界的数据生态。
通俗来说,隐私计算技术给数据上了“枷锁”,在提供数据价值的同时保护了用户信息,限制了使用方的滥用。
需要了解的背景是,隐私计算并不是一项新技术。之所以成为一个火热的研究话题,和社会、企业和政府形成的各方面因素息息相关。
锘崴科技CTO、华西医院特聘教授、同济大学特聘教授王爽在接受界面新闻采访时表示,一方面,法律层面各个法案的颁布,推动了监管层对于数据搜集的监督;另一方面,他认为,从民众到公司,到整个学术界对于隐私保护的意识都在提高,促进了隐私计算概念的普及。
王爽十年前就开始研究隐私计算。他认为,从技术层面上,通过这几年的迭代,隐私保护技术的算法丰富程度、效率和安全性都在提高,达到了可以商用的状态。这也是隐私计算备受关注的一个重要原因。
在某些细分领域,隐私计算已经开始落地,保护具体场景中的用户数据。王爽举例称,在临床辅助诊断领域,隐私计算可以保护患者输入的信息和 AI提供商的模型;在营销领域,他们和合作伙伴通过多元的数据提高转化率。
但是在智慧城市、智慧医疗这些领域,数据源比较大,隐私计算平台还处在建设中,处于初步阶段。
他预计,大概在明年或者后年,隐私计算才会达到应用大爆发的阶段。
而对于普通人来说,最常见的隐私保护可能还是自己的“人脸”。
由清华大学人工智能院孵化成立的企业瑞莱智慧在今年的人工智能大会上发布了国内第一款商用的深度伪造检测平台——你可以将它看作是一个对抗“AI”的AI工具。
瑞莱智慧高级副总裁朱萌提到,一方面,人工智能需要收集数据,使用数据,数据就可能存在泄露;另一方面,如果在使用AI的过程中数据被污染,就会对系统造成非常大的伤害。
这一深度伪造检测平台可以对图像和视频进行检测,包括网络安全的内容合规性检测、人脸安全检测和图像物证的真实性检测等。
一些第三方的监督机构也在行动。在今年的人工智能大会上,由中国信息通信研究院、中国人工智能产业发展联盟(AIIA)以及中国信通院华东分院共同成立的上海可信AI评测中心正式揭牌。据了解,该中心将推动可信AI治理准则贯穿人工智能产品和服务的全生命周期,确保人工智能安全、可靠、可控,推动经济、社会及生态可持续发展。
一个必然的趋势是,如今的AI发展已经不仅涉及技术,更多的伦理问题开始出现,为了解决这些问题,AI技术又开始发挥作用。正如蚂蚁集团首席科学家漆远所说,“未来的风控将不再是人和人的斗争,而是AI与AI的博弈。”
本网站转载文章仅为传播更多信息之目的,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证信息的正确性和完整性,且不对因信息的不正确或遗漏导致的任何损失或损害承担责任。