人工智能与数据相辅相成,数字自我防御技术会扼杀AI的发展吗?

小科工 2022-09-24
3207 字丨阅读本文需 7 分钟

互联网时代里,网络当中所构建的数字自我已然成为了个人的“第二身份”。俨然,网络世界已经通过个人与个人之间的交流、信息的互通逐步越过了现实与虚拟之间的界限,逐渐成为了个人乃至社会生活中的重要场景,网络上的世界甚至已经成为了真实,个人在网络上的形象随着网络世界的比重增加,逐步让个人所构建的数字自我成为了真实自我的一部分。

数字自我防御就成了必不可少的需求。

但是,人工智能的开发和应用需要采用大量数据。提供给机器学习算法的数据越多,就越能更好地发现模式、做出决策、预测行为、个性化内容、诊断医疗状况、实现智能化、检测网络威胁和欺诈。

事实上,人工智能和数据已经达成了这样的关系:“没有数据的算法是盲目的,而没有算法的数据是愚蠢的。”但采用人工智能技术可能面临风险,并不是每个人都想分享自己的信息或数据,至少在当前的数字参与规则下是这样。因此,需要采取一些数字自我防御措施。

有些人完全脱离对外接触,成为数字隐士;有些人则谨慎行事,使用数字自我防御这一隐私增强技术(PET)来应对数字泄漏。

使用数字自我防御的人不信任网站隐私通告,而是使用隐私等级扩展等工具对其进行验证。他们不会告知他们的偏好,而是使用专用工具——如人工智能驱动的隐私保护搜索引擎和浏览器,进行匿名搜索。这些工具阻止隐形跟踪器的跨页面跟踪,帮助他们换种方式探索世界、协作以及存储数据。


那么,数字自我防御的隐私技术会扼杀AI的发展吗?

数字化转型背景下的数字风险

十四五期间,各行各业不断深入的数字化转型正推动中国全面进入数字经济时代。新技术在推动新经济蓬勃发展的同时,也如影随行地带来了许多的新的风险。

RSA在其2020年发布的《数字风险报告》中总结出了数字化时代我们必须面对的八大类风险:网络攻击风险、动态员工风险、第三方风险、云转换风险、数据和隐私风险、流程自动化风险、合规风险和业务弹性风险。根据国内外对数字风险的研究和我国实际情况,我们提出“十四五”期间我国政企组织应重点关注以下十类数字风险:

但上述所有风险都要结合实际情况,具体分析。总的来说,企业转型发展可大致分为信息化、数字化和智能化三个阶段,企业应根据自身所处的阶段和各类场景,分析其可能存在的数字安全风险。

数字化风险管控的要求与原则

一个良好的数字化风险治理机制应当是以业务需求为出发点,以新技术驱动和大数据分析为手段,以身份的“零信任”和业务的“高弹性”为基础, 通过动态自适应的方法来保护企业数字资产的机密性、完整性、可用性、隐私性和可靠性,以成本最优的方式实际组织业务价值的最大化。

要建立这样一种良好的治理机制,企业应尽量应遵循以下原则:

风控协作化:从企业风险到数字风险,从网络安全与数字安全,从“三道防线”到“三线协同”,数字风险治理需要形成决策机构、业务部门、IT部门、风险管理部门和审计部门齐抓共管,协同作战的局面。

管理一体化:形成面向全组织的、集中统一的数字风险管理标准,并结合各类监管规范对于数字安全的要求,打造融数字风险识别、预警、检测、监测、保护、应急响应于一体的数字风险管控平台。

防御主动化:全面提升数字风险防护能力,应用云原生安全、可信计算、国产密码、业务反欺诈等自主可控技术,开展数字化网络安全、业务安全、数据安全的建设和整改加固,形成主动免疫、主动防御、整体防控的主动化的数字风险防御体系。

运营智能化:利用云计算、大数据及威胁情报技术,建设数字安全智慧大脑,以安全分析为核心,结合云端威胁情报,通过各种数字安全场景及可视化手段,利用安全运营服务和安全编排自动化响应技术为企业提供高效的数字安全服务。

操作实战化:从被动的威胁应对和标准合规的模式,走向在常态化攻防演练中不断完善的模式,在遭受网络攻击时具备较强的对抗能力;在新的数字业务规划与设计时,就应当把数字控制要求和措施嵌入到新系统的开发和运维过程中去。

恢复弹性化:在遭受网络攻击、业务中断、安全事件干扰,甚至在灾难事件发生时,具有快速恢复的能力(即数字安全的弹性)。未来复杂的数字化环境下,数字安全弹性是数字安全保障体系必不可少的基本属性。

日益兴起的数字自我防御

人们可以采用一些工具来应对人工智能算法对隐私的收集和分析,这被称为数字自我防御,或者又称监视自我防御。

采用数字自我防御的用户通常厌倦了无处不在的在线行为跟踪,这些跟踪甚至进入了他们的线下生活。数字自我防御并不是一种间谍行为,而是隐私的自我保护。

这种行为始于2013年美国前特工爱德华·斯诺登揭露的美国政府全面监控计划,该计划让美国国家安全局史无前例地可以掌握人们的通信和信息,包括可以从苹果、谷歌、Skype和Facebook等科技巨头的服务器上窃取电子邮件、照片、视频、实时聊天等信息。

英国情报机构GCHQ的类似侵入性策略也被披露,这引发了人们更高的隐私安全意识,改变了欧盟数据保护法规的发展轨迹,促使在法规中体现出以消费者为中心、以隐私为中心的文化,例如GDPR法规。

科技巨头为此争先恐后地证明他们的隐私信誉,将加密作为默认设置,并宣布将用户隐私作为优先事项。他们将自己定位为值得信赖的数据守护者,消费者可以信任他们,无需进行进行数字自我防御。

但2018年发生的剑桥分析公司的数据泄露丑闻,揭示了一些可能比政府监视更令人不安的东西:“监视资本主义”。在广告技术的推动下,人们的数字身份被在线跟踪器和不正当的数据抓取、打包、分析、剖析、拍卖、交换以及武器化,以提供“精准营销”来影响人们的消费行为。

事实表明,亚马逊公司可能比人们更了解他们自己。Facebook可以预测人们在社交媒体要说的下一句话,更可怕的是可以预测选民的投票倾向。剑桥丑闻揭示了广告技术“微目标”如何与假新闻和心理战策略相结合,以影响选民的决定,这导致Facebook公司在今年早些时候禁止在其平台上投放政治广告。

广告技术的新宠是基于位置的营销,它可以跟踪和映射用户的行为,追踪他们进入线下世界,通过结合应用程序数据和他们收集与汇编的其他来源数据推断私密细节,以创建丰富的个人资料,并按种族、性格、财务状况、年龄、饮食习惯、药物滥用历史、政治派别、社交网络、社交网络等对用户进行细分,然后在实时竞价平台的暗网中兜售,因此可能将会带来不利影响。

人们不仅仅是0和1的总和

而广告技术收集个人资料并不总是准确,而且目标决策可能令人反感。

例如,美国的保释金广告以具有非裔名字的用户作为目标,百事可乐等大品牌在极端激进网站上进行宣传。一位社交媒体用户表示,在她怀孕和流产期间总是接收到育儿广告,她公开呼吁科技巨头修复他们的算法,称“这个算法足够智能,知道我怀孕。而在我流产之后,并向我发送医院的广告,这令人毛骨悚然。”

精准营销是有效的,但也可能是有害的,因为并没有真正起作用。人类学家Tricia Wang指出,这是以牺牲客户理解为代价将人际关系实现商品化。她表示,70%的首席营销官认为广告科技没有提供有价值的客户洞察。大数据给出了宏观图景(这是一个不完整且不准确的图景),但缺少人类的叙述。

具有讽刺意味的是,广告科技正面临着从营销中清除以客户为中心的危险,因为它看不到“人类的0和1”。

学习数字自我防御

Data Ethics公司联合创始人Pernille Tranberg正在帮助消费者和企业找到应对监控的双赢替代方案。她教授消费者学习数字自我防御基本知识,让他们可以使用Digi.Me和Tapx等工具保护他们的数据,并按照自己的条件以公平的市场价值进行交易。

Blockthrough等网站工具会阻止未知或不安全的第三方跟踪器,同时允许隐私友好的跟踪器。Brave通过奖励访问帮助出企业获得更多的浏览收入,访问者可以通过观看隐私友好型广告获得报酬。Matomo等分析提供商为网站所有者提供了他们拥有的丰富数据,以及他们可以利用的隐私控制。

消费者与广告商是一种对抗关系?是的,但不全是。广告商需要尊重人们的选择,而不是禁用广告拦截器,或欺骗用户同意欺骗性界面和黑盒模式。他们之间应该合作而不是对抗,广告商需了解客户,否则最终将会失败。

隐私会扼杀人工智能吗?

综上可见,如果人们不小心的话,采用人工智能分析数据的广告技术会侵犯他们的隐私。为此人们希望收回他们的代理权。他们厌倦了被监视,并且正在反过来监视广告商的行为。

数据显示,如今有17亿人采用广告拦截工具拦截广告,这是“人类历史上最大的抵制”。随着苹果和谷歌等公司不再使用第三方cookie,广告商将需要找到新的方法来利用消费者数据,同时保持信任。

隐私安全使人工智能变得人性化,它可以拯救广告科技。例如,隐私友好型工具为竞争环境提供了公平的环境,可以鼓励人们分享更多信息。广告商将会分析匿名或加密数据,将这些数据重新置于人工智能系统中,以解锁广告科技无法提供的虚假客户洞察。

总之,人们的数字自我防御意识正在觉醒,传统滥用数据的人工智能方式,需要进化了!

文章来源: 极客网,正心正举,谷安天下

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:小科工
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...