数字自我防御:隐私技术正在扼杀人工智能吗?

极客网·人工智能9月22日 人工智能的开发和应用需要采用大量数据。提供给机器学习算法的数据越多,就越能更好地发现模式、做出决策、预测行为、个性化内容、诊断医疗状况、实现智能化、检测网络威胁和欺诈。

事实上,人工智能和数据已经达成了这样的关系:“没有数据的算法是盲目的,而没有算法的数据是愚蠢的。”但采用人工智能技术可能面临风险,并不是每个人都想分享自己的信息或数据,至少在当前的数字参与规则下是这样。因此,需要采取一些数字自我防御措施。

有些人完全脱离对外接触,成为数字隐士;有些人则谨慎行事,使用数字自我防御这一隐私增强技术(PET)来应对数字泄漏。

使用数字自我防御的人不信任网站隐私通告,而是使用隐私等级扩展等工具对其进行验证。他们不会告知他们的偏好,而是使用专用工具——如人工智能驱动的隐私保护搜索引擎和浏览器,进行匿名搜索。这些工具阻止隐形跟踪器的跨页面跟踪,帮助他们换种方式探索世界、协作以及存储数据。

日益兴起的数字自我防御 

人们可以采用一些工具来应对人工智能算法对隐私的收集和分析,这被称为数字自我防御,或者又称监视自我防御。

采用数字自我防御的用户通常厌倦了无处不在的在线行为跟踪,这些跟踪甚至进入了他们的线下生活。数字自我防御并不是一种间谍行为,而是隐私的自我保护。

这种行为始于2013年美国前特工爱德华·斯诺登揭露的美国政府全面监控计划,该计划让美国国家安全局史无前例地可以掌握人们的通信和信息,包括可以从苹果、谷歌、Skype和Facebook等科技巨头的服务器上窃取电子邮件、照片、视频、实时聊天等信息。

英国情报机构GCHQ的类似侵入性策略也被披露,这引发了人们更高的隐私安全意识,改变了欧盟数据保护法规的发展轨迹,促使在法规中体现出以消费者为中心、以隐私为中心的文化,例如GDPR法规。 

科技巨头为此争先恐后地证明他们的隐私信誉,将加密作为默认设置,并宣布将用户隐私作为优先事项。他们将自己定位为值得信赖的数据守护者,消费者可以信任他们,无需进行进行数字自我防御。

但2018年发生的剑桥分析公司的数据泄露丑闻,揭示了一些可能比政府监视更令人不安的东西:“监视资本主义”。在广告技术的推动下,人们的数字身份被在线跟踪器和不正当的数据抓取、打包、分析、剖析、拍卖、交换以及武器化,以提供“精准营销”来影响人们的消费行为。 

事实表明,亚马逊公司可能比人们更了解他们自己。Facebook可以预测人们在社交媒体要说的下一句话,更可怕的是可以预测选民的投票倾向。剑桥丑闻揭示了广告技术“微目标”如何与假新闻和心理战策略相结合,以影响选民的决定,这导致Facebook公司在今年早些时候禁止在其平台上投放政治广告。 

广告技术的新宠是基于位置的营销,它可以跟踪和映射用户的行为,追踪他们进入线下世界,通过结合应用程序数据和他们收集与汇编的其他来源数据推断私密细节,以创建丰富的个人资料,并按种族、性格、财务状况、年龄、饮食习惯、药物滥用历史、政治派别、社交网络、社交网络等对用户进行细分,然后在实时竞价平台的暗网中兜售,因此可能将会带来不利影响。

人们不仅仅是0和1的总和

而广告技术收集个人资料并不总是准确,而且目标决策可能令人反感。

例如,美国的保释金广告以具有非裔名字的用户作为目标,百事可乐等大品牌在极端激进网站上进行宣传。一位社交媒体用户表示,在她怀孕和流产期间总是接收到育儿广告,她公开呼吁科技巨头修复他们的算法,称“这个算法足够智能,知道我怀孕。而在我流产之后,并向我发送医院的广告,这令人毛骨悚然。”

QQ截图20220922105636.jpg

精准营销是有效的,但也可能是有害的,因为并没有真正起作用。人类学家Tricia Wang指出,这是以牺牲客户理解为代价将人际关系实现商品化。她表示,70%的首席营销官认为广告科技没有提供有价值的客户洞察。大数据给出了宏观图景(这是一个不完整且不准确的图景),但缺少人类的叙述。

具有讽刺意味的是,广告科技正面临着从营销中清除以客户为中心的危险,因为它看不到“人类的0和1”。

学习数字自我防御

Data Ethics公司联合创始人Pernille Tranberg正在帮助消费者和企业找到应对监控的双赢替代方案。她教授消费者学习数字自我防御基本知识,让他们可以使用Digi.Me和Tapx等工具保护他们的数据,并按照自己的条件以公平的市场价值进行交易。 

Blockthrough等网站工具会阻止未知或不安全的第三方跟踪器,同时允许隐私友好的跟踪器。Brave通过奖励访问帮助出企业获得更多的浏览收入,访问者可以通过观看隐私友好型广告获得报酬。Matomo等分析提供商为网站所有者提供了他们拥有的丰富数据,以及他们可以利用的隐私控制。 

消费者与广告商是一种对抗关系?是的,但不全是。广告商需要尊重人们的选择,而不是禁用广告拦截器,或欺骗用户同意欺骗性界面和黑盒模式。他们之间应该合作而不是对抗,广告商需了解客户,否则最终将会失败。

隐私会扼杀人工智能吗? 

综上可见,如果人们不小心的话,采用人工智能分析数据的广告技术会侵犯他们的隐私。为此人们希望收回他们的代理权。他们厌倦了被监视,并且正在反过来监视广告商的行为。

数据显示,如今有17亿人采用广告拦截工具拦截广告,这是“人类历史上最大的抵制”。随着苹果和谷歌等公司不再使用第三方cookie,广告商将需要找到新的方法来利用消费者数据,同时保持信任。 

隐私安全使人工智能变得人性化,它可以拯救广告科技。例如,隐私友好型工具为竞争环境提供了公平的环境,可以鼓励人们分享更多信息。广告商将会分析匿名或加密数据,将这些数据重新置于人工智能系统中,以解锁广告科技无法提供的虚假客户洞察。

总之,人们的数字自我防御意识正在觉醒,传统滥用数据的人工智能方式,需要进化了!

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2022-09-22
数字自我防御:隐私技术正在扼杀人工智能吗?
有些人完全脱离对外接触,成为数字隐士;有些人则谨慎行事,使用数字自我防御这一隐私增强技术(PET)来应对数字泄漏。

长按扫码 阅读全文