资料隐私问题可以说是人们十分关注的话题,毕竟没有人想让别人知道自己的隐私,
随着全球保护消费者数据的新法规的出台,这种情况不太可能改变。欧洲GDPR和加利福尼亚CCPA正在制定新的标准来保护消费者数据,并给予消费者更多的权利收集和使用他们的个人信息。同时,他们正在提高消费者对如何使用数据的理解,有时甚至在他们不知情的情况下。
有人认为与数据隐私冲突的平行趋势是人工智能(AI)。AI在我们的日常生活中得到了越来越广泛的应用,它的有用性取决于大数据的三个V——容量、多样性和速度。限制数据访问会影响AI的有效性。
字母表首席执行官桑达·皮采和其他有影响力的领导人表达了他们的观点,即人工智能必须受到监督,但重要的是不仅要考虑对人工智能的担忧,还要考虑它带来的好处。最后一个问题是如何在不损害数据隐私的情况下充分利用人工智能的优势。
为何消费者信任被打破?
私密倡导者常常与技术供应商和营销人员发生冲突。大多数企业(97.2%)都在使用人工智能来提高市场覆盖面,细分目标受众,定制广告和优惠,以及产生相关内容和经验,从而提高转化率。
消费者知道组织可能会在消费者不知情的情况下共享或销售数据。然而,剑桥分析公司丑闻等引人注目的信任违规行为加剧了消费者对获取和使用数据的企业的不信任。
以价值建立信任。
当涉及到提供我们的个人数据时,消费者通常有两个基本的前提条件来信任这个过程:
通过分享个人信息,他们可以获得有意义的价值。
他们知道他们的数据是如何保护的,这些数据只用于指定的目的。
人们对价值交换的理解因人口统计数据而异。消费者的年龄、国籍、文化或环境会影响他们如何看待隐私,以及他们为共享数据设定的界限。然而,大多数消费者明白,为了访问应用程序和服务的所有功能,他们需要共享一定数量的个人信息。例如,如果没有访问位置数据,智能手机上的全球定位系统功能就不可用了。如果你没有向PayPal或Venmo提供你的路线和账户,你就不能通过电子方式转账。如果你想在亚马逊订购商品,你需要提供送货地址、电话号码和其他个人信息。消费者愿意提供这些数据,因为他们感知交换的价值,因为他们相信组织会履行他对价值的承诺。
对于人工智能来说,价值交换并不总是显而易见的。如果不明显,信任就会崩溃。在不损害数据隐私或消费者信任的情况下,如何使用数据集为人工智能技术提供信息?
AI数据:少即是多。
一些新技术支持大型数据集的匿名共享:
差异化隐私系统-专注于共享个人信息数据集,而不公开数据所属个人的识别细节。通过这种方式,在不影响数据隐私的情况下,可以从数据中获得有价值的观点。
多方计算——是另一种高级方法,通过隐藏数据的某些方式使用个人数据。
零因素授权——提供了一个解决方案,包括使用网上行为的数据为个人建立数字脱氧核糖核酸。通过坚持稳定的数据收集、持续的数据分析和完整的透明度,这种新的认证方法可以在不损害隐私的情况下变得高效和安全。
没有监控的机器学习能够准确地监控用户的账户行为,而不需要获得大量的个人数据。UML可以通过部署复杂的图形和聚类技术来观察和检测已知和未知的模式,并且可以找到帮助确定给定动作或者动作集是合法的还是非常精确的欺诈链接。UML类似于区分隐私的方法,因为它可以从用户操作和行为的聚合数据中得出结论,而不会侵犯个人用户的隐私。
这些技术可以在收集和使用数据时采用少即是多的方法,在不影响消费者信赖的情况下给组织带来强有力的结果。
恢复数字时代的信任。
恢复消费者信任的前进道路要求组织收集哪些数据,如何完全透明地使用它。使用转换技术和技术,如果没有监督机器学习,我们可以使用人工智能来维护数据隐私,同时在更大程度上从消费者和整个世界中受益。完整性。
成都融和实业排队叫号系统厂家(www.iritqq.com)是一家集研发、生产、营销、服务于一体的高新技术企业.主营智能排队叫号系统、医院分诊系统、排队机、叫号机、评价器(好差评系统)、呼叫器、多媒体查询及信息发布配套系统等,公司产品已广泛应用于不动产登记、智慧医疗、智慧税务、智慧政务、智慧金融、智慧通讯、智慧服务大厅、智慧机关单位等服务窗口行业.咨询电话:028-87438905。