人工智能和机器学习的兴起增加了应用程序用户、设备所有者、公司、消费者甚至患者对数据的需求。杜克大学富库商学院(Duke University’s Fuqua School of Business)决策科学副教授阿里·马赫杜米(Ali Makhdoumi)表示,随着数据饥渴型技术变得越来越高效,关键问题是如何在保护用户隐私的同时激励数据共享。
Makhdoumi和来自加州大学伯克利分校的Alireza Fallah、多伦多大学的Azarakhsh Malekian以及麻省理工学院的Asuman Ozdaglar共同撰写了一篇发表在《运运学》杂志上的新论文,他们认为解决方案可能是设计一种机制来衡量用户的隐私敏感性,并对他们放弃个人数据进行补偿。该论文也可在预印本服务器arXiv上获得。
Makhdoumi说:“在许多机器学习应用中,我们将数据视为给定的。“然而,通常数据是由有自己隐私问题的个人提供的。所以,问题是:我们应该如何补偿这些关心隐私的用户?在回答这个问题之前,我们需要了解如何保证隐私。“‘
在他们的研究中,Makhdoumi和同事使用了“差异隐私”,这是一种在科技行业广泛采用的方法。
他说,这种方法涉及到在数据中添加噪音,这是一种随机化的程度,它将使信息不那么暴露于分享信息的人。
他举了一个例子,一家公司查询医院记录,以确定邮政编码内患有某种可能敏感的医疗状况的个人百分比。
“假设数据显示20%的人有这种情况,”Makhdoumi说。“为了保密,医院在真实的平均值上加了一些噪音,这样对查询的回应可能会显示出患有这种疾病的人的百分比是10%到30%之间的某个随机数字。”
他还表示,目前隐私要么是本地提供的,要么是集中提供的。在本地设置中,数据在与处理它的实体共享之前直接在用户的设备上随机化。本地化方法的一个例子是苹果的隐私设置,该公司在“在你的iPhone上发生的事情只留在你的iPhone上”的宣传活动中放大了这一点。在集中式系统中,用户与公司共享原始数据,然后公司将在结果中添加噪声。
Makhdoumi说,当地系统在商业或其他类型的分析中产生的统计估计不太准确,因为数据在分析之前是随机的。
“数据是由个人提供的,”他说。“所以自然的问题是,我应该如何补偿这些人的数据和他们隐私的损失?”
他说,人们对数字隐私的关注程度不同,他们对平台提供的服务所带来的效用的评价也不同。
Makhdoumi说,例如,在医疗环境中,用户可能会认为科学研究的社会效益可以证明一些隐私的损失是合理的。他说,在不同的环境中,例如社交媒体,甚至在政府研究中,人们可能有不同的内在隐私问题。
在他们的研究中,Makhdoumi等人设计了一种新的数据获取机制,该机制考虑了用户的隐私敏感性,并为其赋值,从而确定了数据依赖平台的最优激励机制。
通过考虑用户隐私损失的代价和他们从服务中获得的效用,该机制为公司在收集数据的同时补偿用户分享个人信息提供了最佳方式。
“有些公司已经在为用户的数据付费了,”他说。
研究还表明,平台集中收集数据是最有效的,这种设置可以确保最精确的商业分析结果。
解决隐私问题
Makhdoumi说:“在政策制定者和公众考虑如何处理私人信息之前,人工智能和机器学习等技术已经渗透到社会中。”
他说,随着平台了解用户偏好和特征的细节,风险在于它们利用这些数据点进行价格歧视和其他操纵,对它们有利,对用户有害。
他说:“例如,如果他们了解了个人的财务状况,他们可能会先提供低利率的贷款,然后再提高利率。”
他还表示,实证研究表明,一些公司能够预测消费者什么时候最脆弱,然后在那个时候瞄准某些产品,因为这些产品可能对消费者最有吸引力。
他说:“根据你的地位,他们会给你提供一些东西,比如,看起来很光鲜,但从长远来看,这会伤害到你。”
Makhdoumi表示,这项研究是解决数据市场和隐私问题,以及不同数据架构对平台、用户和整个社会的利弊的第一步。
“在了解数据收集的社会危害方面,我们还有很长的路要走。”
更多信息:Alireza Fallah等,优化和差异私有数据获取:中央和局部机制,arXiv(2022)。DOI: 10.48550/ arXiv .2201.03968
杜克大学提供
引用:一种数据采集机制,在补偿隐私敏感用户的同时最大限度地提高平台的效用(2023年12月5日)
作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司
内容仅供参考之用。
本文来自投稿,不代表牛批号立场,如若转载,请注明出处:https://cn.wwwhere.cn/uncategorized/202501-15575.html