原文服务方: 计算技术与自动化       
摘要:
深度学习中使用的训练的数据集中可能存在一些用户的敏感信息,在模型训练过程中,这些敏感信息将会隐含地存在于模型参数中,从而存在隐私泄露的风险。本文在AdamP优化器的基础上引入高斯机制的差分隐私,提出了一种基于一次幂函数的动态隐私预算分配算法来更合理地分配差分隐私的隐私预算,即DP-AdamP,以更好地平衡隐私性和模型准确性。实验结果表明,本文的DP-AdamP算法相比于传统的DP-SGD算法,在相同隐私预算下具有更好的准确性,低隐私预算情况下高出约7.7%,高隐私预算情况下高出约3.9%,并且针对更具有实际意义的低隐私预算的情况进行单独实验,进一步验证了DP-AdamP算法的有效性。
推荐文章
基于差分隐私机制的位置数据隐私保护策略
位置数据
访问频率
差分隐私保护
多级查询树
差分隐私保护研究综述
差分隐私
隐私保护
数据失真
数据挖掘
数据发布
面向数据直方图发布的差分隐私保护综述
直方图
差分隐私保护
静态数据集
噪声
隐私预算
动态数据流
支持差分隐私保护及离群点消除的并行K-means算法
K-均值聚类
离群点消除
差分隐私
MapReduce
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于深度学习的动态差分隐私保护算法
来源期刊 计算技术与自动化 学科 工学
关键词 深度学习;差分隐私;动态隐私预算;AdamP算法
年,卷(期) 2025,(4) 所属期刊栏目
研究方向 页码范围 117-122
页数 6页 分类号
字数 语种 中文
DOI 10.16339/j.cnki.jsjsyzdh.202404019
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2025(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
深度学习;差分隐私;动态隐私预算;AdamP算法
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算技术与自动化
季刊
1003-6199
43-1138/TP
16开
1982-01-01
chi
出版文献量(篇)
2979
总下载数(次)
0
总被引数(次)
14675
论文1v1指导