英国·威廉希尔(williamhill)中文官方网站
ENGLISH
|
集团首页
公司主页
关于我们
威廉希尔williamhill简介
现任领导
组织机构
联系方式
团队队伍
教授
副教授
讲师
党委行政
退休职工
科学研究
研究中心
数苑博雅讲座
数苑经纬讲坛
学术报告
学术会议
科研项目
科研论文
本科教学
教学动态
精品课程
教学团队
本科生实习
专业介绍与培养方案
公司产品
公司产品动态
研究生专业方向
公司产品方案
党建园地
党建动态
数公司党校
员工工作
学工热点
研究生园地
班团快讯
体坛风云
社团采风
学工制度
合作交流
员工动态
员工动态
人才招聘
科学研究
研究中心
数苑博雅讲座
数苑经纬讲坛
学术报告
学术会议
科研项目
科研论文
学术报告
当前位置:
公司主页
>
科学研究
>
学术报告
> 正文
Deep Mutual Density Ratio Estimation with Bregman Divergence and Its Applications
发布时间:2025-07-05 来源:威廉希尔williamhill 浏览次数:
Speaker:
孙六全
DateTime:
2025年7月7日(周一)下午14:00-15:00
Brief Introduction to Speaker:
孙六全 ,中国科公司数学与系统科学研究院
Place:
国交2号楼315
Abstract:
This talk introduces a unified approach to estimating the mutual density ratio, defined as the ratio between the joint density function and the product of the individual marginal density functions of two random vectors. It serves as a fundamental measure for quantifying the relationship between two random vectors. Our method uses Bregman divergence to construct the objective function and leverages deep neural networks to approximate the logarithm of the mutual density ratio. We establish a non-asymptotic error bound for our estimator, achieving the optimal minimax rate of convergence under a bounded support condition. Additionally, our estimator mitigates the curse of dimensionality when the distribution is supported on a lower-dimensional manifold. We extend our results to overparameterized neural networks and the case with unbounded support. Applications of our method include conditional probability density estimation, mutual information estimation, and independence testing. Simul...
上一条:
On the Robust Heterogeneous Federated Learning Algorithms
下一条:
随机特征方法