社区声明:欢迎各位学者访问 HotICN 中文社区,希望各位学者能在社区内分享最新资讯和交流心得, 共建更加强大的HotICN 中文社区。

论文分享——Service-Aware Optimal Caching Placement for Named Data Networking

ICN 刘江 22℃

出处:IEEE Globecom 2019

作者:Ran Zhang, Jiang Liu, Renchao Xie, Tao Huang, and F. Richard Yu

摘要:NDN中内嵌的缓存为在线缓存机制,期望实现高效的内容分发。在本文章中,为了利用有限的缓存资源实现最优缓存性能,联合考虑内容流行度、底层网络拓扑、转发策略以及NDN缓存服务机制来进行缓存放置决策。具体来讲,我们提出了服务可感知的缓存模型。在模型中,我们定义了缓存服务矩阵(CSM),用于描述用户请求的服务位置。为了使CSM遵从缓存放置、拓扑、转发策略以及沿路缓存服务机制的限制,本文提出了在前述条件下计算CSM的算法。在此基础之上,本文计算缓存收益,并将缓存放置问题构建为最优化问题。同时,本文采用DG2-E算法来分解与求解NP难的最优化问题。仿真结果表明,所提机制与算法在降低跨域流量和加速用户请求响应方面明显优于现有算法。

下载链接:https://www.researchgate.net/profile/Ran_Zhang46/publication/335000987_Service-Aware_Optimal_Caching_Placement_for_Named_Data_Networking/links/5d498e7992851cd046a695ab/Service-Aware-Optimal-Caching-Placement-for-Named-Data-Networking.pdf

 

转载请注明:IEEE HotICN » 论文分享——Service-Aware Optimal Caching Placement for Named Data Networking

喜欢 (0)