当前位置:高等教育资讯网  >  中国高校课件下载中心  >  大学文库  >  浏览文档

用户属性感知的移动社交网络边缘缓存机制

资源类别:文库,文档格式:PDF,文档页数:10,文件大小:1.31MB,团购合买
针对数据流量爆发式增长所引发的网络拥塞、用户体验质量恶化等问题,提出一种用户属性感知的边缘缓存机制。首先,利用隐语义模型获知用户对各类内容的兴趣度,进而估计本地流行内容,然后微基站将预测的本地流行内容协作缓存,并根据用户偏好的变化,将之实时更新。为进一步减少传输时延,根据用户偏好构建兴趣社区,在兴趣社区中基于用户的缓存意愿和缓存能力,选择合适的缓存用户缓存目标内容并分享给普通用户。结果表明,所提机制性能优于随机缓存及最流行内容缓存算法,在提高缓存命中率、降低传输时延的同时,增强了用户体验质量。
点击下载完整版文档(PDF)

工程科学学报 Chinese Journal of Engineering 用户属性感知的移动社交网络边缘缓存机制 杨静武佳李红霞 User-aware edge-caching mechanism for mobile social network YANG Jing.WU Jia,LI Hong-xia 引用本文: 杨静,武佳,李红霞.用户属性感知的移动社交网络边缘缓存机制.工程科学学报,2020,42(7):930-938.doi: 10.13374j.issn2095-9389.2019.07.12.001 YANG Jing.WU Jia,LI Hong-xia.User-aware edge-caching mechanism for mobile social network[J].Chinese Journal of Engineering,.2020,42(7):930-938.doi:10.13374.issn2095-9389.2019.07.12.001 在线阅读View online::htps:ldoi.org10.13374.issn2095-9389.2019.07.12.001 您可能感兴趣的其他文章 Articles you may be interested in 基于文本语料的涉恐事件实体属性抽取 Entity and attribute extraction of terrorism event based on text corpus 工程科学学报.2020.42(4:500 https:doi.org10.13374.issn2095-9389.2019.09.13.003 一种面向网络长文本的话题检测方法 A topic detection method for network long text 工程科学学报.2019,41(9:1208 https:doi.org/10.13374.issn2095-9389.2019.09.013 基于集成神经网络的剩余寿命预测 Remaining useful life prediction based on integrated neural network 工程科学学报.优先发表https:/doi.org/10.13374.issn2095-9389.2019.10.10.005 参与者信誉度感知的MCS数据收集机制 MCS data collection mechanism for participants'reputation awareness 工程科学学报.2017,3912:1922htps:oi.org10.13374.issn2095-9389.2017.12.020 卷积神经网络在矿区预测中的研究与应用 Research and application of convolutional neural network in mining area prediction 工程科学学报.优先发表https::/1doi.org/10.13374.issn2095-9389.2020.01.02.001 联合多种边缘检测算子的无参考质量评价算法 No-reference image quality assessment using joint multiple edge detection 工程科学学报.2018.40(8:996 https:1doi.org10.13374.issn2095-9389.2018.08.014

用户属性感知的移动社交网络边缘缓存机制 杨静 武佳 李红霞 User-aware edge-caching mechanism for mobile social network YANG Jing, WU Jia, LI Hong-xia 引用本文: 杨静, 武佳, 李红霞. 用户属性感知的移动社交网络边缘缓存机制[J]. 工程科学学报, 2020, 42(7): 930-938. doi: 10.13374/j.issn2095-9389.2019.07.12.001 YANG Jing, WU Jia, LI Hong-xia. User-aware edge-caching mechanism for mobile social network[J]. Chinese Journal of Engineering, 2020, 42(7): 930-938. doi: 10.13374/j.issn2095-9389.2019.07.12.001 在线阅读 View online: https://doi.org/10.13374/j.issn2095-9389.2019.07.12.001 您可能感兴趣的其他文章 Articles you may be interested in 基于文本语料的涉恐事件实体属性抽取 Entity and attribute extraction of terrorism event based on text corpus 工程科学学报. 2020, 42(4): 500 https://doi.org/10.13374/j.issn2095-9389.2019.09.13.003 一种面向网络长文本的话题检测方法 A topic detection method for network long text 工程科学学报. 2019, 41(9): 1208 https://doi.org/10.13374/j.issn2095-9389.2019.09.013 基于集成神经网络的剩余寿命预测 Remaining useful life prediction based on integrated neural network 工程科学学报.优先发表 https://doi.org/10.13374/j.issn2095-9389.2019.10.10.005 参与者信誉度感知的MCS数据收集机制 MCS data collection mechanism for participants' reputation awareness 工程科学学报. 2017, 39(12): 1922 https://doi.org/10.13374/j.issn2095-9389.2017.12.020 卷积神经网络在矿区预测中的研究与应用 Research and application of convolutional neural network in mining area prediction 工程科学学报.优先发表 https://doi.org/10.13374/j.issn2095-9389.2020.01.02.001 联合多种边缘检测算子的无参考质量评价算法 No-reference image quality assessment using joint multiple edge detection 工程科学学报. 2018, 40(8): 996 https://doi.org/10.13374/j.issn2095-9389.2018.08.014

工程科学学报.第42卷.第7期:930-938.2020年7月 Chinese Journal of Engineering,Vol.42,No.7:930-938,July 2020 https://doi.org/10.13374/j.issn2095-9389.2019.07.12.001;http://cje.ustb.edu.cn 用户属性感知的移动社交网络边缘缓存机制 杨 静12,3,武佳2,)区,李红霞 1)重庆邮电大学通信与信息工程学院,重庆4000652)重庆高校市级光通信与网络重点实验室,重庆4000653)泛在感知与互联重庆市 重点实验室,重庆4000654)中国联合网络通信有限公司重庆市分公司,重庆401123 ☒通信作者,E-mail:1309431264@qq.com 摘要针对数据流量爆发式增长所引发的网络拥塞、用户体验质量恶化等问题,提出一种用户属性感知的边缘缓存机制. 首先,利用隐语义模型获知用户对各类内容的兴趣度,进而估计本地流行内容,然后微基站将预测的本地流行内容协作缓存, 并根据用户偏好的变化,将之实时更新.为进一步减少传输时延,根据用户偏好构建兴趣社区,在兴趣社区中基于用户的缓 存意愿和缓存能力,选择合适的缓存用户缓存目标内容并分享给普通用户.结果表明,所提机制性能优于随机缓存及最流行 内容缓存算法,在提高缓存命中率、降低传输时延的同时,增强了用户体验质量 关键词移动社交网络:边缘缓存:流行度预测:隐语义模型:社会属性 分类号TN929.5 User-aware edge-caching mechanism for mobile social network YANG Jing22,WU Jia,LI Hong-xid) 1)School of Communication and Information Engineering,Chongqing University of Posts and Telecommunications,Chongqing 400065,China 2)Chongqing Key Laboratory of Optical Communication and Networks,Chongqing 400065,China 3)Chongqing Key Laboratory of Ubiquitous Sensing and Networking.Chongqing 400065.China 4)Chongqing Branch of China Unicom,Chongqing 401123,China Corresponding author,E-mail:1309431264@qq.com ABSTRACT With the rapid growth in the number of intelligent terminal devices and wireless multimedia applications,mobile communication traffic has exploded.The latest report from Cisco Visual Networking Index(CVNI)indicates that by 2022,global mobile data traffic will have grown to three times that in 2017,which will exert tremendous pressure on the backhaul link.One key approach to solve this problem is to cache popular content at the edges(base stations and mobile devices)and then bring the requested content from the edges close to the user,instead of obtaining the requested content from the content server through backhaul networks.Thus,by obtaining the required content of mobile users locally,edge caching can effectively improve network performance and reduce the pressure on the backhaul link.However,owing to the limited storage capacity of the edge nodes and the diversification of user requirements,the edge nodes can neither cache all the content in the content server nor randomly cache the content.To solve these problems,an edge-caching mechanism based on user-awareness was proposed.First,using an implicit semantic model,we predicted popular content in a macro cell in terms of the users'interests.Small base stations within identical macro cells cache data cooperatively, which update local popular content based on the dynamic content preference of users.To further reduce the delay in content delivery,we helped users to ascertain their top communities of interest based on their content preferences.At the same time,the most appropriate user equipment(UE)is selected considering the caching willingness and caching ability to cache data for other UEs in identical communities of interest.Results show that the proposed mechanism outperforms the random cache approach and the most popular content-caching 收稿日期:2019-07-12 基金项目:国家自然科学基金资助项目(61771082.61871062:重庆市高校创新团队建设计划资助项目(CXTDX201601020)

用户属性感知的移动社交网络边缘缓存机制 杨    静1,2,3),武    佳1,2,3) 苣,李红霞4) 1) 重庆邮电大学通信与信息工程学院,重庆 400065    2) 重庆高校市级光通信与网络重点实验室,重庆 400065    3) 泛在感知与互联重庆市 重点实验室,重庆 400065    4) 中国联合网络通信有限公司重庆市分公司,重庆 401123 苣通信作者,E-mail: 1309431264@qq.com 摘    要    针对数据流量爆发式增长所引发的网络拥塞、用户体验质量恶化等问题,提出一种用户属性感知的边缘缓存机制. 首先,利用隐语义模型获知用户对各类内容的兴趣度,进而估计本地流行内容,然后微基站将预测的本地流行内容协作缓存, 并根据用户偏好的变化,将之实时更新. 为进一步减少传输时延,根据用户偏好构建兴趣社区,在兴趣社区中基于用户的缓 存意愿和缓存能力,选择合适的缓存用户缓存目标内容并分享给普通用户. 结果表明,所提机制性能优于随机缓存及最流行 内容缓存算法,在提高缓存命中率、降低传输时延的同时,增强了用户体验质量. 关键词    移动社交网络;边缘缓存;流行度预测;隐语义模型;社会属性 分类号    TN929.5 User-aware edge-caching mechanism for mobile social network YANG Jing1,2,3) ,WU Jia1,2,3) 苣 ,LI Hong-xia4) 1) School of Communication and Information Engineering, Chongqing University of Posts and Telecommunications, Chongqing 400065, China 2) Chongqing Key Laboratory of Optical Communication and Networks, Chongqing 400065, China 3) Chongqing Key Laboratory of Ubiquitous Sensing and Networking, Chongqing 400065, China 4) Chongqing Branch of China Unicom, Chongqing 401123, China 苣 Corresponding author, E-mail: 1309431264@qq.com ABSTRACT    With  the  rapid  growth  in  the  number  of  intelligent  terminal  devices  and  wireless  multimedia  applications,  mobile communication traffic has exploded. The latest report from Cisco Visual Networking Index (CVNI) indicates that by 2022, global mobile data traffic will have grown to three times that in 2017, which will exert tremendous pressure on the backhaul link. One key approach to solve this problem is to cache popular content at the edges (base stations and mobile devices) and then bring the requested content from the  edges  close  to  the  user,  instead  of  obtaining  the  requested  content  from  the  content  server  through  backhaul  networks.  Thus,  by obtaining  the  required  content  of  mobile  users  locally,  edge  caching  can  effectively  improve  network  performance  and  reduce  the pressure  on  the  backhaul  link.  However,  owing  to  the  limited  storage  capacity  of  the  edge  nodes  and  the  diversification  of  user requirements,  the  edge  nodes  can  neither  cache  all  the  content  in  the  content  server  nor  randomly  cache  the  content.  To  solve  these problems, an edge-caching mechanism based on user-awareness was proposed. First, using an implicit semantic model, we predicted popular content in a macro cell in terms of the users’ interests. Small base stations within identical macro cells cache data cooperatively, which update local popular content based on the dynamic content preference of users. To further reduce the delay in content delivery, we helped users to ascertain their top communities of interest based on their content preferences. At the same time, the most appropriate user equipment (UE) is selected considering the caching willingness and caching ability to cache data for other UEs in identical communities of interest. Results show that the proposed mechanism outperforms the random cache approach and the most popular content-caching 收稿日期: 2019−07−12 基金项目: 国家自然科学基金资助项目 (61771082,61871062);重庆市高校创新团队建设计划资助项目 (CXTDX201601020) 工程科学学报,第 42 卷,第 7 期:930−938,2020 年 7 月 Chinese Journal of Engineering, Vol. 42, No. 7: 930−938, July 2020 https://doi.org/10.13374/j.issn2095-9389.2019.07.12.001; http://cje.ustb.edu.cn

杨静等:用户属性感知的移动社交网络边缘缓存机制 931 algorithm;it improves the cache hit rate and reduces the transmission delay while enhancing the quality of user experience. KEY WORDS mobile social network;edge cache;popularity prediction:implicit semantic model:social attribute 随着智能终端设备数量以及无线多媒体应用 容的重传;文献[10]提出一种缓存用户选择方案, 的快速增长,使得移动通信流量爆发式增长,根据 基于用户设备的剩余功率以及内容的最低传输功 美国思科公司的思科视觉网络指数预测,到 率来选择分数高的用户作为缓存用户.然而,文 2022年全球移动数据流量将增长至2017年的 献[8]~[10]主要聚焦在缓存用户的选择问题,没 3倍四,这将给回程链路造成巨大压力.移动社交 有对内容流行度进行预测.目前,很少有文献将内 网络是一个承载在无线通信网络上的社交网络, 容流行度的预测与缓存用户的选择结合在一起 不仅具有无线通信网络中的移动特性也具有社交 为此,本文提出一种用户属性感知的边缘缓存 网络的社会特性-习基于其移动与社会特性,用户 User-aware edge caching mechanism,UAEC), 可通过相遇机会进行内容分享,从而减少从内容 为提高缓存命中率,减少传输时延,首先,考虑用 服务器中获取内容的次数,减轻回程链路压力,同 户的偏好,预测出本地流行内容,并通过微基站将 时,在移动社交网络中,微基站通常被部署在靠近 之协作缓存,同时根据用户偏好的变化将之实时 用户终端,具有较强的储存和计算能力,相比于距 更新,然后,为进一步减少传输时延,基于用户偏 离较远的云,将内容缓存在微基站可减少内容传 好构建兴趣社区,在每个兴趣社区中,考虑用户的 输延迟,提高用户体验质量 缓存意愿及缓存能力选择合适的缓存用户缓存目 然而,由于边缘节点(终端用户、微基站)的存 标内容并分享给普通用户 储容量有限以及用户需求的多样化,使得边缘节 1系统模型 点既不能缓存内容服务器中所有的内容,也不能 在存储容量的限制下,随机缓存内容,因此缓存内 考虑一个宏基站小区内的边缘缓存问题,如 容的选择对提高边缘缓存性能至关重要,同时,用 图1所示,该模型由内容服务器、宏基站、微基站 户的移动性是移动社交网络中实现内容分享的重 和终端用户组成.内容服务器负责存储用户所需 要特性,但也可能因为移动性使缓存用户和请求 的所有内容F=f,f2,…,fw,并假设每个内容的 用户不在终端直接通信技术(D2D)通信范围内, 大小相同为山,宏基站负责管理整个小区内的缓存 最终导致内容分享失败,因此,为提高缓存命中 资源、计算资源和通信资源,为充分利用缓存资 率、减少传输时延,选择合适的缓存用户对提高边 源,减少缓存冗余,微基站负责将本地流行内容协 缘缓存性能至关重要 作缓存,并通过蜂窝链路发送到内容请求者,终端 综上所述,缓存内容选择以及缓存用户选择 用户分为缓存用户和普通用户,普通用户可从缓 是提高网络性能、保证用户体验质量的关键问题. 存用户中获取所需内容,考虑到用户的自私性可 在文献中,这两个问题通常被独立的研究.对于缓 能不愿意缓存其不感兴趣的内容,为此将具有相 存内容选择的问题,通常是选择流行的内容,为此 似内容请求偏好的用户划分为同一兴趣社区,如 需要对内容流行度进行预测,文献[⑤]使用聚类分 图1所示,具有相同颜色的终端用户处于同一兴 析将内容划分为不同类型,利用自回归积分移动 趣社区,缓存用户只需缓存所处兴趣社区请求概 平均模型预测不同类型的内容流行度;文献[6]使 率最高且自己感兴趣的内容集,当普通用户请求 用印度自助餐过程来分析内容选择问题,进而预 内容时,可通过D2D的方式进行内容分享 测内容流行度;文献[)基于用户的上下文,使用 假设用户与用户之间的平均传输时延为Ta, 回声状态网络来预测用户的内容请求分布,进而 用户到微基站的平均传输时延为T2,微基站到内 预测出内容流行度.文献[5]~[7刀虽然在一定程度 容服务器的平均传输时延为T3.则用户获取内容 上提升了网络性能,但都没有考虑缓存用户的选 的平均传输时延T为: 择问题.对于缓存用户选择的问题,文献[8]提出 T1=mTa+nTo2+(n-m-n2)Tas (1) 一种基于用户重要性的缓存策略,基于用户的物 理属性与社会行为选择排名较高的用户来缓存内 其中,Ta1<T2<Ta,n1表示从缓存用户获取内容 容;文献[9]提出一种分布式缓存用户选择方案, 的数量,2表示从微基站中获取内容的数量,n表示 基于概率论模型来选择高速缓存用户,以防止内 用户获取内容的总数量

algorithm; it improves the cache hit rate and reduces the transmission delay while enhancing the quality of user experience. KEY WORDS    mobile social network;edge cache;popularity prediction;implicit semantic model;social attribute 随着智能终端设备数量以及无线多媒体应用 的快速增长,使得移动通信流量爆发式增长,根据 美 国 思 科 公 司 的 思 科 视 觉 网 络 指 数 预 测 , 到 2022 年全球移动数据流量将增长 至 2017 年 的 3 倍[1] ,这将给回程链路造成巨大压力. 移动社交 网络是一个承载在无线通信网络上的社交网络, 不仅具有无线通信网络中的移动特性也具有社交 网络的社会特性[2−3] ,基于其移动与社会特性,用户 可通过相遇机会进行内容分享,从而减少从内容 服务器中获取内容的次数,减轻回程链路压力,同 时,在移动社交网络中,微基站通常被部署在靠近 用户终端,具有较强的储存和计算能力,相比于距 离较远的云,将内容缓存在微基站可减少内容传 输延迟,提高用户体验质量. 然而,由于边缘节点(终端用户、微基站)的存 储容量有限以及用户需求的多样化[4] ,使得边缘节 点既不能缓存内容服务器中所有的内容,也不能 在存储容量的限制下,随机缓存内容,因此缓存内 容的选择对提高边缘缓存性能至关重要,同时,用 户的移动性是移动社交网络中实现内容分享的重 要特性,但也可能因为移动性使缓存用户和请求 用户不在终端直接通信技术(D2D)通信范围内, 最终导致内容分享失败,因此,为提高缓存命中 率、减少传输时延,选择合适的缓存用户对提高边 缘缓存性能至关重要. 综上所述,缓存内容选择以及缓存用户选择 是提高网络性能、保证用户体验质量的关键问题. 在文献中,这两个问题通常被独立的研究. 对于缓 存内容选择的问题,通常是选择流行的内容,为此 需要对内容流行度进行预测,文献 [5] 使用聚类分 析将内容划分为不同类型,利用自回归积分移动 平均模型预测不同类型的内容流行度;文献 [6] 使 用印度自助餐过程来分析内容选择问题,进而预 测内容流行度;文献 [7] 基于用户的上下文,使用 回声状态网络来预测用户的内容请求分布,进而 预测出内容流行度. 文献 [5]~[7] 虽然在一定程度 上提升了网络性能,但都没有考虑缓存用户的选 择问题. 对于缓存用户选择的问题,文献 [8] 提出 一种基于用户重要性的缓存策略,基于用户的物 理属性与社会行为选择排名较高的用户来缓存内 容;文献 [9] 提出一种分布式缓存用户选择方案, 基于概率论模型来选择高速缓存用户,以防止内 容的重传;文献 [10] 提出一种缓存用户选择方案, 基于用户设备的剩余功率以及内容的最低传输功 率来选择分数高的用户作为缓存用户. 然而,文 献 [8]~[10] 主要聚焦在缓存用户的选择问题,没 有对内容流行度进行预测. 目前,很少有文献将内 容流行度的预测与缓存用户的选择结合在一起. 为此,本文提出一种用户属性感知的边缘缓存 机制(User-aware edge caching mechanism, UAEC) , 为提高缓存命中率,减少传输时延,首先,考虑用 户的偏好,预测出本地流行内容,并通过微基站将 之协作缓存,同时根据用户偏好的变化将之实时 更新,然后,为进一步减少传输时延,基于用户偏 好构建兴趣社区,在每个兴趣社区中,考虑用户的 缓存意愿及缓存能力选择合适的缓存用户缓存目 标内容并分享给普通用户. 1    系统模型 F = {f1, f2,··· , fN} 考虑一个宏基站小区内的边缘缓存问题,如 图 1 所示,该模型由内容服务器、宏基站、微基站 和终端用户组成. 内容服务器负责存储用户所需 的所有内容 ,并假设每个内容的 大小相同为 d,宏基站负责管理整个小区内的缓存 资源、计算资源和通信资源,为充分利用缓存资 源,减少缓存冗余,微基站负责将本地流行内容协 作缓存,并通过蜂窝链路发送到内容请求者,终端 用户分为缓存用户和普通用户,普通用户可从缓 存用户中获取所需内容,考虑到用户的自私性可 能不愿意缓存其不感兴趣的内容,为此将具有相 似内容请求偏好的用户划分为同一兴趣社区,如 图 1 所示,具有相同颜色的终端用户处于同一兴 趣社区,缓存用户只需缓存所处兴趣社区请求概 率最高且自己感兴趣的内容集,当普通用户请求 内容时,可通过 D2D 的方式进行内容分享. Td1 Td2 Td3 T1 假设用户与用户之间的平均传输时延为 , 用户到微基站的平均传输时延为 ,微基站到内 容服务器的平均传输时延为 . 则用户获取内容 的平均传输时延 为: T1 = n1Td1 +n2Td2 +(n−n1 −n2)Td3 n (1) Td1 < Td2 < Td3 n1 n2 n 其中, , 表示从缓存用户获取内容 的数量, 表示从微基站中获取内容的数量, 表示 用户获取内容的总数量. 杨    静等: 用户属性感知的移动社交网络边缘缓存机制 · 931 ·

932 工程科学学报,第42卷,第7期 Interest Interest Interest community I community 2 Content server Femto eNB Femto eNB Cache user 图1用户属性感知的边缘缓存模型 Fig.1 User-aware edge-caching model 为减少传输时延,提高用户体验质量,从公式 度,进而预测出用户对所有内容的请求概率.不同 (1)可推出,需要尽可能将用户所需内容缓存,为 于传统的人工分类,隐语义模型是基于用户的行 此需要在有限的缓存容量下,提高微基站与缓存 为自动聚类,因此避免了人工分类的主观性,提高 用户的缓存命中率.为提高缓存命中率,需要进行 了预测精度 本地流行内容预测,以便将用户请求概率最高的 在内容服务器处获取一段时间内用户的内容 内容集缓存,与此同时,考虑到D2D的传输距离以 评分矩阵R,其矩阵值ru表示用户u对内容f的评 及用户的自私性,需要研究缓存用户的选择及其 分,r所∈0,5】.通过用户对内容的评分可推出用户 内容的缓存问题以保证用户所需内容的成功缓存 对内容的请求概率,由于用户不可能对内容服务 与传递.因此本地流行内容与终端用户缓存策略 器中所有内容都评过分,因此矩阵是高度稀疏 对提高缓存命中率、减少传输时延、提高用户体 的.利用隐语义模型对矩阵进行填充,可预测出用 验质量至关重要 户对所有内容的评分,最终预测出用户对所有内 容的请求概率.假设内容服务器中内容的隐含特 2本地流行内容预测 征有类,基于内容在k类隐含特征中所占的权重, 在传统的无线网络中,通常是各基站独立地 以及用户对k类隐含特征的兴趣度,可预测出用户 缓存最流行的内容,但由于用户的兴趣不同,同一 对内容的评分u: 内容对不同用户有着不同的兴趣度,因此缓存最 ruf≈iw听=PuQf= Pkqk元 (2) 流行的内容不仅不能满足所有用户的偏好,还会 k=1 存在缓存冗余,浪费缓存资源的现象.为满足用户 其中,表示预测的用户u对内容f的评分,P是 偏好,提高缓存命中率,减少缓存冗余,本文从用 用户-类矢量,矢量值Pt表示用户“对隐含特征 户的角度出发,预测出本地流行内容,并将之协作 k的兴趣度.Q是类-内容矢量,矢量值q张后表示内 缓存.本地流行内容预测分为内容请求概率预 容在隐含特征k中的权重 测、协作缓存、缓存内容更新 为预测用户对所有内容的评分,需求用 2.1内容请求概率预测 户一类矩阵P={PTP,…,PT和类-内容矩阵 本文使用隐语义模型来预测内容请求概率, Q={Q1,Q2,…,Q}中的参数值,可通过最小化真实 基于用户的偏好,通过隐含特征将用户的兴趣和 值与预测值之间的误差,即最小化损失函数来求 内容联系起来,从而获知用户对每类内容的兴趣 参数值.损失函数如下:

为减少传输时延,提高用户体验质量,从公式 (1)可推出,需要尽可能将用户所需内容缓存,为 此需要在有限的缓存容量下,提高微基站与缓存 用户的缓存命中率. 为提高缓存命中率,需要进行 本地流行内容预测,以便将用户请求概率最高的 内容集缓存,与此同时,考虑到 D2D 的传输距离以 及用户的自私性,需要研究缓存用户的选择及其 内容的缓存问题以保证用户所需内容的成功缓存 与传递. 因此本地流行内容与终端用户缓存策略 对提高缓存命中率、减少传输时延、提高用户体 验质量至关重要. 2    本地流行内容预测 在传统的无线网络中,通常是各基站独立地 缓存最流行的内容,但由于用户的兴趣不同,同一 内容对不同用户有着不同的兴趣度,因此缓存最 流行的内容不仅不能满足所有用户的偏好,还会 存在缓存冗余,浪费缓存资源的现象. 为满足用户 偏好,提高缓存命中率,减少缓存冗余,本文从用 户的角度出发,预测出本地流行内容,并将之协作 缓存. 本地流行内容预测分为内容请求概率预 测、协作缓存、缓存内容更新. 2.1    内容请求概率预测 本文使用隐语义模型来预测内容请求概率, 基于用户的偏好,通过隐含特征将用户的兴趣和 内容联系起来,从而获知用户对每类内容的兴趣 度,进而预测出用户对所有内容的请求概率. 不同 于传统的人工分类,隐语义模型是基于用户的行 为自动聚类,因此避免了人工分类的主观性,提高 了预测精度. R ru fi u fi ru fi ∈ [0,5] R k k k rˆu fi 在内容服务器处获取一段时间内用户的内容 评分矩阵 ,其矩阵值 表示用户 对内容 的评 分, . 通过用户对内容的评分可推出用户 对内容的请求概率,由于用户不可能对内容服务 器中所有内容都评过分,因此矩阵 是高度稀疏 的. 利用隐语义模型对矩阵进行填充,可预测出用 户对所有内容的评分,最终预测出用户对所有内 容的请求概率. 假设内容服务器中内容的隐含特 征有 类,基于内容在 类隐含特征中所占的权重, 以及用户对 类隐含特征的兴趣度,可预测出用户 对内容的评分 : ru fi ≈ rˆu fi = PuQfi = ∑ k k=1 pukqk fi (2) rˆu fi fi Pu puk k Qfi qk fi fi k 其中, 表示预测的用户 u 对内容 的评分, 是 用户−类矢量,矢量值 表示用户 u 对隐含特征 的兴趣度. 是类−内容矢量,矢量值 表示内 容 在隐含特征 中的权重. P = {P T 1 , P T 2 ,··· , P T u } T Q = {Q1,Q2,··· ,Qfi } 为 预 测 用 户 对 所 有 内 容 的 评 分 , 需 求 用 户 −类 矩 阵 和 类 −内 容 矩 阵 中的参数值,可通过最小化真实 值与预测值之间的误差,即最小化损失函数来求 参数值. 损失函数如下: Macro eNB Femto eNB Femto eNB Cache user Cache user Interest community 1 Interest community 2 Interest community K ... Cache user Internet Content server 图 1    用户属性感知的边缘缓存模型 Fig.1    User-aware edge-caching model · 932 · 工程科学学报,第 42 卷,第 7 期

杨静等:用户属性感知的移动社交网络边缘缓存机制 933 每个微基站小区内有ms,个终端用户,且满足 m=ms1+ms2+…+ms,对微基站S,小区内所有用 (u,f)ER (u.f)EK PP +alen 户未请求过的前n个内容求交集F1nF2 .0Fms,= (3) bbg…,b小其中b表示内容在微基站S: PP+2是正则化项,为了防止过拟合. 中将请求的次数,n表示微基站覆盖范围内用户 λ是正则化系数,为了控制正则化强弱. 请求的内容总数,在微基站缓存容量的限制下 利用随机梯度下降法来最小化损失函数,随 机梯度下降法是通过不断判断和选择当前目标下 户bg>…>b并将之缓存,在宏基站中储 导数求解如下: 存了所管理微基站的缓存列表,宏基站协调微基 站进行内容缓存,使之满足每个微基站内缓存的 qkfi+2Apuk 内容无重复Fs,nFs2n…nFs,=0,使得缓存资源 (4) 得到充分利用,并提高了缓存命中率.综合所有微 基站缓存的内容即为本地流行内容Fic= {fs1,Fs2…,Fs}. 不断修改Pk,qk的值,使损失函数的值越来 2.3缓存内容更新 越小,直到收敛为止.最终使得矩阵P和矩阵Q的 考虑到用户的偏好可能随时间而不断变化, 乘积越逼近矩阵R迭代更新公式如下: 以及预测结果不完善造成某些请求概率较高的内 容未被缓存的情况,因此需要及时更新缓存的本 p'uk Puk+a 地流行内容 内容的缓存可分为主动缓存和被动缓存.主 qk后=qk Duk-Aqkf 动缓存是指通过预测内容的流行度,提前将流行 5) 的内容缓存,被动缓存是指根据内容的历史访问 式中,α是学习率,决定迭代下降的速率,取值范围 情况决定该内容是否被缓存.预测的内容流行度 为[0,1] 与实际内容流行度误差较小时,主动缓存可大大 求得用户对内容的评分矩阵后,将分数归一 提高缓存效益,但若误差较大,缓存性能将不如被 化.即可得用户u对f的请求概率prou,=iu6/5 动缓存,被动缓存的缓存效益稳定,但存在较大的 2.2协作缓存 提升空间.为提高缓存性能,结合主动缓存与被动 宏基站较微基站有更大的覆盖区域,可以服务 缓存的优点,本文将微基站分为两个缓存区:G缓 更多用户,但存在信号覆盖的盲区和弱区,微基站通 存区和C2缓存区,两缓存区的总存储容量为csBs, 常部署在靠近用户终端,虽然覆盖范围小,但适合小 两缓存区的大小可自适应调整,在C区进行主动 范围精确的覆盖可以弥补宏基站覆盖的不足,通 缓存,其内容缓存时间不超过一个有限时间Tcache, 过宏基站的协调将内容缓存在微基站可使用户就 在2区进行被动缓存,其内容缓存时间超过一个 近获取缓存资源,减少时延,提高用户体验质量, 有限时间Tcache.内容缓存到微基站后,微基站 但由于微基站的缓存容量有限,为充分利用缓存 实时记录每个用户的内容请求,并在一个时间段 资源,减少缓存冗余,提高缓存内容多样性,增加 t(t<Tcache)内计算内容的实际流行度,若在一个时 缓存命中率,需要宏基站小区内的微基站协作缓 间段1内,某个未缓存的内容f实际流行度大于缓 存.从2.1节可得到宏基站小区内的终端用户对所 存区的最低实际流行度,则需要及时更新本地流 有内容的请求概率prou,,将请求概率按降序排列, 行内容,将实际流行度最低的内容替换为内容, 得到用户未请求过的前n个内容F:={ff乃,…,f, 每隔一个有限的时间范围Teache,删除实际流行度 假设宏基站小区内有m个终端用户,s={S1,S2,…,S} 低的内容,并将c1区和c2区实际流行度最高的内 个微基站,每个微基站的缓存容量相同且为csBS, 容集移动到℃2区,然后再重新预测用户的内容请

e 2 u fi = ∑ (u, fi )∈R (ru fi −rˆu fi ) 2 = ∑ (u, fi )∈R   ru fi − ∑ k k=1 pukqk fi   2 + λ∥Pu∥ 2 +λ Qfi 2 (3) λ∥Pu∥ 2 +λ Qfi 2 λ 是正则化项,为了防止过拟合. 是正则化系数,为了控制正则化强弱. puk qk fi puk qk fi 利用随机梯度下降法来最小化损失函数,随 机梯度下降法是通过不断判断和选择当前目标下 最优的路径,从而在最短路径下达到最优结果,因 此,可通过对 、 两个参数求偏导,不断判断和 选择损失函数最快的下降方向, 和 对应的偏 导数求解如下:    ∂ ∂puk e 2 u fi = −2   ru fi − ∑ k k=1 pukqk fi   qk fi +2λpuk ∂ ∂qk fi e 2 u fi = −2   ru fi − ∑ k k=1 pukqk fi   puk +2λqk fi (4) puk qk fi P Q R 不断修改 , 的值,使损失函数的值越来 越小,直到收敛为止. 最终使得矩阵 和矩阵 的 乘积越逼近矩阵 . 迭代更新公式如下:    p ′ uk = puk +α     ru fi − ∑ k k=1 pukqk fi   qk fi −λpuk   q ′ k fi = qk fi +α     ru fi − ∑ k k=1 pukqk fi   puk −λqk fi   (5) 式中,α是学习率,决定迭代下降的速率,取值范围 为 [0,1]. Rˆ u fi prou, fi = rˆu fi /5 求得用户对内容的评分矩阵 后,将分数归一 化,即可得用户 对 的请求概率 . 2.2    协作缓存 prou, fi i Fi = {f i 1 , f i 2 ,··· , f i n } s = {S 1,S 2,··· ,S s} cSBS 宏基站较微基站有更大的覆盖区域,可以服务 更多用户,但存在信号覆盖的盲区和弱区,微基站通 常部署在靠近用户终端,虽然覆盖范围小,但适合小 范围精确的覆盖可以弥补宏基站覆盖的不足,通 过宏基站的协调将内容缓存在微基站可使用户就 近获取缓存资源,减少时延,提高用户体验质量, 但由于微基站的缓存容量有限,为充分利用缓存 资源,减少缓存冗余,提高缓存内容多样性,增加 缓存命中率,需要宏基站小区内的微基站协作缓 存. 从 2.1 节可得到宏基站小区内的终端用户对所 有内容的请求概率 ,将请求概率按降序排列, 得到用户 未请求过的前 n 个内容 , 假设宏基站小区内有m 个终端用户, 个微基站,每个微基站的缓存容量相同且为 , mS i m = mS 1 +mS 2 +···+mS s F1 ∩ F2 ∩ ··· ∩ FmS i = {b f S i 1 ,b f S i 2 ,··· ,b f S i ni } b f S i 1 f1 S i ni d · ∑s i=1 ∑a j=1 f S i j ⩽ s· cSBS a FS i = {f S i 1 , f S i 2 ,··· , f S i a } b f S i 1 > b f S i 2 > ··· > b f S i ni FS 1 ∩ FS 2 ∩ ··· ∩ FS s = ∅ Flocal = {FS 1 ,FS 2 ,··· ,FS s } 每个微基站小区内有 个终端用户 ,且满足 . 对微基站 Si 小区内所有用 户未请求过的前 n 个内容求交集 ,其中 表示内容 在微基站 中将请求的次数, 表示微基站覆盖范围内用户 请求的内容总数,在微基站缓存容量的限制下 ,其中 表示在每个微基站中能 缓存的最大内容数量,得到微基站小区内请求数 量 最 多 的 内 容 集 , 满 足 ,并将之缓存,在宏基站中储 存了所管理微基站的缓存列表,宏基站协调微基 站进行内容缓存,使之满足每个微基站内缓存的 内容无重复 ,使得缓存资源 得到充分利用,并提高了缓存命中率. 综合所有微 基 站 缓 存 的 内 容 即 为 本 地 流 行 内 容 . 2.3    缓存内容更新 考虑到用户的偏好可能随时间而不断变化, 以及预测结果不完善造成某些请求概率较高的内 容未被缓存的情况,因此需要及时更新缓存的本 地流行内容. cSBS Tcache Tcache t(t < Tcache) fi fi Tcache 内容的缓存可分为主动缓存和被动缓存. 主 动缓存是指通过预测内容的流行度,提前将流行 的内容缓存,被动缓存是指根据内容的历史访问 情况决定该内容是否被缓存. 预测的内容流行度 与实际内容流行度误差较小时,主动缓存可大大 提高缓存效益,但若误差较大,缓存性能将不如被 动缓存,被动缓存的缓存效益稳定,但存在较大的 提升空间. 为提高缓存性能,结合主动缓存与被动 缓存的优点,本文将微基站分为两个缓存区:c1 缓 存区和 c2 缓存区,两缓存区的总存储容量为 , 两缓存区的大小可自适应调整. 在 c1 区进行主动 缓存,其内容缓存时间不超过一个有限时间 , 在 c2 区进行被动缓存,其内容缓存时间超过一个 有限时间 . 内容缓存到微基站后 ,微基站 实时记录每个用户的内容请求,并在一个时间段 内计算内容的实际流行度,若在一个时 间段 t 内,某个未缓存的内容 实际流行度大于缓 存区的最低实际流行度,则需要及时更新本地流 行内容,将实际流行度最低的内容替换为内容 , 每隔一个有限的时间范围 ,删除实际流行度 低的内容,并将 c1 区和 c2 区实际流行度最高的内 容集移动到 c2 区,然后再重新预测用户的内容请 杨    静等: 用户属性感知的移动社交网络边缘缓存机制 · 933 ·

934 工程科学学报,第42卷,第7期 求概率,更新本地流行内容,并将之缓存在©1区 3.2缓存用户确定 一个时间段1内,内容的实际流行度(即内容被请 在每个兴趣社区Cx中,基于用户的缓存意愿 求的概率)pro为: 以及缓存能力来确定缓存用户 在移动社交网络中,用户的缓存意愿与用户 pro t (6) 间的社交关系密切相关,通过考虑缓存用户与普 通用户间的信任度与社交相似度,来确定其缓存 其中,∑T表示第1个时间段内内容被请求的 意愿.信任度是用来评估缓存用户是否愿意将内 次数 容分享给普通用户的信任程度.在一段时间内,假 设用户,从用户wa中成功获取内容的次数为 3终端用户缓存策略 Num,从所有用户中成功获取内容的次数为 随着缓存以及D2D技术的发展,终端用户可以不 Num,=∑Num,则用户对4a的信任度为 jECK 依赖于基站就能直接进行内容分享,为进一步减少 Trust=Numn,,Num,综合兴趣社区Ck中所 传输延迟,本文在这部分研究终端用户的缓存策略, 有用户对a的信任度,即可得到用户wa的信任值 分为兴趣社区划分、缓存用户确定、内容缓存 Trustua=∑Trust,,将用户的信任值范围限定到 iECK 3.1兴趣社区划分 0到1之间,即可得到用户ua的信任概率pro四: 考虑到用户的自私性可能不愿意缓存其不感 1+e-l 2 兴趣的内容,因此需要将兴趣相似的用户划分为 -1 (9) 一个兴趣社区,使缓存用户只需为同一兴趣社区 社交相似度是指用户社会背景(年龄、性别、职 的用户缓存内容,这可以提高用户的缓存意愿 业等)的相似度,用户间的社交相似度越高,则用 从2.1节可得到每个用户对隐含特征的兴趣度 户为其缓存内容的意愿越强.设1={a1,la2,…laL Pu={pal,Pu2,…,Pk,使用欧式距离来衡量用户间 为用户a的社交特征向量,其中L表示用户社交特 的兴趣相似度,距离与相似度成反比,距离越近相 征的数量,使用余弦相似度来衡量用户间的社交 似度越高 相似度S: dist(ui,uj)= (Puk-puk)2 (7) (Iak x Ibk) S2h a石 k=1 Sinterest=1/(1+dist(4,4写》 (8) × 其中,dis,表示用户%4之间的距离,S表 (10) 示用户,4之间的兴趣相似度 综合兴趣社区Cx中所有用户与4的社交相似 由于k-means-+聚类算法具有对数据进行分 析并自动聚类的特点,并且有效缓解了k-means聚 度,即可得到用户ua的社交相似度Sg=之S MECK 类算法对初始中心选取不当而陷入局部最优的情 将社交相似度范围限定到0到1之间,即可得到用 形,因此,本文选用k-means+算法对用户进行聚 户4的社交概率pro8ci: 类,进而形成兴趣社区.首先,随机选择一个用户 (11) 作为第一个聚类中心1,然后计算所有用户到μ的 距离,选择距离最大的用户作为第二个聚类中心 在移动社交网络中,由于用户的移动性,可能 2=arg max jel2,mdist(4,),以此类推,选出K个聚类 使两个用户不在D2D通信范围内,最终导致无法 中心.然后,计算每个用户u到K个聚类中心x的距 进行内容分享,因此,除了考虑用户的缓存意愿还 离,用户“将与自己最近的聚类中心x聚类进而形 需考虑用户的缓存能力,用户的缓存能力可用用 成兴趣社区Ck={j:K=arg minie(,2…,dist(u,j》, 户的交互相似度来衡量.交互相似度是由相遇平 每个用户找到自己的兴趣社区后,再重新计算新 均间隔、相遇平均持续时间共同决定 用户在一段时间内的相遇间隔越短,则分享 的聚类中心4以二C忌P重复.直到聚类中心 内容的概率越大.若在时间段T内用户和用户 不再有变化或达到最大迭代次数 ,第i次交互过程的起始时刻和终止时刻为T和T?

fi proreal t, fi 求概率,更新本地流行内容,并将之缓存在 c1 区. 一个时间段 t 内,内容 的实际流行度(即内容被请 求的概率) 为: proreal t, fi = ( ∑t j=1 T fi j )/t (6) ∑t j=1 T fi j f 其中, 表示第 i t 个时间段内内容 被请求的 次数. 3    终端用户缓存策略 随着缓存以及 D2D 技术的发展,终端用户可以不 依赖于基站就能直接进行内容分享,为进一步减少 传输延迟,本文在这部分研究终端用户的缓存策略, 分为兴趣社区划分、缓存用户确定、内容缓存. 3.1    兴趣社区划分 Pu = {pu1, pu2,··· , puk} 考虑到用户的自私性可能不愿意缓存其不感 兴趣的内容,因此需要将兴趣相似的用户划分为 一个兴趣社区,使缓存用户只需为同一兴趣社区 的用户缓存内容,这可以提高用户的缓存意愿. 从 2.1 节可得到每个用户对隐含特征的兴趣度 ,使用欧式距离来衡量用户间 的兴趣相似度,距离与相似度成反比,距离越近相 似度越高. dist(ui ,uj) = vut∑ k k=1 (puik − pujk) 2 (7) S interest ui ,uj = 1/(1+dist(ui ,uj)) (8) dist(ui ,uj) ui uj S interest ui ,uj ui uj 其中, 表示用户 , 之间的距离, 表 示用户 , 之间的兴趣相似度. µ1 µ1 µ2 = argmaxj∈{2,···,m}dist(uj ,u1) uj µK uj µK Ck = {j : K = arg mini∈{1,2,···,K}dist(ui ,uj)} µK = 1 |CK| ∑ u∈CK Pu 由于 k-means++聚类算法具有对数据进行分 析并自动聚类的特点,并且有效缓解了 k-means 聚 类算法对初始中心选取不当而陷入局部最优的情 形,因此,本文选用 k-means++算法对用户进行聚 类,进而形成兴趣社区. 首先,随机选择一个用户 作为第一个聚类中心 ,然后计算所有用户到 的 距离,选择距离最大的用户作为第二个聚类中心 ,以此类推,选出K 个聚类 中心. 然后,计算每个用户 到 K 个聚类中心 的距 离,用户 将与自己最近的聚类中心 聚类进而形 成兴趣社区 , 每个用户找到自己的兴趣社区后,再重新计算新 的聚类中心 ,重复,直到聚类中心 不再有变化或达到最大迭代次数. 3.2    缓存用户确定 在每个兴趣社区 CK 中,基于用户的缓存意愿 以及缓存能力来确定缓存用户. ub ua Numub,ua Numb = ∑ j∈CK Numub,uj ub ua Trustub,ua = Numub,ua /Numb ua ua Trustua = ∑ i∈CK Trustui ,ua ua protrust ua 在移动社交网络中,用户的缓存意愿与用户 间的社交关系密切相关,通过考虑缓存用户与普 通用户间的信任度与社交相似度,来确定其缓存 意愿. 信任度是用来评估缓存用户是否愿意将内 容分享给普通用户的信任程度. 在一段时间内,假 设用户 从用户 中成功获取内容的次数为 ,从所有用户中成功获取内容的次数为 , 则 用 户 对 的 信 任 度 为 ,综合兴趣社区 CK 中所 有用户对 的信任度,即可得到用户 的信任值 ,将用户的信任值范围限定到 0 到 1 之间,即可得到用户 的信任概率 : protrust ua = 1+e −1 1−e −1 · ( 2 1+Trustua −1 ) (9) → Ia = {Ia1,Ia2,···IaL} ua L S social ua,ub 社交相似度是指用户社会背景(年龄、性别、职 业等)的相似度,用户间的社交相似度越高,则用 户为其缓存内容的意愿越强. 设 为用户 的社交特征向量,其中 表示用户社交特 征的数量,使用余弦相似度来衡量用户间的社交 相似度 : S social ua,ub = ⃗Ia · ⃗Ib ⃗Ia × ⃗Ib = ∑ L k=1 (Iak × Ibk) vt∑ L k=1 (Iak) 2 × vt∑ L k=1 (Ibk) 2 (10) ua ua S social ua = ∑ ub∈CK S social ua,ub ua prosocial ua 综合兴趣社区 CK 中所有用户与 的社交相似 度,即可得到用户 的社交相似度 , 将社交相似度范围限定到 0 到 1 之间,即可得到用 户 的社交概率 : prosocial ua = 2 π arctan(S social ua ) (11) 在移动社交网络中,由于用户的移动性,可能 使两个用户不在 D2D 通信范围内,最终导致无法 进行内容分享,因此,除了考虑用户的缓存意愿还 需考虑用户的缓存能力,用户的缓存能力可用用 户的交互相似度来衡量. 交互相似度是由相遇平 均间隔、相遇平均持续时间共同决定. ua ub T 1 i T 2 i 用户在一段时间内的相遇间隔越短,则分享 内容的概率越大. 若在时间段 T 内用户 和用户 第 i 次交互过程的起始时刻和终止时刻为 和 , · 934 · 工程科学学报,第 42 卷,第 7 期

杨静等:用户属性感知的移动社交网络边缘缓存机制 935· 交互次数为inter,两个用户在时间段T内第i次和 Fcx=f,,…,,将缓存用户请求概率最高 第什1次的交互过程的时间间隔△为T4!-T 的内容集F,以及兴趣社区Cx中请求概率最高的内 则在时间段T内,两个用户的相遇平均间隔 容集Fcx求交集,将交集内容中请求次数最高的内 T8为: 容集Fcache发送给缓存用户使之缓存.缓存用户 (Af ) u缓存的内容Fcache为: (Tit1-T2)/ninter (12) i=l Fache=FinFcg=fache fache.ache) S.t. 用户在一段时间内的相遇持续时间越长,内 bme>bge>…>bye 容分享成功的概率越高,若两个用户在时间段 jd≤cuE (17) T内第i次交互的持续时间Ti为T-T,距离当前 时刻近的交互过程更能准确反应用户间的交互关 其中,b表示内容ce将被请求的次数,j表示 系,使用排序加权权重法来得到时间段T内两 内容数,cUE表示终端用户的存储容量,限制条件 个用户间的相遇平均持续时间7"8为: 满足,缓存用户缓存的内容大小小于其缓存容量. 8= 4数值结果分析 (13) l 本节在MATLAB平台下,对所提出的用户属 其中,:为第i次交互的相对权重,东:=2 i/ninter 性感知的边缘缓存机制(UAEC)的性能进行分析, (ninter+1). 仿真参数设置如下,考虑一个宏基站小区内的边 用户间的交互相似度随着相遇平均间隔 缘缓存场景,由6个微基站和78个终端用户组成, T值的减小及相遇平均持续时间T"的增 采用INFOCOM2006会议的实测数据21来分析终 加而增加,并逐渐趋于稳定.交互相似度的取值范 端用户的移动特性,采用GroupLens小组提供的 围为[0,1],0表示交互相似度最低,1表示交互相 MovieLens的数据集l]来分析终端用户的偏好以 似度最高,进而计算出交互相似度S“为: 及社会属性,隐语义模型使用的正则化系数入为 1 0.11.学习率a为0.1.隐含特征k为20、总的内容数 ndur avg (14) 1+exp 量为1682,并假设内容服务器到终端用户的平均 inter_avg 传输时延为98ms,微基站到终端用户的平均传输 综合兴趣社区Cx中所有用户与的交互相似 时延为10ms,终端用户到终端用户的平均传输时 度,即可得到用户ua的交互概率pror: 延为3ms,微基站的覆盖半径为100m,D2D的通 pror=∑S/mck (15) 信距离为30m,微基站和缓存用户的缓存容量的 bECK 比例为{csBs,CUE}={30CUE,CUE}. 其中,mCx表示兴趣社区Cx中用户的总数. 4.1性能分析 根据用户的缓存意愿和缓存能力,最终得到 为分析本地流行内容预测和缓存用户的选择 用户作为缓存用户的概率prou: 对所提机制的性能影响,将所提机制(UAEC)与下 pro=proproalpro (16) 面两种情况在缓存命中率方面进行对比,缓存命 中率是指缓存的内容请求数占总的内容请求数的 最后,将兴趣社区Cx中,用户的缓存概率prom 比例 按降序排列,选择缓存概率最高的前mUE个终端用 I)没有本地流行内容预测(Without local popular 户作为缓存用户 prediction,WLPP):不根据用户的偏好对本地流行 3.3内容缓存 内容进行预测,并假设内容流行度服从Zipf分布 考虑到用户的自私性以及有限的缓存资源, 在确定缓存用户后,为提高缓存命中率、减小传 pro5=(1/j沪/∑(1/k9,其中B表示内容流行度 输时延,需要为其分配合适的内容来缓存.从 偏度 22节可得终端用户未请求内容中请求概率最高 2)没有缓存用户的选择(Without cache users 的内容集F:=f,f分,…,f,综合兴趣社区Cx中所 selection,wCUS):不考虑终端用户的缓存意愿与 有用户的内容请求概率,按请求次数降序排列,最 缓存能力,而是以相同的概率来选择缓存用户 终得到兴趣社区Cx中请求概率最高的内容集 由图2可知,随着缓存容量的增加,所提机制

ninter ∆ti T 1 i+1 −T 2 i T inter_avg ua,ub 交互次数为 ,两个用户在时间段 T 内第 i 次和 第 i+1 次的交互过程的时间间隔 为 , 则 在 时 间 段 T 内 , 两 个 用 户 的 相 遇 平 均 间 隔 为: T inter_avg ua,ub = E(∆ti) = ∑n i=1 (T 1 i+1 −T 2 i )/ninter (12) T i dur T 2 i −T 1 i T dur_avg ua,ub 用户在一段时间内的相遇持续时间越长,内 容分享成功的概率越高 ,若两个用户在时间段 T 内第 i 次交互的持续时间 为 ,距离当前 时刻近的交互过程更能准确反应用户间的交互关 系,使用排序加权权重法[11] 来得到时间段 T 内两 个用户间的相遇平均持续时间 为: T dur_avg ua,ub = n∑inter i=1 ξi ·T i dur (13) ξi ξi = 2i/ninter (ninter +1) 其 中 , 为 第 i 次 交 互 的 相 对 权 重 , . T inter_avg ua,ub T dur_avg ua,ub S inter ua,ub 用户间的交互相似度随着相遇平均间隔 值的减小及相遇平均持续时间 的增 加而增加,并逐渐趋于稳定. 交互相似度的取值范 围为 [0,1],0 表示交互相似度最低,1 表示交互相 似度最高,进而计算出交互相似度 为: S inter ua,ub = 1 1+exp   − T dur_avg ua,ub T inter_avg ua,ub   (14) ua ua prointer ua 综合兴趣社区 CK 中所有用户与 的交互相似 度,即可得到用户 的交互概率 : prointer ua = ∑ b∈CK S inter ua,ub /mCK (15) 其中,mCK表示兴趣社区 CK 中用户的总数. proua 根据用户的缓存意愿和缓存能力,最终得到 用户作为缓存用户的概率 : proua = protrust ua · prosocial ua · prointer ua (16)proua mUE 最后,将兴趣社区 CK 中,用户的缓存概率 按降序排列,选择缓存概率最高的前 个终端用 户作为缓存用户. 3.3    内容缓存 Fi = {f i 1 , f i 2 ,··· , f i n } CK CK 考虑到用户的自私性以及有限的缓存资源, 在确定缓存用户后,为提高缓存命中率、减小传 输时延 ,需要为其分配合适的内容来缓存. 从 2.2 节可得终端用户未请求内容中请求概率最高 的内容集 ,综合兴趣社区 中所 有用户的内容请求概率,按请求次数降序排列,最 终得到兴趣社区 中请求概率最高的内容集 FCK = {f CK 1 , f CK 2 ,··· , f CK n } Fi CK FCK F cache i ui F cache i ,将缓存用户请求概率最高 的内容集 以及兴趣社区 中请求概率最高的内 容集 求交集,将交集内容中请求次数最高的内 容集 发送给缓存用户使之缓存. 缓存用户 缓存的内容 为: F cache i = Fi ∩ FCK = {f cache 1 , f cache 2 ,··· , f cache j } s.t. { bf cache 1 > bf cache 2 > ··· > bf cache j j· d ⩽ cUE (17) bf cache 1 f cache j j cUE 其中, 表示内容 将被请求的次数, 表示 内容数, 表示终端用户的存储容量,限制条件 满足,缓存用户缓存的内容大小小于其缓存容量. 4    数值结果分析 λ a k {cSBS, cUE} = {30 · cUE, cUE} 本节在 MATLAB 平台下,对所提出的用户属 性感知的边缘缓存机制(UAEC)的性能进行分析, 仿真参数设置如下,考虑一个宏基站小区内的边 缘缓存场景,由 6 个微基站和 78 个终端用户组成, 采用 INFOCOM2006 会议的实测数据[12] 来分析终 端用户的移动特性,采用 GroupLens 小组提供的 MovieLens 的数据集[13] 来分析终端用户的偏好以 及社会属性,隐语义模型使用的正则化系数 为 0.11,学习率 为 0.1,隐含特征 为 20,总的内容数 量为 1682,并假设内容服务器到终端用户的平均 传输时延为 98 ms,微基站到终端用户的平均传输 时延为 10 ms,终端用户到终端用户的平均传输时 延为 3 ms,微基站的覆盖半径为 100 m,D2D 的通 信距离为 30 m,微基站和缓存用户的缓存容量的 比例为 . 4.1    性能分析 为分析本地流行内容预测和缓存用户的选择 对所提机制的性能影响,将所提机制(UAEC)与下 面两种情况在缓存命中率方面进行对比,缓存命 中率是指缓存的内容请求数占总的内容请求数的 比例. profj = (1/ j) β / ∑ N k=1 (1/k) β β 1)没有本地流行内容预测(Without local popular prediction,WLPP):不根据用户的偏好对本地流行 内容进行预测,并假设内容流行度服从 Zipf 分布 , 其 中 表 示 内 容 流 行 度 偏度[14] . 2)没有缓存用户的选择(Without cache users selection,WCUS):不考虑终端用户的缓存意愿与 缓存能力,而是以相同的概率来选择缓存用户. 由图 2 可知,随着缓存容量的增加,所提机制 杨    静等: 用户属性感知的移动社交网络边缘缓存机制 · 935 ·

936 工程科学学报,第42卷,第7期 与其它两种情况的缓存命中率均呈现上升趋势, 更多的缓存用户意味着有更多的缓存容量,因此 这是因为随着缓存容量的增加,在微基站和缓存 可以为内容请求者缓存更多其感兴趣的内容.其 用户中缓存的内容数增加,使更多用户的需求得 中所提机制UAEC和WLPP机制比WCUS机制变 到满足.而本文所提机制相比其他两种情况有更 化的更快,是因为这两种机制对缓存用户进行了选 高的缓存命中率,这是因为由于用户的自私性,可 择,相比于WLPP机制和WCUS机制,本文所提机 能不愿意占用自己的缓存资源来缓存不感兴趣的 制实现更高的缓存性能,当缓存用户数为20时, 内容,若让缓存用户缓存其不感兴趣的内容,可能 比没有选择缓存用户和没有预测本地流行内容的 造成内容丢弃,最终导致较低的缓存命中率,与此 情况,在缓存命中率方面分别提高了13%和30%. 同时,若缓存用户与请求者不在D2D通信范围内, 4.2与其他机制的比较 将不能进行内容分享,最终也导致较低的缓存命 为证明本文所提机制的性能,将其与现存在 中率,而所提机制基于用户兴趣,构建兴趣社区, 的两种机制进行比较: 在每个兴趣社区中基于用户的缓存意愿以及缓存 I)最流行内容缓存l(Most popular caching, 能力,对缓存用户进行选择进而提高缓存命中率 MPC):在每个微基站和缓存用户中都缓存最流行 对于内容流行度,若考虑所有用户的内容流行度 的内容,且随机选择缓存用户 服从同一分布,也将造成较低的缓存命中率,这是 2)随机缓存l6(Random caching,RC):微基站 因为内容流行度对不同用户是不一样的,为此,所 和缓存用户以相同的概率缓存所有内容,且随机 提机制基于用户的偏好,来预测用户的内容流行 选择缓存用户 度,从而提高了缓存命中率 由图4可知,随着微基站和缓存用户缓存容量 0.8 的增加,所提机制UAEC与其它两种机制MPC和 0> RC的缓存命中率都逐渐增加,相比于其他两种机 0.6 制,所提机制实现更好的性能,这是因为MPC机 制,只考虑缓存最流行的内容,忽略了用户的偏 0.4 好,不能满足部分用户的需求,同时,在微基站和 缓存用户都缓存最流行内容,会造成缓存冗余,减 0.2 UAEC 少缓存内容多样性的现象,最终使缓存命中率较 01 ◆-WCUS ·-WLPP 低,对于RC机制,没有考虑用户的偏好,随机缓存 0 2 8 10121416 18 20 内容,因此有较低的缓存命中率,当缓存容量为 CUE 20时,所提机制的缓存命中率比MPC机制和RC 图2不同缓存容量下的缓存命中率 机制分别提高了19.5%和47% Fig.2 Cache hit ratio versus cache capacity 0.8 图3展示了缓存用户数对缓存命中率的影响, 0.7 从图中可以看出,随着缓存用户数的增加,缓存命 0.61 中率逐渐增加,这是因为内容总数不变的情况下, p 三04 0.7 0.6 02 ● UAEC 0.11 ◆-MPC -RC 0.4 0L4 2468101214161820 CUE 0.2 ▲-UAEC 图4不同机制中缓存命中率随着缓存容量的变化 -WCUS 0.1 Fig.4 Cache hit ratio versus cache capacity in different mechanisms ◆-WLPP 0 图5展示了不同机制下缓存用户数对缓存命 810121416 1820 Number of cache user 中率的影响,由图可知,随着缓存用户数的增加, 图3不同缓存用户数下的缓存命中率 三种机制的缓存命中率都逐渐增加,这是因为随 Fig.3 Cache hit ratio versus number of cache users 着缓存用户数的增加使总的缓存容量增加,缓存

与其它两种情况的缓存命中率均呈现上升趋势, 这是因为随着缓存容量的增加,在微基站和缓存 用户中缓存的内容数增加,使更多用户的需求得 到满足. 而本文所提机制相比其他两种情况有更 高的缓存命中率,这是因为由于用户的自私性,可 能不愿意占用自己的缓存资源来缓存不感兴趣的 内容,若让缓存用户缓存其不感兴趣的内容,可能 造成内容丢弃,最终导致较低的缓存命中率,与此 同时,若缓存用户与请求者不在 D2D 通信范围内, 将不能进行内容分享,最终也导致较低的缓存命 中率,而所提机制基于用户兴趣,构建兴趣社区, 在每个兴趣社区中基于用户的缓存意愿以及缓存 能力,对缓存用户进行选择进而提高缓存命中率. 对于内容流行度,若考虑所有用户的内容流行度 服从同一分布,也将造成较低的缓存命中率,这是 因为内容流行度对不同用户是不一样的,为此,所 提机制基于用户的偏好,来预测用户的内容流行 度,从而提高了缓存命中率. 2 4 6 8 10 12 14 16 18 20 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 cUE UAEC WCUS WLPP Cache hit ratio 图 2    不同缓存容量下的缓存命中率 Fig.2    Cache hit ratio versus cache capacity 图 3 展示了缓存用户数对缓存命中率的影响, 从图中可以看出,随着缓存用户数的增加,缓存命 中率逐渐增加,这是因为内容总数不变的情况下, 更多的缓存用户意味着有更多的缓存容量,因此 可以为内容请求者缓存更多其感兴趣的内容. 其 中所提机制 UAEC 和 WLPP 机制比 WCUS 机制变 化的更快,是因为这两种机制对缓存用户进行了选 择,相比于 WLPP 机制和 WCUS 机制,本文所提机 制实现更高的缓存性能,当缓存用户数为 20 时 , 比没有选择缓存用户和没有预测本地流行内容的 情况,在缓存命中率方面分别提高了 13% 和 30%. 4.2    与其他机制的比较 为证明本文所提机制的性能,将其与现存在 的两种机制进行比较: 1)最流行内容缓存 [15] ( Most  popular  caching, MPC):在每个微基站和缓存用户中都缓存最流行 的内容,且随机选择缓存用户. 2)随机缓存[16] (Random caching,RC):微基站 和缓存用户以相同的概率缓存所有内容,且随机 选择缓存用户. 由图 4 可知,随着微基站和缓存用户缓存容量 的增加,所提机制 UAEC 与其它两种机制 MPC 和 RC 的缓存命中率都逐渐增加,相比于其他两种机 制,所提机制实现更好的性能,这是因为 MPC 机 制,只考虑缓存最流行的内容,忽略了用户的偏 好,不能满足部分用户的需求,同时,在微基站和 缓存用户都缓存最流行内容,会造成缓存冗余,减 少缓存内容多样性的现象,最终使缓存命中率较 低,对于 RC 机制,没有考虑用户的偏好,随机缓存 内容,因此有较低的缓存命中率,当缓存容量为 20 时,所提机制的缓存命中率比 MPC 机制和 RC 机制分别提高了 19.5% 和 47%. 2 4 6 8 10 12 14 16 18 20 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 UAEC MPC RC cUE Cache hit ratio 图 4    不同机制中缓存命中率随着缓存容量的变化 Fig.4    Cache hit ratio versus cache capacity in different mechanisms 图 5 展示了不同机制下缓存用户数对缓存命 中率的影响,由图可知,随着缓存用户数的增加, 三种机制的缓存命中率都逐渐增加,这是因为随 着缓存用户数的增加使总的缓存容量增加,缓存 2 4 6 8 10 12 14 16 18 20 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 Number of cache user UAEC WCUS WLPP Cache hit ratio 图 3    不同缓存用户数下的缓存命中率 Fig.3    Cache hit ratio versus number of cache users · 936 · 工程科学学报,第 42 卷,第 7 期

杨静等:用户属性感知的移动社交网络边缘缓存机制 937· 用户可以缓存更多的内容来满足请求者的需求.其 5结论 中所提机制比其他两种机制的缓存命中率更高,是 因为所提机制基于用户的缓存意愿和缓存能力来 针对数据流量爆发式增长所引发的网络拥塞、 选择合适的用户作为缓存用户,提高了请求者获 用户体验质量恶化等问题,提出一种用户属性感 取感兴趣内容的概率,因此有更高的缓存命中率, 知的边缘缓存机制.基于用户偏好预测出本地流 当缓存用户数为20时,所提机制的缓存命中率比 行内容,通过微基站将之协作缓存,并根据用户偏 MPC机制和RC机制分别提高了29.5%和40%. 好变化,将之实时更新.为进一步减少传输时延, 基于用户偏好构建兴趣社区,在每个兴趣社区中 0.8 基于用户的缓存意愿和缓存能力选择合适的缓存 0.7 用户来缓存目标内容.结果表明,所提机制能够有 0.6 效的提高缓存命中率,降低平均传输时延,提高用 户体验质量.本文虽然考虑的是单个宏基站覆盖 ◆ 一◆ 范围内的缓存方案,但对多个宏基站情况下,所提 机制也同样适用,并且通过考虑宏基站间的协作缓 0.2 -▲-UAEC 存,可进一步减少传输时延,提高用户体验质量 0.1 ◆=MP ◆-RC 0 6 8101214161820 参考文献 Number of cache user [1] Cisco.Cisco annual intemet report (2018-2023)white paper 图5不同机制中缓存命中率随着缓存用户数变化 Fig.5 Cache hit ratio versus number of cache users in differen [R/OL].Cisco(2020-03-09)[2020-05-15].https://www.cisco.com/c/ mechanisms en/us/solutions/collateral/executive-perspectives/annual-internet- report/white-paper-c11-741490.html 图6展示了不同机制下缓存容量对平均传输 (思科.思科年度互联网报告(2018-2023)白皮书R/OL.思科 时延的影响,三种机制的平均传输时延随着缓存 (2020-03-09)2020-05-151. https://www.cisco.com/c/en/us/ 容量的增加而减小,其原因在于随着缓存容量增 solutions/collateral/executive-perspectives/annual-internet- 加使得缓存命中率增加,用户可以从微基站和缓 report/white-paper-c11-741490.html) 存用户中更多的获取所需内容,减少了从用户到 [2] Wu D P,Zhang F,Wang H G,et al.Security-oriented 微基站及微基站到内容服务器间的传输时延,因 opportunistic data forwarding in mobile social networks.Future Generation Comput Syst,2018,87:803 此降低了平均传输时延.由图可知,本文所提机制 [3] Cai JL Z,Yan M Y,Li Y S.Using crowdsourced data in location- 比RC机制和MPC机制整体上有更低的平均传输 based social networks to explore influence maximization //EEE 延迟,是因为相比于其它两种机制本文所提机制 INFOCOM 2016-The 35th Annual IEEE International Conference 针对用户的偏好,来进行内容缓存,同时考虑了用 on Computer Communications.San Francisco,2016:1 户的缓存意愿和缓存能力来选择缓存用户,增大 [4] Gregori M,Gomez-Vilardebo J,Matamoros J,et al.Wireless 用户从缓存用户获取内容的概率,因此有较低的 content caching for small cell and D2D networks./EEE J Sel 平均传输时延 4 reas Commun,2016,34(5):1222 [5] Jiang X W,Zhang T K,Zeng Z M.Content clustering and 100 ·-UAEC popularity prediction based caching strategy in content centric 90 ◆-MPC networking /l 2017 IEEE 85th Vehicular Technology Conference ◆-RC (VTC Spring).Sydney,2017:1 [6]Zhang Y R,Pan E T,Song L Y,et al.Social network aware device-to-device communication in wireless networks.IEEE Trans 60 Wireless Commun,2015,14(1):177 [7] Chen M Z,Saad W,Yin CC,et al.Echo state networks for 50 proactive caching in cloud-based radio access networks with 40 mobile users.IEEE Trans Wireless Commun,2017,16(6):3520 8101214161820 [8] Cheng Y Q,Wu M Q,Zhao M,et al.Socially-aware NodeRank- CUE based caching strategy for Content-Centric Networking //2016 图6不同缓存容量下的平均传输时延比较 International Symposium on Wireless Communication Systems Fig.6 Average transmission delay versus cache capacity (/SWCS).Poznan,2016:297

用户可以缓存更多的内容来满足请求者的需求. 其 中所提机制比其他两种机制的缓存命中率更高,是 因为所提机制基于用户的缓存意愿和缓存能力来 选择合适的用户作为缓存用户,提高了请求者获 取感兴趣内容的概率,因此有更高的缓存命中率, 当缓存用户数为 20 时,所提机制的缓存命中率比 MPC 机制和 RC 机制分别提高了 29.5% 和 40%. 2 4 6 8 10 12 14 16 18 20 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 UAEC MPC RC Number of cache user Cache hit ratio 图 5    不同机制中缓存命中率随着缓存用户数变化 Fig.5     Cache  hit  ratio  versus  number  of  cache  users  in  different mechanisms 图 6 展示了不同机制下缓存容量对平均传输 时延的影响,三种机制的平均传输时延随着缓存 容量的增加而减小,其原因在于随着缓存容量增 加使得缓存命中率增加,用户可以从微基站和缓 存用户中更多的获取所需内容,减少了从用户到 微基站及微基站到内容服务器间的传输时延,因 此降低了平均传输时延. 由图可知,本文所提机制 比 RC 机制和 MPC 机制整体上有更低的平均传输 延迟,是因为相比于其它两种机制本文所提机制 针对用户的偏好,来进行内容缓存,同时考虑了用 户的缓存意愿和缓存能力来选择缓存用户,增大 用户从缓存用户获取内容的概率,因此有较低的 平均传输时延. 2 4 6 8 10 12 14 16 18 20 40 50 60 70 80 90 100 UAEC MPC RC Average transmission delay/ms cUE 图 6    不同缓存容量下的平均传输时延比较 Fig.6    Average transmission delay versus cache capacity 5    结论 针对数据流量爆发式增长所引发的网络拥塞、 用户体验质量恶化等问题,提出一种用户属性感 知的边缘缓存机制. 基于用户偏好预测出本地流 行内容,通过微基站将之协作缓存,并根据用户偏 好变化,将之实时更新. 为进一步减少传输时延, 基于用户偏好构建兴趣社区,在每个兴趣社区中 基于用户的缓存意愿和缓存能力选择合适的缓存 用户来缓存目标内容. 结果表明,所提机制能够有 效的提高缓存命中率,降低平均传输时延,提高用 户体验质量. 本文虽然考虑的是单个宏基站覆盖 范围内的缓存方案,但对多个宏基站情况下,所提 机制也同样适用,并且通过考虑宏基站间的协作缓 存,可进一步减少传输时延,提高用户体验质量. 参    考    文    献 Cisco.  Cisco  annual  internet  report  (2018 –2023)  white  paper [R/OL].Cisco(2020-03-09) [2020-05-15].https://www.cisco.com/c/ en/us/solutions/collateral/executive-perspectives/annual-internet￾report/white-paper-c11-741490.html (思科. 思科年度互联网报告(2018-2023)白皮书[R/OL]. 思科 (2020-03-09)[2020-05-15]. https://www.cisco.com/c/en/us/ solutions/collateral/executive-perspectives/annual-internet￾report/white-paper-c11-741490.html) [1] Wu  D  P,  Zhang  F,  Wang  H  G,  et  al.  Security-oriented opportunistic  data  forwarding  in  mobile  social  networks. Future Generation Comput Syst, 2018, 87: 803 [2] Cai J L Z, Yan M Y, Li Y S. Using crowdsourced data in location￾based social networks to explore influence maximization // IEEE INFOCOM 2016-The 35th Annual IEEE International Conference on Computer Communications. San Francisco, 2016: 1 [3] Gregori  M,  Gómez-Vilardebó  J,  Matamoros  J,  et  al.  Wireless content  caching  for  small  cell  and  D2D  networks. IEEE J Sel Areas Commun, 2016, 34(5): 1222 [4] Jiang  X  W,  Zhang  T  K,  Zeng  Z  M.  Content  clustering  and popularity  prediction  based  caching  strategy  in  content  centric networking  //  2017 IEEE 85th Vehicular Technology Conference (VTC Spring). Sydney, 2017: 1 [5] Zhang  Y  R,  Pan  E  T,  Song  L  Y,  et  al.  Social  network  aware device-to-device communication in wireless networks. IEEE Trans Wireless Commun, 2015, 14(1): 177 [6] Chen  M  Z,  Saad  W,  Yin  C  C,  et  al.  Echo  state  networks  for proactive  caching  in  cloud-based  radio  access  networks  with mobile users. IEEE Trans Wireless Commun, 2017, 16(6): 3520 [7] Cheng Y Q, Wu M Q, Zhao M, et al. Socially-aware NodeRank￾based  caching  strategy  for  Content-Centric  Networking  //  2016 International Symposium on Wireless Communication Systems (ISWCS). Poznan, 2016: 297 [8] 杨    静等: 用户属性感知的移动社交网络边缘缓存机制 · 937 ·

938 工程科学学报,第42卷,第7期 [9]Zirak M,Yaghmaee M H,Tabbakh S R K.A distributed cache I IEEE INFOCOM 2016-The 35th Annual IEEE International points selection scheme for reliable transport protocols with Conference on Computer Communications.San Francisco,2016:1 intermediate caching in Wireless Sensor Networks /16th Intern- [13]Harper F M,Konstan J A.The movielens datasets:History and ational Conference on Advanced Communication Technology. context.ACM Trans Interactive Intell Syst,2016,5(4):19 Pyeongchang,2014:705 [14]Bastug E,Bennis M.Debbah M.Living on the edge:The role of [10]Al Ridhawi I,Al Ridhawi Y.A cache-node selection mechanism proactive caching in 5G wireless networks.IEEE Commn Mag. for data replication and service composition within cloud-based 2014,52(8):82 systems /l 2017 Ninth International Conference on Ubiquitous and [15]Ahlehagh H,Dey S.Video-aware scheduling and caching in the Future Networks (ICUFN).Milan,2017:726 radio access network.IEEE/ACM Trans Nenorking,2014,22(5): [11]Cui LZ,Dong LY,FuX H,et al.A video recommendation algo- 1444 rithm based on the combination of video content and social net- [16]Blaszczyszyn B.Giovanidis A.Optimal geographic caching in work.Concurrency Comput:Pract.Exper,2017,29(14):e3900 cellular networks /2015 IEEE International Conference on [12]Qiu L,Cao G H.Cache increases the capacity of wireless networks Communications (ICC).London,2015:3358

Zirak  M,  Yaghmaee  M  H,  Tabbakh  S  R  K.  A  distributed  cache points  selection  scheme  for  reliable  transport  protocols  with intermediate caching in Wireless Sensor Networks // 16th Intern￾ational Conference on Advanced Communication Technology. Pyeongchang, 2014: 705 [9] Al Ridhawi I, Al Ridhawi Y. A cache-node selection mechanism for  data  replication  and  service  composition  within  cloud-based systems // 2017 Ninth International Conference on Ubiquitous and Future Networks (ICUFN). Milan, 2017: 726 [10] Cui L Z, Dong L Y, Fu X H, et al. A video recommendation algo￾rithm  based  on  the  combination  of  video  content  and  social  net￾work. Concurrency Comput: Pract. Exper, 2017, 29(14): e3900 [11] [12] Qiu L, Cao G H. Cache increases the capacity of wireless networks // IEEE INFOCOM 2016-The 35th Annual IEEE International Conference on Computer Communications. San Francisco, 2016: 1 Harper  F  M,  Konstan  J  A.  The  movielens  datasets:  History  and context. ACM Trans Interactive Intell Syst, 2016, 5(4): 19 [13] Bastug E, Bennis M, Debbah M. Living on the edge: The role of proactive  caching  in  5G  wireless  networks. IEEE Commun Mag, 2014, 52(8): 82 [14] Ahlehagh  H,  Dey  S.  Video-aware  scheduling  and  caching  in  the radio access network. IEEE/ACM Trans Networking, 2014, 22(5): 1444 [15] Blaszczyszyn  B,  Giovanidis  A.  Optimal  geographic  caching  in cellular  networks  //  2015 IEEE International Conference on Communications (ICC). London, 2015: 3358 [16] · 938 · 工程科学学报,第 42 卷,第 7 期

点击下载完整版文档(PDF)VIP每日下载上限内不扣除下载券和下载次数;
按次数下载不扣除下载券;
24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
已到末页,全文结束
相关文档

关于我们|帮助中心|下载说明|相关软件|意见反馈|联系我们

Copyright © 2008-现在 cucdc.com 高等教育资讯网 版权所有