推荐星级:
  • 1
  • 2
  • 3
  • 4
  • 5

基于深度增强学习的数据中心网络coflow调度机制

更新时间:2019-12-24 14:57:41 大小:1M 上传用户:守着阳光1985查看TA发布的资源 标签:深度增强学习coflow调度机制 下载积分:1分 评价赚积分 (如何评价?) 打赏 收藏 评论(0) 举报

资料介绍

最小化语义相关流的平均完成时间是数据中心网络流量管理面临的难题之一.受人工智能领域深度增强学习方向的最新研究进展启发,本文提出一种的新的语义相关流调度机制.将带宽约束的语义相关流调度问题转化为连续的学习过程,通过学习以往策略实现最佳调度.引入反向填充和有限复用机制,保证系统的工作保持性和无饥饿性.仿真结果表明,在不同的网络负载下,本文提出的调度机制均使得语义相关流的平均完成时间小于其他调度机制,尤其是网络负载较大时,相比最先进的调度机制,性能提升约50%.


部分文件列表

文件名 大小
基于深度增强学习的数据中心网络coflow调度机制.pdf 1M

部分页面预览

(完整内容请下载后查看)
7
Vol. 46 No. 7  
Jul. 2018  
2018  
7
ACTA ELECTRONICA SINICA  
基于数据中心  
coflow  
络  
 
, ,  
辉  
(
国家字交换工程技研究中心 河南郑州  
450002)  
:
相关数据中心络流能领域  
.  
最新研究启发 本文提出一种相关制 将约束相关度问题化  
,  
的学策略实现最引入和有的工饥  
, ,  
饿仿真结果不同下 本文提使相关机  
, , ,  
比最约  
50% .  
:
;
;
关键词  
中图分类号  
URL: http: / /www. ejournal. org. cn  
数据中心相关流 流度  
:
TP393  
:
A
: 0372-2112 ( 2018) 07-1617-08  
DOI: 10. 3969 /j. issn. 0372-2112. 2018. 07. 011  
文献标识码  
文章编号  
电子学报  
Deep Reinforcement Learning Based Coflow  
Scheduling in Data Center Networks  
MA TengHU Yu-xiangZHANG Xiao-hui  
( National Digital Switching System Engineering & Technology Research CenterZhengzhouHenan 450002China)  
Abstract: Coflow completion time minimization is one of the challenges of traffic management in data center net-  
works. Inspired by the newest research progress in deep reinforcement learningwhich is one direction of artificial intelli-  
gencethis paper proposes a novel coflow scheduling mechanism. It translates the coflow scheduling problem with bandwidth  
constraint into a continuous learning process. By learning the previous decisionsthe best scheduling is obtained. By introdu-  
cing back filling and limited multiplexing mechanismsthe system is work-conserving and starvation-free. Simulation results  
show thatunder different network loadcompared with other scheduling mechanismsthe average coflow completion time is  
reduced. Especially when the network load is heavythe proposed mechanism achieves about 50% performance improvement  
than the state-of-the-art scheduling mechanism.  
Key words: data center network; coflow; flow scheduling  
.  
一个无法结果  
1
引言  
间数据间超务  
4]  
( Data Center networkDCN)  
数据中心络  
33% ,  
情况到  
50%  
的  
此  
1]  
2]  
3]  
常采用  
Map Reduce Spark Dryad  
等分布式  
优化分布式数据高  
DCN  
应用  
数据相关计布式数据处  
的性非常重要  
大学的  
将这 种 具 有 相 关 性 的 为 一 个  
:
具有一个的任何  
Mosharaf Chowdhury  
博士  
多个子任子任分  
5]  
不同的中间数据相  
coflow  
coflow  
DCN  
的 性 低  
化  
互交换 一个子任务各数据入  
( Coflow Completion TimeCCT) ,  
与  
间  
在这情况对应的中间数据有  
传统降低间具有源  
: 2017-03-17;  
: 2017-06-13;  
:
责任编辑 孙瑶  
收稿日期  
修回日期  
:
基金项目 国家  
973  
( No. 2013CB329104) ;  
863  
( No. 2013AA013505)  
研究发划  
研究发划  
国家  
1618  
2018  
用率一  
DCN  
发  
均采策略  
CPU  
, ,  
情况度算法的性能有高 有设  
结果的  
状态  
间能够高  
DCN  
,  
以 优化  
coflow  
计基于学的自制 这也是本文工出  
DCN  
力  
的计用率 应用能和  
吞吐  
升  
到在人能领域 结合学  
3
coflow  
 
3. 1  
相关定  
coflow(  
方法取得果 以方法  
6 ~ 8]  
1
)
义  
具 有 相 关 性 的 为 一  
coflow.  
相关流  
之  
AlphaGo  
手  
心的  
目的应用  
9]  
.  
问题 启  
了通领域  
2
coflow  
coflow  
义  
时间  
开  
coflow  
coflow DeepCS  
发 本 文 提 出 一 种 新 的  
( Deep Reinforcement Learning Based Coflow Scheduling) .  
coflow  
制  
一个为  
间  
把  
理的宽  
f
ci { 12| c | } 、  
间  
流  
i
coflow  
度问题化为的学通  
约束的  
start( f ) end( f ) , coflow c  
i
间分为  
时  
i
coflow  
度  
策略实现  
start( c) = min start( f ) ,  
间为  
i
end( c) = max  
间为  
fi  
fi  
2
相关作  
end( f ) ,  
i
c = end( c) - start( c) .  
间为 珋  
DCN  
间最的  
方法归  
3
网络边缘  
义  
, : ,  
起来 可分为类 一完  
-
宽资形成组描  
; ,  
对一具有相关性的即  
coflow,  
状态为该景  
实现一类表性工有  
DCN  
数据中心络  
研究  
的无阻塞交换要  
DCN  
310]  
11]  
12]  
D
PDQ pFabric  
性工 有  
13]  
14]  
15]  
Varys Baraat Repair  
一 类 算 法 的  
集中边缘链因在界  
coflow  
间更节仅一类算法的代  
DCN  
出现重 长期  
数据明  
17]  
表工作  
边缘链反  
本文络  
Varys  
, ,  
集中实现式系对  
制到边缘链路  
间最进行降低了  
DCN coflow  
4
任务待  
义  
时  
Varys  
不同速  
理的任边缘所  
使一个  
coflow  
下所流同做  
- ,  
形成影 称为该的任  
的  
coflow  
利  
“ ”  
本文中的 任一个  
coflow.  
Baraat  
布式应用附  
果一个链  
ID,  
进入的  
coflow  
较高 优得到  
路没分量为  
0.  
一个  
coflow FIFO  
度  
像  
中的量实现了  
的  
引入机  
允许进入小流进入的大享  
Baraat  
Baraat  
便立模型 这列  
中的大阻塞头  
1  
表 所示  
允许交换间通阻塞情况 而  
外  
宽  
Rapier  
3. 2  
增强系统  
( Reinforcement LearningRL)  
习  
18]  
生  
能够有环境的启发 环境进行  
选 择 联 合 起 来 优 化  
16]  
coflow  
持  
openflow  
.  
交互 奖赏的方最优策略 增  
交换控  
集中算  
coflow  
4 : sa,  
统由 基本部组成 状态 状态  
最优为可能 从  
ECMP .  
部  
Pr1 .  
概率 和奖赏所示 策略 π  
: S  
A
DCN  
之前  
的  
. t  
定义状态空间空间在  
openflow  
Rapier  
件  
交换要求  
s a ,  
状态 策略 π 选择作并  
t
DCN  
, ,  
使集中加  
定义的  
t
at  
, ,  
的计影响了  
Rapier  
P
s
到环境馈  
以概率  
状态  
stst + 1  
t + 1  
r .  
奖赏 的目策略大  
t
能  
coflow  
的研究取得果 但这  
奖赏 π 奖赏为  
关于  

全部评论(0)

暂无评论

上传资源 上传优质资源有赏金

  • 打赏
  • 30日榜单

推荐下载