Total Pageviews

Friday, 9 June 2017

聊聊Bufferbloat以及TCP BBR

有人问既然Bufferbloat是个问题,为什么路由器的缓存还要设计那么大。起初,我也是觉得缓存越大越好,这个就像人们拼命比拼谁的电脑内存大一样,因为在一般人眼里,内存越大就越快!然而对于网络而言,恰好相反,内存越大,越让人不想归家。
        酒店舒适,但只是路过,没人会把家装修成酒店的样子,家才是越大越好。
        路由器设计成携带大缓存的设备,这是一个错误!路由器不该有那么大的缓存,然而TCP大牛当年的一个“AIMD错误决定”让路由器的缓存越来越大,最终引发了Bufferbloat!事情还要从安迪-比尔定律说起。

网络上的“安迪-比尔定律”

先解释一下安迪-比尔定律,即“比尔.盖茨拿走了安迪.格鲁夫所给的”。狭义的讲就是无论Intel的芯片快到多么牛逼的地步,微软的下一个Windows版本总是能把芯片的性能榨干,然而广义的讲,安迪-比尔定律连同摩尔定律一起事实上构成了信息产业的一台泵,典型的一个正反馈系统,这是决定互联网产业大爆发的本质原因,这个系统如下:
摩尔定律->硬件性能提升->软件填补硬件提升的空间
我们可以理解为,摩尔定律和安迪-比尔定律驱动了信息革命的车轮不断滚动从而碾压一切!
----------------------------
可以把路由器的越来越大的Buffer以及TCP贪婪地占据这些路由器Buffer两者看作是另一个“安迪-比尔定律”。因为BBR之前的TCP拥塞算法都是盲目且贪婪的,路由器加大的Buffer总是能被TCP的AI(加性增窗)过程快速榨干,反过来大缓存延迟了TCP的丢包,同时增加了丢包的成本,这要求路由器提供更多的缓存。
        具体来讲就是,如果路由器Buffer过小,基于丢包的拥塞算法固有的全局同步现象将会使得带宽的利用率极低,所以必须增加Buffer来弥补。这就是一个正反馈循环,肇事者可以说是基于丢包的TCP算法,它驱动了路由器Buffer越来越大,当Buffer越来越大,TCP又会瞬间用完,永远喂不饱,直到永远。
        好在有摩尔定律和TCP的MD(乘性减窗)过程二者从中协调,如果同时失去了二者,TCP早晚会全局崩溃!
        我们假设硬件已经逼近了热密度的极限,摩尔定律失效了,此时不会再增加Buffer的大小了,会发生什么呢?
        只要有TCP的MD过程在,互联网就不会崩溃,所以说,TCP的AI过程保障了其效率,而MD过程则保证了收敛。
        Google的新拥塞控制框架来了以后,MD过程便不被保证了,任何人都可以写一个永不降窗的算法,如果把主动的MD过程看作道德的话,那么路由器的AQM就是法律了。这就是TCP/IP的几乎全部内容了,我们可以看到,它极其复杂。
        值得注意的是,TCP/IP的安迪-比尔定律展现的这种复杂性,其促进因素不是摩尔定律,而是“人们对带宽的高利用率的追求”,因此便有了以下的关系:
提高带宽利用率->路由器加大Buffer->TCP的AIMD填补加大的Buffer
其实,这完全是错觉,TCP/IP的框架不该这么复杂的。或许,AIMD根本就不需要,事实上,是路由器不断加大的Buffer和AIMD一起纵容了坏事的频繁发生。这一点正如人们不断买新电脑,不断买新手机,然而过不了多久,你依然会发现不管再新的机器都卡的要死一样的道理,只不过,人们买的电脑也好,手机也好,它们的更新换代是摩尔定律驱动的,机器完全是个人所有的,你随时可以跟着摩尔定律的节奏更新换代,然而对于网络设备却不是这样。
        网络设备,比如路由器,交换机之类,它们只是整个TCP/IP系统的一个环节而已,机房里面的设备是不可能频繁更新换代的,摩尔定律几乎被它们所无视。虽然摩尔定律依旧影响着设备的实际制造和升级,但由于这种周期相对较长,也就是可以忽略的了。但这里面有一个不变的定论,那就是TCP几乎全部都是以AIMD原则来运作的,UDP则是无限贪婪的。TCP的AI会造成主动丢包,这也是基于丢包的拥塞控制算法的核心,而MD会造成全局同步,这两点无疑造成了带宽利用率的低下,这是TCP的硬伤,不得不靠不断加大的路由器Buffer来弥补,至少是延迟了悲剧的发生,在延迟悲剧的这段时间内,路由器当然希望端系统可以意识到事情正在悄悄起变化并采取一些措施。
......
AIMD,正如以太网的CSMA/CD一样,并不完美,但是可用。现在的人们在千兆以太网出现之前,曾经推导出一个结论,那就是依靠CSMA/CD是不可能达到千兆bps的,然而如今已经是万兆甚至4万兆了...如果说以太网的载波监听,冲突检测是不必要且可被替换的,那么TCP的AIMD也是不必要且可被替换的,二者简直太像了!

Bufferbloat问题

我不想说TCP的AI/MD(加性增和乘性减)是错误的,我也不敢给出如此决绝的否定,然而,至少我想表达的是,在“安迪-比尔定律”的作用下,AI/MD是有问题的!什么问题呢?Bufferbloat问题!
        再次重申,路由器携带很大的Buffer,是错误的!路由器Buffer在够用前提下越小越好,没有Buffer,自然就不会bloat,本来无一物,何处惹尘埃?!但是不能没有Buffer...Buffer到底是用来干什么的?到底多少合适?
        Buffer其实就比较类似我们吃的食物,曾经,在物资贫乏的年代,大家都在追求要多吃,现在营养过剩了,则反过来了,要少吃,实际上,人体根本不需要太多的食物,够用即可,人体大部分的精力要用来做更有意义的事情。同样基于存储/转发TCP/IP网络上的路由器其根本任务不是做存储,而是做转发,存储只是在理论上不得已的一个手段。我来解释下是为什么。
        路由器的入口和出口分别接收到达的数据包和转发数据包,一台路由器上往往有多个接口同时全双工地进行接收/转发,数据包的到达频率是统计意义上的,符合泊松分布,然而数据包的发送则是固有的接口速率,这是分组交换网的核心根基!路由器扮演什么角色?它是一个典型的多服务台排队系统!所以路由器必须携带一个Buffer用来平滑泊松分布的包到达和固定速率的包发送之间的关系。
        那么,设计多大的Buffer合适呢?按照排队理论的现成公式计算,够用即可!
        我们考虑极端一点的情况,如果我们把存储队列的Buffer设计成无穷大,从而转发延迟也将是无穷大(因为排队延迟会趋向无穷大),会发生什么?无疑,这台路由器将会变成一个超级存储器,它将会拥有全世界所有的信息!
        爆炸!转发设备变成了存储设备!这就是Bufferbloat。注意,Bufferbloat的恶劣影响并不是会造成丢包,而是会无端增加无辜连接的延迟。这里有个认识上的误区,这种认识在中国人的思维中特别明显。很多人会觉得Bufferbloat会造成“丢包反馈延迟增加”,其实丢不丢包是你自己的事,如果你通过RTT梯度检测到了Bufferbloat,你依旧继续猛发,结果被AQM给丢了,那完全是你自己全责,事实上,这个时候大家都应该全局MD才对。
        真正的危害在于,由于Bufferbloat造成了整个大Buffer被填充,所有的数据包都将等待一个固有的排队延迟,这会严重影响任意经过的实时类应用!千万别扯什么QoS,区分服务,综合服务,流量工程什么的,这些要真有用,120救护车就不会被堵在路上了,请注意,事在人为,事在人不为。
----------------------------
我最喜欢的其实不是TCP/IP网络什么的,而是城市规划,道路规划以及机械设计(2002年我的专业就是机械工程),我只是在2004年的时候初识了路由器,交换机之类的东西,发现自己竟然可以不用挖地铲土浇筑建桥就可以完成一条自己想象中的道路,并且还有那么多的现实场景,这不禁可以让人随时进入禅境...实际上,关于城市规划,道路规划以及机械设计也有很多电脑上的模拟器,但问题是它们毕竟只是模拟,是不真实的,而路由器,交换机是真实的,它们就摆在那,登录设备打开Monitor,我看到的是真实的东西,这与模拟器有大不同。
        在后来的学习中,我发现路由器交换机之上有个TCP/IP,折腾起来一点也不比挖地铲土浇筑建桥来的轻松,但至少除了搬机器,上架,插线之外,没有什么体力活了,也还好。
----------------------------
路由器Buffer是什么?以高架路为例,它相当于上匝道前面的位置:


图中的汇入区就相当于路由器的Buffer,可以看出,如果汇入区过大的话,单位时间内就会有更多的车辆汇入主线,当这个量超过主线流量的时候,就会造成汇入区拥堵,同时大大降低主线的通行能力。这意味着,很多无辜的车辆被堵在了汇入区,主线上的车辆也会由于汇入去有大量车辆汇入而显示拥堵迹象,我给出给具体的例子吧,那就是上海南北高架广中路由南向北上匝道,那个汇入区太长了,足足200米+,结果造成那个位置几乎持续拥堵,不光广中路上匝道新上南北高架的车辆走不动,就连主路上的车辆也被拥堵,这是什么造成的?这是错觉造成的!广中路上匝道下面准备上高架的司机一看匝道是空的,唰唰全上去了,结果堵在汇入区了...
        如果广中路上匝道的汇入区修的短一些,那么拥堵只会体现在上匝道或者广中路路口,这种拥堵反馈到准备上高架的司机那里,结果就是,要么等,要么绕,至少会阻止他们上主线汇入区去添堵,伤害无辜的流量。
        好了,该回到TCP了。路由器Buffer减小有什么好处呢?好处在于,即使有连接拼命去AI添堵,那么丢包会很快到来,并且很快反馈给发送方,于是发送方会执行MD以表示忏悔,整个过程中,实时流量不会受到丝毫影响。

劣币驱良币

BBR是什么我就不解释了,我写了很多文章。这些文章中没有提到的是,BBR属于那种即便上匝道汇入区修的再长也不上去添堵的德国好司机。那么结果是什么?你以为这种行为会感动全中国吗?
        错了,这正是中国人所期许的,你谦让,我就流氓。你不去堵,我去堵。结果就是,BBR即便不去主动添堵,也会被其它人堵在路上,BBR只能说,这拥堵不是自己造成的,仅此而已。吃亏做好事又不被认可反被讹,这是我们这里常有的事,BBR到了中国应该入乡随俗,你堵,我也堵!

BBR开始为网络添堵

永远不要欺负老实人,BBR开始做损人不利己的事了。在中国,所有的TCP拥塞控制算法都无法被公正评估,请注意,这个修改的意义在于,BBR对于自身的性能没有任何提升,只是为了损人而已。我跑得慢,我踹你一脚把你整瘸了,你会更慢,这样我就第一了,竞速,竞速而已!
        那么,这件坏事如何来做呢?
        我的第一个版本不公开,事实证明它更有效,起码上了我的版本,别的就没的跑了,但问题是上两个我的版本,他俩双胞胎也会打架打得头破血流...本着和谐共存的原则,我从不教人学坏,所以我会删除并忘掉代码,再不提起。我这里给出稍微温和点的版本,兄弟俩打架的情况依然存在,但不严重,问题是,如何区别对方是否是自家人...难!
        BBR计算总的最大发送量的时候,不是按照max-Bandwidth和min-RTT的乘积计算的吗?我这里维护了一个最小RTT窗口内的max-RTT,只要在一个最小RTT窗口内的实际RTT不大于上一次的max-RTT,我就让BBR使用这个实际的RTT而不是什么最小的RTT。这里的原则在于,BBR会尝试在排队不丢包的情况下也去主动排队,入乡随俗。
        代码非常简单,先为BBR增加一个字段,即max_rtt_us,与min_rtt_us相对,然后修改update RTT和calc CWND的逻辑:

1.修改bbr_update_min_rtt

/* Track min RTT seen in the min_rtt_win_sec filter window: */
filter_expired = after(tcp_time_stamp,
                            bbr->min_rtt_stamp + bbr_min_rtt_win_sec * HZ);
if (rs->rtt_us >= 0 &&
    (rs->rtt_us <= bbr->min_rtt_us || filter_expired)) {
        bbr->min_rtt_us = rs->rtt_us;
        bbr->min_rtt_stamp = tcp_time_stamp;
        bbr->rtt_us = rs->rtt_us;
        if (filter_expired)
            bbr->max_rtt_us = rs->rtt_us;
}
bbr->rtt_us = bbr->min_rtt_us;

if (!filter_expired && rs->rtt_us >= 0 && rs->rtt_us < bbr->max_rtt_us) {
    bbr->rtt_us = rs->rtt_us;
}

2.修改bbr_target_cwnd

if (inet_csk(sk)->icsk_ca_state != TCP_CA_Open)
    w = (u64)bw * bbr->min_rtt_us;
else
    w = (u64)bw * bbr->rtt_us;

----------------------------
最大RTT和最小RTT之差就是排队延迟,充分利用这个排队延迟去添堵是一件简单的好事,但是如何去对抗AQM则是一件非常复杂的事,因为你并不知道AQM的行为。以上的讨论均建立在尾部丢包的基础之上,然而现实情况则要面临复杂的AQM,在文章《Linux Kernel 4.9中TCP BBR算法的科普解释》的“君莫舞,君不见玉环飞燕皆尘土”以及“BBR的优势之-与AQM的关系”两节中,我有阐述BBR如何乐观地等待CUBIC之流被惩罚以及如何愉快地上位,然而在“广中路上匝道”情形中,CUBIC并不会被惩罚,BBR自然也就不会上位,那怎么办,只能添堵,至于AQM怎么处理,一视同仁吧。换句话说,BBR在CUBIC以及任意所谓“TCP加速者”面前,不必客气,他们抽烟,你就放火。

快递或者网络可靠吗

现在人们没了互联网就不能生活,这也是一种错觉。
        其实互联网本身就是一种错觉,它是一种不得已而为之的错觉!
        去年1月我去深圳万象城(之所以说万象城而不是人人乐,我是想说我买的东西有多么高大上,以至于我多么迫不及待地想拥有)买东西,无货,咋办?店主说次日可取,他们从广州拿货。现在问题来了,去一趟广州难吗?为什么我自己不直接去广州买,还要深圳万象城去广州拿货后再卖给我?因为我没时间!如果我有大把的时间又那么喜欢那件物品,我肯定自己去广州了,顺带旅游,然而我缺的正是时间。
        快递业务填补了人们的时间间隙。但是快递业务真的可靠吗?
        如果我自己去广州拿货,假设高铁不脱轨,汽车不翻车,自己不被人捅的情况下,一路上我愉快地去,拿到货后愉快地归来,一路上我亲自护送货品,我放心,我踏实。如果交由快递,我不知道快递车会不会翻车,会不会被人抢,里面会不会是假货...一切我都不确定,在送到我手里前,我只能祷告~!但好处在于,这段送货的时间,在我信任快递公司的前提下,我可以做别的工作,如果我不信任快递公司,我只能心急如焚。好在,现在的快递公司,特别是顺丰还算靠谱,你不需要心急如焚。
        但是网络,其可靠性完全是另一回事,幸亏人们用了TCP,不然就别玩了。字节的复制往往比丝帛的织造更加廉价,所以TCP有一个存储重发的机制,发送信息前先存储信息,一段时间没有收到回应,就重发被存储的信息,收到回应则将信息删除,如果发了一批丝绸到远方,一段时间没有反馈,然后再去织一批新的,那代价可就大了去了...
----------------------------
我不亲自去广州而去委托快递公司,正是因为我没有时间,那么如果快递公司的快递过程“弥补”了我本应该节省的时间(比如快递员懒惰),我还不如自己去拿货呢。
网络也一样,如果网络的延迟太高,那还不如用U盘拷贝信息,用汽车运输U盘,然后交付呢...网络和快递一样,就是图快,用专业的运输代替你自己的自取。然而,如果网络中有Bufferbloat,那么还不如去自取,甚至去用U盘拷贝。
        Bufferbloat让网络丧失了快速传输通道的名声。

新的Bloat版本的BBR算法

周日早晨,我登录到了温州老板提供的位于国外的VPS机器上,演绎了一个新版的BBR。也是添堵版的,在我的WIFI环境下碾压了标准的BBR,这就好像魔人布欧的分身一样,一个是好人的时候,另一个必须是恶棍。
非常简单:

1.为bbr增加一个minmax类型的max_rtt字段

2.修改bbr_update_min_rtt函数

filter_expired = after(tcp_time_stamp,
                            bbr->min_rtt_stamp + bbr_min_rtt_win_sec * HZ);
if (rs->rtt_us >= 0 &&
        (rs->rtt_us <= bbr->min_rtt_us || filter_expired)) {
    bbr->min_rtt_us = rs->rtt_us;
    bbr->min_rtt_stamp = tcp_time_stamp;
    bbr->rtt_us = rs->rtt_us;
}
bbr->rtt_us = rs->rtt_us;
rtt_prior = minmax_get(&bbr->max_rtt);
// 迄今为止最大的RTT与当前RTT取其小!是不是拿最大RTT和最小RTT求个"平均"什么的更合理呢?
// 反正我是占点Buffer空间
bbr->rtt_us = min(bbr->rtt_us, rtt_prior);

minmax_running_max(&bbr->max_rtt, bbr_bw_rtts, bbr->rtt_cnt, rs->rtt_us);

我祝愿所有的TCP连接早日崩溃,我祝愿互联网越来越拥堵,最终不可用。

为什么BBR是合理的

AIMD是基于丢包的拥塞控制算法的根基,这必然会Buffer bloat,解决之道就是不采用基于丢包的算法,而采用基于时延的算法,但是....
        但是只要有一个基于丢包的算法还跑在互联网上,那么所有基于时延的算法都会集体退让...这是基于时延算法弊端,既然它基于时延而不是丢包,那么它就是注定要吃亏的。正确的做法是什么?
        BBR无视丢包(也并非绝对,BBR在处理非Open状态时还是有措施的),无视时延(也非绝对,BBR只是无视了RTT的瞬时变化值),采用了实时采集并保留时间窗口的策略,这初看起来是吃亏的算法,与基于时延的算法无异,但是BBR拥有Probe More和Drain Less过程,这非常合理。

No comments:

Post a Comment

Note: only a member of this blog may post a comment.