随着软件应用的集群化、容器化、微服务化,产品的稳定性越来越依赖网络。现有的专有云和一体机产品,部署在裸机,从硬件服务器、交换机到os都是不可靠的,且监控盲区较多,其中网络是重灾区。对于网络不稳定导致的中间件链接超时、设备掉线、视频推流卡顿等问题,缺乏有效的网络层监控指标定界问题。一旦现场不存在,由网络引发的问题很难定位。现有的网络监控方案,都集中在网卡维度做流量、错包等指标统计,粒度过粗,只有从Socket和TCP连接维度,监控socket缓存状态,采集TCP建连、断开、实时流量、延迟、重传等信息,才可以最直接的反映业务的网络状态。
现有的网络监控工具如 ss、netstat 等,可以显示服务器当前 Socket 状态快照,在问题现场可以有效的辅助我们排查问题。当现场不存在,我们希望能有工具能保存历史网络状态。然而单纯记录历史 Socket 五元组信息,在复杂拓扑场景是不够的,因为IP很可能是动态的,还须将当前时刻的 Socket 连接和业务属性(Pod Name、设备身份...)关联,才能达到还原问题现场,快速界定故障域的目的。
1 典型场景
2 能力综述
Socket维度信息采集
云原生监控方案适配
指标选取原理
TCP的指标有很多,为什么采集上述的指标信息,出发点是希望找到可以反映应用程序状态和网络连通状态指标,如果有其它指标采集建议也欢迎留言。下面展开分析下上述指标的采集原因:
1)TCP Retransmit
包重传的超时时间是RTO,通常是200ms左右,当我们观察到一段时间出现了TCP包重传,后续又恢复正常了,可以判断这个时间段出现了网络抖动, 就可以找网络的同学来帮忙排查问题了。
2)TCP SRTTRTT
(round-trip time)为数据完全发送完(完成最后一个比特推送到数据链路上)到收到确认信号的时间。
SRTT(smoothed round trip time)是平滑过的RTT。
通过srtt历史曲线图或柱状图,观察出来延迟的区间变化,就可以知道网络连接的srtt是否抖动。如果业务延迟发生了抖动,srtt很稳定,就可以说明大概率不是网络的问题,可能是业务的问题,或者调度的问题等等; 反之,如果srtt也发生了抖动,那么可以先检查一下网络连接。
3)TCP Tx/Rx
监控链接的流量,结合对现场业务的理解,在业务出现丢失数据场景,可以辅助定位时网络问题还是应用问题:
4)TCP reset reasons
Reset 包是导致TCP异常断开的常见原因之一,下面对可能触发 reset 事件的原因做一个汇总(如有错漏欢迎补充):
Socket Tracer 使用 eBPF+Tracepoint 捕捉 TCP 的 reset&new&close 等事件,使用 netlink + tcp_diag 周期抓取内核 Socket 信息快照。
1 eBPF
背后的思想是:“与其把数据包复制到用户空间执行用户态程序过滤,不如把过滤程序灌进内核去”。
eBPF 是一个在内核中运行的虚拟机,它可以去运行用户。在用户态实现的这种 eBPF 的代码,在内核以本地代码的形式和速度去执行,它可以跟内核的 Trace 系统相结合,给我们提供了几乎无限的可观测性。
eBPF 的基本原理:它所有的接口都是通过 BPF 系统调用来跟内核进行交互,eBPF 程序通过 LVM 和 Cline 进行编译,产生 eBPF 的字节码,通过 BPF 系统调用,加载到内核,验证代码的安全性,从而通过 JIT 实时的转化成 Native 的 X86 的指令。eBPF整体架构如下:
2 kprobe
当安装一个kprobes探测点时,kprobe首先备份被探测的指令,然后使用断点指令(即在i386和x86_64的int3指令)来取代被探测指令的头一个或几个字节。
当CPU执行到探测点时,将因运行断点指令而执行trap操作,那将导致保存CPU的寄存器,调用相应的trap处理函数,而trap处理函数将调用相应的notifier_call_chain(内核中一种异步工作机制)中注册的所有notifier函数,kprobe正是通过向trap对应的notifier_call_chain注册关联到探测点的处理函数来实现探测处理的。
当kprobe注册的notifier被执行时,它首先执行关联到探测点的pre_handler函数,并把相应的kprobe struct和保存的寄存器作为该函数的参数,接着,kprobe单步执行被探测指令的备份,最后,kprobe执行post_handler。等所有这些运行完毕后,紧跟在被探测指令后的指令流将被正常执行。
3 tracepoint
tracepoint和kprobe相比,tracepoint是一个静态的hook函数,是预先在内核里面编写好才使用。tracepoint实现是基于hooks的思想,在函数的入口就被放置一个probe点,这个probe点就会跟踪调用这个函数的各种信息,并将追踪的信息保存到一个环形队列中去,如果用户希望读取这些内核,就会通过debugfs形式来访问。
4 方案选型
eBPF 调用方案
对比调用eBPF能力的三种方案,bpftrace / bcc / libbpf,最终选择bcc:
Socket 信息采集方案
eBPF+kprobe在目标函数上动态挂载hook函数,在高频调用(收发包函数)的场景额外开销较大,因此在周期统计socket链接收发数据量、重传次数等场景,我们参考 ss 的实现,基于 linux netlink + tcp_diag 内核模块,该方案适合应用主动抓取某个时间点socket 统计信息快照,可以减少额外性能开销。
5 整体架构图
1 命令行参数定义
包含Socket采集过滤配置文件路径,socket信息采集周期,vm-insert的URL地址。
bash-5.0# ./socktracer --helpUsage of ./socktracer: -configfile string Socket tracer target config file (default "/etc/filter.yaml") -metricsCacheNum int Metrics local cached number (default 10000) -namespace string Namespace for metrics -sockScanInterval int Socket statistical information scan interval (default 30) -version Show version information and exit -vmaddr string URL of Victoria Metrics write address -web.listen-address string Address to listen on for web interface and telemetry. (default ":8080") -web.metrics-path string Path under which to expose metrics. (default "/metrics")
2 Socket采集过滤配置文件格式
一台服务器上的Socket连接数量非常多,数据量和比较大,我们往往只关心部分服务的相关连接,就像tcpdump我们也往往会对IP和端口做过滤一样。过滤配置文件使用yaml格式,定义如下:
filter.yaml配置文件定义,用于配置过滤需跟踪的 Socket 链接:type SocketID struct { Protocol string `yaml:"protocol"` // Only support TCPv4 currently, will support UDP and IPv6 when needed. LocalIP string `yaml:"localIP"` // Specify local IP, will overwrite LocalPod when both set LocalPod string `yaml:"localPod"` // Specify prefix of local podName, will be overwritten by LocalIP when both set LocalPort int `yaml:"localPort"` // Specify local Port, set to 0 means do not filter local port PeerIP string `yaml:"peerIP"` // Specify peer IP, will overwrite PeerPod when both set PeerPort int `yaml:"peerPort"` // Specify peer Port, set to 0 means do not filter peer port PeerPod string `yaml:"peerPod"` // Specify prefix of peer podName, will be overwritten by PeerIP when both set}样例:bash-5.0# cat /etc/filter.yamlfilters: - localIP: "" //采集目标1:不指定本地IP,可以不配置或者设置为空 localPort: 6379 //指定本地端口,通常选择固定的server端口作为过滤条件 localPod: "default/redis-" //指定本地PodName前缀,格式为: namespace/podName前缀 - localPod: "default/iotx-event-center" // 采集目标2:指定本地PodName前缀。peerPod: "default/redis-" //指定对端PodName前缀,格式为: namespace/podName前缀 peerPort: 6379 //指定对端端口
1 Grafana Dashboard
下图中,连接到 redis server 的所有TCP连接(来自不同的Client+Port)都会被监控,展示总并发连接数和连接的 rtt(延迟) 等信息:
2 内核版本依赖(>=4.9)
Socket 信息采集依赖 tcp_diag 内核模块。
eBPF 还在快速发展期,内核中的功能也日趋增强,一般推荐基于Linux 4.4+ (4.9 以上会更好) 内核的来使用 eBPF。部分 Linux Event 和 BPF 版本支持见下图:
作者 | 四忌
原文链接:http://click.aliyun.com/m/1000287198/
本文为阿里云原创内容,未经允许不得转载。