irpas技术客

【校招 --阶段二 网络基础】传输层及UDP/TCP_自首的小偷

irpas 835

一、再谈端口

端口号(Port)标识了一个主机上进行通信的不同的应用程序; 在TCP/IP协议中, 用 “源IP”, “源端口号”, “目的IP”, “目的端口号”, “协议号” 这样一个五元组来标识一个通信(可以通过netstat -n查看); 端口号范围划分

0 - 1023: 知名端口号, HTTP, FTP, SSH等这些广为使用的应用层协议, 他们的端口号都是固定的.1024 - 65535: 操作系统动态分配的端口号. 客户端程序的端口号, 就是由操作系统从这个范围分配的.

认识知名端口号 有些服务器是非常常用的, 为了使用方便, 人们约定一些常用的服务器, 都是用以下这些固定的端口号:

ssh服务器, 使用22端口 ftp服务器, 使用21端口 telnet服务器, 使用23端口 http服务器, 使用80端口 https服务器, 使用443

执行下面的命令, 可以看到知名端口号

cat /etc/services

netstat(面试高频考点)

netstat是一个用来查看网络状态的重要工具.

语法:netstat [选项] 功能:查看网络状态

n 拒绝显示别名,能显示数字的全部转化成数字 l 仅列出有在 Listen (监听) 的服務状态 p 显示建立相关链接的程序名 t (tcp)仅显示tcp相关选项 u (udp)仅显示udp相关选项 a (all)显示所有选项,默认不显示LISTEN相关

pidof

在查看服务器的进程id时非常方便. 语法:pidof [进程名] 功能:通过进程名, 查看进程id

长短连接

当数据交换传输的是网页,假如一个网页包含很多数据,一次response不能将全部数据传输过去,但是需要将很多数据传输过去,这就需要很多次response。对于短链接一次请求响应就断开连接,所以就要建立很多次连接,但是建立连接是需要成本的,所有短链接效率特别底下。相反对于长链接,再一次连接你response很多次,可以把这些数据在一次连接中传输过去。

二、UDP协议 UDP协议格式

对于udp协议,它的报头为8字节的定长报头,所以在分离报头和有效载荷可以更容易分离,然后向上交付。

16位UDP长度, 表示整个数据报(UDP首部+UDP数据)的最大长度; 如果校验和出错, 就会直接丢弃;

有效载荷长度=16位UDP长度-UDP报头长度(8字节) UDP怎么保证UDP报文完整性->16位UDP长度

UDP的缓冲区- UDP没有真正意义上的 发送缓冲区. 调用sendto会直接交给内核, 由内核将数据传给网络层协议进行后续的传输动作;UDP具有接收缓冲区. 但是这个接收缓冲区不能保证收到的UDP报的顺序和发送UDP报的顺序一致(发送的可能是有序的,但是因为网络有的延迟先走的后到这也是有可能的); 如果缓冲区满了, 再到达的UDP数据就会被丢弃; UDP的socket既能读, 也能写, 这个概念叫做 全双工 UDP的特点

无连接: 知道对端的IP和端口号就直接进行传输, 不需要建立连接; 不可靠: 没有确认机制, 没有重传机制; 如果因为网络故障该段无法发到对方, UDP协议层也不会给应用层 返回任何错误信息; 面向数据报: 不能够灵活的控制读写数据的次数和数量;

面向数据报

应用层交给UDP多长的报文, UDP原样发送, 既不会拆分, 也不会合并; 用UDP传输100个字节的数据:

如果发送端调用一次sendto, 发送100个字节, 那么接收端也必须调用对应的一次recvfrom, 接收100个字节; 而不能循环调用10次recvfrom, 每次接收10个字节;

基于UDP的应用层协议

NFS: 网络文件系统 TFTP: 简单文件传输协议 DHCP: 动态主机配置协议 BOOTP: 启动协议(用于无盘设备启动) DNS: 域名解析协议

三、TCP协议(可靠性,效率)

可靠性:

检验和 序列号(按序到达) 确认应答,超时重传 连接管理 流量控制,拥塞控制

效率:

流量控制

问题:

为什么会具有可靠性问题? 网络传输线路更长,网络延迟

不可靠都有哪些问题? 丢包,乱序,数据包错误、接受缓冲区

TCP协议格式

怎么将有效载荷和报头分离? 标准的TCP协议宽度位4字节,因为TCP报头的标准长度位20字节,所以先读取20字节当拿到4位首部长度,而首部长度*4就是报头长度,所以根据首部长度就能分离报头。TCP报头是浮动,标准的TCP报头是20字节。 TCP报头和UDP报头相比少了一个报文长度,为什么呢? 因为TCP协议不需要按数据块交付给上层,当收到数据放到缓冲区中它是面向字节流的,只要按照顺序放好就行,上层怎么读是上层协议的事情。

16位校验和:发送端填充, CRC校验. 接收端校验不通过, 则认为数据有问题. 此处的检验和不光包含TCP首部, 也包含TCP数据部分.

4位TCP报头长度: 表示该TCP头部有多少个32位bit(有多少个4字节); 所以TCP头部最大长度是15 * 4 = 60,因为TCP报头标准长度是20字节最长是60字节,所以选项最大长度是40字节

源/目的端口号: 表示数据是从哪个进程来, 到哪个进程去;

32位序列号:发送报文时都给编上序号,当收到报文时可以按照序号创重新排序,保证了clinet->server按序到达。序列号还可以把重复的报文丢弃(去重功能)

32位确认应答序号当每次由client到server发送的一个报文,server都到时都会发送确认应答序号。确认应答序号是收到的序列号加一,首先是确定是收到了,然后确定下一个报文传输的序号,所以client就发送序列号为确认应答序号的报文。 32位确认应答序号=32位序列号+1 例如:当client发送序列号为789的报文,但是clinet确认应答序号只收到9,client默认9之前的报文都收到,不会再发送了。 TCP有接收缓冲区和发送缓冲区 因为TCP具有重传机制,所以当缓冲区满了,当报文来临时会发生丢包问题,所以会重新发送报文,所以这是在浪费网络资源,所以要进行流量控制,当缓冲区块满了就减少发送报文的频率。 16为窗口大小:发送方的接受缓冲区中剩余缓冲区的大小。当接收方接收到TCP报文就会知道发送方的缓冲区大小,相反也只也是如此发送方也会知道接收方缓冲区大小,所以在发送数据时双方都要控制数据大小,这叫做流量控制所以流量控制是通过窗口大小来控制的. 标志位SYN:是否建立连接 标志位FIN:是否断开连接 标志位ACK:ACK有效时这个报文是确认报文 标志位PSH:有效时催促接受方尽快向上交付,给接收缓冲区腾空间。催促自己尽快把发送缓冲区清空。 标志位RST:当三次握手链接建立失败,client第一次发送数据后server会给client发送一个标志位RST有效的报文要求重新建立连接 当client和server建立连接时从,client先发送SYN是否建立连接,server发送ACK+SYN好建立连接,client发送ACK后但是因为网络问题含有的AKC报文丢失了。对于clien来说不知道ACK丢失了,所以认为链接建立好了。但是对于server来说client没有发送ACK连接建立失败。所以之后client就直接发送数据,但是server认为连接没有建立所以就给client发送一个标志位RST有效的报文要求重新建立连接。 标志位URG:TCP报文本来是按序到达,但是可能有些数据需要被优先处理,就需要插队。16位的紧急指针代表在有效载荷的偏移量所对应的数据需要被URG优先处理。 40字节头部选项: 暂时忽略;

考点: 1. 为什么TCP报文会有序号和确认应答序号?为什么会有两个序号? 序号是为了TCP报文按序到达,确认应答序号是为了发送方确认对方收到了,TCP通信是全双工通信可能。 2. 怎么解决丢包问题? 确认应答机制

确认应答(ACK)机制(可靠性)

TCP将每个字节的数据都进行了编号. 即为序列号.

每一个ACK都带有对应的确认序列号, 意思是告诉发送者, 我已经收到了哪些数据; 下一次你从哪里开始发.ACK只有不需要再次ACK

超时重传机制

主机A发送数据给B之后, 可能因为网络拥堵等原因, 数据无法到达主机B; 如果主机A在一个特定时间间隔内没有收到B发来的确认应答,就会进行重发;

但是, 主机A未收到B发来的确认应答, 也可能是因为ACK丢失了; 因此主机B会收到很多重复数据. 那么TCP协议需要能够识别出那些包是重复的包, 并且把重复的丢弃掉.这时候我们可以利用前面提到的序列号, 就可以很容易做到去重的效果.

那么, 如果超时的时间如何确定?

最理想的情况下, 找到一个最小的时间, 保证 “确认应答一定能在这个时间内返回”. 但是这个时间的长短, 随着网络环境的不同, 是有差异的. 如果超时时间设的太长, 会影响整体的重传效率; 如果超时时间设的太短, 有可能会频繁发送重复的包;

TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间.

Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进行控制, 每次判定超时重发的超时 时间都是500ms的整数倍. 如果重发一次之后, 仍然得不到应答, 等待 2500ms 后再进行重传. 如果仍然得不到应答, 等待 4500ms 进行重传. 依次类推, 以指数形式递增. 累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接.

连接管理机制

在正常情况下, TCP要经过三次握手建立连接, 四次挥手断开连接服务

三次握手:

在第一,二次握手失败影响不大,第三次影响比较大,因为对于client来说链接已经建立好,但是server来说链接没有建立,但是client会为维护连接付出更多的成本。 如果是四次握手建立连接呢?前三次失败影响不大,但是第四次丢失,对于server连接已经建立就会为了维护连接付出成本,但是对于client影响不大。所以在四次,六等…等建立连接是,如果最后一个报文丢失,影响最大的是server,但是server有很多client来连接server,如果大量最后一个报文丢失serverr付出的成本是很大的,浪费了很多服务器资源。所以最后—次连接必须让client发送

5次握手,7次握手都可以建立连接但是3次握手是最小成本建立连接,因为每次连接都需要成本的。

为什么会3次握手? 1次和2次容易遭到SYN洪水攻击 当一次,二次握手建立连接,攻击者大量发送SYN,服务器立马建立连接所以一会server就会宕机 为什么行?用最小成本验证全双工(验证通信信道双放都能收发) 不要让服务器出现连接建立的误判情况,减少服务器的资源浪费

四次挥手:

四次挥手状态转换图

四次挥手状态是怎么转换的? 当client发送FIN后状态变为FIN_WAIT_1,server收到并立马发送ACK,server状态变为CLOSE_WAIT,client收到来自server的ACK后状态由FIN_WAIT_1变FIN_WAIT_2.这就认为client到server的通信信道关闭了(client的应用层不在给server发送数据了client->server的应用层的通信是close的)。这还需要将server到client得通信信道关闭,所以server接着给client发送FIN,server状态变为LAST_ACK,client收到FIN状态由FIN_WAIT_2变为FIN_WAIT.接着client发送ACK到server,server状态LAST_ACK变为CLOSED将连接关闭,再接着client状态由FIN_WAIT变为CLOSED

TIME_WAIT:主动断开连接地一方,要进行等待?原因在于如果没有TIME_WAITclient就没等当client把最后一次ACK发出去马上CLOSED,但是不能保证server收到ACK,当ACK丢失了,server会超时重传再一次发送FIN请求关闭连接,但是clilent已经CLOSED不能收到FIN,所以连接就无法关闭。所以client就必须等待server关闭链接,当client在等的一段时间内没有收到FIN认为链接已经关闭就自己切换状态。尽量保证最后一个ACK被对方收到,继而释放server的资源。等待历史数据在网络上消散。通常TIME_WAIT:2MSL(MSL最大重传时间)

下图是TCP状态转换的一个汇总:

理解TIME_WAIT状态

现在做一个测试,首先启动server,然后启动client,然后用Ctrl-C使server终止,这时马上再运行server, 结果是: 这是因为,虽然server的应用程序终止了,但TCP协议层的连接并没有完全断开,因此不能再次监 听同样的server端口.我们用netstat命令查看一下:

TCP协议规定,主动关闭连接的一方要处于TIME_ WAIT状态,等待两个MSL的时间后才能回到CLOSED状态. 我们使用Ctrl-C终止了server, 所以server是主动关闭连接的一方, 在TIME_WAIT期间仍然不能再次监听同样的server端口; MSL在RFC1122中规定为两分钟,但是各操作系统的实现不同, 在Centos7上默认配置的值是60s; 可以通过 cat /proc/sys/net/ipv4/tcp_fin_timeout 查看msl的值;

想一想, 为什么是TIME_WAIT的时间是2MSL?

MSL是TCP报文的最大生存时间, 因此TIME_WAIT持续存在2MSL的话 就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启, 可能会收到 来自上一个进程的迟到的数据, 但是这种数据很可能是错误的); 同时也是在理论上保证最后一个报文可靠到达(假设最后一个ACK丢失, 那么服务器会再重发一个FIN. 这时虽然客户端的进程不在了, 但是TCP连接还在, 仍然可以重发LAST_ACK);

解决TIME_WAIT状态引起的bind失败的方法

server因为是主动断开连接所以状态是TIME_WAIT 主动断开地一方进入TIME_WAIT状态,链接没有断开,端口还是被占用着所以会引起bind失败。过一段TIME_WAIT时间之后就可以重新连接了。

在server的TCP连接没有完全断开之前不允许重新监听, 某些情况下可能是不合理的

服务器需要处理非常大量的客户端的连接(每个连接的生存时间可能很短, 但是每秒都有很大数量的客户端来请求). 这个时候如果由服务器端主动关闭连接(比如某些客户端不活跃, 就需要被服务器端主动清理掉), 就会产生大量TIME_WAIT连接. 由于我们的请求量很大, 就可能导致TIME_WAIT的连接数很多, 每个连接都会占用一个通信五元组(源ip,源端口, 目的ip, 目的端口, 协议). 其中服务器的ip和端口和协议是固定的. 如果新来的客户端连接的ip和端口号和TIME_WAIT占用的链接重复了, 就会出现问题.

端口复用: 使用setsockopt()设置socket描述符的 选项SO_REUSEADDR为1, 表示允许创建端口号相同但IP地址不同的多个socket描述符。当server主动断开连接可以立马又重新链接

参数: listenfd:监听套接字,为监听套接字设置端口复用 SO_SOCKET:表示在那一层设置套接字 SO_REUSEADDR:表示将套接字设置为什么属性

理解 CLOSE_WAIT 状态

以之前写过的 TCP 服务器为例, 我们稍加修改 测试代码:

#include<iostream> #include<sys/wait.h> #include<netinet/in.h> #include<cstdio> #include<sys/types.h> #include<arpa/inet.h> #include<unistd.h> #include<cstdlib> #include<sys/socket.h> using namespace std; class sever{ private: int listen_sock;//监听套接字 int post; public: sever(int post_){ post=post_; } void Init(){ listen_sock=socket(AF_INET,SOCK_STREAM,0); if(listen_sock<0){ cout<<"套接字创建失败!"<<endl; exit(0); } struct sockaddr_in addr; addr.sin_family=AF_INET; addr.sin_port=htons(post); addr.sin_addr.s_addr=INADDR_ANY; if(bind(listen_sock,(struct sockaddr*)&addr,sizeof(addr))<0){ cout<<"绑定失败!"<<endl; exit(1); } if(listen(listen_sock,5)<0){ cout<<"绑定失败!"<<endl; exit(2); } } void star(){ while(1){ struct sockaddr_in in_addr; socklen_t len=sizeof(in_addr); int sock=accept(listen_sock,(struct sockaddr*)&in_addr,&len); if(sock<0){ cout<<"获取链接失败!"<<endl; continue; } char s1[16]; sprintf(s1,"%d",ntohs(in_addr.sin_port)); string IP_PORT=inet_ntoa(in_addr.sin_addr); IP_PORT+=":"; cout<<"get a new link"<<IP_PORT<<s1<<endl; int id=fork(); if(id==0){ close(listen_sock); service(sock); exit(0); } close(sock); // waitpid(-1,NULL,0); } } void service(int sock){ signal(SIGCHLD,SIG_IGN);//线程分离 char buff[1024*2]; int s=recv(sock,buff,sizeof(buff),0); if(s>0){ buff[s]=0; cout<<buff<<endl; string response="HTTP/1.0 200 OK\r\n"; response+="Content-type: text/html\r\n"; response+="\r\n"; response+="\ <!DOCTYPE html>\ <html>\ <head>\ <meta charset=\"utf-8\">\ <title>helloword</title>\ </head>\ <body>\ <h1>hello word</h1>\ </body>\ </html> "; send(sock,response.c_str(),response.size(),0); } while(1){ } //close(sock); } ~sever(){ close(listen_sock); } }; int main(int argc,char*argv[]){ sever s(atoi(argv[1])); s.Init(); s.star(); }

此时服务器进入了 CLOSE_WAIT 状态, 结合我们四次挥手的流程图, 可以认为四次挥手没有正确完成. 小结: 对于服务器上出现大量的 CLOSE_WAIT 状态, 原因就是服务器没有正确的关闭 socket, 导致四次挥手没有正确完成. 这是一个 BUG. 只需要加上对应的 close 即可解决问题.

滑动窗口

刚才我们讨论了确认应答策略, 对每一个发送的数据段, 都要给一个ACK确认应答. 收到ACK后再发送下一个数据段. 这样做有一个比较大的缺点, 就是性能较差. 尤其是数据往返的时间较长的时候.

既然这样一发一收的方式性能较低, 那么我们一次发送多条数据, 就可以大大的提高性能(其实是将多个段的等待时 间重叠在一起了).

窗口大小指的是无需等待确认应答而可以继续发送数据的最大值. 上图的窗口大小就是4000个字节(四个 段). 发送前四个段的时候, 不需要等待任何ACK, 直接发送; 收到第一个ACK后, 滑动窗口向后移动, 继续发送第五个段的数据; 依次类推; 操作系统内核为了维护这个滑动窗口, 需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答; 只有确 认应答过的数据, 才能从缓冲区删掉; 窗口越大, 则网络的吞吐率就越高;

如何理解滑动窗口?

可以将发送缓冲区看成—个字符数组,滑动窗口可以看作是一个固定长度地字符数组地─部分,可以向右移动 滑动窗口怎么右移动?left++right++ 怎么保证滑动窗口不越界?发送缓冲区·>环形队列 当缓冲区满了send ()就会阻塞,send()把上层数据放入到缓冲区中,TCP负责把数据发出去 滑动窗口根据对方接收缓冲区地大小随时改变

发送方怎么知道对方地接受缓冲区大小的? 在建立连接时,双放互相发送报文,报头中含有16位地窗口大小,这是接收缓冲区地大小。

那么如果出现了丢包, 如何进行重传? 这里分两种情况讨论. 情况一: 数据包已经抵达, ACK被丢了.

这种情况下, 部分ACK丢了并不要紧, 因为可以通过后续的ACK进行确认; 情况二: 数据包就直接丢了.

![](https://img-blog.csdnimg.cn/096347fbc8bc43efb0c5f01754446c74.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA6Ieq6aaW55qE5bCP5YG3,size_20,color_FFFFFF,t_70,g_se,x_16)

当某一段报文段丢失之后, 发送端会一直收到 1001 这样的ACK, 就像是在提醒发送端 “我想要的是 1001” 一样; 如果发送端主机连续三次收到了同样一个 “1001” 这样的应答, 就会将对应的数据 1001 - 2000 重新发送; 这个时候接收端收到了 1001 之后, 再次返回的ACK就是7001了(因为2001 - 7000)接收端其实之前就已 经收到了, 被放到了接收端操作系统内核的接收缓冲区中; 这种机制被称为 “高速重发控制”(也叫 “快重传”).

流量控制

接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送, 就会造成丢包, 继而引起丢包重传等等一系列连锁反应. 因此TCP支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做流量控制

接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 “窗口大小” 字段, 通过ACK端通知发送端; 窗口大小字段越大, 说明网络的吞吐量越高; 接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端; 发送端接受到这个窗口之后, 就会减慢自己的发送速度; 如果接收端缓冲区满了, 就会将窗口置为0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数 据段, 使接收端把窗口大小告诉发送端.

窗口探测和窗口更新通知是通信细节层不关心(recv函数获取对方)。

当接收方缓冲区满了,发送方就要等待在, 这时上层在干什么?上层的行为取决于发送缓冲区大下,如果满了就等,美满就放数据。通信细节上层不关心。

接收端如何把窗口大小告诉发送端呢? 回忆我们的TCP首部中, 有一个16位窗口字段, 就是存放了窗口大小信息; 那么问题来了,16位数字最大表示65535, 那么TCP窗口最大就是65535字节么? 实际上, TCP首部40字节选项中还包含了一个窗口扩大因子M,实际窗口大小是 窗口字段的值左移 M 位;

拥塞控制

虽然TCP有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍 然可能引发问题. 因为网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据, 是很有可能引起雪上加霜的. TCP引入 慢启动 机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据;

此处引入一个概念程为拥塞窗口 发送开始的时候, 定义拥塞窗口大小为1; 每次收到一个ACK应答, 拥塞窗口加1; 每次发送数据包的时候, 将拥塞窗口和==接收端主机反馈的窗口大小(接收缓冲区)==做比较, 取较小的值作为实际发送的窗口;

像上面这样的拥塞窗口增长速度, 是指数级别的. “慢启动” 只是指初使时慢, 但是增长速度非常快.

为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍. 此处引入一个叫做慢启动的阈值 当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长,而是按照线性方式增长

TCP开始启动的时候, 慢启动阈值等于窗口最大值; 在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回1;

少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞; 当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降; 拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案

延迟应答

发送方一次发多少数据由接收方的接受缓冲区大小决定,当接收方的接收缓冲区越大,通信效率就越高,一次ACK就把接收方的接收缓冲区大小报给发送方来刷新窗口大小。所以在传输一次数据之后,先不着急ACK就等待上层取走缓冲区数据,这样等待时间在一定程度上越长缓冲区的ACK携带接受放的接受缓冲区的大小就越大,刷新的发送方滑动窗口就越大,通信效率就越高。 如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口可能比较小.

假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K; 但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了; 在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来; 如果接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M;

一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输 效率;

那么所有的包都可以延迟应答么? 肯定也不是;

数量限制: 每隔N个包就应答一次; 时间限制: 超过最大延迟时间就应答一次;

具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms

捎带应答

在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 “一发一收” 的. 意味着客户端给服务器说 了 “How are you”, 服务器也会给客户端回一个 “Fine, thank you”; 那么这个时候ACK就可以搭顺风车, 和服务器回应的 “Fine, thank you” 一起回给客户端

面向字节流

创建一个TCP的socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区;

调用write时, 数据会先写入发送缓冲区中; 如果发送的字节数太长, 会被拆分成多个TCP的数据包发出; 如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出 去; 接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区; 然后应用程序可以调用read从接收缓冲区拿数据; 另一方面, TCP的一个连接,既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可 以写数据. 这个概念叫做 全双工

由于缓冲区的存在, TCP程序的读和写不需要一一匹配, 例如: 写100个字节数据时, 可以调用一次write写100个字节, 也可以调用100次write, 每次写一个字节; 读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次 read一个字节, 重复100次;

粘包问题

首先要明确, 粘包问题中的 “包” , 是指的应用层的数据包. 在TCP的协议头中, 没有如同UDP一样的 “报文长度” 这样的字段, 但是有一个序号这样的字段. 站在传输层的角度, TCP是一个一个报文过来的. 按照序号排好序放在缓冲区中. 站在应用层的角度, 看到的只是一串连续的字节数据. 那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层 数据包.

那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界. 因为HTTP是基于TCP协议,当把拿到TCP报文分离出TCP报头剩下的是HTTP报文,然后上交给应用层,HTTP报头由的HTTP有效载荷长度,可以直接提取到有效载荷,解决粘包问题

对于定长的包, 保证每次都按固定大小读取即可; 例如上面的Request结构, 是固定大小的, 那么就从缓冲 区从头开始按sizeof(Request)依次读取即可; 对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置; 对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序猿自己来定的, 只要保证分隔 符不和正文冲突即可);

思考: 对于UDP协议来说, 是否也存在 “粘包问题” 呢?

对于UDP, 如果还没有上层交付数据, UDP的报文长度仍然在. 同时, UDP是一个一个把数据交付给应用 层. 就有很明确的数据边界. 站在应用层的站在应用层的角度, 使用UDP的时候, 要么收到完整的UDP报文, 要么不收. 不会出现"半 个"的情况.

TCP异常情况

进程终止: 进程终止会释放文件描述符, 仍然可以发送FIN. 和正常关闭没有什么区别. 机器重启: 和进程终止的情况相同. 机器掉电/网线断开: 接收端认为连接还在, 一旦接收端有写入操作, 接收端发现连接已经不在了, 就会进行reset. 即 使没有写入操作, TCP自己也内置了一个保活定时器, 会定期询问对方是否还在. 如果对方不在, 也会把连接释放. 另外, 应用层的某些协议, 也有一些这样的检测机制. 例如HTTP长连接中, 也会定期检测对方的状态. 例如QQ, 在QQ 断线之后, 也会定期尝试重新连接.

基于TCP应用层协议

HTTP HTTPS SSH Telnet FTP SMTP

用UDP实现可靠传输

参考TCP的可靠性机制, 在应用层实现类似的逻辑;

引入序列号, 保证数据顺序引入确认应答, 确保对端收到了数据;引入超时重传, 如果隔一段时间没有应答, 就重发数据;

lisen第二个参数

listen第二个参数当底层连接比较多而无法处理的底层连接的数量(全连接队列) 对于服务器, listen 的第二个参数设置为 5, 并且不调用 accept

测试程序:

#include<iostream> #include<sys/wait.h> #include<netinet/in.h> #include<cstdio> #include<sys/types.h> #include<arpa/inet.h> #include<unistd.h> #include<cstdlib> #include<sys/socket.h> using namespace std; class sever{ private: int listen_sock;//监听套接字 int post; public: sever(int post_){ post=post_; } void Init(){ listen_sock=socket(AF_INET,SOCK_STREAM,0); if(listen_sock<0){ cout<<"套接字创建失败!"<<endl; exit(0); } struct sockaddr_in addr; addr.sin_family=AF_INET; addr.sin_port=htons(post); addr.sin_addr.s_addr=INADDR_ANY; if(bind(listen_sock,(struct sockaddr*)&addr,sizeof(addr))<0){ cout<<"绑定失败!"<<endl; exit(1); } if(listen(listen_sock,5)<0){ cout<<"绑定失败!"<<endl; exit(2); } } ~sever(){ close(listen_sock); } }; int main(int argc,char*argv[]){ sever s(atoi(argv[1])); s.Init(); while(1){ } }

此时启动 8 个客户端同时连接服务器, 用 netstat 查看服务器状态, 一切正常. 但是启动第七个客户端时, 发现服务器对于第七个连接的状态存在问题了

客户端状态正常, 但是服务器端出现了 SYN_RECV 状态, 而不是 ESTABLISHED 状态 这是因为, Linux内核协议栈为一个tcp连接管理使用两个队列:

半链接队列(用来保存处于SYN_SENT和SYN_RECV状态的请求)全连接队列(accpetd队列)(用来保存处于established状态,但是应用层没有调用accept取走的请求)

而全连接队列的长度会受到 listen 第二个参数的影响. 全连接队列满了的时候, 就无法继续让当前连接的状态进入 established 状态了. 这个队列的长度通过上述实验可知, 是 listen 的第二个参数 + 1.


1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,会注明原创字样,如未注明都非原创,如有侵权请联系删除!;3.作者投稿可能会经我们编辑修改或补充;4.本站不提供任何储存功能只提供收集或者投稿人的网盘链接。

标签: #校招 #阶段二 #网络基础传输层及UDPTCP # #源IP