当我们谈论互联网时,你可能会想到智能手机、电脑、各种应用程序和海量的在线内容。但互联网究竟是什么?它是如何运作的?为什么我们能够如此轻松地通过它进行通信? 那么我们今天就来一起探索一下这个庞大的系统。

我们可以这样想象:互联网就像一张无形的大网,把全世界的电脑、手机、平板、游戏机、手表、汽车,甚至家里的冰箱和空调都串联在一起。无论我们是在家用手机刷短视频,还是在路上用导航,背后其实都是这张大网在默默帮我们传递信息。
互联网已经成了我们生活中不可或缺的一部分。可这么庞大又复杂的系统,真的能搞明白它是怎么运作的吗?有没有什么简单的道理或者规律,能帮我们看懂这张大网的本质?而且,学网络知识到底有啥用,会不会很枯燥? 答案是当然能学懂,而且还挺有意思!我们这门课程,就是想带着大家用轻松的方式,一步步揭开互联网的神秘面纱,让大家不仅能明白它的原理,还能学到很多实用的网络知识和技巧。
说到互联网,其实我们可以把它想象成一张巨大的“信息高速公路网”,把全世界各种各样的设备都串联在一起。最早的时候,能上网的主要是台式电脑、服务器这些“老家伙”,它们负责存储网页、收发邮件,像是信息的搬运工。
可现在,情况早就变了。我们身边的手机、平板,甚至家里的电视、冰箱、手表、汽车,统统都能连上网。就连小区门口的监控、路上的红绿灯、家里的智能音箱,也都成了互联网大家庭的一员。大家把这些能连网的设备,统称为“主机”或者“端系统”。 所以现在说“计算机网络”其实有点跟不上时代了,因为连网的早就不只是电脑,而是各种各样的智能设备。
端系统之间要想互相传递消息,就得靠“通信链路”来搭桥。通信链路其实就是各种各样的物理线路,比如家里常见的网线、光纤,甚至是无线电波。不同的链路,传输速度也不一样,有的像高速公路,有的像小巷子,速度用“比特每秒”来衡量。
当我们要给远方的朋友发一条消息时,电脑不会一下子把所有内容都扔出去,而是会把大消息拆成一小块一小块的,每一块前面还会贴上“头部标签”,这样网络里的设备就知道这是谁发的、要去哪。 每一小块就像一辆装着快递的货车,这些货车在网络里被叫做“分组”。分组会沿着网络的道路,一站一站地被送到目的地,最后在对方那里重新拼成完整的消息。

在这些道路的交叉口,有专门负责指路的“分组交换机”。它们的工作就像高速公路上的收费站或者路口指挥员,收到一辆货车后,会根据目的地把它转发到正确的出口。 现在互联网里最常见的两种“指路员”是“路由器”和“交换机”。交换机一般负责小区、公司内部的分发,路由器则负责城市、国家之间的大范围转发。
一条消息从我们电脑发出去,到朋友的手机收到,中间会经过很多条通信链路和许多分组交换机,这一路走过的路线就叫做“路径”或者“路由”。
端系统通过互联网服务提供商(ISP)接入互联网,包括住宅ISP(如本地有线电视或电话公司)、企业ISP、大学ISP,以及在机场、酒店、咖啡店和其他公共场所提供WiFi接入的ISP,还有为智能手机和其他设备提供移动接入的蜂窝数据ISP。每个ISP本身就是一个由分组交换机和通信链路组成的网络。
ISP为端系统提供各种类型的网络接入,包括住宅宽带接入(如电缆调制解调器或DSL)、高速局域网接入和移动无线接入。ISP还为内容提供商连接服务器,直接接入互联网。互联网的核心使命就是连接端系统,但为了实现这一目标,提供接入的ISP之间必须相互连接。
这些较低层级的ISP通过国家和国际的上层ISP相互连接,这些上层ISP通常由高速路由器组成,通过高速光纤链路相互连接。每个ISP网络(无论上层还是下层)都是独立管理的,都运行IP协议,并遵循一定的命名和地址约定。
为了让互联网能顺利工作,背后其实有一套“大家都要遵守的规矩”,这些规矩在网络世界里就叫做“协议”。不管是我们用的手机、电脑,还是网络里的路由器、交换机,大家都得按照这些协议来交流信息。就像我们打电话要说普通话,网络里的设备也要“说同一种语言”才能听懂彼此。
在众多协议里,最有名的就是TCP和IP。IP协议就像快递单,规定了包裹(也就是分组)长什么样、怎么写地址、怎么在路上传递。TCP协议则像快递员,负责把包裹安全送到家,还要确保每一件都没丢没坏。我们平时说的“TCP/IP”,其实就是互联网的“通用语言”,大部分网络通信都离不开它们。
那协议到底有多重要?可以说,没有协议,互联网就会乱成一锅粥。因为只有大家都同意用同一套规则,世界各地的设备才能互相配合,信息才能顺利传递。这就需要有专门的机构来制定标准。互联网的主要标准是由IETF(互联网工程任务组)来制定的, 他们把每个协议的细节都写进了一份份叫做RFC的文档里。RFC最早是大家一起讨论网络问题的“意见稿”,现在已经有了几千份,里面详细规定了像TCP、IP、HTTP(上网用的)、SMTP(发邮件用的)这些协议的具体内容。
除了IETF,还有一些机构专门负责网络硬件的标准,比如IEEE 802委员会,他们制定了以太网和WiFi的规则。正因为有了这些标准,全球的网络设备才能“无障碍交流”,让我们随时随地都能上网冲浪。
刚才我们是从硬件和软件这些“零件”的角度来聊互联网的,其实还有一种很有意思的视角——把互联网当成一个为各种分布式应用服务的大平台。 除了大家熟悉的电子邮件、网页浏览,现在的互联网应用还包括手机上的聊天工具、地图导航能查实时路况、听歌追剧的流媒体、刷社交、开视频会议、打网络游戏,甚至还有根据你位置推荐美食的APP。这些应用都属于“分布式应用”,因为它们需要不同地方的设备互相传递和交换数据。
这里有个关键点:所有这些互联网应用,其实都是运行在我们手里的电脑、手机、平板这些终端设备上,而不是在网络中间那些负责转发数据的交换机里。交换机的任务只是帮忙把数据送到对的地方,它们并不关心数据内容,也不管是哪款应用在用这些数据。
我们再来聊聊,互联网作为应用平台到底意味着什么。想象一下,有一天你突然灵光一现,想做一个超级酷的分布式互联网应用。这个应用也许能让世界变得更美好,或者至少能让你赚点小钱。 要把这个想法变成现实,你得写点代码,让它能在电脑、手机这些终端设备上跑起来。用什么语言都行,比如Java、C、Python,只要你喜欢。
可是,问题来了。既然是分布式应用,肯定不止一台设备参与。你的程序得能让不同地方的设备互相“说话”,也就是传递数据。 那怎么让你的程序告诉互联网:“嘿,把这段数据送到那个特定的设备上,交给那台机器上的某个程序”?这就需要一种“沟通的桥梁”。

这座桥梁就是“套接字接口”。简单来说,套接字接口就像是互联网给程序员准备的一个“邮局窗口”。你想寄东西(数据)给别人,得按照邮局的规矩来。 比如,你不能直接把信扔到大街上,而是要装进信封,写好收件人地址、邮编,贴上邮票,然后投进邮筒。只有这样,邮局才会帮你把信送到对方手里。
同理,互联网的套接字接口也有一套自己的“规矩”。你的程序要想把数据发给别的设备上的程序,就得按照这些规矩来打包和发送。这样,互联网才能准确无误地把数据送到目标。 其实,邮局还不止一种服务。你可以选快递、挂号信、普通信件……互联网也一样,给应用程序提供了多种不同的服务。你开发应用时,也要选一种最合适的服务方式。具体有哪些服务,咱们后面会详细聊聊。
到这里,我们已经从两个角度看了互联网:一方面是各种硬件、软件零件拼起来的复杂系统,另一方面是为各种分布式应用提供服务的大平台。 也许你现在脑子里还有点乱,比如什么是分组交换、TCP/IP、路由器?互联网里都有哪些通信链路?分布式应用到底是啥?家里的智能体重秤怎么连上网?别着急,这门课程就是来帮我们一一解开这些谜团的。
现在我们已经对互联网有了大致的了解,接下来要聊一个特别关键的词——协议。协议到底是什么?它在网络世界里又扮演着怎样的角色呢? 其实,协议说白了就是“大家都同意遵守的规则”。我们可以把它想象成生活中的各种约定。比如说,咱们在马路上开车,红灯停、绿灯行,这就是交通协议。如果没有这些规则,大家想怎么开就怎么开,路口肯定乱成一锅粥,谁也别想安全到家。
再换个场景,假如你和朋友约好一起打篮球。你们说好几点在哪个球场集合,输了请喝奶茶,赢了请吃炸鸡。这些小约定,其实就是你们之间的“协议”。如果有人不守规矩,比如输了不请客,大家下次可能就不想和他玩了。 计算机网络里的协议也是类似的道理。只不过,遵守协议的不是人,而是电脑、手机、路由器这些设备。比如两台电脑要互相传文件,它们得先说好用什么格式、怎么分段、怎么确认对方收到了、出错了怎么办。如果一台电脑用A方法发,另一台只懂B方法,那就算连着网线也聊不起来。
再举个我们身边的例子。你用微信给朋友发消息,点了发送,消息就飞到了对方手机上。其实,这背后有一套完整的协议规定:消息怎么打包、怎么加密、怎么传到服务器、服务器怎么转发、对方怎么收到、怎么回执“已读”……每一步都有详细的规则。如果没有这些协议,消息可能就会丢失、乱码,或者根本发不过去。 所以说,协议就是规定了通信双方要交换什么消息、消息的顺序,以及收到消息后该怎么回应的一整套规则。没有协议,设备之间就像鸡同鸭讲,根本没法交流。
在互联网和各种计算机网络里,协议无处不在。有的协议很简单,比如规定数据怎么分包;有的协议很复杂,比如保障视频通话不卡顿。想真正搞懂网络,最核心的就是理解这些协议是怎么设计的、为什么要这样设计、又该怎么用。
刚才我们大致了解了互联网和网络协议的整体情况。接下来,我们要把视角拉近一点,看看互联网到底是由哪些“零件”组成的。我们先从最熟悉的部分说起——也就是我们每天用的电脑、手机,还有各种智能设备。 这些设备其实就像互联网的“门口”,是我们和网络世界打交道的第一站。等会儿,我们还会聊聊网络的“核心地带”,比如数据是怎么在网络里转来转去的。
还记得刚刚提到的“端系统”吗?其实,所有能连上互联网的设备,比如台式机、笔记本、手机、平板,甚至家里的智能音箱、扫地机器人,都属于端系统。为什么叫“端系统”呢?因为它们就像互联网这张大网的边缘,是我们和网络互动的“终点站”或者“起点站”。
有时候,端系统也被叫做“主机”。原因很简单,因为这些设备上会运行各种各样的应用程序,比如浏览器、微信、视频网站、邮箱客户端等等。我们在这本书里,“主机”和“端系统”这两个词其实是一个意思,大家可以互换着理解。
主机还可以分成两种角色:一种是“客户端”,比如我们用来看网页、刷视频、发消息的手机和电脑;另一种是“服务器”,它们通常是性能更强的机器,专门用来存储网页、视频、邮件等内容,然后把这些内容分发给全世界的用户。 现在,很多大型互联网公司的服务器都集中放在巨大的数据中心里。比如,谷歌在全球各地建了很多数据中心,每个里面都有成千上万台服务器,日夜不停地为我们提供搜索、邮箱、视频等服务。你在网上查资料、看视频,其实背后都是这些数据中心里的服务器在默默工作。
像谷歌、微软、腾讯、阿里巴巴这些大公司,都有自己的巨型数据中心。每个数据中心里,成千上万台电脑(我们叫主机)整齐地排在一排排机架上,就像一盒盒披萨叠在货架上。这些主机通过各种网线和交换机连成一张大网,既能互相沟通,也能和外面的互联网打成一片。
数据中心到底是干嘛的?我们拿阿里巴巴举个例子。首先,大家在淘宝网站上买东西、看商品详情,这些页面其实都是数据中心里的主机在背后默默生成出来的。其次,阿里巴巴还会用这些主机来处理各种复杂的数据任务,比如分析大家喜欢买什么、怎么推荐商品等等。 最后,阿里巴巴还把自己的数据中心“出租”给别的公司用,这就是大家常听说的“云计算”。很多创业公司其实根本没有自己的服务器房,他们直接把网站和服务都放在阿里云的云上。
简单来说,数据中心里的主机就是互联网的“搬运工”和“大脑”。它们负责存储网页、视频、邮件、文档,还能一起完成超级复杂的计算任务。 主机一般长得像扁扁的盒子(我们叫刀片服务器),一台机架上能插二三十台,机架和机架之间再用高速网络连起来。

在前面我们已经介绍了“网络边缘”及其相关的应用和端系统,接下来我们将更为系统地探讨“接入网络”的概念。所谓接入网络,指的是将终端设备(如个人电脑、智能手机、平板等)与全球互联网主干网连接起来的本地网络基础设施。 可以将其理解为一条信息高速公路的入口,所有来自家庭、企业或移动用户的数据信息,必须首先通过接入网络,才能进入更广阔的互联网空间。
在实际部署中,端系统首先连接到本地的网络接入设备,最常见的是“边缘路由器”。边缘路由器承担着数据分发和路径选择的关键任务,确保每一份数据都能被高效、准确地转发到互联网的核心部分。 根据不同的应用场景(如家庭宽带、企业专线、移动蜂窝网络等),接入网络的实现方式和技术标准也各不相同。后续我们将结合示意图,详细解析各种主流的接入网络架构及其工作原理。
截止2020年,中国家庭宽带普及率已超过90%,互联网接入已成为城市和农村居民生活的基础设施。我们国家家庭宽带接入方式主要包括光纤到户(FTTH)、有线电视宽带(Cable Modem)、数字用户线(DSL)以及近年来兴起的5G固定无线接入等。
目前中国绝大多数城市家庭采用的接入方式是光纤到户(FTTH)。FTTH指的是运营商将光纤直接铺设到每个家庭,极大提升了接入带宽和稳定性。以中国电信、中国联通、中国移动为代表的运营商,普遍采用被动光网络(PON)架构,如GPON、10G-PON等。 典型结构为:运营商机房的光线路终端(OLT)通过主干光纤连接到各小区的分光器(Splitter),分光器再将信号分配到每户的光网络单元(ONU/ONT)。用户家中通常通过无线路由器连接ONU,实现多终端上网。
PON架构下,单纤可支持32~128户共享,典型下行速率为1Gbps~10Gbps,实际分配到每户的带宽根据套餐和用户数动态调整。FTTH具备高带宽、低延迟、抗干扰强等优点,是中国宽带提速降费战略的核心技术。
部分地区,尤其是有线电视网络覆盖较早的城市小区,广电运营商(如中国广电)提供基于有线电视同轴电缆的宽带接入。其原理是利用原有的有线电视网络(HFC混合光纤同轴架构),在小区节点通过光纤与主干网连接,最后一段到用户家中为同轴电缆。
用户需安装专用的有线调制解调器(Cable Modem),通过以太网口连接家用路由器。
有线宽带采用DOCSIS等国际标准,典型下行速率可达100Mbps~1Gbps,但由于同一小区用户共享带宽,实际体验受活跃用户数量影响较大。近年来,随着FTTH普及,有线宽带市场份额逐步下降。
在部分老旧小区或农村地区,仍有部分用户通过DSL(如ADSL、VDSL)接入互联网。DSL利用现有的铜线电话线路,将语音和数据分频传输。用户家中通过分离器(Splitter)将电话信号和数据信号分开,数据信号接入DSL调制解调器,再连接路由器。 DSL下行速率一般为4Mbps~50Mbps,受限于铜线质量和距离,带宽和稳定性不及光纤。
近年来,随着5G网络的快速部署,部分地区开始试点5G固定无线宽带。运营商在小区或乡村部署5G基站,用户家中安装5G CPE(类似路由器的终端),通过5G无线信号接入互联网。 5G固定无线无需布线,部署灵活,适合光纤难以覆盖的偏远地区。当前5G固定无线下行速率可达100Mbps~1Gbps,随着5G网络优化,速率和稳定性将进一步提升。
在当前,中国家庭宽带接入方式正以FTTH为主,辅以有线电视宽带、DSL和5G固定无线等多种技术。
在现代企业、校园以及家庭环境中,局域网(LAN, Local Area Network)是实现端系统与互联网边缘路由器互联的核心基础设施。当前,最主流的局域网接入技术是以太网(Ethernet)。 以太网通常采用双绞铜线作为物理传输介质,终端设备通过网线连接至以太网交换机(Ethernet Switch),而交换机则进一步与上层路由器或骨干网络对接,实现数据的高效转发与汇聚。 以太网技术经过多年发展,速率从早期的10 Mbps、100 Mbps,逐步提升到如今常见的1 Gbps、10 Gbps,甚至更高,能够满足企业级服务器和高性能终端的带宽需求。
随着无线通信技术的进步,无线局域网(WLAN, Wireless LAN)在办公、教育和家庭场景中得到广泛应用。基于IEEE 802.11标准的无线局域网,俗称WiFi,允许用户通过笔记本电脑、智能手机、平板电脑等终端设备,在无需有线连接的情况下接入网络。 无线终端通过无线信号与接入点(AP, Access Point)通信,接入点再通过有线以太网与核心网络互联。WiFi技术目前已实现百兆甚至千兆级的共享带宽,覆盖范围从几米到数十米,广泛部署于写字楼、校园、咖啡厅、机场、家庭等各类场所。
值得注意的是,虽然以太网和WiFi最初主要应用于企业和高校,但随着设备成本的降低和用户需求的提升,这两种技术已成为家庭网络的标配。 典型的家庭网络架构通常包括:一台家庭路由器(集成有线与无线功能),通过宽带接入(如光纤、Cable Modem或DSL)连接至运营商网络;家庭内部的有线PC、智能家电等通过以太网端口接入路由器,无线终端则通过WiFi接入点实现灵活漫游。
我们刚刚已经梳理了互联网常见的接入方式,并提及了它们所依赖的物理传输媒介。比如,HFC混合光纤同轴网络结合了光纤和同轴电缆;DSL和以太网主要依赖铜线;而移动接入网络则利用无线电频谱。接下来,我们将对互联网中主流的物理传输媒介进行系统性介绍。
要理解物理媒介的本质,我们可以从比特的传输过程说起。设想一个比特从源端系统出发,经过多条链路和多个路由器,最终抵达目标端系统。每一段链路都需要通过物理媒介来承载比特的传递。 通常,源端系统先将比特发送到第一个路由器,随后路由器再将比特转发到下一个节点,如此反复,直到比特到达终点。在每一对发送端和接收端之间,比特通过物理媒介以电磁波或光脉冲的形式传播。
物理媒介的类型多样,并且在一条端到端路径上,不同链路可以采用不同的媒介。例如,常见的物理媒介包括双绞铜线、同轴电缆、多模或单模光纤、地面无线电频谱以及卫星无线电频谱。 从传输特性来看,物理媒介可以分为两大类:导引型媒介和非导引型媒介。导引型媒介(如光纤、双绞线、同轴电缆)要求信号沿着固体介质传播;而非导引型媒介(如无线电、卫星链路)则允许信号在空气或太空中自由传播。
在深入分析各种媒介的技术特性之前,我们还需要关注一个实际问题——成本。事实上,物理链路本身(如铜线、光纤等)的材料费用,往往在整个网络建设成本中占比并不高。更为昂贵的是链路的铺设和安装所需的人力成本,这部分开销甚至可能远超材料本身。 因此,许多新建建筑在设计阶段就会预埋多种类型的线缆(如双绞线、光纤、同轴电缆),即便初期只启用其中一种,也为未来升级和扩展预留了空间,从而避免了日后重复施工带来的高昂费用。

双绞铜线是最经济、最常见的导引型传输媒介之一。早在上世纪,城市和乡村的电话网络就大量采用双绞线作为基础设施。比如,很多人小时候家里装座机电话,墙上那根细细的灰色线缆,其实就是典型的双绞铜线。 双绞线由两根绝缘铜线按照螺旋方式绞合在一起,每根线大约1毫米粗,这样的结构可以有效减少外部电磁干扰,提高信号质量。通常,多个这样的线对会被捆扎成一根粗电缆,并加上保护外皮,方便在小区、写字楼、学校等场所统一布线。每一对双绞线就能承担一条独立的通信链路。
在办公楼、校园网和家庭宽带中,非屏蔽双绞线(UTP)是最常见的局域网布线材料。我们常说的“网线”其实就是双绞线的一种。 根据线材的不同类别(比如五类线、六类线、超六类线等),局域网的传输速率可以从10兆比特每秒(Mbps)到10千兆比特每秒(Gbps)不等。实际能达到的速度,还要看线材质量和设备之间的距离。
虽然光纤技术在上世纪八十年代问世后,很多人一度认为双绞线会被淘汰,但事实证明,双绞线依然顽强地活跃在网络建设一线。现在的高品质双绞线,比如六类、超六类线,已经可以在100米以内实现10Gbps的高速传输,成为中国各类高速局域网的主力军。 在家庭宽带接入方面,双绞线同样发挥着重要作用。比如,早期的拨号上网和ADSL宽带,都是利用家里的电话线(其实就是双绞线)来传输数据。 拨号上网时代,最高速率大约56kbps;后来ADSL技术普及,很多家庭宽带可以达到几十兆甚至上百兆的速度,极大提升了上网体验。尤其是在中国广大中小城市和农村,双绞线依然是连接千家万户的重要“信息通道”。
同轴电缆是一种由内导体、绝缘层、外导体(通常为金属编织网)以及外护套同心构成的导引型传输媒介。与双绞线相比,同轴电缆的同心结构和多层屏蔽设计显著提升了抗电磁干扰能力和信号传输速率,因此在数据通信和有线电视(CATV)系统中被广泛应用。
在有线电视和宽带互联网接入场景中,同轴电缆通常与有线调制解调器配合使用。发送端会将数字信号调制到特定的频率带,形成模拟信号,通过同轴电缆传输到多个接收端。这样一来,单根同轴电缆就能承载多路信号,实现多用户共享带宽。每个终端系统都可以直接接入同一根电缆,接收属于自己的数据流。
同轴电缆不仅支持高达数百兆比特每秒(Mbps)的数据速率,还能在较长距离内保持信号质量,适合用于楼宇、社区乃至城域网的主干线路。其高带宽和良好的抗干扰性能,使其在现代家庭宽带和有线电视网络中依然占据重要地位。
光纤是一种非常先进的导引型传输媒介,看起来像一根细细的透明丝线,但它能用光脉冲传递海量数据。光纤的传输速率极高,单根就能轻松达到数十甚至上百Gbps,而且抗干扰能力极强,信号衰减很低,适合远距离、大容量的数据传输。
我们身边的宽带升级、数据中心建设、5G基站回传,背后都离不开光纤的支持。 虽然光纤铺设和相关设备的成本较高,导致在一些偏远地区普及较慢,但随着技术进步,成本逐步下降,未来光纤会覆盖更多地方。凭借超高带宽、低延迟和高安全性,光纤已经成为现代信息社会的“信息高速公路”。
地面无线电通道是指利用电磁频谱在空间中传递信号的物理媒介。与有线传输方式相比,无线电通道无需铺设实体线缆,能够实现信号的自由传播,具备穿透障碍物、支持用户移动性以及覆盖广泛区域的能力,因此在现代通信网络中具有不可替代的重要地位。
无线电通道的性能受多种物理因素影响,主要包括传播环境和传输距离。具体来说,信号在传播过程中会受到路径损耗(即信号强度随距离增加而衰减)、阴影衰落(信号被建筑物、树木等障碍物遮挡导致的强度波动)、多径衰落(信号在遇到障碍物时发生反射、折射,导致同一信号以不同路径、不同时间到达接收端, 从而产生干扰)以及外部电磁干扰等多重影响。这些因素共同决定了无线电通道的信号质量和可用带宽。
根据应用场景和覆盖范围,地面无线电通道通常可以分为三类:第一类是超短距离无线通道,典型应用如蓝牙耳机、无线键盘、医疗监测设备等,传输距离一般在几米以内;第二类是局域无线通道,主要用于无线局域网(如WiFi),覆盖范围从十几米到几百米不等,适合家庭、办公室、校园等场所;第三类是广域无线通道,能够实现数十公里甚至更远距离的信号传输,常见于蜂窝移动通信基站、无线城域网等系统。
无线电通道的灵活性和可扩展性,使其成为支撑移动互联网、物联网和智能终端普及的关键基础设施。
在现代通信网络中,卫星通信是一种重要的物理媒介。它通过在地球轨道上部署卫星,实现地面站点之间的远距离数据传输。卫星通信系统通常由地面站(即地球基站,配备微波发射和接收设备)与轨道卫星共同组成。 地面站将信号通过特定频段发射到卫星,卫星内部的转发器对信号进行放大、再生,并转换到另一个频段后转发回地面,实现信息的中继传输。目前,卫星通信主要采用两类轨道卫星:地球同步轨道卫星(GEO)和低地球轨道卫星(LEO)。

地球同步轨道卫星(GEO)被部署在距离地球表面约36,000公里的赤道上空,其轨道周期与地球自转周期一致,因此在地面观察者看来,卫星始终悬停在同一位置。这种特性便于地面站持续对准卫星进行通信。 GEO卫星链路的典型信号往返时延约为280毫秒,主要由于信号需要跨越极长的距离。尽管存在较高的时延,GEO卫星依然能够提供数百兆比特每秒(Mbps)的带宽,广泛应用于偏远地区、海岛等无法通过有线方式接入互联网的场景。
低地球轨道卫星(LEO)则运行在距离地球表面几百到两千公里的轨道上。LEO卫星绕地球高速运行,无法长时间停留在地面某一固定点上。 为了实现对地面区域的连续覆盖,通常需要部署大量LEO卫星组成星座,并通过卫星间的互联和与地面站的频繁切换,保证通信不中断。 LEO卫星由于距离地面较近,信号传播时延显著低于GEO卫星,且链路损耗较小,适合对时延敏感的互联网接入服务。 近年来,随着技术进步,全球范围内多个LEO卫星互联网项目正在加速推进,未来有望为全球更多地区提供高速、低延迟的网络连接。
在了解了互联网的边缘结构之后,我们接下来将视角转向其核心部分。网络核心由大量分组交换设备与高速链路交织构成,形成复杂的网状拓扑,负责高效地转发和调度来自各端系统的数据流。 作为互联网的中枢枢纽,网络核心承担着大规模数据包的高速转发与路由,是保障全球信息高效流通的基础设施。

在计算机网络中,端系统之间通过交换消息实现数据通信。这些消息的内容可以非常丰富,既可能是应用层的控制指令(比如登录请求、握手信号),也可能是实际的数据载体,例如一封电子邮件、一张图片或者一段音频。 为了高效传输,发送端通常会将较大的消息拆分成更小的单元,这些小单元被称为"分组"。 分组在源端和目的端之间的传递,需要经过多条通信链路和分组交换设备(主要包括路由器和链路层交换机)。在每一条链路上传输分组时,速率等同于该链路的最大带宽。 例如,若某条链路的传输速率为R比特每秒,分组长度为L比特,则该分组在该链路上的传输时延为L/R秒。
大多数分组交换机都用"存储转发"机制,简单来说就是:路由器必须把整个分组都收到,才能开始转发。 假设小明用电脑给小红发一个文件,中间要经过一个路由器。
这就是为什么存储转发会增加时延——数据包必须在路由器处“停留”一下。 如果路由器能边收边发,时延就能减半。但实际中,为了保证数据完整性,路由器必须等收完整了才能转发。 假设这个过程要经过3个路由器(也就是4段链路),那么总时延就是:
其中L是分组大小,R是链路速率。
在计算机网络中,分组交换机的工作机制可以类比为一个高效的交通枢纽。每台分组交换设备(如路由器)都连接着多条链路,每条链路的出口处配有输出缓冲区,用于暂时存放即将转发的分组。当某个分组到达交换机后,如果目标链路正忙于传输其他分组,新的分组就必须在输出缓冲区中排队等待。 这一排队过程会引入额外的时延,称为排队延迟。排队延迟的长短取决于当前链路的拥塞程度——当大量分组同时到达并争用同一链路时,缓冲区可能迅速被占满。
一旦输出缓冲区被填满,后续到达的分组将无法进入缓冲区,只能被丢弃,这就是分组丢失。被丢弃的分组可能是刚刚到达的,也可能是已经在排队中的分组。分组丢失会导致上层协议(如TCP)触发重传机制,从而进一步影响网络性能。
举一个更贴近实际网络的例子:假设有两台主机A和B需要通过同一路由器将大量数据发送到目的主机E。路由器有两条出口链路,一条带宽较高(如100 Mbps),另一条带宽较低(如15 Mbps)。
如果短时间内A和B都发送了大量数据到带宽较低的链路,链路很快就会拥塞,分组只能在输出缓冲区中排队。 若排队分组过多,缓冲区溢出,部分分组就会被丢弃。这种现象类似于高峰时段高速公路收费站前的车辆排队,队伍过长时,部分车辆甚至无法进入收费站,被迫掉头离开。
我们前面提到过,路由器收到一个分组后,会把它转发到某条链路上。但路由器怎么知道该把分组发到哪条链路呢?其实,不同类型的网络里,分组转发的方式不太一样。这里我们主要说说互联网是怎么做的。
在互联网里,每台电脑或手机等设备都有一个叫做IP地址的“门牌号”。当A设备要给B设备发分组时,A会在分组的头部写上B的IP地址。这个地址有点像邮寄地址,是分层次的。 分组在网络中传递时,每经过一个路由器,路由器都会看一下分组里的目的IP地址,然后决定下一步该把分组发到哪个方向。具体来说,每个路由器都有一个“转发表”,就像一个查找表,把不同的目的地址(或者地址的一部分)对应到不同的出口。当分组到达路由器时,路由器查表,找到应该走的出口,然后把分组发出去。

其实,这个过程就像我们寄快递。假如小明要把一份包裹从北京寄到广州,他只需要在包裹上写好收件人的详细地址。快递员拿到包裹后,并不会直接送到广州,而是先把包裹送到北京的分拣中心。 分拣中心的工作人员会根据地址,把包裹转发到下一个合适的中转站,比如先发到武汉,再从武汉发到广州。每到一个中转站,工作人员都会根据包裹上的地址,决定下一步该往哪里发。 最终,包裹会被一站一站地转送,直到送到收件人手中。这里每个分拣中心就像一个路由器,负责根据目的地信息,决定包裹的下一跳方向。
我们知道路由器是靠分组里的目的地址查转发表来决定怎么转发分组的。那这些转发表是怎么来的呢?是每台路由器手动设置的吗?其实不是。互联网里有很多专门的“路由协议”,它们能自动帮路由器生成和更新转发表。 比如,路由协议会帮路由器算出到每个目的地的最短路径,然后把这些信息写进转发表里,这样路由器就能自动知道分组该往哪发了。
在网络中传输数据,主要有两种方式:电路交换和分组交换。之前我们讲了分组交换,现在来聊聊电路交换。 电路交换其实很好理解,就像打电话。比如传统的电话网络,就是电路交换的代表。当你打电话时,电话网络会在你和对方之间“专门”开辟一条通路,这条通路上的资源(比如带宽、缓冲区)会被一直保留给你们俩用,直到你们挂断电话为止。 这样一来,你们的通话不会被别人打扰,数据也能稳定地传输。
我们可以把电路交换和分组交换想象成两种不同的高速公路通行方式。电路交换就像是高速公路上的专用车道:你一上高速,工作人员就为你划出一条专属车道,这条车道从起点一直通到终点,别人不能用,无论你开得快还是慢,这条路都只属于你。 分组交换则像普通的高速公路,大家都在同一条路上开车,谁先到收费站谁先通过。如果车多的时候,大家就得排队慢慢挪,但平时路畅通时,大家都能很快到达目的地。
在电路交换的网络里,比如有四台交换机用四条链路连接,每条链路可以同时支持四个"专用通道"。当两台主机要通信时,网络会在它们之间专门分配一条通道,这条通道的带宽就只属于这两台主机,比如每条链路带宽是1 Mbps,分成4份,每个通道就是250 kbps。 只要这两台主机在通信,这250 kbps就一直为它们保留,别人用不了。
而分组交换(比如互联网)就不一样了。数据分组直接发到网络里,大家按需抢用带宽,没有谁能提前“占座”。如果网络里分组太多,链路就会拥堵,数据只能在缓冲区里排队,可能会有延迟。互联网会尽力把数据送到,但不能保证一定不延迟、不丢包。
电路交换主要用两种技术来实现多路复用:
频分多路复用(FDM):把一条链路按频率分成不同的“频道”,每个连接占用一个频道。比如收音机,不同电台用不同频率广播。
时分多路复用(TDM):把时间分成一个个小段,每个连接轮流使用这些时间段。
举个简单的例子:假设一条1 Mbps的链路要支持4个用户同时通信。
电路交换的缺点是资源利用率不高。比如打电话时,对方不说话,你占用的频道也空着,别人用不了。相比之下,分组交换(像互联网)能让大家按需共享资源,效率更高。
我们日常上网时,其实每台终端设备(比如我们的电脑、手机、甚至家里的智能冰箱)都是先通过某个ISP(互联网服务提供商)接入到互联网的。这个ISP可能是电信运营商,也可能是学校、公司,或者小区宽带运营商,无论是用网线、光纤还是无线方式,大家的第一步都是先连到本地的ISP。
不过,光有本地ISP还远远不够。想象一下,全球有几十亿台设备,如果每个ISP只管自己的一亩三分地,那我们怎么能和地球另一端的朋友视频聊天呢?这就需要各地的ISP之间也能互联互通。于是,互联网其实就是“网络的网络”——把无数个小网络通过各种方式串联起来,形成了一个巨大的全球网络。
互联网的结构像一棵大树,最底下是我们接入的本地ISP,往上有区域性的ISP,再往上是全球骨干ISP(有时候叫Tier-1运营商)。这些ISP之间有的像客户和老板那样有上下级关系,有的则像邻居一样平等互联。 为了让数据传得更快、成本更低,很多ISP还会在专门的"互联网交换点"(IXP)直接互连。像谷歌、腾讯这样的大型内容提供商,甚至会自己铺设全球光缆,直接和各级ISP对接,把内容送到离用户最近的地方。
所以说,现代互联网其实是由各种规模、各种层级的ISP和内容提供商共同织成的一张超级大网。它们之间的连接方式千变万化,既有经济利益的考量,也有政策和技术的影响,最终让我们可以随时随地和世界各地的人交流、获取信息。
互联网的结构非常庞大且复杂,各层级ISP之间的连接方式多种多样。这背后既有经济和政策的博弈,也有技术创新的推动,正是这些因素共同构成了我们今天所依赖的互联网基础。
在现代信息社会中,互联网已成为分布式应用的核心承载平台。理想状态下,网络应当能够在任意两个端系统之间,实现数据的实时、高速且无损的传递。 然而,受限于物理定律、工程实现以及经济成本等多重因素,这一理想目标在实际网络环境中难以完全实现。实际上,计算机网络在端系统之间不可避免地引入了带宽(通量)限制、传输延迟,并且存在分组丢失的可能性。
这些性能瓶颈不仅仅源自物理层面的约束,还与网络体系结构、协议机制、资源分配策略等诸多技术细节密切相关。因此,如何科学地分析、度量并优化网络中的延迟、丢包与带宽利用率,成为网络工程领域和学术研究的核心议题。 围绕这些关键问题,业界和学界已经积累了丰富的理论基础和工程实践,相关内容也成为计算机网络课程和前沿研究的重要组成部分。

我们刚才已经讨论过这些问题了,但是这里我们还是需要以系统化的视角,深入探讨和量化计算机网络中的延迟、丢失与通量等核心性能指标,为后续理解网络运行机制与优化方法提供理论基础。
回想一下,分组从源主机(主机)开始,经过一系列路由器,到达另一个主机(目的地)。当分组沿着路径从一个节点(主机或路由器)到下一个节点(主机或路由器)时,分组在路径上的每个节点遭受几种类型的延迟。 最重要的是这些延迟:节点处理延迟、排队延迟、传输延迟和传播延迟;这些延迟累积给出总的节点延迟。 许多互联网应用程序的性能——如搜索、网络浏览、电子邮件、地图、即时消息和IP语音——都极大地受网络延迟影响。为了深入理解分组交换和计算机网络,我们必须理解这些延迟的本质。
在分组的端到端传输路径中,假设某个分组从上游节点经由路由器A转发至路由器B。我们关注的是分组在路由器A处经历的节点延迟。需要指出,路由器A与路由器B之间通过一条出站链路相连,该链路前设有缓冲队列(即缓冲区)。 当分组抵达路由器A时,A会对分组头部进行解析,以判定其应被转发至哪条出站链路,随后将分组送入对应链路的缓冲队列。
在本例中,分组的目标出站链路即为通往路由器B的链路。只有当该链路空闲且缓冲队列中无其他分组排队时,分组才能立即被传输;若链路正忙或队列中已有分组等待,则新到达的分组需在队列中排队,等待前序分组完成传输后方可被处理。
处理延迟主要指路由器在接收到分组后,对分组头部进行解析、查找转发表并决定转发路径所需的时间。此外,处理延迟还包括对分组进行比特级错误检测等必要的处理操作。 通常,在高性能路由器中,这一过程的延迟可控制在微秒甚至更低的水平。完成上述处理后,分组会被送入通往下一个节点(如路由器B)的输出链路队列,等待后续的排队和传输操作。 关于路由器内部的具体处理机制,我们在这门课程的后半部分再详细探讨。
在缓冲队列中,分组会因等待被调度到链路上传输而产生排队延迟。具体某个分组的排队延迟时长,主要取决于其到达时队列中已有多少尚未完成传输的分组。 如果此时队列为空,且链路也处于空闲状态,那么该分组可以直接进入传输阶段,排队延迟为零。反之,若网络负载较高,队列中已堆积了大量待传分组,则新到达分组需在队列中等待更长时间,其排队延迟也会显著增加。 实际上,排队延迟的长短与到达队列的流量强度及其到达模式密切相关。一般来说,排队延迟的数量级通常处于微秒到毫秒之间。
在分组交换网络中,分组通常按照先进先出(FIFO, First-In-First-Out)的原则进行传输。也就是说,只有当前面所有已到达的分组完成传输后,后续分组才能被发送。 设分组长度为L比特,路由器A到路由器B之间链路的传输速率为R比特每秒(bit/s)。例如,若链路为10 Mbps以太网,则R = 10 Mbps;若为100 Mbps以太网,则R = 100 Mbps。 传输延迟(Transmission Delay)定义为将整个分组的所有比特从路由器A推送到链路所需的时间,其计算公式为L/R。实际应用中,传输延迟一般处于微秒到毫秒的数量级。
当一个比特被发送到链路后,它会以一定的物理速度在链路上传播,直到到达下一个节点——比如路由器B。这个比特从链路起点传播到路由器B所需的时间,我们称之为传播延迟。 传播速度主要由链路的物理介质决定,比如光纤、双绞线等,通常在2×10^8米/秒到3×10^8米/秒之间,接近或略低于真空中的光速。
传播延迟的计算方式为:用路由器A到路由器B之间的物理距离d(单位:米),除以链路的传播速度s(单位:米/秒),即传播延迟 = d/s。举例来说,如果A、B两路由器相距3000千米,链路传播速度为2.5×10^8米/秒,则传播延迟约为12毫秒。
需要注意的是,只有当分组的最后一个比特也到达路由器B时,整个分组才算真正到达B节点,随后路由器B才会对该分组进行进一步的处理和转发。 在实际的广域网环境下,传播延迟一般处于毫秒级别,尤其是当节点间距离较远时,这一延迟会更加明显。
到这里你可能很困惑“传输延迟”和“传播延迟”有什么区别。这两个概念很相似,但其实完全不同:
传输延迟:路由器把整个分组“推”到链路上的时间。取决于分组的大小和链路的传输速度,跟距离无关。 传播延迟:分组在链路上“飞”过的距离所需的时间。取决于两个路由器之间的距离,跟分组大小和传输速度无关。
我们用一个最简单的例子来说明这个问题,假设你需要发微信消息给远方的朋友。
总的节点延迟 = 处理延迟 + 排队延迟 + 传输延迟 + 传播延迟
排队延迟是节点延迟中最难以预测、变化最大的部分。它与分组到达队列的速率、链路的传输速率以及分组到达的规律性密切相关。 比如说,如果分组到达很稀疏,队列通常是空的,排队延迟几乎可以忽略;但如果分组大量同时到达,前面的分组会先被传输,后面的分组就只能在队列中等待,排队延迟就会显著增加。
衡量排队延迟时,我们常用“流量强度”这个概念,也就是分组到达速率和链路传输速率的比值。如果流量强度超过1,说明分组到达的速度比链路能处理的还快,队列会不断积压,排队延迟趋近于无穷大。 实际网络设计时,必须保证流量强度不超过1,否则网络就会严重拥堵。
在实际应用中,分组到达往往是随机的,排队延迟也会随之波动。当流量强度接近1时,哪怕只增加一点点流量,排队延迟也会急剧上升。 这种现象就像高峰期的高速公路,车流量一旦超过临界点,堵车和等待时间会成倍增长。因此,合理控制流量强度,是保障网络性能的关键。
在前面的分析中,我们曾假设链路前的队列容量是无限的,实际上,任何实际网络设备的队列空间都是有限的,这一容量受限于路由器的硬件设计和成本投入。由于队列容量有限,当网络流量强度逐渐逼近1时,分组的排队延迟并不会无限增长,而是在队列被填满后,后续到达的分组将无法进入队列,只能被直接丢弃。 这种现象在高流量场景下尤为明显,队列溢出导致分组丢失。
从终端系统的角度来看,分组丢失表现为数据包已经被发送到网络核心,但最终未能到达目标主机。随着流量强度的提升,分组丢失的概率也会随之增加。 因此,在衡量节点性能时,除了关注延迟,还必须重视分组丢失率这一指标。后续我们会进一步探讨,网络协议通常会通过端到端的重传机制来应对分组丢失,确保数据能够可靠地从源头传递到目的地。
到现在为止,我们一直在聊“节点延迟”,也就是每经过一个路由器要花多少时间。那如果我们想知道一条消息从源头主机一路传到目的主机,总共要花多少时间呢?咱们可以把这条路上所有的延迟都加起来。
想象一下,源主机和目的主机之间有 个路由器。我们先假设网络很空,不堵车(也就是排队延迟可以忽略不计)。每个路由器和主机处理一个分组需要的时间叫 ,每个路由器和主机的传输速率是 比特每秒,每段链路的传播延迟是 。
那么,从头到尾的总延迟(也叫端到端延迟)怎么算呢?其实很简单,就是每一跳的延迟都加起来。每一跳都包括处理延迟、传输延迟和传播延迟。假如一共有 个节点(包括源主机、目的主机和中间的路由器),那么总延迟就是:
这里, 是传输延迟,也就是把整个分组“推出去”需要的时间。它的计算公式是:
其中 是分组的大小(比特), 是传输速率。
其实,这个公式就是把每一跳的所有延迟都加起来,得到一条消息从头到尾的总耗时。之前我们只考虑了传输延迟,现在把处理延迟和传播延迟也算进来了。如果以后遇到每个节点的延迟不一样,或者排队延迟也要考虑,那就把每一段的具体数值都加进去就行了。
在实际网络运维和性能分析中,评估端到端延迟是非常重要的。为此,业界常用的工具之一是 Traceroute。Traceroute 是一种网络诊断工具,能够在任意一台互联网主机上运行。 其基本原理是:当用户指定目标主机名后,源主机会向目标主机发送一系列特殊构造的数据包。这些数据包在传输过程中会依次经过路径上的各个路由器。每当某个路由器收到特定的数据包时,会向源主机返回一条包含自身标识(如名称和 IP 地址)的响应消息。
具体来说,假设源主机与目标主机之间存在 N-1 个中间路由器。Traceroute 会依次发送 N 个特殊数据包,每个数据包的 TTL(生存时间)值从 1 递增到 N。 第 n 个数据包在到达第 n 个路由器时,由于 TTL 归零被丢弃,路由器会向源主机返回 ICMP 超时报文。最后一个数据包到达目标主机时,目标主机同样会返回响应。 源主机通过记录每个响应的往返时间(RTT),并收集每一跳的路由器信息,从而还原出数据包从源到目的地的完整路径及各跳的延迟情况。 通常,为了提高测量的准确性,Traceroute 会对每一跳重复发送三次数据包,因此总共会发送 3×N 个数据包。关于 Traceroute 的详细协议规范,可参考 RFC 1393。
我们用一个简单的例子来说明。假设你在中国北京访问美国的谷歌服务器,Traceroute 会显示数据包经过的每一步:
|1 gateway.local (192.168.1.1) 2.145 ms 1.892 ms 2.034 ms 2 bj-core-01.chinatelecom.cn (202.106.0.1) 8.765 ms 7.234 ms 9.123 ms 3 sh-router-02.chinatelecom.cn (202.97.12.45) 25.678 ms 26.543 ms 24.987 ms 4 hk-gateway-01.chinatelecom.cn (202.97.8.123) 45.321 ms 44.876 ms 46.543 ms 5 pacific-cable-01.ntt.net (129.250.2.45) 156.789 ms 158.234 ms 157.654 ms 6 us-west-router.level3.net (4.68.63.201) 178.456 ms 176.789 ms 179.123 ms 7 google-edge-01.google.com (8.8.8.8) 185.234 ms 184.567 ms 186.789 ms
在这个跟踪中,数据包总共经过了7个路由器/服务器。从北京出发,经过中国电信的骨干网络,到达香港,再通过太平洋海底光缆进入美国,最后到达谷歌的服务器。 我们可以观察到一些有趣的现象:
bj-core-01.chinatelecom.cn 表示北京核心路由器,pacific-cable-01.ntt.net 表示太平洋光缆节点这个例子清楚地展示了地理距离对网络延迟的影响。北京到香港的延迟大约45ms,而跨越整个太平洋到达美国的延迟需要150-180ms。这种延迟增加主要是由于光信号在长距离光纤中传播需要时间。
在计算机网络中,我们经常会听到“通量”这个词。其实,通量(throughput)就是用来衡量数据传输效率的一个重要指标。简单来说,通量指的是接收方在单位时间内能够收到多少数据,通常用“比特每秒”(bit/s)来表示。 举个例子:假如我们要从A电脑传一个超大的文件到B电脑,整个文件的大小是 比特,传输总共花了 秒。那么,这次传输的平均通量就是
也就是说,平均每秒钟B电脑能收到多少比特。
不同的应用对通量的要求也不一样。比如我们打视频电话、语音聊天时,既希望通量高,还希望延迟低;而像下载电影、传大文件这种场景,大家更关心通量能不能尽量大,越快越好。
那通量到底受什么影响呢?其实,决定通量的关键在于数据传输路径上的“瓶颈链路”。我们可以把整个传输路径想象成一条流水线,流水线中最窄的那一段决定了整体的流速。
假设从服务器到客户端要经过两段链路,第一段速率是 ,第二段速率是 ,那么整个路径的最大通量就是
也就是两段链路中较小的那个速率。如果路径上有 段链路,通量就是
在现实生活中,像骨干网、主干链路的带宽通常很大,反而是我们家里的宽带、公司接入网这些“最后一公里”才是限制通量的主要因素。 还有一种情况也很常见:如果有很多人同时用同一条链路传数据,比如大家都在用同一个WiFi看视频,这时候链路的带宽就要被大家平分,每个人能分到的通量自然就下降了。
所以,通量不仅和链路本身的速率有关,还会受到并发流量的影响。要想准确分析网络通量,除了要看链路速率,还得考虑流量分布、网络拥塞等各种实际因素。
经过前面的探讨,我们可以清晰地认识到,互联网本质上是一个高度复杂且庞大的系统。它由多种应用协议、形态各异的端系统、分组交换设备以及多样化的链路层媒介共同构成。 面对如此复杂的体系结构,我们是否能够对网络架构进行有效的组织,或者至少能够有条理地梳理和分析网络架构的各个层面?

在深入探讨互联网架构的分层思想之前,我们不妨借助现实世界的复杂系统来建立直观理解。以航空运输系统为例,这一系统涵盖了售票、行李托运、登机、飞行、空中交通管制等多个环节,每个环节都承担着特定的职责。 假如我们要系统性地描述航空运输的运作流程,可以将其拆解为一系列有序的步骤:旅客购票、办理行李托运、通过登机口、登机、飞行、降落、提取行李,直至旅客顺利抵达目的地。
在这个过程中,每个环节都可以视为一个“层”,各层之间既相互独立又紧密协作。例如,售票层负责为旅客生成登机资格,行李层则在旅客购票后为其提供行李托运与提取服务,登机口层确保旅客和行李能够顺利登机与下机,飞行层则负责飞机的起降与航线调度。 每一层都在自身职责范围内完成特定任务,同时依赖下层提供的服务,并为上层提供支持。
这种分层设计的最大优势在于模块化和灵活性。只要每一层对外暴露的服务接口保持一致,内部实现方式的变更不会影响到其他层。 例如,登机口的管理流程可以根据实际需求进行优化(比如引入自动登机闸机或调整登机顺序),但只要能够保证旅客和行李能够顺利上下飞机,整个航空系统的其他部分无需做出调整。
同理,计算机网络的分层架构也是基于类似的思想。通过将庞大复杂的网络系统划分为若干功能明确、接口清晰的层次,我们能够更好地分析、设计和优化网络协议与实现细节。 每一层只需专注于自身的功能实现,既简化了系统的整体复杂度,也为后续的技术演进和系统升级提供了基础。
接下来,我们将视角聚焦到网络协议本身。为了让网络协议的设计更加有序、易于管理,网络架构师们通常会将各种协议及其实现所依赖的软硬件,按照功能划分为不同的层级。我们关心的重点,是每一层为其上层所提供的服务,这也被称为“层的服务模型”。 举个例子,第 n 层可能负责实现端到端的可靠消息传递,而它本身则依赖于第 n-1 层提供的基础(可能是不可靠的)传输服务,并在此基础上增加如差错检测、重传等机制,从而实现更高级别的可靠性。
协议的实现方式可以多种多样:有的完全由软件实现(比如 HTTP、SMTP 这类应用层协议,通常运行在终端系统的软件中),有的则依赖硬件(如物理层、数据链路层,往往集成在网卡等硬件设备中),还有一些层次则采用软硬件结合的方式(如网络层,既有软件部分也有硬件加速)。 此外,协议的分层不仅体现在单一设备内部,也分布在整个网络的各个组成部分——无论是终端系统、路由器还是交换机,每个设备中都可能实现了某些层级的协议功能。
分层结构为网络协议的设计和实现带来了显著的理论和工程优势(详见 RFC 3439)。首先,分层让我们能够以结构化的方式分析和讨论系统的各个组成部分,模块化的设计也极大地提升了系统的可维护性和可扩展性。 比如,当我们需要升级某一层的协议时,只要接口保持一致,其他层通常无需做出调整。然而,分层方法也并非没有争议。 一些学者和工程师指出,分层可能导致功能重复,比如在链路层和端到端层都实现了差错恢复机制;还有时某一层的功能实现需要依赖于其他层的信息(如时间戳等),这就违背了层与层之间应有的独立性原则。这些都是在实际网络设计中需要权衡和注意的问题。
在网络体系结构中,不同功能的协议按照层次结构有序排列,整体被称为“协议栈”。互联网协议栈标准地分为五个层级:物理层、链路层、网络层、传输层以及应用层。 所以我们课程内容的编排也基本遵循这一分层结构,从应用层入手,逐步深入到传输层、网络层、链路层,最终到达物理层,实现由上至下的系统性讲解。
应用层是计算机网络体系结构中最顶层的部分,主要负责为用户提供各种网络服务和应用功能。常见的应用层协议包括HTTP(用于Web资源的请求与传输)、SMTP(用于电子邮件的收发)、FTP(实现端系统间的文件传输)等。 此外,像域名系统(DNS)这样的协议,专门负责将用户友好的主机名解析为网络可识别的IP地址,实现名称到地址的映射。
应用层协议通常运行在多个端系统之上,不同主机上的应用程序通过这些协议进行数据交换。每当应用层需要传递数据时,这些数据会被组织成“消息”,并通过下层协议进行传递和处理。
在互联网体系结构中,传输层负责在分布于不同主机的应用进程之间高效、可靠地传递应用层数据。当前互联网主要采用两种传输层协议:传输控制协议(TCP)和用户数据报协议(UDP)。二者均可承载应用层消息,但其服务特性存在显著差异。
TCP协议为应用提供面向连接的、可靠的数据传输服务。它不仅确保应用层消息能够完整、无误地送达目标主机,还具备流量控制机制,动态调整发送方与接收方的数据处理速率,防止因处理能力不匹配导致的数据丢失。 此外,TCP能够将较长的应用层消息拆分为更小的数据段进行传输,并通过拥塞控制算法,根据网络当前的拥塞状况自适应调整发送速率,提升整体网络的稳定性与公平性。
相比之下,UDP协议为应用提供无连接、尽力而为的数据传输服务。UDP不保证数据可靠送达,也不提供流量控制和拥塞控制机制,因而具有实现简单、时延低的特点,适用于对实时性要求高但可容忍部分数据丢失的应用场景。在本课程中,我们将把传输层的数据单元称为“段”。
在互联网体系结构中,网络层的核心职责是实现主机间数据报(Datagram)的转发与路由。具体来说,源主机的传输层(如TCP或UDP)会将待发送的传输层段(Segment) 以及目标主机的网络地址一并交由网络层处理。网络层则负责根据目标地址,将数据报高效、可靠地传递到目标主机的传输层,就像我们把写好收件人地址的信件交给邮局,由邮局负责后续的分发和投递。
互联网的网络层以IP协议(Internet Protocol)为核心。IP协议详细规定了数据报的结构,包括各个字段的含义,以及端系统和路由器在处理这些字段时应遵循的规则。 整个互联网只采用唯一的IP协议,所有具备网络层功能的设备(无论是主机还是路由器)都必须实现并运行IP协议。 此外,网络层还集成了多种路由协议,这些协议负责动态计算数据报从源主机到目标主机的最佳路径。
互联网内部可以根据实际需求部署不同的路由协议,网络管理员有权选择最适合本地网络的协议方案。 尽管网络层涵盖了IP协议和多种路由协议,但在实际工程和学术讨论中,大家通常直接称其为“IP层”,这也体现了IP协议作为互联网粘合剂的核心地位。
在互联网体系结构中,网络层负责将数据报从源主机经由多个路由器转发至目标主机。 实现这一过程时,网络层并不直接控制数据报在物理链路上的传输,而是依赖链路层的支持。 具体来说,每当数据报需要从当前节点(无论是主机还是路由器)转发到下一个节点时,网络层会将数据报交由链路层处理。 链路层负责将数据报封装成帧,并通过物理链路可靠地传送到下一个节点。到达后,链路层再将数据报交还给该节点的网络层,继续后续的转发或处理。
链路层所能提供的服务类型,取决于所采用的具体链路层协议。例如,部分链路层协议能够在单一链路范围内实现可靠的数据传输,确保数据帧从发送节点准确无误地到达接收节点。 需要注意的是,这种“可靠交付”仅限于单条链路,并不同于TCP协议在端到端范围内实现的可靠传输。 常见的链路层协议包括以太网、WiFi,以及有线宽带接入中广泛应用的DOCSIS协议等。
由于一份数据报在从源主机到目标主机的路径上,往往需要经过多条不同类型的链路,因此在不同链路上,数据报可能会被不同的链路层协议处理。 例如,数据报在一段链路上可能采用以太网协议传输,而在另一段链路上则可能使用PPP协议。 网络层在每一跳都会根据当前链路的协议,获得相应的链路层服务。在本课程中,我们将链路层传输的数据单元称为“帧”。
虽然链路层的任务是将整个帧从一个网络元素移动到相邻的网络元素,但物理层的任务是将帧内的单个比特从一个节点移动到下一个节点。 这一层的协议再次是链路相关的,并进一步取决于链路的实际传输媒介(例如,双绞铜线、单模光纤)。 例如,以太网有许多物理层协议:一个用于双绞铜线,另一个用于同轴电缆,另一个用于光纤等等。在每种情况下,比特以不同的方式跨越链路移动。
在计算机网络中,数据从发送端主机的应用层出发,逐层向下经过传输层、网络层、链路层和物理层,每一层都会为数据添加特定的头部信息,实现所谓的“封装”。 数据在网络中传递时,经过路由器和交换机等中间设备,这些设备通常只实现协议栈的底层功能,例如路由器负责物理层到网络层,链路层交换机则只处理物理层和链路层,而主机则实现全部五层。
封装的核心在于,每一层都将上一层的数据作为“有效载荷”,并加上本层的控制信息(头部),形成新的数据单元。例如,应用层消息被传输层封装为段,段再被网络层封装为数据报,最后链路层将数据报封装为帧。这样,数据在网络中传递时,每一层都能根据头部信息完成相应的处理和转发。
我们可以把封装过程比作公司内部寄送文件:员工将文件放入部门信封(传输层),再装进邮政信封(网络层),最后交给快递公司(链路层)投递。 每一层的信封都包含必要的地址和说明,确保文件能准确送达收件人。实际网络中,复杂的消息还可能被拆分成多个段和数据报,接收端需要将它们重新组装还原成原始信息。
协议分层和封装是理解计算机网络架构的核心概念。通过分层,我们可以将复杂的问题分解成可管理的部分,而封装确保了数据的正确传递和处理。
在我们深入学习网络协议和体系结构之前,先对当前常见的网络安全问题进行初步探讨。
在现代网络环境中,终端设备接入互联网的主要目的是实现数据的收发,包括访问社交媒体、检索信息、音视频通信等多种应用。然而,互联网的开放性也为各类恶意软件的传播提供了渠道。恶意软件(Malware)泛指一切旨在破坏、窃取或干扰计算机系统正常运行的有害程序。 一旦设备被恶意软件感染,攻击者可能远程操控受害主机,实施诸如文件删除、敏感信息窃取(如个人身份信息、账号密码、键盘输入记录)等行为,并通过网络将这些数据回传至攻击者控制的服务器。 此外,受感染的主机还可能被纳入大规模的“僵尸网络”(Botnet),成为攻击者发起垃圾邮件传播、分布式拒绝服务(DDoS)攻击等网络犯罪活动的工具。
值得注意的是,当前互联网上大量恶意软件具备自我复制和主动传播能力。一旦某台主机被感染,该恶意软件会自动尝试通过网络渗透其他主机,并在新目标上重复感染过程。 这种自传播机制使得恶意软件能够在短时间内实现大范围扩散,极大地增加了网络安全防护的难度。

在网络安全领域,拒绝服务攻击(Denial of Service, DoS)是一类极具破坏性的威胁。顾名思义,DoS攻击的目标是让网络、主机或关键基础设施无法为正常用户提供服务。 常见的受害对象包括Web服务器、邮件服务器、DNS服务器以及各类企业网络。
从技术角度来看,互联网中的DoS攻击主要可以分为三种类型:
我们来聊聊带宽耗尽型攻击的原理。假设有一台服务器,它的接入带宽是 bps(比特每秒)。如果有攻击者想让这台服务器“瘫痪”,理论上他就需要让流量的总速率接近 ,也就是服务器带宽的极限。可现实中,如果 很大,一个攻击者单凭一己之力很难制造出这么大的流量。 更何况,如果所有的攻击流量都来自同一个地方,网络上的上游路由器很容易发现异常,直接在流量到达服务器之前就把它拦截了。
于是,攻击者们就想了个办法:分布式拒绝服务攻击(Distributed Denial of Service,DDoS)。他们会控制很多台被恶意软件感染的主机(这些主机组成了所谓的“僵尸网络”),让每一台都向目标服务器发起攻击。 这样一来,所有被控制的主机发出的流量加在一起,就能轻松超过服务器的带宽限制。用公式来表示,如果有 台主机,每台主机发送 bps 的流量,总攻击流量就是 。只要 足够大, 就能大于 ,服务器就会被“淹没”了。
现在,DDoS 攻击已经非常普遍,动辄就是成千上万台主机一起“围攻”目标服务器。相比之下,单台主机发起的 DoS 攻击就像是小巫见大巫了。DDoS 攻击不仅威力大,而且因为流量来源分散,更难被检测和防御。
在学习的过程中,我们可以思考这样一个问题:网络架构的设计者们,能不能想出什么办法来防御 DoS 或 DDoS 攻击呢?其实,不同类型的 DoS 攻击需要用不同的策略来防护,这些内容我们会在后续课程里慢慢展开。
在当前的网络环境下,越来越多的用户通过无线终端接入互联网,比如使用WiFi的笔记本电脑、智能手机等移动设备。虽然无线接入极大提升了网络的灵活性和便利性,但也带来了显著的安全隐患。 无线信号在物理空间中传播,任何具备接收能力的设备只要处于信号覆盖范围内,都有可能捕获到正在传输的数据分组。 这些分组中往往包含诸如账号密码、个人身份信息、商业机密、私人通信内容等敏感数据。能够被动监听并记录所有经过分组的设备,被称为“分组嗅探器”。
分组嗅探不仅限于无线网络。在有线网络环境中,尤其是采用广播方式的以太网局域网(LAN),嗅探器同样可以截获网络中传输的广播分组。如果攻击者能够获取到机构的接入路由器或互联网出口链路的控制权,就有可能在这些关键节点部署嗅探器,从而拷贝所有进出该组织的分组,实现对敏感信息的离线分析。
目前,分组嗅探相关的软件工具在互联网上广泛可得,既有开源免费版本,也有商业化产品。许多高校的计算机网络课程中,教师会安排学生通过编写分组嗅探器和应用层数据重组程序,深入理解网络协议的实际运行机制。 比如,业界常用的网络分析工具Wireshark,就是一种功能强大的分组嗅探器。
需要注意的是,分组嗅探器属于被动监听设备——它们不会主动向网络中注入任何分组,因此极难被检测和发现。这意味着,只要我们在无线信道或不安全的有线网络中传输数据,就必须假设有潜在的攻击者正在监听我们的通信。 针对分组嗅探的有效防护手段之一就是加密技术,通过对数据进行加密,即使分组被截获,攻击者也难以还原出有价值的信息。
在当前的互联网架构下,构造并发送带有任意源地址、分组内容和目的地址的数据包其实非常简单。互联网本身并不会主动验证分组的真实性,而是会按照协议将其转发到指定的目的地。 这意味着,攻击者完全可以伪造源地址,将虚假的数据包注入网络。例如,某些互联网路由器在收到带有伪造源地址的数据包时,可能会误以为这些数据包来自合法用户,甚至执行其中包含的恶意指令(比如篡改路由表)。 这种利用虚假源地址进行攻击的行为被称为IP欺骗(IP Spoofing),是网络攻击者伪装身份、实施进一步攻击的重要手段之一。
针对这一安全隐患,业界提出了端点认证(Endpoint Authentication)的需求。端点认证是一种机制,能够帮助我们确认消息的真实来源,确保通信双方的身份可信。 在设计网络协议和应用时,如何实现有效的端点认证,是保障网络安全的核心问题之一。
回顾互联网的早期设计理念,我们会发现,最初的互联网是建立在“开放互信”的基础之上。那时的网络用户数量有限,大家默认彼此信任,网络协议也没有强制性的安全机制。 例如,任何用户都可以直接向其他用户发送数据包,用户身份的验证基本依赖于声明而非严格认证。这种设计极大地促进了互联网的快速发展,但也为后来的安全问题埋下了隐患。
随着互联网的普及和用户数量的激增,网络环境变得日益复杂。如今,网络中的通信双方往往互不信任,用户可能希望匿名交流,或者通过第三方中介(如Web缓存、移动代理等)进行间接通信。 同时,用户对所用硬件、软件甚至传输介质的安全性也无法完全信任。
在这样的背景下,网络安全面临着前所未有的挑战。我们需要防范分组嗅探、身份伪装、中间人攻击、DDoS攻击、恶意软件等多种威胁。 因此我们必须认识到,互信已不再是互联网通信的常态,而是例外。现代计算机网络的安全建设,正是在这种现实需求下不断演进和完善的。
我们刚刚系统性地梳理了计算机网络及互联网的核心技术框架。通过这些内容,大家已经具备了理解现代网络体系结构的基础能力。 如果希望进一步深化对互联网的认知,大家也可以简单的了解一下计算机网络的发展历史。
说到计算机网络的起源,其实故事要从上世纪60年代说起。那时候,大家打电话用的是“电路交换”——也就是每次打电话,电话局都会专门给你和对方拉一条“专线”,这条线只属于你们俩,别人用不了。这种方式很适合打电话聊天,因为大家说话是连续不断的。 可后来,计算机越来越多,大家发现,电脑之间传递数据和打电话完全不一样。比如,我们用电脑发个指令,数据一下子就发过去了,接下来可能很久都没动静。数据流量时多时少,断断续续的。如果还像打电话那样每次都拉一条专线,实在太浪费了。
于是,世界各地的科学家们开始琢磨,有没有更聪明的办法?他们几乎在同一时期想到了“分组交换”这个点子。简单来说,就是把要传输的数据切成一小块一小块的,每一块叫“分组”。这些分组像快递包裹一样,在网络里各走各的路,最后都能送到目的地。这样一来,网络资源就能被大家灵活地共享,效率高多了。 MIT的Kleinrock教授最早用数学方法证明了分组交换的好处。美国的RAND公司、英国的NPL实验室也在研究类似的技术。大家都觉得,这种方式特别适合电脑之间那种“时有时无”的数据传输。
有了理论基础,接下来就是动手实践了。美国国防部的ARPA(高级研究计划局)组织了一批科学家,开始搭建世界上第一个分组交换网络——ARPAnet。1969年9月,加州大学洛杉矶分校(UCLA)建成了第一个节点。 年底前,斯坦福研究院、加州大学圣塔芭芭拉分校和犹他大学也陆续加入,最早的ARPAnet就有了四个节点。说起来挺有意思,UCLA和斯坦福研究院第一次远程登录的时候,系统还崩溃了,这成了互联网历史上的一个小插曲。
到了1972年,ARPAnet已经有大约15个节点了,还在公开场合做了第一次演示。那一年,ARPAnet还诞生了第一个“主机到主机”的通信协议,叫NCP。更有意思的是,Ray Tomlinson发明了世界上第一个电子邮件程序,从此大家可以在网上发邮件了,互联网的应用时代也就此拉开了序幕。
最早的ARPAnet其实就像一个“封闭小圈子”,只有直接连到ARPAnet专用设备(IMP节点)上的用户,才能和圈子里的其他主机通信。到了上世纪70年代初到中期,世界各地陆续冒出了不少各自为政的分组交换网络。 比如,夏威夷大学搞了个ALOHAnet,用微波把岛上的电脑连起来;美国国防部还试验了分组卫星网和分组无线网;BBN公司把ARPAnet的技术商用化,推出了Telenet网络。 法国那边,Louis Pouzin团队设计了Cyclades网络;还有Tymnet、GE信息服务网这些分时网络,以及IBM开发的SNA系统……这些网络各自发展,互不相连。
网络越多,大家越觉得“各玩各的”不行,得想办法让不同的网络能互通。于是,美国国防部(DARPA)出资支持Vinton Cerf和Robert Kahn搞了个“网络互联”项目,这也是“互联网”这个词第一次被正式提出。 目标很简单:让各种各样的网络都能像拼积木一样连起来,彼此通信不再有障碍。
这个阶段最重要的成果,就是TCP协议的诞生。其实最早的TCP和现在的不太一样,刚开始它既负责把数据可靠地从一头送到另一头,还负责分组的转发。 后来大家发现,有些应用(比如语音通话)其实不需要那么严格的可靠性和流量控制,于是TCP和IP分家了,还衍生出了UDP协议。到70年代末,TCP、UDP和IP这三大协议的雏形都已经有了,互联网的技术地基算是打牢了。
除了美国的DARPA项目,世界各地也有不少有意思的创新。比如夏威夷的ALOHAnet,就是最早的分组无线网络之一,能让不同地方的用户通过无线信号共享同一条“广播大路”。 ALOHAnet发明的ALOHA协议,后来还启发了以太网的诞生。Metcalfe和Boggs在设计以太网时,就借鉴了ALOHA的多址接入思想,最终做出了能让多台电脑、打印机和磁盘一起联网的有线共享网络。其实他们最初的目标,就是让办公室里的各种设备都能方便地连在一起,互相通信。
到了1970年代末,ARPAnet上大约有两百台主机连在一起。到了80年代末,能连上公共互联网的主机数量已经飙升到十万台左右。可以说,整个80年代,互联网就像坐上了火箭一样,飞速发展。
其实,80年代互联网的快速扩张,离不开各大高校的努力。那时候,像BITNET这样的网络,把美国东北部的几所大学连起来,大家可以互发邮件、传文件。还有CSNET,专门为那些没法直接接入ARPAnet的大学研究人员提供网络服务。 1986年,美国国家科学基金会(NSF)又搞了个NSFNET,最初骨干网速度只有56kbps,后来到80年代末,主干网速度已经提升到1.5Mbps,成了全国各地大学和研究机构互联的“大动脉”。
与此同时,ARPAnet社区也在不断完善互联网的“底层架构”。1983年1月1日,大家统一切换到TCP/IP协议,彻底告别了老旧的NCP协议。这次切换是互联网历史上的大事件——所有主机都得在这一天完成升级。 到了80年代后期,TCP协议又加上了拥塞控制功能,能更好地应对网络堵车。还有DNS系统也诞生了,让我们可以用像“gaia.cs.umass.edu”这样好记的名字访问网站,而不用死记硬背一长串数字IP地址。
其实,除了美国在搞ARPAnet,法国那边也有自己的“互联网故事”。80年代初,法国政府推出了Minitel项目,目标是让每个家庭都能用上数据网络。Minitel系统包括了基于X.25协议的分组交换网络、各种服务器,还有一种带内置低速调制解调器的便宜终端机。 1984年,法国政府直接给想要的家庭免费发Minitel终端,大家可以查电话本、用电子邮件,甚至还能在线银行、查资料库。到90年代中期,Minitel上已经有两万多种服务,几乎家家户户都在用。其实在美国人还没怎么听说互联网的时候,法国人早就用上了自己的“网络生活”了。
1990年代,互联网像一列高速列车,带着全世界驶入了信息时代的新纪元。这个十年,互联网不再只是科研人员的小圈子,而是逐渐走进了千家万户,成为普通人生活的一部分。
一开始,互联网的“祖师爷”ARPAnet正式谢幕,接力棒交到了NSFNET手里。1991年,NSFNET终于放开了商业用途的限制,互联网不再只是学术和科研的专属,商业公司也能参与进来。 到了1995年,NSFNET也完成了自己的历史使命,互联网的主干网络正式交给了各大商业运营商。可以说,这一刻,互联网真正开始商业化,成为全球信息高速公路。
说到90年代最让人激动的事情,非“万维网”(Web)的诞生莫属。Web的出现,就像给互联网插上了翅膀。以前上网主要靠命令行,操作复杂,普通人根本玩不转。Web让大家只要点点鼠标、看看网页,信息世界的大门就敞开了。 Tim Berners-Lee在欧洲核子研究中心(CERN)发明了Web,顺带还搞出了HTML、HTTP、Web服务器和浏览器这些“法宝”。 1993年,带有图形界面的Mosaic浏览器横空出世,后来又有了Netscape浏览器。到了1995年,大学生们已经习惯每天用Netscape上网冲浪了。各大公司也纷纷上线自己的网站,网上购物、查资料、发邮件,样样都行。 微软也不甘示弱,推出了自己的浏览器,和Netscape展开了一场轰轰烈烈的“浏览器大战”,最后微软凭借Windows系统的优势赢得了胜利。
90年代后半段,互联网像雨后春笋一样爆发式增长。大公司、小公司、创业团队,大家都在琢磨怎么用互联网做点新花样。电子邮件、网页浏览、即时通讯、MP3音乐分享……这些应用成了当时的“杀手级”产品。 比如,Napster让大家可以在网上自由分享音乐,MSN和ICQ让人们随时随地聊天。值得一提的是,电子邮件和Web最早都是科研圈的产物,而即时通讯和MP3分享则是年轻创业者的创新。

在中国,90年代同样是互联网的“元年”。1994年,中国通过一条64K的国际专线正式全功能接入互联网。那时候,上网还得用拨号上网,网速慢得像蜗牛,但大家的热情一点不减。 清华、北大、中科院等高校和科研机构成了最早的“网民”。很快,新浪、搜狐、网易等门户网站相继诞生,成为中国人获取信息、交流思想的新阵地。 1998年,腾讯成立,推出了后来家喻户晓的QQ,开启了中国即时通讯的新时代。到了90年代末,越来越多的中国家庭开始拥有自己的电脑和电话线,互联网逐渐走进了普通人的生活。
当然,互联网的火爆也带来了资本的狂欢。1995年到2001年,互联网公司在美国股市上演了一场“过山车”大戏。许多创业公司还没赚到钱,市值就已经飙到天上去了。2000年互联网泡沫破裂,很多公司一夜之间消失,但也有像微软、思科、雅虎、eBay、谷歌、亚马逊这样的巨头,成为了互联网时代的领军者。
90年代的互联网,既有技术的飞跃,也有商业的狂潮,更有无数普通人第一次触网的好奇和激动。无论是在美国硅谷,还是在中国的中关村,这个时代都孕育了无数改变世界的梦想和故事。
进入21世纪,互联网和智能手机彻底改变了我们的生活。家家户户都能用上高速宽带,无论是光纤、5G还是无线网络,大家随时随地都能上网。正因为有了这些快速的网络,我们才可以在线看电影、视频聊天、刷短视频,甚至在地铁上也能和朋友发消息、抢红包。 手机、平板这些手持设备的普及,让我们和互联网的距离变得前所未有的近。
与此同时,社交网络像雨后春笋一样冒出来。无论是国外的Facebook、Instagram,还是中国的微信、微博,大家都喜欢在网上分享生活、结交朋友。 很多人每天醒来第一件事就是刷社交软件,发照片、聊八卦、看新闻,甚至用社交平台玩游戏、转账、购物,生活几乎离不开这些网络社区。
还有一个变化也很重要,就是“云”服务的兴起。以前公司和学校都得自己买服务器、维护网站,现在只要租用云服务,比如阿里云、亚马逊云、微软云,就能轻松搞定。 大公司像Google、微软还建了自己的全球数据中心,数据传输飞快,感觉就像他们的服务器就在我们身边一样。云计算让大家用网络变得更简单、更高效,推动了无数新应用的诞生。
互联网的发展历程时至今日都充满了创新和变革。从最初的军事研究项目到全球性的信息基础设施,互联网已然经成为现代社会不可或缺的一部分。
我们在这门课的开篇真的是涵盖了大量内容!如果你感到有些不知所措,不要担心。在后续课程中,我们将重新审视在这里讨论过的内容,涵盖它们在更详细的层面上! 此时,我希望你对组成网络的部件有仍在发展的直觉,对网络词汇有仍在发展的掌握,以及对学习更多网络的不断增长的渴望。这是我们剩下的旅程的任务。 我们的旅程将从互联网协议栈的顶部开始,即应用层,并向下进行。