关于负载均衡:常用负载均衡方案概述

需要背景面对大量用户拜访,多任务执行,零碎负载会继续升高,目前共有三类解决方案 硬件降级:CPU降级,多外围,内存裁减,这一类纯正靠资本,降级老本极高软件层面:采纳高效率开发语言,比方C/Go/Rust等底层开发语言,能够编译为操作系统间接执行的二进制文件,不像Java/Python等解释型语言须要装置一个语言解释器,导致内存占用较大(尤其是Java吃内存很重大),同时速度也不快业务拆分与分布式:负载平衡,解决高并发拜访与多任务执行问题,技术难度与硬件老本角度衡量较为平衡负载平衡概述将负载(前端的拜访申请,后盾执行的工作)进行均衡,通过负载平衡算法摊派到多个服务器上进行执行,是解决高性能,单点故障高可用,程度伸缩的终极解决方案 成果 减少吞吐量,解决高并发压力(高性能)提供故障转移,解决单节点故障问题(高可用)通过增加或缩小服务器数量,提供网站程度伸缩性(扩展性)网络入口平安防护,在负载平衡设施上做一些过滤,黑白名单等解决,最大水平上保障集群零碎的安全性负载平衡实现技术负载平衡在OSI网络档次中,层级越低,性能越好,然而技术复杂度也越高 DNS负载平衡(七层负载平衡)最早的负载平衡技术,利用域名解析实现负载平衡,在DNS服务器,配置多个DNS记录,这些记录对应的服务器形成集群,大型网站总是局部应用DNS解析,作为第一级负载平衡 比方在不同网络环境下,ping baidu.com命令执行获取到指标设施的IP是不一样的 长处 简略:负载平衡工作交给DNS服务器解决,不须要专门的服务器保护性能高:能够反对基于地址的域名解析,解析成间隔用户最近的服务器地址,防止长链路网络传输,放慢访问速度毛病 可用性差:新增/批改DNS后,解析工夫较长,域名DNS服务器产生变更后,须要期待本地DNS中域名DNS服务器的TTL缓存生效,本地DNS才会从新发动递归查问,而后全国各地DNS能力同步到最新的域名DNS服务器名称,该过程须要一到两天的工夫扩展性低:DNS负载平衡的控制权在域名商,扩展性无限Nginx HTTP负载平衡(七层负载平衡)能够应用配置实现 依据URL、浏览器类别、语言来决定是否要进行负载平衡 长处 对网络稳定性的依赖十分小承当高负载压力且稳固,在硬件不差的状况下个别能撑持几万次的并发量毛病 仅能反对http、https和Email协定,在适用范围下面较小LVS负载平衡(四层负载平衡)用Linux内核集群实现的一个高性能、高可用的负载平衡服务器,具备很好的可伸缩性,可靠性和可管理性 四层负载平衡服务器在承受到客户端申请后,通过批改数据包的地址信息(IP+端口号)将流量转发到应用服务器 长处 抗负载能力强,在负载平衡软件里的性能最强的,对内存和cpu资源耗费比拟低工作稳固,本身有残缺的双机热备计划,如LVS+Keepalived,然而我的项目施行中用得最多的还是LVS/DR+Keepalived无流量,LVS只散发申请,而流量并不从它自身进来,这点保障了均衡器IO的性能不会收到大流量的影响利用范畴比拟广,工作在OSI4层,所以它简直能够对所有利用做负载平衡,包含http、数据库、在线聊天室等等毛病 软件自身不反对正则表达式解决,不能做动静拆散施行操作简单,技术难度高HAProxy负载平衡(七层/四层负载平衡)收费的负载平衡软件,能够运行于大部分支流的Linux操作系统上,HAProxy提供了四层(TCP)和七层(HTTP)负载平衡能力,具备丰盛的性能 长处 反对TCP协定的负载平衡转发反对Session的放弃,Cookie的疏导,同时反对通过获取指定的url来检测后端服务器的状态反对虚拟主机的反对负载平衡策略十分多毛病 不反对HTTP cache性能重载配置的性能须要重启过程多过程模式反对不够好IP负载平衡(三层负载平衡)负载平衡服务器对外仍然提供一个浮动IP,但集群中不同的机器采纳不同的IP地址,当负载平衡服务器承受到申请之后,依据不同的负载平衡算法,通过IP将申请转发至不同的实在服务器,在网络层通过批改申请指标IP地址进行负载 长处 在内核过程实现数据散发,比在应用层散发性能更好毛病 所有申请响应都须要通过负载平衡服务器,集群最大吞吐量受限于负载平衡服务器网卡带宽链路层负载平衡(二层负载平衡)负载平衡服务器对外仍然提供一个浮动IP,配置实在物理服务器集群所有机器虚构IP和负载平衡服务器IP地址统一,集群中不同的机器采纳雷同IP地址,但机器的MAC地址不一样,当负载平衡服务器承受到申请之后,通过改写报文的指标MAC地址的形式将申请转发到指标机器实现负载平衡,达到不批改数据包的源地址和指标地址,进行数据散发的目标 长处 性能好毛病 配置简单负载平衡算法负载均衡器通过负载平衡算法决定申请转发到哪台设施 轮询Round Robin 程序循环将申请一次程序循环地连贯每个服务器,以轮询的形式顺次申请调度不同的服务器;实现时,个别为服务器带上权重 长处:服务器申请数目雷同;实现简略、高效;易程度扩大 毛病:服务器压力不一样,不适宜服务器配置不同的状况;申请到目标结点的不确定,造成其无奈实用于有写操作的场景 利用场景:数据库或应用服务层中只有读的场景 比率Ratio 给每个服务器调配一个加权值为比例,根椐这个比例,把用户的申请调配到每个服务器 优先权Priority 给所有服务器分组,给每个组定义优先权,当最高优先级中所有服务器呈现故障,将申请送给次优先级的服务器组,这种形式,理论为用户提供一种热备份的形式 起码连贯 将申请调配到连接数起码的服务器 长处:依据服务器以后的申请解决状况,动态分配 毛病:算法实现绝对简单,须要监控服务器申请连接数 最快模式Fastest 传递连贯给那些响应最快的服务器 察看模式Observed 连贯数目和响应工夫这两项的最佳均衡为根据为新的申请抉择服务器 预测模式Predictive 利用收集到的服务器以后的性能指标,进行预测剖析,抉择一台服务器在下一个工夫片内,其性能将达到最佳的服务器相应用户的申请 动静性能调配Dynamic Ratio-APM 依据收集到的应用程序和应用服务器的各项性能参数,动静调整流量调配 动静服务器补充Dynamic Server Act 当主服务器群中因故障导致数量缩小时,动静地将备份服务器补充至主服务器群 服务质量QoS 按不同的优先级对数据流进行调配 服务类型ToS 按不同的服务类型(在 Type of Field 中标识)负载平衡对数据流进行调配 ...

September 11, 2023 · 1 min · jiezi

关于负载均衡:对话火山引擎侯爽字节原生的边缘云

编者按:绝对于集中式的数据中心,建设边缘节点要面临的基础设施更加多样简单,而边缘云承载的业务需要也更加离散,找到一条衰弱可继续的边缘云业务倒退门路将会是个微小挑战。作为火山引擎边缘云负责人,侯爽具体分享了如何利用字节跳动的业务劣势,数据驱动,联结泛滥的合作伙伴实现这个高难度的工作。策动 / LiveVideoStack 对于字节跳动,仿佛任何问题都能够用数据驱动来解决。和侯爽交换后,再次粗浅地感触到这一点。数据驱动不仅能够让好作品中转指标受众,还能让广告主取得更高的ROI。让好作品中转指标受众,对于火山引擎的边缘云业务也十分要害。“咱们有一套十分强的数据模型去驱动基础设施建设。比方,站在抖音业务看,咱们晓得全网散布,晓得哪个中央体验比拟差,哪个中央体验比拟好。咱们晓得从何动手去晋升用户体验,同时兼顾老本”,火山引擎边缘云负责人侯爽通知LiveVideoStack。正是有了弱小的数据模型,边缘云业务能够持重、高效地倒退,防止自觉投入。在字节跳动以视频业务为主线带动下,边缘云业务有了较多教训积攒。但这并不意味着一帆风顺。 1.积攒与翻新火山引擎边缘云的劣势能够总结为几个关键词:规模弹性、边缘云原生、技术创新、内外对立。“火山引擎是从字节跳动成长进去的,很大的一个特点就是能够内外复用,根底技术有很长时间的规模化磨炼,在边缘云侧也是如此”,侯爽示意,字节跳动海量的业务需要,让火山引擎一开始就领有了很高的起步规模。同时,火山引擎在边缘侧采纳云原生的技术计划,开源的云原生生态比较完善,能够解决可观测、可运维、多云交融等问题,这些原本就是构建边缘基础设施的痛点。就这样,字节原生的边缘云基础设施,通过春晚、“618”、“双 11”这样大规模流量洪峰场景的海量验证,这些教训将为火山引擎对外服务客户,提供更好的技术架构与实际案例。 火山引擎边缘云的疾速倒退得益于字节跳动集中而海量的业务需要,但在新场景、新行业仍需冲破。例如边缘云正在向汽车、金融、工业、能源等更多行业浸透,绝对于泛互联网业务而言,既“小”又简单。 “在泛互联网行业,音视频就是刚需,对基础设施降本和利用体验优化的需要都会带来大量的边缘利用。但在其余新兴行业尚处在晚期,尽管咱们在辅助驾驶、工业互联网畛域有了一些落地场景,但还须要缓缓摸索。”侯爽示意。 对于火山引擎边缘云,他有着苏醒的意识,侯爽坦言,如何渗透到更多新的行业,除了 know-how,对新场景、新业务的了解和冲破也是接下来火山引擎要去致力的方向。 2.短期与长期当被问及往年的指标时,侯爽示意,往年的外围是要全面夯实火山引擎边缘云产品与服务体系,做到从1到100的变质,真正让客户感触到火山引擎边缘云的外围价值,以及帮忙客户解决问题,减速企业的倒退与翻新。当然,侯爽和他的团队要做得不仅如此。“海内的潜在市场空间很大,边缘云基础设施和平安产品深度联合,和音视频产品的协同解决方案,帮忙更多客户“走进来”,是下阶段关注的重点。” 而谈到长期趋势,侯爽认为边缘云的将来能够概括为两个外围:更深交融、更广连贯。更深交融,是从纵向的维度看云边端交融,既包含云边端调度的一体化,也蕴含云边缘的数据一体化,还有云边端的运维一体化,云边端的平安一体化。“通过更深层次的交融,利用能力更加充分发挥边缘云的能力”。更广连贯则是从横向维度来看边缘云的倒退,“边缘云的一大个性是广域笼罩,这就意味着,在全世界范畴内,边缘云都须要建设更宽泛的连贯”,真正做到让“连贯与计算无处不在”。 在技术布局上,侯爽则谈到须要构建小型化、轻量化、集成化的技术架构体系,在无限的资源上,以更加灵便的产品解决方案满足各类业务的需要。同时要软硬一体优化,“兴许这是一个较长期的方向”,侯爽示意。 侯爽反复强调火山引擎是个后来者,有肯定劣势,但更多的应该向行业搭档去学习,“在产品技术层面与行业搭档有十分多互通、借鉴和交换。面向未来,大家一起构建有长期竞争力的差异化的解决方案。” 以下为对话侯爽实录:LiveVideoStack:侯爽您好,这应该是 LiveVideoStack 第一次和您进行深刻交换,先和读者介绍一下本人和团队吧。 侯爽:我是 2015 年退出字节跳动,先后负责字节跳动视频中台架构、利用流量架构等业务和团队,现次要负责火山引擎边缘云产品与研发相干工作。咱们团队次要有两个外围职责:首先是服务好外部业务,保障业务体验和服务效率。比方抖音要举办大型线上流动的时候,咱们是不是可能提供稳固牢靠的基础设施服务去承载海量洪峰业务,同时保障最低的老本和最高的效率。咱们的基础设施服务包含终端网络库、交融传输链路、海量边缘节点和数据中心服务。其次,咱们通过火山引擎输入边缘云系列产品与解决方案,To B对于火山引擎来说也还处于晚期阶段。第一,解决产品从无到有的问题,夯实标准化的产品与技术。目前,火山引擎边缘云已初步构建了“All IN ONE 边缘云原生计算平台、寰球一体化的内容散发网络、基于边缘网络原生的全域联网减速解决方案、可信的数字资产治理与智能解析调度体系”为主的四大产品矩阵;第二,构建交融的基础设施解决方案,晋升基础设施的规模弹性,包含推动业务内外对立,加大资源并池规模,以及与搭档供应商一起构建多云交融服务的模式,晋升资源供应效率和弹性;第三,既要看当初,也要看看远期的将来,要关注产品技术的变更、客户需要的演进、行业的疾速倒退。目前,边缘云业务正在从泛互联网行业向工业、能源、金融、汽车等多行业去浸透,那里既有很强的数字化转型的需要,也有全新的技术调整,构建场景化的解决方案也是咱们十分重要的摸索方向。 LiveVideoStack:在字节跳动这样的巨量业务和基础设施条件下,发展边缘云业务有哪些劣势?要面对哪些挑战? 侯爽:火山引擎是从字节跳动成长进去的,很大的一个特点就是能够内外复用,根底技术有很长时间的规模化磨炼,在边缘云侧也是如此。首先,火山引擎边缘云的第一个外围劣势是规模弹性,借助字节跳动海量的业务需要,让咱们在基础设施层面有很高的起步规模,包含全网超过百Tbps带宽、百万异构算力的超大规模弹性资源池以及超低延时1-40ms的业务场景与根底网络全笼罩;第二,边缘云原生。作为后来者,咱们在边缘侧采纳云原生的技术计划,独创小型化、轻量化、集成化的边缘云原生操作系统,构建云网协同、云边协同、边边协同、多云协同能力;第三,面向未来倒退的技术创新,比方 CPU/GPU/ARM All in One 的全新边缘异构计算实例以及交融链路减速、全域组网、边缘平安的寰球边缘一体化网络;第四,内外对立,字节原生。边缘云基础设施产品通过了春晚、“618”、“双 11”这样大规模流量洪峰场景的海量验证,这些教训也帮忙咱们的客户,提供最佳技术架构与实际案例。再说说挑战。首先,咱们要解决脱胎于字节业务的边缘云技术体系向行业标准化产品技术计划演进;第二,面对市场泛滥客户的简单场景需要,如何构建具备更强开放性和兼容性的产品技术生态,是咱们另一个思考的问题;第三,如何渗透到更多新的行业,除了 know-how,对新场景、新业务的了解和冲破也是接下来咱们要去致力的方向。 LiveVideoStack:如何定义边缘云以及它的外围价值? 侯爽:边缘云计算这个概念晚期起源于“把基础设施部署在边缘”,有了靠近二十多年的倒退历史,而就行业利用而言, 大家对边缘云的解读各不相同,次要起因是行业依然在疾速倒退,短少标准化的定义。回到咱们本身,边缘云是云计算的一种状态,云边端的协同会是长期的演进趋势。2022 年火山引擎公布了边缘云系列产品,咱们定义的边缘云是以云原生技术为根底底座,交融了异构算力和边缘网络,构建在大规模边缘基础设施之上的云计算服务,造成了以边缘地位的计算、网络、存储、平安、智能为外围能力的新一代的分布式云解决方案;边缘云作为基础设施服务一个外围价值就是广域笼罩的接入与传输网络。无论是晚期音视频服务,还是云游戏云渲染、主动驾驶等,网络是必须的能力。随同网络的根底需要,会衍生出更多本地化数据计算、存储的需要,还须要配套的平安能力;从长期的趋势看, AI 能力在边缘侧的下沉,也是咱们的重点关注方向。“连贯与计算无处不在”是火山引擎边缘云的Slogan,也是咱们的外围价值主张。当然,作为后来者,咱们须要更多向行业搭档学习,在产品技术层面与行业搭档有十分多互通、借鉴和交换。面向未来,大家一起构建有长期竞争力的差异化的解决方案。” LiveVideoStack:边缘云给C端用户带来的体验晋升或者最间接的感触是什么? 侯爽:字节跳动过来在音视频畛域的积攒比拟多,咱们的音视频产品及解决方案是构建在边缘云基础设施之上,包含根底CDN、点播、直播、RTC等服务,咱们在晚期的工作重点之一就是服务于音视频体验的优化。对于体验的外围包含几局部:第一,超低延时拜访。以抖音为例,用户能够在直播间与主播进行实时直播互动,这两年大火的直播健身、电商平台好物秒杀抢购、春晚、世界杯等大型节日流动互动等等,用户根本感触不到什么时延了;第二,沉迷式体验交互。过来加入明星演唱须要亲临现场前排观看能力取得较好的体验,当初躺在家里的沙发上戴着头显就能沉迷式观看,体验“私人”演唱会;第三,升高应用老本。通过交融架构、自研传输协定、编解码等算法的优化,帮忙用户升高产品应用老本,晋升拜访体验,同时可能缩小基础设施的资源老本耗费。LiveVideoStack:往年的指标是什么?侯爽:往年的外围是要全面夯实火山引擎边缘云产品与服务体系,做到从1到100的变质,全面推向市场,在 ToB 市场造成残缺的边缘云产品和解决方案认知,真正让客户感触到火山引擎边缘云的外围价值,以及帮忙咱们客户解决问题,减速企业的倒退与翻新。同时咱们心愿可能和行业搭档做更多的深度共创和协同,携手把边缘云这个赛道的产品解决方案做得更好,赋能于行业,服务好客户。 LiveVideoStack:可能撑持边缘云商业模式的要害业务场景有哪些?将来看好哪些行业或场景? 侯爽:从商业视角看,业务必定合乎二八法令。以后大部分需要来自音视频大赛道,包含点播、直播、RTC,以及像云游戏等新兴业务,这里既有网络需要,也有算力的需要。长期看还有很多不确定性,这是由边缘云倒退的个性决定的,边缘侧的需要比拟扩散,散布在不同行业,有各自不同的诉求。比方在泛互联网行业,音视频就是刚需,对基础设施降本和利用体验优化的需要都会带来大量的边缘利用。但在其余新兴行业都处在晚期。比方主动驾驶赛道才刚刚开始,尽管有一些利用,但还须要较长的周期能力走向成熟。传统工业行业数字化转型,必定不会那么快,客户线下的数据怎么样和线上的服务去做联合?是不是可能上云?怎么解决数据隔离安全性?推动的周期会十分长,产品解决方案很难实现疾速复制,须要缓缓摸索浸透。更长期来看,除了存量的泛互联网赛道,在汽车、金融、工业、能源等怎么找到更大的突破口,这个问题可能也会随同着咱们将来几年倒退。 LiveVideoStack:包含冲破海内市场? 侯爽:从边缘云的角度看,海内是刚刚开始,须要找到一些确定性的驱动因素来帮忙咱们实现从 0 到 1 的构建,这些因素包含团体本身的需要、ToB 客户的出海衍生需要。海内的潜在市场空间很大,边缘云基础设施和平安产品深度联合,和音视频解决方案的协同解决方案,可能是下阶段关注的重点。当然,海内市场的竞争也会更加激励,怎么联合业务需要和本身外围劣势,找到海内业务倒退切实可行的施行门路,这会是在海内摸索的关键点。 LiveVideoStack:海内会抉择哪些地区冲破? 侯爽:短期聚焦在音视频畛域,东南亚能够作为一个切入点,人口、产业倒退阶段在肯定水平上能够施展咱们的劣势。比方,咱们在音视频能力上的积攒,可能帮忙客户在东南亚晋升商业化的效率,晋升用户的体验。 LiveVideoStack:您感觉在边缘云业务上,有没有一些技术能够让老本大幅升高,或者算力暴发,或者在某一方面给用户的体验带来质的变动?如果有的话,这些单点技术是什么? 侯爽:从技术的驱动力的角度可能分层看。底层基础设施,云原生技术可能帮忙咱们疾速构建基础设施产品和解决方案。绝对于传统技术体系,咱们作为后来者能够采纳最新的技术栈,免去了各种技术债的懊恼。云原生的开源生态比较完善,能够无效地解决基础设施的可运维、可观测、多云协同等各类问题,这些原本就是构建边缘基础设施的痛点。另外,边缘云产品面临的外围痛点之一就是资源异构,通用化的产品屏蔽底层的异构,必定是业务的首选;第二,边缘节点的规模小且扩散,在单个节点可能只有几台机器,须要同时解决计算、存储、网络的需要,和集中式的数据中心计划就会有很大的不同,在边缘节点侧,咱们须要构建小型化、轻量化、集成化的架构体系,在无限的资源上,以更加灵便的技术体系满足各类业务的需要;第三,软硬一体协同优化,从边缘云原生的技术体系到边缘节点的定制服务器的协同优化,兴许这是一个较长期的方向。 LiveVideoStack:如何预测异构算力将来在边缘侧的变动?包含 ARM、x86、ASIC 以及越来越多的 GPU? 侯爽:这个问题的外围是要想分明,抉择某个硬件和软件的生态所服务的业务场景是什么。其实,是规模。如果没有规模化的需要,很难谈收益。从集中式的数据中心来看,软硬一体的深度优化曾经十分成熟,包含自研研芯片与服务器、DPU等。在边缘侧,目前业务需要扩散,行业也比拟扩散,很难通过某繁多场景驱动硬件规模化的倒退。过来,云游戏对 ARM 板卡有需要,但规模还没有那么大。即使是同样的云游戏的客户,不同的厂商对硬件抉择也不一样,有些用传统的计算实例,有些用高通的板卡,有些会应用 ARM 服务器实例,但规模都都会有肯定的限度。火山引擎会思考资源的长期使用率,在硬件抉择上会审慎一些。 LiveVideoStack:只管单个边缘节点的投入不大,但须要建设的数量要远远大于数据中心的数量,怎么更迷信的评估和建设边缘节点? 侯爽:基础设施的建设须要迷信谨严的ROI评估体系,要害要有数据撑持,这就与整个业务是非亲非故。数据中心承载的是算力存储密集型的业务,能够规模化的集中建设。而边缘侧有两个不同:首先,是业务利用特点的需要。以音视频散发为例,如果所有用户都连到数据中心,物理传输链路就十分长,无论传输算法优化、智能调度优化都不可能冲破物理链路的极限。所以,咱们就须要建设更广覆盖和更广散布的边缘节点;接下来,怎么样去建设?这会波及到业务需要、资源布局、物理选点、商务单干等方方面面。咱们有一套十分强的数据模型去驱动基础设施建设。以抖音业务为例,咱们晓得在兼顾老本的大背景下,如何去优化晋升用户体验。通过全网散布和用户体验反馈,晓得哪个中央体验好,哪个中央体验待晋升。比方,要在晋升某个地区体验,兴许咱们就须要有指标的加大本地服务节点的笼罩;第三,面向长期的前置投资。比方数据安全、算力下沉等需要。须要咱们做好调研剖析和预判,做到有节奏的策略投入。 LiveVideoStack:在您的察看中,将来几年边缘云会有怎么的倒退? 侯爽:边缘云的将来能够概括为两个外围:更深交融、更广连贯,这别离是从两个维度对边缘云倒退的思考。更深交融,是从纵向的维度,看边缘云的云边端交融,边缘云势必要在云边端的联动上更加严密。这包含,云边端调度的一体化,对云上资源、边上资源、端上资源的整体调度,蕴含云边缘的数据一体化,数据在端的采集,边和云的解决,提供一体化计划。还有云边端的运维一体化,云边端的平安一体化。通过这些更深层次的交融,利用能力更加充分发挥边缘云的能力;第二个发展趋势呢,是从横向维度来看边缘云的倒退,边缘云的一大个性是广域笼罩,这就意味着,在全世界范畴内,边缘云都须要建设更宽泛的连贯,从而助力企业的寰球数字化转型。将来,火山引擎边缘云将通过当先、可信赖的云和智能技术,帮忙寰球企业降本增效、减速翻新。 ...

August 30, 2023 · 1 min · jiezi

关于负载均衡:四层负载均衡的NAT模型与DR模型推导-京东物流技术团队

导读本文首先讲述四层负载平衡技术的特点,而后通过发问的形式推导出四层负载均衡器的NAT模型和DR模型的工作原理。通过本文能够理解到四层负载平衡的技术特点、NAT模型和DR模型的工作原理、以及NAT模型和DR模型的优缺点。读者能够重点关注NAT模型到DR模型演进的起因(一种技术的诞生必定是为了补救现有技术的有余)。除此之外,读者能够多多关注一些根本的、底层的常识,比方内核空间、用户空间、计算机网络等。 为了叙述不便,文中将“四层负载均衡器” 简称为“FLB” (Four-tier Load Balancer)。 一、FLB在网络中的根本拓扑FLB工作在OSI七层网络参考模型的第四层(传输管制层),FLB上必须具备两个IP地址,VIP和DIP。VIP是裸露给客户端的拜访地址;DIP是FLB的散发IP,将数据包通过DIP所在的网卡发送给后端的实在提供服务的服务器(前面简称“RS”(Real Server)),如下图。 图1 FLB的根本网络拓扑图 其中CIP为客户端的ip,RIP为RS的ip。 二、四层负载平衡技术的特点因为FLB工作在传输管制层,因而它对数据包的解决(转发)总是运行在内核态,不会产生内核态和用户态的切换。 尽管FLB工作在传输管制层,然而它并不会和client进行三次握手,它只是“偷窥”数据包中的ip地址和端口号,而后依据配置的规定进行数据包的转发,速度极快。 三、提出问题在图1中,如果client发送数据包最终达到server1,因为client数据包的目标ip为VIP,当server1收到数据包时,发现数据包的目标ip居然不是本人的ip,那岂不会抛弃数据包? 四、NAT模型NAT(Network Address Translation)模型,针对3中的问题,能够在FLB中减少对客户端的目标地址vip的地址转换,将vip转换成后端某一RS的ip,而后再将数据包发送进来,具体的网络拓扑如图2。 图2 FLB的NAT 模型的根本网络拓扑图 须要留神的是,下面的后端的server的默认网关须要配置成负载平衡服务器的地址。这样server响应的数据包能力回到负载平衡服务器上。 NAT模型的弊病很显著的一点是,在做NAT地址转换时,会耗费负载平衡服务器cpu的算力。大多数状况下,client向server申请的数据报文很小,而server向client响应的数据报文很大,这就是“非对称”的。在通过NAT的形式实现负载平衡时,client申请报文和server返回的数据报文都要通过负载平衡服务器进行网络地址转换,如果申请的并发流量很大,那么大量并发的响应报文返回到FLB时,负载平衡服务器的网络带宽就会成为瓶颈。 五、DR(Direct Route)模型间接路由模式能够解决NAT模型的两个弊病。DR模式不通过NAT地址转换,而是将server端返回的数据包的源ip间接写成VIP发送进来。这其中波及到几个要点: 因为server返回的数据包的源ip要写成vip,而不是rip,那么在server本地须要配置vip。并且这个vip必须是对外暗藏的,也就是说外界(客户端、负载均衡器)不能间接拜访到server中的vip,而是必须拜访负载均衡器裸露的vip。在负载均衡器中,接管到client的数据包的源ip是cip,目标ip是负载均衡器裸露的vip,那么负载均衡器如何能力将该数据包发送给server呢?(因为server的vip是暗藏的,负载平衡服务器只能看到rip)。在DR模式中,是通过MAC地址坑骗的形式来实现。负载平衡服务器接管到client的申请数据包之后,将目标MAC地址替换为后端某一台server1的MAC地址(替换之前,目标MAC地址为负载均衡器的MAC地址),而后将数据包发送进来,进行点到点通信,这样server1就收到了client的数据包。 点对点通信依赖的是MAC地址(数据链路层)。基于上述内容:要实现负载均衡器和后端server点对点通信,因而束缚了:负载平衡服务器的DIP和后端的server必须在同一个机房(局域网)。依据下面的推导,DR模型的根本网络拓扑如图3所示。 图 3 FLB的DR 模型的根本网络拓扑图 在RS中如何配置VIP,如何实现VIP暗藏?且听下回分解:LVS DR模型试验搭建与验证。 作者:京东物流 伍泓全 起源:京东云开发者社区 自猿其说Tech 转载请注明起源

August 28, 2023 · 1 min · jiezi

关于负载均衡:火山引擎云调度GTM同城容灾与异地多活实践

随着企业一直推动数字化过程,高并发业务和海量数据的挑战也随之而来。在现实生活中,除了地震、台风、挖光纤这种小概率事件,还有很多人为造成的高概率数据失落事件,比方人为操作失误、硬件故障、网络攻击等等,故障容灾能力的重要性也因而逐步凸显进去。依据地理位置的不同,灾备计划往往分为同城和异地,明天重点介绍的就是GTM在互联网服务“同城容灾”和“异地多活”场景下的实际利用。 本文带你理解火山引擎边缘云TrafficRoute DNS套件——云调度GTM,它是火山引擎 TrafficRoute 解析调度套件中的全局流量治理服务,基于 DNS 进行流量治理。如果你的业务须要就近接入、负载平衡、流量调度和故障容灾能力,那么火山引擎云调度GTM能够帮忙到你。 云调度GTM对照以下表格,咱们先来了解GTM的根本能力,再看这些能力在实现过程中如何应答不同的调度和故障场景。 互联网服务的“同城容灾”当用户服务部署在同一个区域的多个机房时,如私有云的XX云在华东某个城市蕴含两个可用区机房1/机房2,一旦其中某个机房产生故障,将基于预案进行主动或手动故障转移,确保服务不中断或疾速复原。 同城容灾有以下3种参考模式: 冷备:同区域的2个机房采纳“主-备”模式,即主机房平时承载流量,备机房不承载流量,当主机房故障时,流量迁徙到备机房。该模式部署简略,但有两个毛病:第一是平时状态下的资源节约;第二是主机房故障时,因为平时没有流量,备机房的后端配置、容量、各零碎状态等是否“Ready”是不可知的。 热备:同区域的两个机房采纳“主-备”模式,主机房平时承载次要流量,备机房承载大量流量,这部分流量用来验证备机房的性能是否可用。这个模式解决了故障产生时备机房没有筹备好的问题,但还是无奈解决常态下一半资源的节约和备用机房有可能呈现容量有余的问题。 双活:同区域的两个机房在常态下同时进行工作,当一个机房故障时,流量切换到另一个机房。因为常态下的同时工作,所以不存在是否“Ready”的问题,只须要关注故障时另一个机房是否承载流量即可。这个模式下,同一个区域多个机房也是可行的,冗余会更高,对非故障机房承载故障机房流量时,要保留“残余容量”的要求就更低了,当然多个机房也可能带来数据/配置一致性等问题。实用场景同城容灾实用于间隔较近的场景,包含同城多个机房、几个相邻的自建机房通过流量转发组成“同城/区域”等状况,反对通过主备(冷、热备)、双活(多活)等模式实现同城状况下的容灾,典型例子就是私有云同城外部的若干机房之间的容灾。 注:上述“冷备”,“热备”等名词定义并不谨严,文内只为解释不同模式之间的区别。 参考架构 架构图中,将私有云的Region替换成“同城”,AZ换成一般机房也同样实用。这种状况下,机房入口(例如一个Region)应用一个负载平衡的CNAME标记集群是能够的,同时集群外部,如多个AZ之间也反对流量互相转发,负载平衡层面对用户会屏蔽AZ的细节。 劣势介绍低成本:建设成本低、架构入侵小、适配性强;配置和治理简略;确保多IDC环境下服务不中断或者疾速复原;按需抉择:可依据须要实现“冷备”、“热备” 和 “双活(多活)”;灵便配置:反对健康检查和主动容灾,也反对手动模式和多个预案的配置(联合在多个PoolSet间切换);方便管理:便于进行流量灰度和AB测试、流量机房间迁徙等。 计划实际 互联网服务的“异地多活”在同城容灾的根底上,流量的调度容灾能够扩大到更大的范畴。为了在性能、冗余(数据备份)和容灾上有更多的余地,全国/全球性的互联网服务通常采纳多核心场景,蕴含多云、混合云,这要求咱们不仅要做到同城一个机房/单个AZ故障时的容灾,也要做到多个地区部署服务时,地区级别故障下的异地灾备,确保服务的间断工作。当然,这须要解决多个地区、机房之间的流量平衡问题,确保每个机房的水位平安。这就波及到了异地灾备计划,因为异地的IDC转发延时较同城大,Region间的流量转发通常存在性能、老本等问题,能够通过做异地多活架构来代替流量转发,多个私有云的Region大体属于此类情况。 因为异地多活是一个绝对简单的话题,例如如何保持数据的一致性等,所以咱们更关注从公网流量角度登程,进行容灾“多活”的动作。实用场景机房位于全国/寰球多个地位,须要实现按地区的流量调度/平衡、跨地区的备份和流量灾备。例如,私有云多个区域之间的“多活”,或者间隔较远的几个自建外围机房之间的灾备和服务多活。 参考架构 上图是参考架构示意图,更关注内部流量的容灾计划。机房外部服务有多种抉择,VM、容器、微服务等,而DB、MQ、缓存等的异地容灾也应该独自思考。 劣势介绍部署简略:建设成本低、架构入侵小、适配性强;配置和治理简略;同时具备区域内多个机房(AZ)和跨区域的容灾能力;AZ故障时由LB进行同Region其余AZ转发,能够实现大家常说的“两地三核心”+“同城容灾/异地多活”;多种模式:反对健康检查、主动容灾和手动模式,手动模式便于配置多个供选择的容灾预案;多区可用:实用于多机房、多Region流量平衡、灰度和AB测试;对立治理:可实现多地区、多机房、运营商、IP流量的对立治理和调度。计划实际 写在最初欠缺的灾备计划在保障业务的持续性上不可或缺,火山引擎云调度 GTM基于解析进行流量调度,能够实现流量的就近接入(地理位置/性能)、负载平衡 。GTM借助分布式、多协定健康检查能力来实现故障容灾(Failover),诸如上文说到的“同城容灾”、“异地多活”等场景。此外 GTM 还提供了多云环境下的流量编排、资源粘合能力,可视化的健康检查数据分析、操作日志等性能帮忙排查定位问题,便于日常运维。 以后,TrafficRoute DNS套件下的各个产品,包含云调度 GTM、私网解析PrivateZone、挪动解析HTTPDNS和公共解析PublicDNS,服务了抖音,头条,飞书和火山引擎ALB、CDN、动静减速、存储等各类APP和云产品,具备重要产品稳固服务的能力,在技术、老本、性能和产品成熟度方面领有深厚积攒。 TrafficRoute DNS套件已正式上线火山引擎官网,欢送拜访【火山引擎官网】,理解更多TrafficRoute DNS套件相干信息。 对于火山引擎边缘云:火山引擎边缘云,以云原生技术为根底底座,交融异构算力和边缘网络,构建在大规模边缘基础设施之上的云计算服务,造成以边缘地位的计算、网络、存储、平安、智能为外围能力的新一代分布式云计算解决方案。

August 24, 2023 · 1 min · jiezi

关于负载均衡:信创和安全齐头并进神州云科全国巡展在沪穗成功举办

近日,神州云科全国巡展在广州、上海两地胜利举办。本次巡展以“外围信创·双轨过渡的超高可用架构”为主题,旨在稳步助力企业数字化转型提质增效。神州云科站在利用可持续性倒退和架构策略角度,通过超高可用架构和平安流量编排解决方案并行不悖,与客户独特探讨数字经济时代下信创与平安所面临的新挑战,新机遇。 神州云科全国巡展广州站合影留念 神州云科全国巡展上海站精彩时刻 外围业务向信创环境的过渡 信创未然成为不可逆的趋势,如何牢靠、疾速、灵便的实现外围业务向信创环境的过渡,并且在兼容新老技术和架构的同时保障利用可持续性,成为了各个行业在数字化转型过程中无奈避开的命题。 神州云科副总裁、透明湖云和信创研究院副院长吴静涛示意,“在数字化转型的过程中,企业从传统IT架构向云原生架构过渡,在企业外部造成了云原生、信创和传统IT架构等多元并举的态势。企业实现利用可持续性倒退,须要站在架构的策略高度,通过对立的配置界面、对立的治理平台、对立的大数据采集剖析,以及对立的服务平台等要害因素,来保障企业技术迭代翻新过程中的利用可持续性和技术选型灵活性,尤其是实现外围信创的牢靠过渡。” 为帮忙客户更好地应答数字经济时代对利用可持续性的高要求,实现信创与数字化兼得,神州云科推出了双轨超高可用架构。双轨超高可用架构在双活数据中心的分区调度根底上,减少信创域和非信创域的分域调度,履行信创域与传统域利用全量部署,使双核心经营变为双核心四区域并行运行,互为多活,将传统架构变为分辨别域协同的多活双轨超高可用架构。帮忙客户在新架构下,保障“信创”的同时解决性能瓶颈,晋升稳定性,保障利用可持续性,最终实现信创区域和非信创区域的平滑过渡,实现国产化代替指标。” 在金融信创方面,神州云科自主研发的云科负载平衡管理系统胜利通过了人民银行金融信创生态实验室适配验证,成为国内首家在利用交付测试中通过测试的供应商。 平安流量编排在东吴证券的实际 金融行业是数字化的先锋行业,在数字化转型的过程中,如何做好“平安”与“数字化”的齐头并进也是金融行业的迫切关注点之一。 东吴证券股份有限公司信息技术总部-布局管理部副总监沈嗣贤示意,“金融以用户的财产为服务对象,因而服务内容敏感、服务需要高频、容错率低,一旦呈现问题,就会造成重大的社会影响。而近年来,随着数字化过程的深入,金融服务场景向线上迁徙,线上与线下买通成为大势所趋,金融机构的业务复杂度由此进一步减少。” 为了更好的应答数据安全挑战,满足监管需要,保障利用可持续性,东吴证券采纳神州云科平安流量编排解决方案。将原有串接部署的DDoS、防火墙、WAF、防毒墙、以及旁路的IDS,逻辑旁路部署在平安流量编排设施旁边,使平安能力服务化。 依据源IP、目标IP、协定类型等参数对流量进行分类,为不同类别的流量创立多条散发策略,以及接入链路的加密策略,实现了自定义平安服务链、SSL国密、商密加解密,无需额定减少国密硬件。当入向流量达到流量编排设施处时,判断流量所属类型,依据策略将流量发送至安全设备并由安全设备返回,随后发送至下一安全设备,造成独立的散发门路,防止繁多设施故障对所有危险项的甄别。另外,从新整合设施资源,对安全设备进行池化,容许弹性伸缩,晋升流量解决性能以及设施利用率。 通过以上架构替换,东吴证券解决了串联架构的扩展性问题、加密流量可见性问题以及安全策略无奈适应业务麻利迭代问题,晋升了运维的灵活性,实现了基于服务链的流量调度,保障了网络和平安投资回报最大化。 神州云科技术顾问唐明轩指出,“神州云科平安流量解决方案通过把平安产品池化和旁挂部署,使平安架构变得简略清晰,进而实现安全设备池化部署,弹性扩大并进步可用性,进步攻防反抗能力,实现了平安服务动静编排,安全策略灰度公布,防止误拦挡。”

June 15, 2023 · 1 min · jiezi

关于负载均衡:RALB负载均衡算法的应用-京东云技术团队

一、背景搜寻举荐算法架构为京东团体所有的搜寻举荐业务提供服务,实时返回处理结果给上游。部门各子系统曾经实现了基于CPU的自适应限流,然而Client端对Server端的调用仍然是RR轮询的形式,没有思考上游机器性能差别的状况,无奈最大化利用集群整体CPU,存在着Server端CPU不平衡的问题。 京东广告部门针对其业务场景研发的负载平衡办法很有借鉴意义,他们提出的RALB(Remote Aware Load Balance)算法可能晋升上游服务集群机器CPU资源效率,防止CPU短板效应,让性能好的机器可能解决更多的流量。咱们将其核心思想利用到咱们的零碎中,取得了不错的收益。 本文的构造如下: 1.RALB简介 ◦简略介绍了算法的原理。 2.性能验证 ◦将RALB负载平衡技术利用到搜寻举荐架构零碎中,进行性能上的验证。 3.吞吐测试 ◦次要将RALB和RR两种负载平衡技术做比照。验证了在集群不限流和齐全限流的状况下,两者的吞吐没有显著差别。在RR局部限流的状况下,两者吞吐存在着差别,并且存在着最大的吞吐差别点。对于RALB来说,Server端不限流到全限流是一个转折点,简直没有局部限流的状况。 4.边界测试 ◦通过模仿各种边界条件,对系统进行测试,验证了RALB的稳定性和可靠性。 5.性能上线 ◦在所有Server端集群全面开启RALB负载平衡模式。能够看出,上线前后,Server端的QPS逐步呈现分层,Server端的CPU逐步趋于对立。 二、RALB 简介RALB是一种以CPU平衡为指标的高性能负载平衡算法。 2.1 算法指标1.调节Server端的CPU使用率,使得各节点之间CPU绝对平衡,防止CPU使用率过高触发集群限流 2.QPS与CPU使用率成线性关系,调节QPS能实现CPU使用率平衡的指标 2.2 算法原理2.2.1 算法步骤1.调配流量的时候,依照权重调配(带权重的随机算法,wr) 2.收集CPU使用率:Server端通过RPC反馈CPU使用率(均匀1s)给Client端 3.调权:定时(每3s)依据集群及各节点上的CPU使用率(窗口内均值)调节权重,使各节点CPU平衡 2.2.2 指标依赖编号指标作用起源1IP可用IP列表服务注册发现和故障屏蔽模块进行保护2实时衰弱度IP可用状态实时变动,提供算法的边界条件RPC框架健康检查性能保护3历史衰弱度衰弱度历史值,用于判断ip故障及复原等边界条件指标2的历史值4动静指标(CPU使用率)提供平衡算法的最间接指标根据Server端定时统计,RPC框架通过RPC返回5权重weight实时负载散发根据算法更新2.2.3 调权算法 2.2.4 边界解决边界1:反馈窗口(3s)内,如果上游ip没被拜访到,其CPU均值为0,通过调权算法会认为该节点性能极好,从而调大权重 边界2:网络故障时,RPC框架将故障节点设为不可用,CPU和权重为0;网络复原后,RPC框架将IP设置为可用,然而权重为0的节点分不到流量,从而导致该节点将始终处于不可用状态 解决:权重的更新由定时器触发,记录节点的可用状态,当节点从不可用复原为可用状态时,给定一个低权重,逐渐复原 2.3 落地要害既要快又要稳,在任何状况下都要防止陷入僵局和雪崩,尤其要解决好边界条件 算法要点: 1.公式中各依赖因子的更新放弃独立的含意和更新机制,以保护算法的牢靠和简洁 ◦IP列表的更新由服务注册发现和RPC框架独特保障 ◦RPC更新CPU 2.留神边界值的含意,边界值的含意须要辨别间断值 ◦CPU = 0,示意未知,不示意CPU性能好 ◦w = 0,示意不会被调配流量,只有在不可用的状况下才为0;可用状况下,应该至多有一个较小的值,保障仍能触发RPC,进而能够更新权重 3.算法更新权重,不要依赖RPC触发,而应该定时更新 三、性能验证3.1 压测筹备ModuleIPCPUClient端10.173.102.368Server端11.17.80.238811.18.159.1918 11.17.191.1378 3.2 压测数据指标RR负载平衡RALB负载平衡QPSServer端的QPS平衡从上图能够看出,Server端的QPS呈现分层CPUCPU体现也比拟平均,维持在10%左右,不过相比于RALB,节点间CPU差距大些****Server端CPU体现平均,均维持在10%左右TP99延时稳固,存在一些差别延时稳固,存在些微差别,绝对RR小一些因为机器性能差距不大,所以压测的CPU成果并不显著,为了使CPU成果更显著,给节点”11.17.80.238“施加起始的负载(即无流量时,CPU使用率为12.5%) 指标LA负载平衡RR负载平衡RALB负载平衡QPS QPS极不平均,而且流量歪斜重大,会呈现流量全集中在一个节点上的景象 QPS平均QPS呈现显著分层,其中QPS呈现变动,是因为对“权重最大调整比例“进行了两次调整(1.5 → 2.0 → 2.5) 11.17.80.238:125 → 96 → 79 11.18.159.191:238 → 252 → 262 11.17.191.137:239 → 254 → 263CPU CPU不是LA平衡的指标,所以跟QPS趋势统一,全集中单个节点上 CPU呈现显著分层,11.17.80.238的CPU显著高于其余节点 1、刚开始压测,11.17.80.238的CPU高于其余两个节点,因为“权重最大调整比例“为1.5(绝对于base,固定值为10000),达到了调整极限 2、“权重最大调整比例“调整为2.0,节点间的差距变小 3、“权重最大调整比例“调整为2.5,节点间的差距进一步变小TP99 承接流量的节点延时是稳固的,因为存在节点承受的流量很低(简直没有),这些节点的延时看起来稳定就比拟大,不过LA对于延时的成果应该是稳固的,因为大部分申请是以比拟平衡的延时失去解决的。 延时稳固,存在些微差别延时稳固,存在些微差别,绝对RR小一些3.3 压测论断通过压测,RR和LA均存在CPU不平衡的问题,会因为机器资源的性能差别,而导致短板效应,达不到充分利用资源的目标。 ...

June 9, 2023 · 1 min · jiezi

关于负载均衡:金融数字化转型提质增效神州云科全国巡展深圳站成功举办

近日,神州云科全国巡展·金融客户会深圳站胜利举办。本次巡展以金融数字化转型“加速度”为主题,旨在稳步助力金融行业数字化转型提质增效。神州云科站在利用可持续性倒退和架构策略角度,通过超高可用架构和相干产品解决方案,与金融客户独特探讨数字经济时代下的新挑战,新机遇。 神州云科全国巡展·金融客户会深圳站合影留念 超高可用架构,业务可持续性保障金融行业是数字化的先锋行业,在数字中国全速启动的当下,金融数字化更是全社会数字化的连贯者和助推者,如何做好“信创”与“数字化”的齐头并进,也是以后金融行业的迫切关注点。 双轨超高可用架构 为帮忙金融客户更好地应答数字经济时代对可持续性的高要求,实现“信创”与“数字化”齐头并进,神州云科推出了双轨超高可用架构。该架构在双活数据中心的分区调度根底上,减少信创域和非信创域的分域调度,履行信创域与传统域利用全量部署,使双核心经营变为双核心四区域并行运行,互为多活,将“0到1”的单轨建设路线变为分辨别域协同的多活双轨超高可用架构。帮忙客户在新架构下,保障“信创”的同时解决性能瓶颈,晋升稳定性,保障利用可持续性,最终实现信创区域和非信创区域的平滑过渡,实现国产化代替指标。 神州云科副总裁、透明湖云和信创研究院副院长吴静涛做《超高可用架构—业务可持续性的保障》的主题分享。他指出,利用可持续性是数字化时代的关键技术: 一、Gartner公布企业在2023年须要摸索和关注的十大战略性技术趋势,可持续性将贯通2023年的所有战略性技术趋势。 二、IDC在2022年企业业务重点报告中显示,52%的企业把实现业务可持续性作为接下来的工作重点,这意味着实现业务可持续性成为接下来企业工作的重点内容。 三、在新技术的浪潮中,如何在兼容新老技术的同时,保障业务的可持续性,成为各行业面对的全新挑战。 面对上述问题,早在去年12月份神州云科联结艾瑞征询公布的《数字时代利用可持续性架构和验证白皮书》中,具体对利用可持续性架构的设计思维、特色以及验证指标体系进行了具体阐明。通过利用交付畛域的办法、工具、平台等体系建设方面的重要实际指引,促成利用交付畛域规范继续迭代。 五大引擎保障可持续性利用 双轨超高可用架构五大引擎 为满足数据中心双轨建设信创区和非信创区跨域协同,神州云科通过5大引擎实现双区无缝切换,跨域协同。 高可用调度引擎: 助力信创业务验证,消除隐患;动静调整信创业务比例,危险可控;助力信创业务应急逃生:助力古代利用麻利联动。 平安服务编排引擎: 助力实现信创平安架构翻新,进步攻防反抗能力。 自主翻新高可用引擎: 继承业界领导者的利用交付性能,实现无缝配置迁徙,联网协同,智能调度。 古代利用高可用引擎: 确保用户应用纯正可信开源软件,满足古代利用的高牢靠、麻利公布,疾速迭代的需要。 大数据引擎: 提供无探针的采集能力,助力业务可观测性。 云科容翼和云科透明湖信创系列产品 为了更好地适配双轨超高可用架构,神州云科利用交付控制器容翼系列产品和云科透明湖信创系列产品。一方面能够保障信创产品的稳定性,弥合性能与企业应用要求的差距;一方面,当业务面对合规、危险和翻新的挑战时,实现云原生可信开源与跨域协同。此外,神州云科自主研发的云科负载平衡管理系统胜利通过人民银行金融信创生态实验室适配验证,成为国内首家在利用交付测试中通过测试的供应商,标记着神州云科在金融信创畛域的技术实力和业余程度再获权威认可。 本次神州云科全国巡展深圳站通过多层次、多解决方案的组合,在架构层面实现分布式服务和容错逻辑;通过丰盛的产品性能个性和新的验证测试规范,为客户数字化过程中提供利用可持续性保障,并为金融客户夯实信创IT基础设施的“底座”削减助力。 神州云科全国巡展·金融客户会还将在广州、上海等地相继召开,您能够扫描下方二维码获取最新巡展会相干信息,咱们期待着您的光临!

May 26, 2023 · 1 min · jiezi

关于负载均衡:神州云科全国巡展金融客户会北京站成功举办

近日,神州云科全国巡展·金融客户会北京站胜利举办。本次巡展以金融数字化转型“加速度”为主题,旨在稳步助力金融行业数字化转型提质增效。神州云科站在利用可持续性倒退和架构策略角度,通过超高可用架构和相干产品解决方案,与金融客户独特探讨数字经济时代下的新挑战,新机遇。 超高可用架构,业务可持续性保障金融行业是数字化的先锋行业,在数字中国全速启动的当下,金融数字化更是全社会数字化的连贯者和助推者,如何做好“信创”与“数字化”的齐头并进,也是以后金融行业的迫切关注点。 <p align=center>(双轨超高可用架构)</p> 为帮忙金融客户更好地应答数字经济时代对可持续性的高要求,实现“信创”与“数字化”齐头并进,神州云科推出了双轨超高可用架构。该架构在双活数据中心的分区调度根底上,减少信创域和非信创域的分域调度,履行信创域与传统域利用全量部署,使双核心经营变为双核心四区域并行运行,互为多活,将“0到1”的单轨建设路线变为分辨别域协同的多活双轨超高可用架构。帮忙客户在新架构下,保障“信创”的同时解决性能瓶颈,晋升稳定性,保障利用可持续性,最终实现信创区域和非信创区域的平滑过渡,实现国产化代替指标。 五大引擎保障可持续性利用 <p align=center>(双轨超高可用架构五大引擎)</p> 为满足数据中心双轨建设信创区和非信创区跨域协同,神州云科通过5大引擎实现双区无缝切换,跨域协同。 高可用调度引擎: 助力信创业务验证,消除隐患;动静调整信创业务比例,危险可控;助力信创业务应急逃生:助力古代利用麻利联动。 平安服务编排引擎: 助力实现信创平安架构翻新,进步攻防反抗能力。 自主翻新高可用引擎: 继承业界领导者的利用交付性能,实现无缝配置迁徙,联网协同,智能调度。 古代利用高可用引擎: 确保用户应用纯正可信开源软件,满足古代利用的高牢靠、麻利公布,疾速迭代的需要。 大数据引擎: 提供无探针的采集能力,助力业务可观测性。 <p align=center>(云科容翼和云科透明湖信创系列产品)</p> 为了更好的适配双轨超高可用架构,神州云科利用交付控制器容翼系列产品和云科透明湖信创系列产品。一方面能够保障信创产品的稳定性,弥合性能与企业应用要求的差距;一方面,当业务面对合规、危险和翻新的挑战时,实现云原生可信开源与跨域协同。此外,神州云科自主研发的信创产品云科透明湖利用交付控制器胜利通过金融信创生态实验室适配验证,成为国内首家在利用交测试中通过测试的供应商,标记着神州云科在金融信创畛域的技术实力和业余程度再获权威认可。 引领金融信创高质量倒退,利用可持续性是要害 <p align=center>(神州云科副总裁吴静涛)</p> 神州云科副总裁、透明湖云和信创研究院副院长吴静涛做《超高可用自主翻新》的主题分享。他指出,利用可持续性是数字化时代的关键技术: 一、Gartner公布企业在2023年须要摸索和关注的十大战略性技术趋势,可持续性将贯通2023年的所有战略性技术趋势。 二、IDC在2022年企业业务重点报告中显示,52%的企业把实现业务可持续性做为接下来的工作重点,这意味着实现业务可持续性成为接下来企业工作的重点内容。 三、在新技术的浪潮中,如何在兼容新老技术的同时,保障业务的可持续性,成为金融行业面对的全新挑战。 面对上述问题,早在去年12月份神州云科联结艾瑞征询公布的《数字时代利用可持续性架构和验证白皮书》中,具体对利用可持续性架构的设计思维、特色以及验证指标体系进行了具体阐明。通过利用交付畛域的办法、工具、平台等体系建设方面的重要实际指引,促成利用交付畛域规范继续迭代。 容翼平安流量编排解决方案深度解读为了应答传统平安架构带来的各种问题,解决利用安全设备所遇到的 SSL 可视化问题,实现安全设备池化和平安流量的智能调度,容翼通过SSLO将利用安全设备传统的“糖葫芦串”的部署模式,降级为智能可编排的全新平安架构。 <p align=center>(神州云科平安流量编排解决方案)</p> 通过把平安产品池化和旁挂部署,让平安架构变得简略清晰。并且这种古代平安架构提供了三大劣势个性: 降本增效: 安全设备池化部署,弹性扩大并进步可用性。 异构部署: 实现信创平安架构翻新,进步攻防反抗能力。 灰度公布:平安服务动静编排,安全策略灰度公布,防止误拦挡。 神州云科全国巡展北京站精彩时刻 本次神州云科全国巡展北京站通过多层次、多解决方案的组合,在架构层面实现分布式服务和容错逻辑;通过丰盛的产品性能个性和新的验证测试规范,为客户数字化过程中提供利用可持续性保障,并为金融客户夯实信创IT基础设施的“底座”削减助力。

May 26, 2023 · 1 min · jiezi

关于负载均衡:以云原生推动代际跃升2023通明湖论坛云原生分论坛召开

5月12日,由神州数码主办,北京经开区国家信创园、中关村云计算产业联盟协办的2023透明湖论坛-云原生分论坛在京召开 。 本次论坛,以 “抓住云原生时机,推动我国信息基础设施技术代际跃升” 为主题,聚焦以云原生为外围引领的科技反动和产业革命,独特探讨云原生为我国信息基础设施技术倒退提供的新思路和新架构。 北京市经济和信息化局、市委机要局、经开区管委会,以及凋谢原子开源基金会、中关村云计算产业联盟、中国信通院、京东、中移信息、中航机载、建信金科根底技术核心、山石网科、通理智云、中科驭数、青藤云平安等单位的领导以及云原生畛域的专家学者、行业用户和企业家代表缺席论坛。 北京市经济和信息化局党组成员、副局长王磊在致辞中示意,北京市高度重视云计算产业倒退,深刻贯彻数字中国、科技强国等战略部署,围绕国内科技翻新核心、寰球数字经济标杆城市等建设需要,鼎力推动云计算根底建设、交融利用和技术创新,继续增强底层算力撑持,深刻促成多云翻新利用,继续开掘软件信息服务业新增量,筹划布局产业倒退新方向。下一步,北京市将施展在数字经济畛域积攒的技术资源优势,踊跃布局云原生赛道,为我国自主云生态的凋敝倒退奉献“北京力量”。 助力数字技术范式转换,云原生减速行业数字转型随着全面“云”化时代的到来,云原生正在成为新一代数字化的技术基础设施,越来越多的企业正在借助云原生利用架构助力业务的数字化转型。 神州数码技术总监、透明湖云和信创研究院院长李刚以《范式转换与云原生》为题发表演讲,李刚示意,云原生正在解决四个层面的问题,首先是PaaS税,即大规模分布式应用产生的额定负载;第二是数据平台的云原生化,云原生在一直推广的过程中,也为数据平台提供了新的技术倒退路线;第三是以GPT为代表的利用的爆炸式增长,产生了大量的利用须要随时部署;第四,随着大模型技术在广度和深度上一直倒退,对算力的调整和部署也提出了新的要求。面对云原生带来的挑战,李刚以算力重组为例,阐释云原生带来的范式转换。不同于传统算力,通过算力重组后,将业务逻辑、AI、分布式平台的算力从CPU卸载到不同的平台上,消减CPU资源的平台税耗费,同时也提供算力的灵便调度配给,通过充沛整合各类算力资源,实现利用微服务的麻利开发和麻利部署。基于二十多年在“数”、“云”畛域的摸索,神州数码在数云交融的架构下搭建技术体系,撑持基于泛在麻利业务能力的数据资产化将成为实现数字化转型的外围。 在底层的架构方面,数云原生平台突破传统的技术范式,数云交融已成为领有简单零碎体系的全新体系架构,以数据驱动的企业数字化进入数据和常识涌现的新期间。 中航机载零碎共性技术有限公司总经理牟明在《云原生助力机载工业研发翻新》演讲中提到:从十四五开始,数字化转型席卷了各个产业,成为了不可避免的发展趋势。三年前,机载零碎开始了全面数字化实际,对于咱们而言,如何将数字化技术与产业联合落地是一个新挑战。在神州数码的帮忙下,咱们过来一段时间的数字化转型实际获得了肯定成绩。通过三年工夫建设,咱们建设了基于机载工业互联网的简单机载零碎协同研发生态系统,实现了机载工业互联网基础设施建设一期建设,打造了机载研云品牌,机载零碎40多个单位、全国共近百个单位接入,覆盖全国34个城市。面向未来,咱们认为企业一旦上云,再无边界。数字化转型须要摸索业务与数字化技术的最佳联合,通过要害技术创新冲破,通过研制体系统一规划研制过程、管理系统工具零碎、服务资源等,综合利用国内外多方资源,实现弹性资源及服务供应,实现数字化转型的稳步推动。 现场,建信金科、中移信息等企业也在论坛发表主题演讲,分享云原生的行业实际。 构建云化技术底座,云原生利用引擎带动云原生产业整体冲破随着企业对云原生的需要降级,须要一个底层的云原生利用引擎来撑持业务利用的疾速云化革新,此外,传统的技术畛域,如数据库、数据仓库等转变为云服务的形式也须要云原生利用引擎来进行撑持。 神州数码联结北京透明湖信息技术利用翻新核心、中国信通院和通理智云独特公布《云原生利用引擎技术倒退白皮书》,全景描述了云原生技术图谱,从云原生利用引擎的定义、产品状态、行业利用场景及将来趋势等多个维度,深度分析了我国云原生利用引擎技术倒退的现状和将来,解读如何通过利用引擎实现云原生根技术冲破,并驱动云原生产业生态的建设。 中国信息通信研究院云大所云计算部主任马飞指出,“云原生利用引擎和其余云原生技术的互相交融,能够为企业提供松软的云化技术底座,从而实现企业应用的云原生技术升级。” 通理智云总经理吴若松示意: “白皮书一方面为用户把握云原生技术提供了重要参考,一方面为未来云原生技术的倒退指明了方向。同时,云原生技术图谱着重描述了利用引擎作为数据立体,在云原生技术架构中所施展的关键作用。” 为深入数云交融策略,神州数码透明湖云和信创研究院在2023数云原力大会开幕式上公布了神州数码聚焦云原生技术打造的重要成绩,下一代云原生利用引擎 OpenNJet。 OpenNJet利用引擎的技术迭代、翻新倒退、生态凋敝离不开寰球开源创新能力的建设和欠缺。会上,凋谢原子开源基金会联结神州数码就共建OpenNJet生态签订备忘录,冀望在凋谢原子开源基金会架构下,通过代码奉献构建开源社区,会聚开发者和企业用户力量,共创开源生态,助力OpenNJet利用引擎的技术创新和生态建设走向成熟,凋敝倒退。 同时,为被动布局产业倒退过程中的利用引擎关键性技术难题和产业化倒退瓶颈,晋升自主创新能力,在北京市经信局的大力支持和领导下,成立了 “中关村云计算产业联盟・利用引擎专委会” 。专委会由神州数码、中关村云计算产业联盟联结天翼云、通理智云、京东云、腾讯云、百度智能云、华为云、火山引擎、神州信息等单位独特发动。已汇聚云联盟生态头部厂商和行业龙头企业等弱小资源,围绕利用引擎构建底层技术生态联合体,发展利用引擎技术相干的学术交流,设计新一代利用引擎建设门路及部署计划,独特打造利用引擎技术架构。减速利用引擎技术攻关与成绩转化,欠缺利用引擎行业客户场景适配。制订并推动利用引擎技术行业标准和标准,推动和促成我国利用引擎技术冲破、产品翻新、平台建设及商业模式翻新。 畅谈云原生,共谋数字化要推动云原生畛域的疾速倒退,离不开生态搭档的协同倒退,要各展所能能力共赢。在促成数字经济高质量倒退的新形势下,云原生技术如何施展数字技术劣势,赋能数字化基础设施建设并继续深入产业的数字化转型,在圆桌对话环节,信通院云大所、山石网科、通理智云、中科驭数、神州数码信创业务团体、青藤云等云原生领军企业及机构围绕话题开展精彩探讨,并分享本身在云原生畛域的实践经验。 李刚指出,以神州数码与中国电信天翼云的单干为例,在信息技术利用翻新畛域,借助神州数码在硬件制作、利用开发迁徙与革新、适配测试、云平台和利用运维等畛域的深厚技术积攒,单方曾经在多个省份的信息技术利用翻新我的项目中开展单干,为各省客户提供一站式、适应信息技术利用翻新环境的利用迁徙上云解决方案。同时,单方还紧密配合,积极探索在信息技术利用翻新标准化方面的新的单干模式,积极参与相干技术标准和生态建设,推动信息技术利用翻新产业倒退。 通理智云首席运营官、联结创始人吴静涛提出, CNCF主导的云原生产业集群有万亿的规模,咱们心愿将服务网格的数据面整合为利用引擎, 作为云原生自主翻新的突破口, 实现开源代码落地, 开源社区和迭代过程落地的可信开源服务, 帮忙企业在数字时代, 云原生环境中, 实现自主翻新的可继续应用服务。 针对AIGC的呈现对数据中心基础设施的挑战,神州数码信创业务团体研发核心总经理周川认为,AIGC是一种全新的利用,和之前的数据中心所能提供的利用齐全不同。新的利用对数据中心的算力、网络、存储、平安都有新要求,数据中心的架构也会随之呈现变动,从网络侧会要求更大的带宽,更低的提早、无损,计算侧则会要求更高的算力密度。 最初,李刚示意,云原生产业和规模前景微小,而技术的演进和产业的倒退,离不开上下游产业链搭档的共同努力,要独特发力、携手并进,一起建设翻新生态,才可能为产业倒退做出更多的奉献,以云原生推动技术升级,把握新机遇,减速数字化的转型。

May 26, 2023 · 1 min · jiezi

关于负载均衡:全景描绘云原生技术图谱首个云原生应用引擎技术发展白皮书重磅发布

5月12日,由神州数码主办、北京经开区国家信创园、中关村云计算产业联盟协办的2023透明湖论坛-云原生分论坛在京召开。论坛期间,神州数码联结北京透明湖信息技术利用翻新核心、中国信通院和通理智云正式公布了《云原生利用引擎技术倒退白皮书》(以下简称:白皮书),全景描述了云原生技术图谱。白皮书从云原生利用引擎的定义、产品状态、行业利用场景及将来趋势等多个维度,深度分析了我国云原生利用引擎技术倒退的现状和将来,以及解读如何通过利用引擎实现云原生“根”技术上的冲破,并驱动云原生产业生态的建设。 <p align=center>云原生利用引擎技术倒退白皮书&云原生技术图谱公布</p> 以容器、微服务、DevOps等为外围的云原生技术和理念推动着云原生产业生态蓬勃发展。随着企业深刻上云用云,业务利用走向全面云化,企业对云原生的需要降级,须要一个底层的云原生利用引擎来撑持业务利用的疾速云化革新。比方,利用引擎的边车(Sidecar)状态能够在传统利用不做任何革新的状况下,实现上云迁徙;再如,利用引擎作为应用服务器,为业务提供了规范的微服务框架。此外,传统的技术畛域,如数据库、数据仓库等转变为云服务的形式也须要云原生利用引擎来进行撑持。 全景描述云原生技术图谱通过多年的倒退,云原生的理念不断丰富、落地、实际,曾经进入了疾速倒退的期间。云原生技术以其高效稳固、疾速响应的特点驱动引领了企业业务倒退,帮忙企业构建出更加实用于云环境的应用服务。白皮书描述了云原生技术图谱,梳理并全景展现了云原生技术的全貌,一方面为用户把握云原生技术提供了重要参考,一方面为未来云原生技术的倒退指明了方向。同时,云原生技术图谱着重描述了利用引擎作为数据立体,在云原生技术架构中所施展的关键作用。 将来云原生技术架构包含如下四个层面:  撑持立体提供整个云原生利用的基础设施反对,包含物理性的硬件、网络等资源,也包含适应云化动静布局配置的虚拟化技术。同时,根底软件、容器等不可变基础设施也是撑持立体的关键性内容。在撑持立体之上是云化环境的服务网格,它是云原生技术演进的风行架构,实现更多的东西向能力管制。服务网格的实现包含了数据立体和管制立体,前者无论是代理还是应用服务器的状态,都承载了具体的业务流量,而后者负责控制数据立体。治理立体负责云原生利用整体的交付、运维和经营,尤其是联合AI的数据分析,在进步整体的资源利用率、故障诊断、自动化编排调度等方面都施展极为重要的作用。 <p align=center>云原生技术图谱</p> 如上图所示,基于软硬件基础设施的撑持和治理、管制立体对相干资源的治理、优化和管制,云原生利用引擎定位于服务网格内的数据立体,基于数据处理和信息通信等先进技术驱动利用引擎倒退。 <p align=center>中国信通院云大所云计算部主任马飞 </p> 中国信通院云大所云计算部主任马飞指出,“云原生利用引擎和其余云原生技术的互相交融,能够为企业提供松软的云化技术底座,从而实现企业应用的云原生技术升级。” 利用引擎是云原生架构信息流动的“发动机”利用引擎是面向互联网和云原生利用提供的运行时组态服务程序。具备环境感知、安全控制、减速优化等能力,个别出现为Web服务、流媒体服务、代理(Proxy)、利用中间件、API网关、入/进口网关、边车、音讯队列等产品状态。 <p align=center>云原生利用引擎架构</p> 白皮书指出,在云原生架构中,利用引擎除了提供南北向通信网关的性能以外,还提供了服务网格中东西向通信、通明流量劫持、熔断、遥测与故障注入、链路追踪、蓝绿公布等新性能个性,因而利用引擎在云原生架构中施展着更为要害的作用。 <p align=center>神州数码技术总监、透明湖云和信创研究院院长李刚</p> 神州数码技术总监、透明湖云和信创研究院院长李刚示意,“能够预感,云原生将引领数字世界新将来,利用引擎作为实现云原生架构的外围根底技术,将成为云原生架构下信息流动的发动机和控制器,逐渐成为信息技术的翻新核心。” 利用引擎作为云原生环境部署中的根底组件,具备无状态能力、可观测能力、动静配置能力、DevOps集成能力等特色。目前业界支流的云原生利用引擎有NGINX、Envoy、Linkerd、NJet利用引擎等。 <p align=center>通理智云总经理吴若松 </p> 通理智云总经理吴若松在介绍NJet利用引擎时指出,“NJet利用引擎具备高性能、稳固、易扩大的特点。同时,也解决了NGINX长期存在的难于动静配置、治理性能影响业务等问题。” 利用引擎实现云原生“根”技术创新的冲破云原生技术栈曾经倒退较为成熟,其外围畛域曾经造成了对立的事实标准。例如,容器编排畛域的K8s、服务网格畛域的Istio。这些畛域的核心技术次要由国外公司主导,我国起步绝对较晚,技术创新难度大。绝对于这些云原生核心技术畛域,利用引擎畛域的技术路线尚未对立、产品状态多样化。白皮书指出,云原生利用引擎畛域是我国在云原生产业实现减速追赶、弯道超车的重要时机,针对该畛域的空白疾速进行技术冲破具备非常重要的意义。 北京透明湖信息技术利用翻新核心主任曹军威示意,“局部国内企业已有利用引擎开发教训,曾经具备翻新根底。以后国内企业在云原生利用引擎的技术研发上紧跟国内产业发展趋势,曾经具备利用引擎开发能力。” 马飞强调,“云原生产业规模和前景微小,但以容器编排、服务网格、利用引擎为代表的很多技术畛域依然处于窗口期,交融与挑战共存,我国有必要集云原生钻研合力,建设满足信息技术翻新须要的技术架构体系,并布局产业生态。”

May 26, 2023 · 1 min · jiezi

关于负载均衡:如何让服务器性能备而不闲

在现今的企业中,不管是否提供关键性工作的服务,都须要一个低成本且继续运行稳固的高可用性网络计算环境以维持不间断的高品质服务。所谓高可用性的环境,也是信息管理人员所必须思考的四件事: 使数据有一个平安的存储和运作形式,即便在设施故障时仍能保持数据的残缺统一。使服务器零碎继续运行,即便产生故障依然让服务继续上来。如何使投资有最好的效益,使零碎有最佳的裁减能力,有最低的整体领有老本,也就是在任何状况之下均能确保数据的残缺统一,零碎继续运行,使服务不间断,同时有最好的投资回报率。在某数据中心负载平衡我的项目中,随着业务规模不断扩大,其在服务器负载平衡方面也产生了新的需要: 1. 业务可持续性 确保应用服务器高可用,确保业务实时在线,不容许呈现流量暴涨带来的利用零碎过载导致的无法访问或数据中心因天然不可抗因素导致的不可拜访。 2. 服务器性能“备而不闲” 确保业务可持续性的根底上,还要降低成本,不可采纳传统的高老本双机备份形式,须要确保服务器性能“备而不闲”,资源利用最大化。 神州云科服务器负载平衡解决方案 神州云科针对该企业业务需要,联合利用交付畛域的长期积攒,集成服务器健康检查、服务器负载平衡、利用优化、平安防护等先进技术于一体,利用神州云科利用交付控制器设施提供“备而不闲”的解决方案。 <p align=center><img src="https://p3-juejin.byteimg.com/tos-cn-i-k3u1fbpfcp/875a6e04417a4e82b479fba70b85a56a~tplv-k3u1fbpfcp-zoom-1.image" alt="图片" />(云科透明湖利用交付控制器YK-ADC-i2000-H7)</p> 部署两台云科透明湖YK-ADC-i2000-H7利用交付控制器组成服务器负载平衡高可用集群,保障利用交付设施在一台出故障时,仍有一台可失常工作实现流量调度,保障业务稳固运行;云科透明湖内置19种服务器负载平衡算法,能够基于每台服务器可承载能力,正当调配流量,当本地服务器群中的服务器数量不能满足零碎要求时,云科透明湖会利用“动静服务器补充”性能主动调入服务器补充零碎性能。并且即便当所有服务器都不能提供服务时,“Redirect”性能会把用户数据申请转发到“备份”点,满足零碎的可靠性要求,实现服务器性能“备而不闲”和统一的用户体验。云科透明湖利用其独到的、高效的“衰弱检测”伎俩,辨认服务器、利用、内容的状态,进步系统可靠性。 <p align=center>(神州云科负载平衡解决方案)</p> 神州云科服务器负载平衡解决方案劣势在云科透明湖系列利用交付控制器产品的助力下,该公司数据中心服务器在对外来的申请及时响应的根底上充分利用服务器资源,进步了零碎扩容、保护的效率,服务器性能失去最佳施展,整个零碎的性能和稳定性失去了显著的晋升;云科透明湖利用交付控制器内置SmartRules具备弱小的编程性能,能够使该公司灵便地管制利用流量,满足多变的业务需要,保障业务可持续性;同时云科透明湖系列利用交付控制器对所连贯的服务器群数量没有限度,同时对服务器的软、硬件类型也没有任何限度,满足该企业后续扩大需要。

May 26, 2023 · 1 min · jiezi

关于负载均衡:走进上电科共探企业信创选型之路

神州云科与各行业数字化转型领军企业、生态合作伙伴、意见首领星散一堂,分享数字化转型的成功实践。独特访学上海电科智能零碎股份有限公司(以下简称“上电科”),共探企业数字化信创选型之路。 近日,由CIO创享会举办的“创享访学2023——走进上电科”流动胜利举办。该会议以“自主可控,行而不辍”为主题,旨在搭建更好的连贯桥梁,促成各个领域之间的交换和单干,减速数字化转型的过程,以实地考察为主,联合解说和案例剖析,深入探讨作为企业IT 负责人如何依据本身企业需要进行信创选型,交换信创实践经验,以期造成更加严密的单干关系,为数字化转型和衰弱畛域的倒退带来更多的翻新和时机。 在上电科信创部总经理徐新率领下,与会CIO一起参观了上电科科技展示区,加深大家对上电科的理解。徐新发表了《聚焦信创实际,共生共建共享共赢》的主题演讲时示意,上电科作为国内智能零碎行业当先的解决方案提供商和零碎集成商,始终保持“技术先导、产业先导、服务先导”的经营理念,继续发展国内外同行开放性的技术交换与单干,面向战略性新兴产业与传统产业转型降级,已成为产业与技术创新引领者、行业布局与规范制定者、零碎解决方案与产业技术服务最佳提供者及政府与行业企业间的次要纽带与桥梁。 利用可持续性是数字化时代的关键技术 神州云科副总裁、透明湖云和信创研究院副院长吴静涛做《超高可用架构—利用可持续性的保障》的主题分享。他指出,利用可持续性是数字化时代的关键技术: 一、Gartner公布企业在2023年须要摸索和关注的十大战略性技术趋势,可持续性将贯通2023年的所有战略性技术趋势。 二、IDC在2022年企业业务重点报告中显示,52%的企业把实现业务可持续性做为接下来的工作重点,这意味着实现业务可持续性成为接下来企业工作的重点内容。 三、在新技术的浪潮中,如何在兼容新老技术的同时,保障业务的可持续性,成为各行业面对的全新挑战。 面对上述问题,早在去年12月份神州云科联结艾瑞征询公布的《数字时代利用可持续性架构和验证白皮书》中,具体对利用可持续性架构的设计思维、特色以及验证指标体系进行了具体阐明。通过利用交付畛域的办法、工具、平台等体系建设方面的重要实际指引,促成利用交付畛域规范继续迭代。 外围信创双轨过渡的超高可用架构(DTMAA)吴静涛强调,为了实现业务信息技术外围信创建设,企业在构建信创基础设施的过程中,大多采纳单轨架构的形式,但随着企业数字化倒退一直减速,单轨制架构已无奈满足企业的业务翻新需要。神州云科推出的双轨超高可用架构可帮忙客户在保障利用可持续性的同时实现国产化代替指标。 <p align=center>(双轨超高可用架构DTMAA)</p> 在可持续性方面,双轨超高可用架构在双活数据中心的分区调度根底上,减少信创域和非信创域的分域调度,履行信创域与传统域利用全量部署,使双核心经营变为双核心四区域并行运行,互为多活,将“0到1”的单轨建设路线变为分辨别域协同的多活双轨超高可用架构。帮忙客户在新架构下,保障“信创”的同时解决性能瓶颈,晋升稳定性,保障利用可持续性,最终实现信创区域和非信创区域的平滑过渡,实现国产化代替指标。 在跨域协同方面,双轨超高可用架构通过五大引擎实现信创业务验证,消除隐患,助力古代利用麻利联动,进步攻防反抗能力,实现无缝配置迁徙,智能调度,满足古代利用的高牢靠、麻利公布、疾速迭代的需要,助力业务可观测性。 在产品方面,为了更好的适配双轨超高可用架构,神州云科公布了利用交付控制器容翼系列产品和云科透明湖信创系列产品。一方面能够保障信创产品的稳定性,弥合性能与企业应用要求的差距;一方面,当业务面对合规、危险和翻新的挑战时,实现云原生可信开源与跨域协同。 最初,吴静涛示意,历经多年的倒退与积淀,神州云科通过丰盛的产品矩阵,优质的服务体系,联结上下游合作伙伴构建数字化解决方案新生态。将来,神州云科期待与各行业优良达成单干,独特拓展更广大的市场,为各行业客户实现数字化转型奉献生态力量。

May 26, 2023 · 1 min · jiezi

关于负载均衡:单机-T-级流量转发吞吐提升-5-倍可编程负载均衡网关-10-上线

一、背景负载平衡网关是云计算网络的一个要害基础设施,为云计算各利用业务提供高性能的转发性能。 目前云计算网关广泛是基于 X86 CPU + DPDK 通用服务器平台的状态实现。百度智能云自研的 BGW(BaiduGateWay)四层负载平衡网关 2012 年开始应用,从最后的单机 10Gbps 吞吐演进到目前单机 200Gbps,是一种云计算网络中用量最多的网关。 随着百度智能云业务的倒退,对负载平衡网关提出了新的需要与挑战: 单核计算能力受限。为了避免报文乱序,须要同一条业务流调度到同一个网关的同一个 CPU 核上解决。因为 CPU 单核能力已根本进行晋升,因而单流的极限吞吐能力发展缓慢。现在,即便采纳最新的 CPU,单流的理论吞吐能力也仅能做到 10-20Gbps,而这一数据也只是现实状况下的最优后果。 如果两个或更多的大流量被同时调度到同一个 CPU 核上,因为解决能力的限度,那么会因争抢 CPU 引起相互影响而升高业务整体吞吐量;更坏状况下,该 CPU 核上解决的其余流量也会受到影响,可能导致概率性的丢包。 时延不稳固。应用 CPU 软件解决绝对于硬件转发而言,通常有较高的时延。在软件网关上,一个报文的解决流程要通过以下步骤:从网卡接管开始,通过 PCIe 送到 CPU 上的 DPDK 驱动,而后网关软件再做业务逻辑解决,之后提交给 DPDK 驱动,最初通过 PCIe 下发到网卡上再发送进来。 从实测后果来看,以后百度智能云的软件网关在个别负载程度下的报文均匀解决时延通常在 30-50us,转发负载较高时 100us 以上的长尾时延也很常见,极其状况甚至会呈现 ms 级的时延。另外时延稳定和 CPU 缓存的理论命中状况密切相关,难以预期。较大时延稳定尺度对于跨机房或跨地区的通信个别没什么本质影响,然而对于强依赖同机房内低时延的业务来说拜访的影响却较大。 大带宽场景的 TCO(Total Cost of Ownership)较高。只管 CPU 的核数在一直晋升,然而在网关这种重 I/O 吞吐的业务上,软件解决报文的能力并不能随着 CPU 核数线性晋升。例如,应用 64 物理核的 AMD Milan 服务器上运行 BGW,当 32 核以上减少 CPU 核数,对整体吞吐则没有显著的减少。这一景象和以后 CPU 的微架构(尤其是 L3 缓存)强相干。 ...

May 23, 2023 · 2 min · jiezi

关于负载均衡:mosn基于延迟负载均衡算法-走得更快期待走得更稳-京东云技术团队

前言这篇文章次要是介绍mosn在v1.5.0中新引入的基于提早的负载平衡算法。 对分布式系统中提早呈现的起因进行分析介绍mosn都通过哪些办法来升高提早构建来与生产环境性能散布相近的测试用例来对算法进行验证地址: https://github.com/mosn/mosn/pull/2253 在开始聊基于提早的负载平衡算法之前,先介绍下什么是负载平衡—— 什么是负载平衡Wikipedia中Load Balancing (Computing)词条是这样介绍负载平衡的: 负载平衡是将一组任务分配到一组资源(计算单元)上的过程,目标是使它们的整体解决更有效率。负载平衡能够优化响应工夫,防止负载不平均导致一些计算节点过载而其余计算节点处于闲暇状态负载平衡在大型分布式系统中是要害的组成部分。负载平衡解决了分布式系统中最重要的两个问题:可伸缩性(scalability)和韧性(resilience)。 可伸缩性:应用程序部署在多个雷同的正本中。当计算资源有余时能够通过部署额定的副原本减少计算资源,而当计算资源大量冗余时能够通过缩小副原本节省成本。通过负载平衡能够将申请负载散布到不同的正本中。韧性:分布式系统的故障是局部的。应用程序通过冗余正本的形式,保障在局部组件故障时仍能失常地提供服务。负载平衡通过感知节点的故障,调整流量的调配,将流量更多的调配到那些可能失常提供服务的节点上。走得更快负载平衡使得古代软件系统具备了可扩展性和韧性。但在分布式系统中还存在不容忽视的问题:提早。 提早来自哪里古代软件系统通常是多层级构造大型分布式系统,即便是只服务单个终端用户的申请,它背地也有可能通过了上百次的数据拜访,这种状况在微服务架构中更是尤为广泛。 微服务架构(援用自Microservices Pattern) 单台性能稳固的服务器中提早通常由以下几个方面造成: 计算工作自身的复杂度内容的传输过程中的提早申请排队期待的提早后台任务流动所导的资源竞争这些服务器之间的提早将会叠加,任何显著的提早减少都会影响终端用户的体验。此外,任何来自单个节点的提早峰值也会间接影响到终端用户体验。最初,越来越多地应用私有云部署应用程序,进一步加剧了响应工夫的不可预测性,因为在这些环境中存在共享资源(CPU、内存和IO)的争用,应用程序机简直不可避免地遇到性能影响,并且这种影响是随时产生的。 如何缩小提早有钻研表明,在大型互联网利用中,提早往往具备长尾特点,P999比中位数高出几个数量级。如果在利用架构的每层都可能缩小这些尾部提早,那么对终端用户整体的尾部提早将会显著升高。 在服务网格中,所有接管和发送的流量都会通过边车代理,通过边车代理能够轻松地管制网格的流量,而无需对服务进行任何批改。如果边车代理在对应用层流量进行转发时,总是通过负载平衡时选择响应工夫较短的服务器,那么将会显著升高对终端用户的尾部提早。 基于此,咱们筹备开始为mosn引入基于提早的负载平衡算法,并进行适当调整来保障可能在大多数应用场景下显著缩小提早。 性能问题是部分的后面提到了,每个节点的性能受到多种因素的影响,这些影响因素是动静的,难以精确预测每个节点的性能,因而咱们无奈准确地抉择最好的节点,然而能够防止较差的节点。 在云环境中,服务器的性能经常是难以预测的,然而咱们能够通过对大量的数据进行剖析,发现服务器性能的散布大多数状况下是合乎正态分布的。因而,只管有一部分的服务器在性能方面体现比拟差,它们的数量通常都是多数的(3sigma),而绝大部分服务器节点的体现是失常的。 除了服务器之间的差别,还存在由基础设施导致的动静提早,这种提早可能是因为网络拥塞、故障或一直增长的流量所导致。这种提早通常具备持续性和局部性。持续性则示意提早会长工夫存在,不会在短时间内隐没;而局部性指的是提早往往只呈现在某些特定服务器上,而不会在全局产生。 PeakEWMA面对这些问题,咱们应用PeakEWMA(Peak Exponentially Weighted Moving Average)计算响应工夫指标,并依据这个指标来对节点进行负载平衡。 EWMA是一种动静权重调整算法,各数值的加权影响力随工夫而指数式消退,越近期的数据加权影响力越重,但较旧的数据也给予肯定的加权值。 它以绝对较高的权重思考了最近响应工夫的影响,因而更具备针对性和时效性。加权的水平以常数 决定, 数值介于 0 至 1,它用来控制数据加权影响力消退的速率。 作为一种统计学指标,EWMA的计算过程不须要大量的采样点以及工夫窗口的设定,无效地防止了计算资源的节约,更适宜在mosn这样的边车代理中应用。 因为响应工夫是历史指标,当服务器呈现性能问题导致长时间未返回时,负载平衡算法会谬误地认为这台服务器仍是最优的,而一直地向其发送申请而导致长尾提早增高。咱们应用沉闷连接数作为实时变动的指标对响应工夫进行加权,示意期待所有沉闷的连贯都返回所须要的最大工夫。 P2C(Power of Two Choice)在大规模集群中,如果应用遍历所有服务器抉择最好的服务器的办法,尽管能够找到最轻负载的服务器来解决申请,但这种办法通常须要大量的计算资源和工夫,因而无奈解决大规模的申请。因而,咱们应用P2C(Power of Two Choice)来抉择最优节点。相比之下,P2C算法能够在常数工夫内抉择两个服务器进行比拟,并抉择其中负载更轻的服务器来解决申请。P2C基于概率调配,即不间接基于权重调配,而是依据每个服务器优于其余服务器的概率值来决定申请的调配。 此外,在多个负载均衡器的状况下,不同负载均衡器可能会有不同的节点视图,这可能导致某些负载均衡器抉择的最优节点总是最差的节点。这是因为负载均衡器抉择最优节点时基于本人的视图信息,而节点视图随着工夫的变动可能会发生变化,因而不同的负载均衡器抉择的最优节点也可能不同。P2C算法通过对随机抉择的两个节点进行比拟,能够使节点间的负载平衡更加平均,即便节点视图发生变化,也能提供稳固的负载平衡成果。 在mosn的v1.5.0版本中,只有节点权重雷同时会应用P2C,当权重不同时会应用EDF进行加权抉择。后续会提供可配置的选项。模仿流量验证咱们构建了与生产环境性能散布相近的测试用例来对算法进行验证。 首先咱们应用正态分布生成了10台服务器的基准性能,其中数学冀望为50ms,标准差为10ms。接下来,咱们将这些基准性能作为数学冀望,并以标准差为5ms的正态分布随机生成了申请提早,以模仿真实世界的状况。此外,咱们还在其中一台服务器注入了概率为0.1的故障,故障产生时会产生1000ms的提早,以测试零碎的容错性。 为了模仿申请歪斜时申请排队期待的提早,咱们限度了每台服务器的最大并发数为8,当同时解决的最大申请数超过了最大并发数时,将会排队期待。这样可能更加实在地模拟出零碎的运行状况。 最初,咱们应用了Round Robin、Least Request和PeakEWMA三种算法,别离以16并发同时发送申请,失去的P99如下 Round Robin算法尽管均衡,然而始终会抉择到注入了故障的服务器,导致P99始终在1000ms高低稳定;Least Request算法尽管避开了故障服务器,然而其P99值仍然体现出较大的稳定。 与此相比,PeakEWMA算法在保持稳定的同时,P99值始终低于Round Robin和Least Request算法。这失当地体现了mosn在性能优化方面的胜利,mosn的确做到了走得更快。 期待走得更稳尽管服务网格解决了让利用跑得更快的问题,然而分布式系统中的故障却时刻存在。咱们冀望通过mosn的负载平衡算法,能够让咱们的服务走得更稳。 疾速失败的挑战依据教训,故障时的响应工夫往往远远小于正常值,比方网络分区导致的连贯超时,而没有理论解决申请。咱们称这种谬误时响应工夫远远小于正常值的状况为疾速失败。 在服务器呈现疾速失败时,从负载平衡的角度看,就会谬误地认为该服务器是最优的抉择。只管能够通过断路器来防止向该服务器继续发送申请,然而断路器的阈值设置也存在挑战。此外,断路器须要足够的谬误样本能力触发,而咱们冀望尽可能防止谬误的产生。 因而,咱们在后续版本中将会对负载平衡算法进行调整,让负载平衡算法可能感知谬误的产生,并在触发断路器前就防止将申请转发到故障的服务器中。 作者:京东物流 纪卓志 内容起源:京东云开发者社区

May 8, 2023 · 1 min · jiezi

关于负载均衡:护航应用的全科医生神州云科亮相四川卫生健康信息技术交流大会

2023年3月23日,神州云科加入2023年四川卫生衰弱信息技术交换大会,携神州云科利用交付控制器两大系列产品和分布式存储高可用、利用运维可视化和多院区灾备核心建设等医疗行业整体解决方案亮相本次大会。立足金融利用场景,继续助力金融信创产业倒退数字经济时代,金融信创行业进入倒退提速阶段。作为专一金融信息技术翻新的重要基础设施和专业化试验平台,为推动“十四五”国家全民衰弱信息化布局全面实施,充分发挥数字化翻新驱动作用,赋能公立医院数字化转型,放慢推动优质高效的衰弱服务体系建设。神州云科致力于成为当先的国产数字化生态厂商,多云利用平安和利用交付服务技术的领导者,通过感知可控,随需而变的利用架构,助力医疗行业企业打造不凡的数字体验。 深耕利用交付,神州云科利用交付控制器产品家族神州云科多年来深耕利用交付畛域,据IDC《2022年Q3利用交付市场跟踪报告》显示,神州云科利用交付控制器产品首次跻身国产利用交付产品前三。神州云科利用交付控制器云科透明湖信创系列齐全自主研发,领有比肩世界一流产品的水准,凭借全国产、高性能、平安可控、高效能设计、扩展性设计等五大劣势,可满足医疗行业信创需要。 (神州云科利用交付控制器云科透明湖信创系列) 神州云科利用交付控制器容翼系列采纳全新设计的 API 优先理念和容器底座,硬件架构采纳技术先进的 FPGA 芯片和最新英特尔 CPU 处理器交融的全新架构,能够提供200G超强性能,满足企业对超高性能和超高平安的利用交付需要。 (神州云科利用交付控制器容翼系列) 赋能业务连续性,神州云科助力医疗数字化转型海量对象存储高可用随着医院数字化的推动,数据存储需要继续晋升,越来越多的用户抉择分布式对象存储来满足不断扩大的存储容量需要。但对象存储本身的软件负载平衡,不能满足大量数据交换时的性能要求。神州云科帮忙分布式对象存储实现高性能交付和故障预防筛查及会诊。金融科技曾经成为金融行业倒退的外围驱动力。在金融机构数字化转型的过程中,利用交付成为了驱动金融业务稳固牢靠、平安可信、提速增效、麻利迭代的重要赋能工具。 利用拜访体验与运行状况实时监测与剖析作为医院IT运维人员,运维中的“至暗时刻”是什么?就是产生故障时,本人对利用零碎的运行状况无所不知。神州云科利用运维可视化计划,通过可视化工具的部署,配合云科HSL(高速日志)性能,帮忙用户对HIS等外围利用望观气色闻听声息,让用户对外围零碎的运行状况一目了然。 外围利用的多院区容灾/双活部署在电子病历4升5,以及互联互通五乙的评审要求中,均提出了外围零碎RTO/RPO小于 15分钟的要求。神州云科利用双活解决方案,领有国内最多的双活施行案例,帮忙医院用户轻松实现HIS、PACS、EMR等外围利用在单院区呈现故障时的疾速转院区拜访,保障医院利用零碎的高可用性和高可靠性。 历经多年的倒退与积淀,神州云科通过丰盛的产品矩阵,优质的服务体系,联结上下游合作伙伴构建数字化解决方案新生态。将来,团队将持续加大研发投入,使用更多前沿智能科技技术,整合上下游服务和医疗资源,继续为患者打造一站式便当智能的就医体验,为医疗行业客户业务连续性保驾护航!

March 29, 2023 · 1 min · jiezi

关于负载均衡:循序渐进讲解负载均衡vivoGatewayVGW

作者:vivo 互联网运维团队- Duan Chengping在大规模业务场景中,曾经不可能通过单机提供业务,这就衍生出了负载平衡的需要。为了满足适合牢靠的负载,本文将从简略的根底需要登程,一步步推动并解释如何建设负载平衡平台。 一、怎么保障你的业务牢靠想一个问题:假如你有10台服务器对外提供雷同的服务,你如何保障这10台服务器能稳固解决内部申请? 这里可能有很多种解决方案,但实质上都是解决下述两个问题: ① 客户端的申请应该调配去哪一台服务器比拟好? ② 万一其中某些服务器故障了,如何隔离掉故障服务器? 问题① 解决不好,可能会导致10台服务器中的一部分服务器处于饥饿状态,没有被调配客户端申请或者是调配得很少;而另一部分则始终在解决大量的申请,导致不堪负重。 问题② 解决不好,则CAP准则中的可用性(A)可能就没法保障,除非零碎不须要A。 要解决上述问题,你必须实现一套控制器,能调度业务申请和治理业务服务器。很可怜的是,大多数状况下这个控制器往往就是整个零碎的瓶颈。因为控制系统如果不深刻到客户端上,就必须依赖一个集中式的决策机构,这个机构必然要承载所有客户端的申请。这时候你又得去思考这个控制器的冗余和故障隔离的问题,这就变得无休无止。 二、业务和管制隔离那么,如何解决上述问题? 那就是业余的事件交给业余平台去做,即,咱们须要独立的负载平衡提供上述2点的解决方案。 对于客户端来说,每次申请一个站点,最终都会转变成对某个IP发动申请。所以只有能管制客户端拜访的IP地址,咱们就能管制申请应该落到哪个后端服务器上,从而达到调度成果,这是DNS在做的事件。或者,劫持客户端所有申请流量,对流量重新分配申请到后端服务器上。这个是Nginx、LVS等的解决形式。 图1、通过DNS实现负载平衡的成果示意图 图2、通过LVS/Nginx实现负载平衡的成果示意图 这两个形式都能达到负载平衡的成果。但这外面有个重大的问题,DNS、Nginx、LVS等服务在互联网时代不可能单机就能提供业务,都是集群式(也就是有N台服务器组成),那这些集群的可靠性和稳定性又该如何保障呢? DNS次要负责域名解析,有肯定的负载平衡成果,但往往负载成果很差,不作为次要思考伎俩。Nginx提供7层负载平衡,次要靠域名来做业务辨别和负载。LVS是4层负载平衡,次要靠TCP/UDP协定、IP地址、TCP/UDP端口来辨别服务和负载。 为了解决Nginx、LVS这些负载均衡器集群的负载平衡及可靠性,咱们能够做下述简略的计划: 业务服务器的负载和可靠性由Nginx保障;Nginx的负载和可靠性由LVS保障。上述计划是遵循了业务 <-- 7层负载 <-- 4层负载的逻辑,实际上是在网络分层模型中的应用层 <-- 传输层的做两级负载。能够看出,其实这个计划是用另一层负载平衡来解决以后层级的负载和可靠性的问题。但这个计划还是有问题,业务和Nginx集群这两层的负载和可靠性是有保障了,但LVS集群这一层的可靠性怎么办? 既然咱们在网络分层模型中应用层 <-- 传输层做了两级负载,那有没有可能做到应用层 <-- 传输层 <-- 网络层的三级负载?很侥幸的是,基于IP路由的形式,网络设备(交换机、路由器)人造具备了网络层负载平衡性能。 到此,咱们能够实现整个负载平衡链条:业务 <-- 7层负载(Nginx) <-- 4层负载(LVS) <-- 3层负载(NetworkDevices); 从这里能够看出,要确保整个负载平衡体系是无效牢靠的,必须从网络层开始构筑。处于高层级的业务,能够为低层级的业务提供负载。绝对于低层级,高层级的业务都能够认为是低层级业务的管制面,能够交给业余团队去实现和治理,低层级业务侧只须要关注业务自身实现即可。 图3、网络7层模型和LVS、Nginx之间的对应关系 网络7层分层模型阐明: 7、应用层: 反对网络应用,利用协定仅仅是网络应用的一个组成部分,运行在不同主机上的过程则应用应用层协定进行通信。次要的协定有:HTTP、FTP、Telnet、SMTP、POP3等。 6、表示层: 数据的示意、平安、压缩。(理论使用中该层曾经合并到了应用层) 5、会话层: 建设、治理、终止会话。(理论使用中该层曾经合并到了应用层) 4、传输层: 负责为信源和信宿提供应用程序过程间的数据传输服务,这一层上次要定义了两个传输协定,传输控制协议即TCP和用户数据报协定UDP。 3、网络层: 负责将数据报独立地从信源发送到信宿,次要解决路由抉择、拥塞管制和网络互联等问题。 2、数据链路层: 负责将IP数据报封装成适合在物理网络上传输的帧格局并传输,或将从物理网络接管到的帧解封,取出IP数据报交给网络层。 1、物理层: 负责将比特流在结点间传输,即负责物理传输。该层的协定既与链路无关也与传输介质无关。 三、如何实现4层负载平衡下面说过,3层负载由网络设备人造提供,但理论应用中是和4层负载紧耦合的,个别不独立提供服务。4层负载能够间接为业务层提供服务,而不依赖7层负载(7层负载次要面向HTTP/HTTPS等业务),所以咱们这里次要针对4层负载来讲。 3.1 如何转发流量实现负载平衡,话中有话就是实现流量重定向,那么,首要解决的问题是如何转发流量。 4个问题要解决: ① 如何把客户端的流量吸引到负载均衡器上? ② 负载均衡器如何抉择适合的后端服务器? ③ 负载均衡器如何将申请数据发送到后端服务器上? ④ 后端服务器如何响应申请数据? 对于①, 解决方案很简略,给一批后端服务器提供一个独立的IP地址,咱们称之为Virtual IP(也即VIP)。所有客户端不必间接拜访后端IP地址,转而拜访VIP。对于客户端来说,相当于屏蔽了后端的状况。 对于②, 思考到处于低层级的负载平衡通用性,个别不做简单的负载策略,相似RR(轮询)、WRR(带权重轮询)的计划更适合,能够满足绝大多数场景要求。 对于③, 这里的抉择会往往会影响这④的抉择。现实状况下,咱们冀望是客户端的申请数据应该一成不变的发送到后端,这样能防止数据包被批改。后面提到的网络七层分层模型中,数据链路层的转发能够做到不影响更下层的数据包内容,所以能够满足不批改客户端申请数据的状况下转发。这就是网络常说的二层转发(数据链路层,处在七层网络模型中的第二层),依附的是网卡的MAC地址寻址来转发数据。 ...

March 24, 2023 · 1 min · jiezi

关于负载均衡:国内首家云科通明湖应用交付控制器通过金融信创生态实验室适配验证

近日,神州云科自主研发的信创产品云科透明湖利用交付控制器胜利通过金融信创生态实验室(以下简称:实验室)适配验证,成为国内首家在负载平衡测试中通过测试的供应商,标记着神州云科在金融信创畛域的技术实力和业余程度再获权威认可。 立足金融利用场景,继续助力金融信创产业倒退数字经济时代,金融信创行业进入倒退提速阶段。作为专一金融信息技术翻新的重要基础设施和专业化试验平台,金融信创生态实验室由中国人民银行领导,其直属单位中国金融电子化公司牵头组建,继续汇聚产业各方力量,基于国产芯片、操作系统、数据库等根底软硬件构建的技术底座和技术路线,解决金融共性问题,造成金融解决方案和施行门路,推动金融信息技术翻新生态的倒退欠缺。  作为金融信创利用交付的当先厂商,神州云科踊跃与金融信创生态实验室发展对于利用交付技术的交换与适配,立足金融利用场景进行技术投入和研发,打造数字经济时代服务金融行业的翻新科技底座。  实验室对测试环境有着非常严苛的要求,测试环境须要部署实在的金融信创业务应用环境,蕴含从交易数据,始终到统计报表数据生成的残缺业务流程。同时,测试环境的终端、服务器、操作系统、数据库管理系统等都需合乎金融信创的需要。  实验室对云科透明湖利用交付控制器的功能性、可靠性、维护性、易用性及性能效率进行了全面测试验证,全副五项测试均 100% 合乎通过。测试结果表明云科透明湖利用交付控制器是技术创新性当先、功能性弱小且安全可靠的金融行业数字能力建设信创产品和解决方案。  五大测试规范均满分通过测试,赋能金融利用交付选型测试中,实验室基于企业网上银行零碎 V4.2利用场景,对云科透明湖利用交付控制器进行测试,云科透明湖利用交付控制器在功能性、可靠性、维护性、易用性及性能效率的评测后果为金融企业和机构在零碎选型中提供参考。 功能性方面:测试范畴包含网络功能测试、SLB健康检查、SLB负载平衡算法、SLB会话放弃性能、SLB平安防护、SLB扩大测试等11个模块,共计执行40条用例,均通过测试。 可靠性方面:测试范畴包含利用零碎容错、异样断电、异样断网、电源模块冗余共4个模块,执行四条用例,全副通过。 维护性方面:测试范畴包含故障报警、批示查看、诊断治理共3个模块,执行3条用例全副通过。 易用性方面:测试范畴包含用户界面舒适性、易操作性、易学习性共3个模块,执行3条用例全副通过。 性能效率方面:测试范畴共计执行8个场景,测试过程中并发用户数、TPS、响应工夫、资源使用率、交易成功率均通过测试。 双轨超高可用架构,引领金融信创高质量倒退金融科技曾经成为金融行业倒退的外围驱动力。在金融机构数字化转型的过程中,利用交付成为了驱动金融业务稳固牢靠、平安可信、提速增效、麻利迭代的重要赋能工具。 2022年底,神州云科正式公布了双轨超高可用架构,站在金融利用可持续性倒退的策略高度,通过云科透明湖信创系列、容翼系列等丰盛的产品矩阵,优质的服务体系,联结上下游合作伙伴构建数字化解决方案新生态,引领金融信创高质量倒退。

March 23, 2023 · 1 min · jiezi

关于负载均衡:黑客如何用nginx攻击一个网站

最好的进攻形式就是攻打 知己知彼,百战不殆。把握攻击者的套路才好顶得住攻打。 可能我的读者多少理解过Nginx,我先给不理解的同学简略说一下原理。曾经理解的跳到第二节。 3分钟理解NginxNginx是一款高性能的Web服务器和反向代理服务器。 它能够用来搭建网站、做应用服务器,可能解决大量的并发连贯和申请。 动态内容托管(次要):能够用来做网页、图片、文件的 “动态”内容托管。动静内容托管(次要):将常常拜访的动静内容缓存到内存中,进步访问速度和性能。反向代理(次要):将客户端的申请发送到后端实在服务器,并将后端服务器的响应返回给客户端。相似于一个快递收发室,指挥快递(流量)应该投递到哪个买家。 它还能提供一些高级性能: 负载平衡:将客户端的申请散发到多个后端服务器上,从而进步服务的可用性和性能。SSL/TLS加密传输:通过加密和认证爱护数据传输平安。HTTP/2反对:通过多路复用技术进步并发连贯解决能力和页面加载速度。平安防护:提供多种防护机制,如限度IP拜访、申请频率限度、反爬虫等。动静内容解决:反对FastCGI、uWSGI等协定,与后端应用服务器进行动静内容交互。日志记录:记录拜访日志和谬误日志,不便监控和排查问题。自定义模块开发:反对自定义模块开发,能够依据需要进行二次开发和扩大。读到这里,我晓得很多人脑子都要爆了。当初让咱们直入主题。联合以上性能的能做哪些攻击方式。 反向代理攻打应用Nginx作为反向代理服务器,将攻打流量转发到指标服务器。这样就能暗藏攻打流量的实在地址。 server { listen 80; server_name www.example.com; location / { proxy_pass http://backend_server; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; }}所有拜访www.example.com:80的流量全副都会转发到http://backend_server服务器上。proxy_set_header X-Real-IP $remote_addr; 设置申请头提供实在起源ip。proxy_set_header Host $host;设置拜访的Host。只有把X-Real-IP改成其余不存在的IP,就能够暗藏本人的实在IP地址,让攻打更难以被追踪和进攻。当然绝对于客户端来说,只能晓得nginx的地址就不晓得实在服务器的地址了。 DDoS攻打DDoS攻打就是借助某些工具霎时动员大量的申请,让服务器资源耗尽,无奈失常响应其余用户的申请,个别也罕用于压力测试。介绍一些罕用的工具: ApacheBench (ab):罕用的命令行工具,用于模仿多个并发申请。能够管制申请总数、并发数等参数。Siege:命令行工具,和下面一样,并且还反对 HTTP 和 HTTPS 协定。JMeter:一个功能强大的 Java 应用程序,能够用于模仿各种负载状况。JMeter 能够通过图形界面进行配置,反对更多协定和数据格式,包含 HTTP、HTTPS、SOAP、REST 等。但事实往往比这个残暴,攻击者会做一些病毒,在网络上流传开来,病毒运行时能够间接疯狂拜访服务器,或者利用Nginx提供的反向代理和其反对的比方socket、SSL,一直的建设握手申请。 限流、黑名单进攻小熊次要给大家介绍怎么进攻。这种病毒感染形式就不说了,我胆怯戴银手铐。 http { limit_req_zone $binary_remote_addr zone=one:10m rate=5r/s; geo $block { default 0; include /path/to/block_ip.txt; } server { listen 80; location / { limit_req zone=one burst=10 nodelay; if ($block) { return 403; } proxy_pass http://backend; } }}limit_req_zone 定义了一个名为“one”的限度申请速率的区域,该区域的大小为10MB,申请速率限度为每秒5个申请。limit_req 指定应用名为“one”的限度规定。geo $block是黑名单,这个文件能够写须要屏蔽的ip。server块中的location指令应用了limit_req和if示意黑名单的返回403状态码。负载平衡进攻假如我有两个后端服务器。 ...

March 14, 2023 · 2 min · jiezi

关于负载均衡:干货实时渲染和离线渲染的区别实时云渲染又是什么

常见的渲染类型有以下几种:实时渲染、离线渲染、实时云渲染、混合渲染。那么什么是实时渲染?实时渲染和离线渲染有哪些区别?各自有哪些典型利用场景......有没有人感觉晓得了,但又没齐全晓得?明天小编就尽量为大家用简略易懂的形式先解释下实时渲染、离线渲染、实时云渲染这3个概念。 离线渲染离线渲染,简略了解就是不须要实时看到渲染的场景。次要利用的畛域有修建视觉、动画、影视、广告片等。 举个例子可能更好了解,像华为、小米一些电子产品的新品发布会,通常会有炫酷精美的产品细节展现视频,可能你会纳闷这是怎么制作进去的呢?是间接拍摄的实物与场景和合成的吗?实际上这些唯美真切的视频,从产品到环境到灯光,都是电脑制作而成,做到这么实在,这就是离线渲染的作用了。 离线渲染是须要先进行物体建模,用点、线、面、材质、照明等元素,将物体和场景构建得真切。之后,再依据原先定义好的场景设置,将模型在光线、视点、静止轨迹等不同因素的作用下的视觉画面用计算资源计算出来。比方咱们相熟的《阿凡达》,应用了40000个cpu, 104TB内存,10G网络带宽,离线渲染工夫超过一个月。 离线渲染后的根本是曾经实现了渲染的成品作品,大部分CG动画(Computer Graphics)是通过离线渲染最终出现的,因为动画往往是画面精密的,光影成果是靠近实在的。而绝大部分游戏画面都是实时渲染的,因为在游戏中往往不须要适度简单的光影反射画面以及材质纹理细节,那就要用到实时渲染了。 实时渲染实时渲染是边计算画面,边输入显示,更多的是关注实时性与交互性。实时渲染的实时性是非常重要的,因为用户不管操作了了什么,都是须要失去实时的反馈后果的,例如,用户在键盘的输出,鼠标的点击等的操作,这些操作都会导致画面进行从新计算,得出新的后果。因而为了可能达到随时调整随时观看画面的目标,必要时会就义画面的精密度。次要应用领域有大型3D游戏、3D利用(智慧城市、数字孪生的三维可视化我的项目),在以上这种实时渲染场景中,利用程序安装并在电脑和手机上独立运行,通过设施的本地算力实现实时渲染过程。因而要想晦涩的玩大型游戏,必须有足够高配置的设施。 实时云渲染冲破渲染新体验 实时云渲染字面上的意思是在云中渲染。咱们下面提到的实时渲染大部分都是在本人的本地电脑或者手机上实现的,所以对终端硬件的要求比拟高,否则“卡”在劫难逃。 实时云渲染是在5G网络、云计算、引擎等技术迅猛发展的根底上,为了解决终端算力有余、画质差等问题,可能实现硬件性能较差的终端也能够实时渲染3D内容,做到提早低、画质高的成果。实时云渲染,是指将大型3D利用放在云端流化,以交互操作视频流的形式,间接投射至终端,让用户在内外网、互联网间接操作交互应用利用。 用户不须要在终端设备装置3D利用,对终端设备配置也没有要求,只有具备观看视频的性能,就能体验到渲染成果更好的3D利用。目前实时云渲染场景次要体现在数字孪生三维可视化等畛域。 实时云渲染有以下劣势,能够晋升更好的实时渲染体验1.技术计划当先。基于云计算、虚拟化等路径达到近程交付的技术计划,由服务端进行理论运算工作,应用定制的通信协定,实现多终端便捷交互体验。2.节俭用户软硬件老本。1)节俭硬件洽购老本,云服务器对立部署需流化的利用,用户端仅接管视频流,并无理论运行相干利用,无需高性能硬件及大容量存储撑持。2)升高软件受权费用,自研容器化技术,防止中间层衰减及资源耗费,并发数更多;一套被流化的应用软件(如数字孪生、智慧城市/工厂/园区、仿真教学内容等),搭载云流计划后,可反对多人复用。3.极低提早,近似本地操作的实时交互不计网络工夫,视频流提早总用时5~7ms,小于16.7ms的显示器刷新率(以1080p 60Hz为例);大数据量数字孪生利用及内容,将以视频流形式在用户端展现,无传统上传下载数据的等待时间,即点即阅。4.标准化运维,数据不落地工作终端需“千机一面”,而云流对利用的版本、工作环境等配置部署均在云服务器实现,用户对立以视频流模式与云服务器交互,不因本地设施零碎、软件版本等造成内容及结果显示不同,实现数字孪生内容的对立公布和应用。用户端仅接管云服务器显示后果的视频流,无奈下载/缓存实在数据,实现敏感数据的不落地。5.兼容性强,实用于各类内容及终端反对网页/客户端模式公布;反对各式网络(如互联网/局域网/专网/4G/5G等)。内容适配,反对各类引擎制作的数字孪生内容,引擎包含但不限于UE4、Unity、国产自研引擎等。终端反对,反对市面全副惯例终端:Windows、Android、iOS、iMac、iPad、TV、机顶盒 & 浏览器。反对各式交互设施:鼠标、键盘、触摸板、触摸屏、游戏手柄等。

February 13, 2023 · 1 min · jiezi

关于负载均衡:神州云科打出组合拳双轨超高可用架构引领信创高质量发展

2022年12月21日,“架构颠覆,规范引领,继续交付”——神州云科夏季发布会线上隆重召开! 为了适应数字化转型的潮流和实现信创IT基础设施的冲破,帮忙客户更好地应答数字经济时代对利用交付和网络安全的高要求,满足客户在双轨(信创&非信创)环境中,实现基于双活或多云多活的利用可持续性,神州云科站在利用可持续性的策略高度,提出“1521”的战略性思路,心愿通过一个双轨超高可用架构(Dual Track Maximum Availability Architecture,简称DTMAA),五大引擎,云科容翼+云科透明湖两大大系列产品,以及一套《金融信创利用可持续性测试指南》,助力企业在数字化过程中弯道超车。 《数字时代利用可持续性架构和验证白皮书》重磅公布艾瑞征询联手神州云科、透明湖云和信创研究院、通理智云,将于12月23日在业界首次公布《数字时代利用可持续性架构和验证白皮书》。 白皮书指出,利用可持续性架构应该从架构自身着手:只有整体架构和要害节点稳固了,各模块能力实现麻利、灵便组装。而只有各模块实现麻利了,不同数据中心之间的双活、灾备,传统架构和云原生架构之间的对接和迁徙,非信创设施和信创设施之间的对接和迁徙,才会在业务侧无感知的状况下,轻松实现。利用可继续架构具体特色包含:双活双轨,多协定对接,与古代技术栈无缝对接,全生命周期可观测,动静可扩大负载,被动韧性,可多种形式对接与集成等。 架构颠覆,双轨超高可用架构是数字化时代关键技术自主翻新的减速, 给客户的利用国产化历程带来了极大的可持续性挑战。利用可持续性是数字化时代的关键技术,对于企业而言,业务可持续性很大水平上和利用可持续性相关联, 尤其在极其状况下, 客户的利用都须要放弃继续服务,蕴含突发压力, 安全隐患, 迭代过程, 灾祸等情况下, 都能继续提供高品质服务。 据调查显示,中国52%的客户都抉择可持续性第一的状况下, 可能将传统架构和云原生架构对立, 实现兼容和协同, 将会是最佳的可持续性服务。 神州云科副总裁、透明湖云和信创研究院副院长吴静涛示意,“一方面如何保障信创产品的稳定性,弥合性能与企业应用要求的差距;一方面,面对合规、危险和翻新的挑战, 云原生如何实现可信开源与跨域协同。双轨超高可用架构(DTMAA)在这样的背景下应运而生。” 双轨超高可用架构(DTMAA) 通过架构的变革,神州云科首次在业界提出了双轨超高可用架构(DTMAA)。所谓DTMAA,是神州云科为满足企业面临自主翻新IT根底重构所推出的全新架构, 架构在双活数据中心的分区调度根底上,增加每个数据中心内信创域和非信创域的分域调度,来实现分辨别域协同的多活双轨超高可用。帮忙客户在新架构下,晋升利用可持续性,解决性能瓶颈,晋升稳定性,在服务异常情况下,能够通过实时灰度调度的形式,切换流量,保留利用故障现场环境,便于后续的排错与根因定位。 双轨超高可用架构“5大引擎”的外围价值数据中心架构在自主翻新的过程中合成为现有架构的非信创区和信创区的两个业务区域,在每个数据中心分为信创区和非信创区后,在两个区域之间的跨区跨域协同办法,神州云科通过5大引擎实现多层次的利用可持续性最佳实际。 双轨超高可用架构五大引擎 高可用调度引擎:助力信创业务验证,消除隐患;动静调整信创业务比例,危险可控;助力信创业务应急逃生;助力古代利用麻利联动。平安服务编排引擎:助力实现信创平安架构翻新,进步攻防反抗能力。信创高可用引擎:联网协同,智能调度。古代利用高可用引擎:可信开源 平安可控。大数据引擎:助力业务可观测性。神州云科解决方案架构师李晓东指出,“五大引擎是双轨建设的外围灵魂。双轨超高可用架构的技术劣势是实现了对于信创高可用引擎和高可用调度引擎的智能协定级互联互通。高可用引擎能够通过信创高可用引擎疾速地感知到信创业务的状态,它会从信创高可用引擎中吸取必须要判断的信息,作为对业务品质的综合判断。” **继续交付,云科容翼+云科透明湖劣势个性解读 为了更好的适配双轨超高可用架构,神州云科公布了全新的云科容翼系列产品,同时云科透明湖信创系列产品也进行了全面的降级。 云科容翼系列产品具备超高性能、超高平安、低碳节能的三大劣势个性。 云科容翼系列 超高性能更强的FPGA减速芯片和最新 CPU,4-7层解决性能晋升2倍,SSL性能晋升2倍;全新容翼OS操作系统,基于容器平台底座,满足微时代利用极速扩大;古代数据中心接口设计。超高平安硬件检测和缓解100多种类型的攻打向量、拒绝服务(DoS)和DDoS攻打、SYN泛洪等;业界当先的SSL加密能力高达200k SSL TPS,极大加强了ECC解决的卸载能力;高可用性使要害应用程序放弃运行,加强的性能可解决流量峰值,阻止攻击者绕过平安协定。超低能耗全系列1U,绿色低碳,低能耗、低辐射,8.9%的典型功耗,50%的空间利用率。云科透明湖系列产品具备超高可信、超高牢靠、对立纳管的三大劣势个性。 云科透明湖系列 超高可信采纳齐全自主可控的国产硬件平台,已实现与国内支流的5大硬件平台:龙芯、飞腾、兆芯、海光、鲲鹏的适配工作,且都已取得了这些国产芯片硬件平台互认证明;100%自主研发软件;参加制订信创规范。超高牢靠反对双机热备、多主集群、等价集群、会话同步等性能,实现亚秒级切换,确保客户的利用零碎达到99.999%的可用性。 对立纳管反对云科透明湖系列、云科容翼系列、F5系列、NGINX等多类利用交付网关接入对立治理;接入设施能够对立可观测,所以设施的监控状态和性能指标对立可视化仪表盘展现;反对配置批量下发,蕴含批量降级、备份、集群高可用等配置下发;对立 告警,有对立的日志告警平台,蕴含监控查看、审计日志、拜访日志、谬误日志、平安日志和系统日志以及告警核心。神州云科利用交付产品经理杜名欣示意,“神州云科利用交付产品解决方案,无论是数据中心下移的架构翻新,向分布式多云倒退,还是信创畛域深耕,都能够为客户提供满足以后和将来倒退的最有投资价值的产品和解决方案,并供一致性的服务体验。”  规范引领,全新定义金融信创利用可持续性测试面对金融行业数字化转型和信创需要,神州云科提出通过一套《金融信创利用可持续性测试指南》规范来满足双轨环境下利用交付产品的选型须要。 神州云科产品技术总监朱文胜示意,“基于20多个金融信创客户案例,从实际中来到实际中去,涵盖银行负债、资产和中间件等业务区域系统,总结出一套实操性强,操作过程具体,且减少了新的云原生测试场景的残缺金融信创利用可继续测试指南,为金融客户带来产品选型的便利性和易用性,促成金融行业信创的疾速倒退。” 综上,神州云科打出的这套“组合拳”,通过多层次、多解决方案的组合,首先在架构层面实现分布式服务和容错逻辑;其次,通过丰盛的产品性能个性和新的验证测试规范,为客户数字化过程中提供利用可持续性保障,并为客户夯实信创IT基础设施的“底座”削减助力。

December 22, 2022 · 1 min · jiezi

关于负载均衡:五大亮点来袭神州云科冬季发布会报名通道开启千份精美礼品等你来拿

晋升自主创新能力是国家策略的外围,近年来基于国产化底层逻辑的演绎一直发酵。一方面自主可控产品亟待短时间外在可用性、性能等方面实现超过;另一方面,国内厂商须要在利用可持续性架构能力和最佳实际上迎头赶上,通过服务能力晋升来撑持计划、售前、交付、售后等环节的挑战。 神州云科作为神州数码团体旗下自主品牌战略承载者之一,怀揣“数字中国”之使命,力求继续助力产业高质量倒退。为了适应数字化转型的潮流和实现信创 IT 基础设施的冲破,帮忙行业客户更好地应答数字经济时代对利用交付和网络安全的高要求,满足客户在双轨(信创 & 非信创)环境中,实现基于双活或多云多活的利用可持续性,神州云科将公布双轨超高可用架构(DTMAA),助力企业在数字化过程弯道超车。 2022 年 12 月 21 日,“架构颠覆,规范引领,继续交付”——神州云科夏季发布会行将线上隆重召开! “五大亮点”来袭亮点 1:业界首次公布《利用可持续性架构和验证白皮书》亮点 2:双轨超高可用架构和行业解决方案揭开神秘面纱亮点 3:全新系列产品重磅来袭,信创产品和治理平台全线降级亮点 4:全新定义金融信创利用可继续测试规范亮点 5:神州云科利用交付 2023 年渠道新政颁 直播间“红包雨”,三重大礼“抽不停”直播当天,神州云科大咖分享技术趋势、行业解决方案和最新产品劣势的同时,直播间也安顿了丰盛的实时互动,惊喜连连,“不定时下红包雨,三重大礼抽不停”。 报名通道开启,千份精美礼品等你拿!神州云科夏季发布会行将线上隆重召开,报名通道曾经炽热开启,扫描下方二维码报名注册,参加游戏互动,12 月 12 日 -21 日,1000+ 份好礼等你来拿! 神州云科夏季发布会期待您的光临!

December 16, 2022 · 1 min · jiezi

关于负载均衡:为什么分布式限流会出现不均衡的情况

概述在微服务、API 化、云原生大行其道的明天,服务治理不可或缺,而服务治理中限流简直是必不可少的伎俩;微服务化往往随同着分布式的架构,那么仅仅单机限流是不够的,还须要分布式的限流。那么问题就来了:分布式限流中,往往会呈现「限流不平衡」或「限流误差」的状况,这是为什么呢? 限流国庆假期,限流这个词在新闻中应该能频繁听到,就是「景区限流」。这里以无锡的两个景点为例: 示例: 无锡蠡园:最大承载量调整至 20000 人;刹时最大承载量调整至 4000 人;无锡东林书院:书院接待日最大承载量即时降至 1500 人,刹时承载量降至 300 人。在计算机网络中,限流就是用于管制网络接口控制器发送或接管申请的速率1,由此延长为:限度达到零碎的并发申请数,以此来保障系统的稳定性(特地是在微服务、API 化、云原生零碎上)。 常见的限流算法固定窗口计数器滑动窗口计数器漏桶令牌桶单机限流和分布式限流实质上单机限流和分布式限流的区别就在于「承载量」寄存的地位。 单机限流间接在单台服务器上实现,而在微服务、API 化、云原生零碎上,利用和服务是集群部署的,因而须要集群内的多个实例协同工作,以提供集群范畴的限流,这就是分布式限流。 为什么分布式限流会呈现不平衡的状况?比方下面提到的滑动窗口的算法,能够将计数器寄存至 Redis 这样的 KV 数据库中。例如滑动窗口的每个申请的工夫记录能够利用 Redis 的 zset 存储,利用 ZREMRANGEBYSCORE 删除工夫窗口之外的数据,再用 ZCARD 计数。 示例代码2如下: package com.lizba.redis.limit;import redis.clients.jedis.Jedis;import redis.clients.jedis.Pipeline;import redis.clients.jedis.Response;/** * <p> * Limiting current by sliding window algorithm through zset * </p> * * @Author: Liziba * @Date: 2021/9/6 18:11 */public class SimpleSlidingWindowByZSet { private Jedis jedis; public SimpleSlidingWindowByZSet(Jedis jedis) { this.jedis = jedis; } /** * Judging whether an action is allowed * * @param userId User id * @param actionKey Behavior key * @param period Current Limiting Cycle * @param maxCount Maximum number of requests (sliding window size) * @return */ public boolean isActionAllowed(String userId, String actionKey, int period, int maxCount) { String key = this.key(userId, actionKey); long ts = System.currentTimeMillis(); Pipeline pipe = jedis.pipelined(); pipe.multi(); pipe.zadd(key, ts, String.valueOf(ts)); // Remove data other than sliding windows pipe.zremrangeByScore(key, 0, ts - (period * 1000)); Response<Long> count = pipe.zcard(key); // Set the expiration time of the behavior, and if the data is cold, zset will be deleted to save memory space pipe.expire(key, period); pipe.exec(); pipe.close(); return count.get() <= maxCount; } /** * Current limiting key * * @param userId * @param actionKey * @return */ public String key(String userId, String actionKey) { return String.format("limit:%s:%s", userId, actionKey); }}像令牌桶也能够将令牌数量放到 Redis 中。 ...

December 16, 2022 · 2 min · jiezi

关于负载均衡:您有一封来神州云科冬季发布会的邀请函请查收

12 月 21 日神州云科夏季发布会行将召开邀请您线上观看! 看神州云科如何引领信创利用可持续性的风向标敬请期待! 报名通道曾经炽热开启扫描二维码报名注册参加游戏互动12 月 12 日 -21 日1000+ 份好礼等你来拿! 神州云科夏季发布会期待您的光临!

December 14, 2022 · 1 min · jiezi

关于负载均衡:案例数字化浪潮中云科通明湖如何助力能源行业弯道超车

近年来,寰球产业格局产生粗浅变动,经济全球化与逆全球化正在全面博弈,尤其是能源行业面临着新的挑战,适逢产业改革浪潮,产业数字化已是大势所趋。因而,以能源信息技术利用翻新推动行业数字化转型,无疑是能源行业改革倒退,开拓新倒退空间和新经济增长点的要害动作。 随着能源行业数字化建设的一直推动,其信息系统也面临着不同的信息安全挑战,对于平安自主可控产品的需要也一直增长。然而要想实现“自主可控”,绕不开利用交付这个细分品类。利用交付技术作为解决计算和通信技术线路协同问题的关键技术,实现利用和网络的无效协同,肩负着保障业务平安、间断、稳固运行的重要使命,在整个 IT 架构中有着重要的策略价值。但在国产化方面,利用交付畛域始终面临难题。 云科透明湖利用交付网关 YK-ADC-i2000-H7 在自主可控的大潮下,为着力解决利用交付畛域的国产化问题,云科透明湖利用交付产品正式推出。云科透明湖研发团队通过五年的自主研发和继续打磨,实现了云科透明湖系列利用交付产品对海光、兆芯、飞腾、龙芯、鲲鹏五大国产硬件平台的适配,以及对麒麟、Loongnix 等操作系统的适配,是齐全的中国芯、中国造。团队曾以专家身份参加信创规范的制订,保障产品可能 100% 满足信创规范,为国内企业提供平安自主可控的利用交付解决方案。在能源行业某石油公司的利用交付我的项目中,为了坚韧不拔贯彻落实国务院国资委《对于放慢推动国有企业数字化转型工作的告诉》,其以信息化为依靠,一直向数字化、智能化转型深刻推动。但随着业务规模的不断扩大,以及国际形势的影响,其在服务器负载平衡方面也产生了新的需要: 团体外部邮件系统承当次要的信息传递形式,因为人员泛滥且散布宽泛,每天会产生几十万封邮件;团体人员的邮件系统认证受权过程的可用性和应用效率面临挑战;要求可能无效负载邮件系统各个数据库和子系统,保障平安的同时减速拜访过程,晋升用户应用效率,并保障邮件和官网零碎的高可用性 ;本次洽购要求全国产、全自主可控、高牢靠、平安、灾备冗余及稳固高效且能反对策略变更灵活性与简单的会话放弃性能;云科透明湖系列利用交付产品凭借全国产、高性能、平安可控、高效能设计、扩展性设计等五大劣势受到该石油公司的青眼。为解决以上挑战,云科透明湖研发团队依据该石油公司业务特点,为其量身设计双活数据中心架构——采纳云科透明湖 YK-ADC-i2000 利用交付设施进行部署,为其提供双轨制超高可用架构(DTMAA)。该架构实现 YK-ADC GSLB 和 YK-ADC SLB 联动,依据预设算法将不同用户调配至相应的数据中心,响应最近的服务器,保障业务的高效、稳固;配置链路负载平衡,保障不同运营商的用户通过相应运营商线路拜访,进步安全性和稳定性;对动态业务和动静业务子系统进行负载平衡,服务器累赘摊派,进步零碎的稳定性和可靠性;交融了 SSL 卸载性能,摊派服务器压力,极大保证系统的稳定性和安全性。 云科透明湖双轨制超高可用架构 在云科透明湖系列利用交付产品的助力下,保障了该石油公司邮件系统和官网零碎的失常服务和拜访,进步了零碎扩容、保护的效率,充分利用了硬件资源,服务器性能失去最佳施展,通过代理形式将实在的业务主机暗藏,防止了间接的歹意攻击行为,晋升了内网安全性。最终使服务器故障对认证受权业务过程的影响缩小 98% 以上;后端服务器保护时,业务中断的危险缩小 50%。云科透明湖系列利用交付产品目前已失去金融、政务、医疗、能源等泛滥行业客户的信赖,并为客户的信息化、数字化转型带来了显著的晋升,信创就选云科透明湖。将来,团队将持续加大研发投入,一直晋升产品服务能力,为企业数据中心和云计算保驾护航。 云科透明湖利用交付产品云科透明湖系列利用交付产品,是由神州云科推出的自主研发产品,通过五年的继续打磨,实现了对海光、兆芯、飞腾、龙芯、鲲鹏五大国产硬件平台的适配,以及对麒麟、Loongnix 等操作系统的适配,是齐全的中国芯、中国造。团队曾以专家身份参加信创规范的制订,保障产品可能 100% 满足信创规范,为国内企业提供平安自主可控的利用交付解决方案。领有比肩世界一流产品的水准,具备全国产、高性能、平安可控、高效能设计、扩展性设计等五大劣势: 高性能:云科透明湖系列产品采纳 Restful API 架构设计,隔离数据处理从而与整个管制立体实现松耦合,使客户在部署利用时能更好的使用各种云原生技术,为将来的软件定义利用交付奠定根底;内置的可编程网络技术 Smart Rules,实现更加精细化的流量编排和治理;提供从 5Gbps 到 160Gbps 的吞吐率,反对万兆端口和 40G 端口,整个产品基于高可用性设计,实现亚秒级切换。 安全性:云科透明湖系列产品通过加密通信为外围数据加密,通过集中管理平台实现对多种数据的剖析,配合网络防火墙、DDOS 防护、HTTP Flood 防护、HTTP 协定荡涤、Web 利用防火墙为数据中心和企业的要害利用提供十分无效的平安爱护。 高效能:云科透明湖系列产品通过弹性计算进行流量的管控,能帮忙企业客户节约 30% 的互联网带宽,进步 60% 的广域网络客户拜访效率,实现 5 倍的均匀 HTTP 压缩,节约 50% 的服务器计算资源,确保云计算的使用率能进步到 80%,帮忙企业降低成本,进步投资回报率。 扩展性:云科透明湖系列产品通过服务器负载平衡、多云智能全局负载平衡、链路负载平衡、硬件可定制化无效实现了产品的可拓展。 自主可控:云科透明湖系列利用交付产品对海光、兆芯、飞腾、龙芯、鲲鹏五大国产硬件平台的适配,以及对麒麟、Loongnix 等操作系统的适配,是齐全的中国芯、中国造。

November 18, 2022 · 1 min · jiezi

关于负载均衡:赋能信息技术应用创新需要怎样的可持续性业务架构

近日,F5 联结神州云科独特举办为期三个月的系列“合作伙伴赋能分享会”,该分享会旨在加强云科透明湖同各合作伙伴之间的理解与互信,实现产品与技术的赋能和资源聚合。在首场流动中,北京神州数码云科信息技术有限公司副总裁吴静涛进行了分享。 信创就选云科透明湖吴静涛首先介绍了云科透明湖利用交付网关产品的亮点和独特劣势。吴静涛示意,云科透明湖的愿景是“买通云管边端(云是指云计算,管则是指有线、无线通讯形式,边是指边缘计算,端是指智能传感、智能终端和智能设施),构建卓越数字化体验的利用公布平台”。构建服务时要以客户为核心,帮忙客户打造出合乎需要的数据中心,客户须要的是一整套可持续性架构和可用可管的齐备零碎,可持续性和可观测性将会成为将来客户数据中心的建设重点。 利用交付是解决计算和通信技术线路协同问题的关键技术,云科透明湖利用交付网关产品能实现利用和网络的无效协同,保障利用零碎可能被平安、高效、可控地拜访,在整个 IT 架构中有着重要的策略价值和丰盛的利用场景。作为 f5 的最佳协同者,云科透明湖利用交付网关同时也是信创的当先品牌。“信创就选云科透明湖”吴静涛如是说。 可持续性业务架构——双轨制超高可用架构(DTMAA)吴静涛示意在技术倒退的过程中,为适应市场的走向,随同政策、文化、科技等因素的引领,原有技术被一直的颠覆和重构。数智化时代, 业务可持续性很大水平上和利用可持续性相关联。而利用可持续性的由来就是分布式架构 design for fail 的理念。特指在任何极其状况下,客户的利用都能够放弃继续服务,蕴含突发压力、安全隐患、迭代过程、灾祸等情况下,都能够继续提供高品质服务的设计理念。 目前在市场上有两个次要架构,一个是双活多活架构, 在云、数据中心、设施、门户、利用等各环节实现分布式部署;另一个是互联网云原生的架构,利用弹性和 API 服务实现分布式。在中国企业最关注实现业务可持续性的背景下,如果有厂商可能将传统架构和云原生架构对立,实现兼容和协同,将会是最佳的可持续性服务。 (云科透明湖双轨制超高可用架构) 为了实现技术冲破, 云科透明湖翻新地提出了以晋升可持续性、可观测性和 AIOps 自动化能力为外围的倒退构想,其外围价值笼罩了打造韧性 IT、晋升数据中心利用率以及强化部门间协同等多个方面。韧性 IT 是指帮忙企业在云原生、自主可控环境下构建双轨制超高可用架构 DTMAA(Dual Track Maximum Available Architecture) ,帮忙客户平滑过渡,同时实现多云、多活架构与服务的可持续性;并助力企业疾速过渡到云原生技术架构与生态体系当中,晋升 DC 利用率;强化部门间协同,通过打造无侵入式数据采集能力,帮忙企业构建可观测性平台,在大幅升高故障率的根底上,无效晋升 AIOps 自动化能力。 在此基础上,通过一直地打磨,云科透明湖研发出了跨品牌架构的对立治理平台和大数据平台,这无疑是实现兼容协同可持续性的重大利好,帮忙客户以最小的危险实现换代,晋升可持续性能力。 自主可控吴静涛示意云科透明湖利用交付网关产品实现了对海光、兆芯、飞腾、龙芯、鲲鹏五大国产硬件平台的适配,以及对麒麟、Loongnix 等操作系统的适配,可能确保云上指数量级的利用,平安、高效、巩固、可控的运行。团队曾以专家身份参加信创规范的制订,保障产品可能 100% 满足信创规范,为国内企业提供平安自主可控的利用交付解决方案。 超高性能通过云科透明湖团队五年的研发和打磨,云科透明湖利用交付网关产品实现了从 5Gbps 到 160Gbps 的吞吐,反对万兆端口和 40G 端口,整个产品基于高可用性设计,实现亚秒级切换。采纳 Restful API 架构设计,隔离数据处理从而与整个管制立体实现松耦合,使客户在部署利用时能更好的使用各种云原生技术,为将来的软件定义利用交付奠定根底;内置的可编程网络技术 Smart Rules,实现更加精细化的流量编排和治理。 “将来咱们将致力于 200Gbps 吞吐量利用交付设施研发,满足企业高并发需要”吴静涛如是说。 新的技术引擎一直改革,如何更好地高质量推动企业数字化转型,健全适应数字经济倒退成为各大企业独特的使命。2022 年,云科透明湖在云原生、数字原生畛域尝试新的冲破。将来将联合更先进的前沿技术,为企业提供更有价值的“生产力工具”,为信息技术利用翻新的倒退保驾护航。 云科透明湖利用交付产品云科透明湖系列利用交付产品,是由神州云科推出的自主研发产品,通过五年的继续打磨,实现了对海光、兆芯、飞腾、龙芯、鲲鹏五大国产硬件平台的适配,以及对麒麟、Loongnix 等操作系统的适配,是齐全的中国芯、中国造。团队曾以专家身份参加信创规范的制订,保障产品可能 100% 满足信创规范,为国内企业提供平安自主可控的利用交付解决方案。领有比肩世界一流产品的水准,具备全国产、高性能、平安可控、高效能设计、扩展性设计等五大劣势: 高性能:云科透明湖系列产品采纳 Restful API 架构设计,隔离数据处理从而与整个管制立体实现松耦合,使客户在部署利用时能更好的使用各种云原生技术,为将来的软件定义利用交付奠定根底;内置的可编程网络技术 Smart Rules,实现更加精细化的流量编排和治理;提供从 5Gbps 到 160Gbps 的吞吐率,反对万兆端口和 40G 端口,整个产品基于高可用性设计,实现亚秒级切换。 ...

November 4, 2022 · 1 min · jiezi

关于负载均衡:负载均衡颠覆者可持续性应用交付新引擎

数字化时代,利用呈爆炸式增长,据 IDC 预测,从 2019 年到 2025 年 APP 的数量将增长 5 倍,达到 48 亿。利用交付网关作为传统互联网利用和云计算环境中超高可用架构(MAA)的策略控制点,有保障利用可持续性的重要作用。 云科透明湖利用交付网关通过五年的自主研发和继续打磨,逐渐实现了海光、兆芯、飞腾、龙芯、鲲鹏五大硬件平台适配,反对支流的 CPU 零碎架构,适配麒麟、Loongnix、统信等操作系统,可能确保云上指数量级的利用,平安、高效、巩固、可控的运行。 云科透明湖产品,齐全自主研发、比肩世界一流,是真正的中国芯、中国魂,100% 合乎信息系统利用翻新国产化代替策略,研发团队还全程参加了规范的制订了过程。 云科透明湖利用交付网关采纳国产高性能 CPU 构建自主可控的硬件平台,提供基于 ARM 架构、MIPS 架构、LA 架构 (龙架构)和英特尔架构四个不同零碎架构的利用交付解决方案,性能从 5Gbps 到 160Gbps;反对国密算法,实现基于国密算法套件、双证书体系的 HTTPS 协定,能够满足绝大多数企业客户诉求。 高效的软件架构,内置丰盛的负载平衡算法,健康检查形式、会话放弃策略,而且还在一直补充更新;反对脚本定制,能够提供更大的灵活性; 灵便治理形式,所有配置管理与监控性能均提供 Restful API 接口, 实现 CLI、WebGUI 和第三方利用无缝治理,为实现软件定义利用交付奠定松软的根底; 云科透明湖系列利用交付网关还具备丰盛的平安性能,内置 ACL 访问控制、DDOS 防护、HTTP_Flood 防护、WEB 平安防护、HTTP 协定荡涤、SSL 卸载等平安防护性能,兼具高效能设计和扩展性设计两个设计理念。 数智化时代,从传统架构平滑过渡到云原生架构,实现兼容和协同,可持续性服务是一个要害。然而,传统行业和企业里的存量零碎,仍旧背负着惨重的技术债权和历史包袱,在技术革新与架构演进路线上举步维艰。 云科透明湖系列提倡可继续运维治理,历史配置一键迁徙、治理界面统一、全局负载平衡下通明联动,以及 NGINX、F5、云科透明湖对立平台集中管理,站在客户角度实现平滑切换体验。 此外,云科透明湖正致力于在传统利用交付网关中减少遥测性能、API 治理、蓝绿公布、灰度公布等新个性,通过在稳态设施上减少敏态个性以帮忙企业从容面对数云时代的到来。 云科透明湖的愿景是买通云管边端,构建卓越数字化体验的利用公布平台,这也是咱们的使命!

October 28, 2022 · 1 min · jiezi

关于负载均衡:如何引发一场信创负载均衡领域的大变革

8 月 21 日,神州数码数字中国服务联盟成员代表来到位于北京经济技术开发区的“云科透明湖”产品展厅,加入“走进联盟”首站流动。该流动旨在加强联盟搭档之间的理解与互信,实现社交赋能、资源聚合。神州数码团体常务副总裁叶海强、NTT Ltd. 岱凯中国 CEO 陆志宏、深圳紫金支点技术股份有限公司总经理谢公辉、北京神州新桥科技有限公司总经理江海标、北京网智易通科技有限公司总经理闫俊升、北京休恩赢得科技股份有限公司总经理阚志东、北京凡得科技有限公司总经理海广跃等参加了本次流动。 流动上,云科透明湖首席运营官吴静涛向来宾介绍了云科透明湖负载平衡系列产品的亮点和独特劣势。吴静涛示意,云科透明湖的愿景是“买通云管边端,成为麻利利用公布平台的领导者”。构建服务时要以客户为核心,帮忙客户打造出合乎需要的数据中心,客户须要的是一整套可持续性架构和可用可管的齐备零碎,可持续性和可观测性将会成为将来客户数据中心的建设重点。 利用交付是解决计算和通信技术线路协同问题的关键技术,云科透明湖系列产品能实现利用和网络的无效协同,保障利用零碎可能被平安、高效、可控地拜访,在整个 IT 架构中有着重要的策略价值和丰盛的利用场景。作为负载平衡畛域寰球当先的品牌 f5 的最佳协同者,云科透明湖同时也是信创负载平衡的当先品牌。“信创就选云科透明湖”吴静涛如是说。 在数智化时代,业务可持续性很大水平上和利用可持续性相关联,而利用可持续性的由来就是分布式架构 design for fail 的理念。特指在任何极其状况下,客户的利用都能够放弃继续服务,蕴含突发压力、安全隐患、迭代过程、灾祸等情况下,都能够继续提供高品质服务的设计理念。 目前在市场上有两个次要架构,一个是 f5 体系的多层双活多活架构, 在云、数据中心、设施、门户、利用等各环节实现分布式部署;另一个是互联网云原生的架构,利用弹性和 API 服务实现分布式。在中国企业最关注实现业务的可持续性的背景下,如果有厂商可能将传统架构和云原生架构对立,实现兼容和协同,将会是最佳的可持续性服务。 而在负载平衡被颠覆的过程中, 云科透明湖则研发出了跨品牌架构的对立治理平台和大数据平台,这无疑是实现兼容协同可持续性的重大利好,帮忙客户以最小的危险实现换代,晋升可持续性能力。流动结尾,神州数码团体常务副总裁、数字中国服务联盟秘书长叶海强在交换环节中示意:数字中国服务联盟就是要通过社交化的平台,实现资源与业务的聚合,拉通品牌、产品、工程师、解决方案等资源,成为守业公司的加速器。 联盟执委会成员陆志宏、江海标、谢公辉等先后发言:数字中国服务联盟要秉持“共建,共治,共享”的主旨,真正做到“做生意、交朋友、享将来”,通过系列的成员单位走访流动,加强联盟搭档之间的互信,打造 IT 畛域里的资源汇聚平台。

October 28, 2022 · 1 min · jiezi

关于负载均衡:信息技术国产化浪潮中云科通明湖如何助力企业转型蝶变

当下,要害公共服务环境面临着不同的信息安全挑战,尤其是政府机构、公共安全部门、社会服务组织等,其信息系统对于平安自主可控产品的需要一直增长。然而任何行业要想实现“自主可控”,绕不开利用交付这个细分品类。 利用交付技术作为解决计算和通信技术线路协同问题的关键技术,实现利用和网络的无效协同,肩负着保障业务平安、间断、稳固运行的重要使命,在整个 IT 架构中有着重要的策略价值。但在国产化方面,利用交付畛域始终面临难题。在自主可控的大潮感召下,着力解决利用交付畛域国产化问题,云科透明湖负载平衡产品正式推出。 云科透明湖研发团队通过五年的自主研发和继续打磨,实现了云科透明湖系列利用交付产品对海光、兆芯、飞腾、龙芯、鲲鹏五大国产硬件平台的适配,以及对麒麟、Loongnix 等操作系统的适配,是齐全的中国芯、中国造。团队曾以专家身份参加信创规范的制订,保障产品可能 100% 满足信创规范,为国内企业提供平安自主可控的利用交付解决方案。 在某军工行业公司的负载平衡我的项目中,作为国有大型军工企业,其坚韧不拔贯彻落实国务院国资委《对于放慢推动国有企业数字化转型工作的告诉》,以信息化为依靠,一直向数字化、智能化转型深刻推动。但随着业务规模的不断扩大,以及国际形势的影响,其在服务器负载平衡方面也产生了新的需要: 面对一直增长的外部拜访需要,保障 ERP(企业资源打算) 和 PDM (产品数据管理)零碎的高可用;在引入多服务器并行处理事务,以解决计算资源有余的状况下,通过双链路捆绑,进步链路带宽,并实现链路间的相互备份冗余;实现对多业务零碎服务器间的负载平衡,保障服务器平均分配压力,正当地分流外部用户发动的拜访;全国产、全自主可控、高牢靠、平安。为解决以上问题,该公司抉择采纳两台云科透明湖系列利用交付 ADC3500 设施部署为双机模式,对服务器进行基于轮询算法的负载平衡;同时,也保障了负载平衡设施无单点故障,实现高可用性;应用会话放弃策略,确保和业务服务器会话验证工夫长度统一;此外,通过 tcp 状态检测,实现服务器的实时健康检查性能。 在云科透明湖系列利用交付产品的帮忙下,实现了高效、平安、牢靠的负载平衡性能,充分利用了硬件资源,开释服务器性能。而且在后端服务器保护时,仍可放弃业务失常拜访,防止业务中断。通过实时监控,把握各服务器的运行状态,及时对硬件故障做出应答。最终,达到了显著晋升 ERP 和 PDM 零碎性能和稳定性,并且全副国产化,实现高可用自主可控,为该公司信息化系统升级带来助力。 云科透明湖系列利用交付产品,由神州云科齐全自主研发,领有比肩世界一流产品的水准,凭借全国产、高性能、平安可控、高效能设计、扩展性设计等五大劣势,博得了合作伙伴的青眼。 性能方面,云科透明湖系列产品采纳 Restful API 架构设计,隔离数据处理从而与整个管制立体实现松耦合,使客户在部署利用时能更好的使用各种云原生技术,为将来的软件定义利用交付奠定根底;内置的可编程网络技术 Smart Rules,实现更加精细化的流量编排和治理;提供从 5Gbps 到 120Gbps 的吞吐率,反对万兆端口和 40G 端口,整个产品基于高可用性设计,实现亚秒级切换。 安全性方面,云科透明湖系列产品通过加密通信为外围数据加密,通过集中管理平台实现对多种数据的剖析,配合网络防火墙、DDOS 防护、HTTP Flood 防护、HTTP 协定荡涤、Web 利用防火墙为数据中心和企业的要害利用提供十分无效的平安爱护。 高效能设计方面,云科透明湖系列产品通过弹性计算进行流量的管控,能帮忙企业客户节约 30% 的互联网带宽,进步 60% 的广域网络客户拜访效率,实现 5 倍的均匀 HTTP 压缩,节约 50% 的服务器计算资源,确保云计算的使用率能进步到 80%,帮忙企业降低成本,进步投资回报率。 扩展性设计方面,云科透明湖系列产品通过服务器负载平衡、多云智能全局负载平衡、链路负载平衡、硬件可定制化无效实现了产品的可拓展。 云科透明湖系列利用交付产品目前已失去金融、政务、医疗、能源等泛滥行业客户的信赖,并为客户的信息化、数字化转型带来了显著的晋升。将来,团队将持续加大研发投入,一直晋升产品服务能力,为企业数据中心和云计算保驾护航!

October 28, 2022 · 1 min · jiezi

关于负载均衡:面试官聊聊长连接下的负载均衡

长连贯介绍说长连贯,与之对应的是短连贯,对于这两个的介绍网上比拟多,这里只用一个表格来总结下他们的工作流程、优缺点、实用场景等: 长连贯负载平衡长连贯为什么须要负载平衡长连贯单机的连接数是存在下限的。 存在下限的起因,可能有同学认为是单机的端口数限度,也就是常常听到的问题「一台服务器最多能撑持多少个 TCP 连贯?」 有人答复「65535」,其实不然,如果硬件限度不思考,单机能撑200多万亿个 TCP 连贯,但这太现实,事实是撑个百万连贯还是能够的。 从教训来看,CPU 和 内存是限度连接数的次要起因。 内存不用多说,每个连贯的放弃都要占用一点内存,一条空连贯,也要占用几 KB 的内存,如果再塞点数据,几百 KB 到几 MB 也是常有的事,按一条连贯 1MB 算,一台 128GB 内存的物理机能撑十几万的连贯。 其次是 CPU,咱们下面说了长连贯的场景个别是单个客户端操作频繁,这就会导致每减少一条连贯,CPU 耗费就减少一些,个别单机能撑十万的连贯,曾经算是能够了。 基于单机性能和高可用容灾的思考,生产环境长连贯服务通常会部署多个节点,为此,咱们须要思考长连贯服务的负载平衡问题。 长连贯负载平衡粒度与短连贯每次申请都做负载平衡策略不同,长连贯不光有申请粒度的负载平衡,还有连贯粒度的负载平衡。 申请粒度负载平衡的实现形式是一个客户端与每个服务端都建设连贯,发送申请时依照某种负载平衡策略抉择一个服务端进行申请;连贯粒度的负载平衡则是客户端在建设连贯时依照某种负载平衡策略筛选一个节点进行建连,后续申请都发往这个节点。 如何抉择次要是考量单个服务端可能的连贯数量,如果连接数远不是瓶颈的时候(集体认为万级以下),可思考申请粒度,否则连贯粒度的负载平衡策略更佳。 举个例子,Dubbo 一个 Provider 节点和来自订阅 Consumer 的所有节点都建设了连贯,前提是 Dubbo 一个 Provider 根本不太会可能被几万个节点生产,所以 Dubbo 能够做申请粒度的长连贯负载平衡。但如果是 Nacos,所有须要服务发现的机器都要和 Nacos 服务端建设连贯,长连贯数量就和公司服务器数量级相干,规模大的状况,几万、上十万、百万也是有可能的,所以如果 Nacos 也像 Dubbo 那样设计,就无奈撑持大规模服务发现了。 连贯粒度的负载平衡对于长连贯,连贯粒度的负载平衡问题遇到得更多,所以这里着重阐明下。 连接数平衡因为连贯建设之后,除非异样不会断开,所以问题就来了,如果某一个节点的连接数相比拟其余节点要多出很多,这种就属于不平衡了。呈现这种问题的状况最常见的就是服务端公布(重启)。重启时服务不可用,该节点原先的连贯会断开,找到存活的节点进行连贯,当这台服务起来时,它的连接数将非常少。如果是一轮公布,最先公布的机器最初连贯数最多,最初公布的连接数起码。 这种状况下,咱们能够调整建连的负载平衡算法为最小连接数模式,当服务重启实现后,后续的连贯就能全副连贯到此节点。 但这个办法并不总是见效,因为服务在重启时,断开的连贯曾经和其余节点建设了连贯。 这时咱们可能须要额定的平衡伎俩,如定时从全局视角看各个节点的连接数是否平衡,如果不平衡则要断开最多连贯的节点,直到均衡。 这里咱们的客户端须要对连贯的断开解决特地小心,当然我感觉这是必须的。 但也要阐明一点,如果连贯不是长时间放弃的,额定的平衡伎俩可能就不须要了,等一会就天然均衡了。这种产生在什么状况呢?比方公网的长连贯,客户端的网络状况没内网那么好,常常断开连接,这就相当于帮咱们主动平滑连贯了。 如果是内网服务,连贯能始终放弃,额定的均衡伎俩就显得有必要了。 服务器规格不同咱们通常为了单机能放弃更多的长连贯,个别会选用物理机部署服务,有时候各个物理机规格不对立,如果咱们的平衡伎俩厚此薄彼,每个节点连接数差不多,规格差的服务器可能压力就比其余机器大。 所以建连的负载平衡算法和额定的平衡伎俩也要思考服务器规格,能够简略地把服务器规格与以后的连接数形象为一个权重,客户端建连时加权再抉择。 扩容有效问题咱们的长连贯服务理当是可程度扩容的,连接数变多,加机器就能够,咱们的设计大多也是如此。 但有时候可能不小心,导致程度扩容有效。 举个例子,还是注册核心,假如有3个节点的注册核心集群,此时有 1w 个客户端连上来,订阅了各种各样的服务,因为客户端的数量远远大于注册核心节点,所以根本能够认为每个注册核心节点订阅的服务是差不多的,近似每个服务的变更,每个注册核心节点都要解决,CPU 耗费天然就多了。如果把注册核心节点扩容为5台,其实每台服务只是少了一点连贯,但仍然每个注册核心节点还是近乎要解决所有的服务变更。 这种状况下就要扫视长连贯服务设计的是否正当,个别采取分层的思维,长连贯这层服务只专一推送,个别称为通道层或者 session 层,它并不简单简单的计算逻辑。 ...

October 27, 2022 · 1 min · jiezi

关于负载均衡:5大负载均衡算法-原理图解

负载平衡,是分布式架构的必备技术,也是进阶的 必学技术,须要重点把握。 本文我会重点详解负载平衡的 5 大外围算法 @mikechen 咱们先来看一张典型的集群和负载平衡架构图: 当一台机器不能接受拜访压力时,咱们大多会通过横向减少两台、或者多台服务器,来独特承当拜访压力,来极大的升高后端的拜访压力,晋升用户的拜访性能。 然而,从一台扩大到多台服务器后,如何将客户端的流量、散发到具体的服务器呢?是通过服务器 1 、还是服务器 3 ? 这就波及到了具体的负载平衡算法。 目录 1.  轮循2.  加权轮循3.  随机4.  起码连贯5.  源地址散列1.  轮循 轮询很容易实现,将申请按程序轮流调配到后盾服务器上,平衡的看待每一台服务器,而不关怀服务器理论的连接数和以后的零碎负载。 适宜场景:适宜于应用服务器硬件都雷同的状况。 2.  加权轮循 在轮询的根底上依据硬件配置不同,按权重散发到不同的服务器。 适宜场景:跟配置高、负载低的机器调配更高的权重,使其能解决更多的申请,而性能低、负载高的机器,配置较低的权重,让其解决较少的申请。 3.  随机 通过零碎随机函数,依据后盾服务器列表的大小值来随机选取其中一台进行拜访。 随着调用量的增大,客户端的申请能够被平均地分派到所有的后端服务器上,其实际效果越来越靠近于平均分配流量到后盾的每一台服务器,也就是轮询法的成果。 4.  起码连贯 记录每个服务器正在解决的申请数,把新的申请散发到起码连贯的服务器上,因为要保护外部状态不举荐。 5.  源地址散列 依据服务消费者申请客户端的IP地址,通过哈希函数计算失去一个哈希值,将此哈希值和服务器列表的大小进行取模运算,失去的后果便是要拜访的服务器地址的序号。 适宜场景:依据申请的起源IP进行hash计算,同一IP地址的客户端,当后端服务器列表不变时,它每次都会映射到同一台后端服务器进行拜访。 以上,是 5 大负载平衡算法及其原理的解析,对把握及应用负载平衡,具备肯定的参考价值,倡议珍藏、常常温顾。 如果感觉有用,请 点赞 + 转发 反对下,谢谢。 作者简介陈睿 | mikechen , 10年+大厂架构教训,「mikechen 的互联网架构」系列文章作者,专一互联网架构技术。 「mikechen 的互联网架构」的 40W 字技术文章合集:Java并发 | JVM | MySQL | Spring | Redis | 分布式 | 高并发 关注「 mikechen 的互联网架构 」公众号 ,回复 【架构】 ,即可取得。

October 25, 2022 · 1 min · jiezi

关于负载均衡:消失与存续应用交付行业的跌宕演进

1996 年,一家名为 Foundry Networks 的公司在硅谷成立,次要研发售卖交换机、路由器等网络硬件产品。 那年是“互联网泡沫”造成的初期,美国 IT 行业的新公司如雨后春笋。能够设想,过后这家公司的成立,兴许并没有溅起太大的水花。 但在短短三年后,Foundry 就在纳斯达克上市,并创下多项纪录,成为华尔街最受注目、最具成长后劲的初创企业,甚至入选过美国 500 强。 转瞬又几年,时局渐变。2008 年,Foundry 被 Brocade 以大概 26 亿美元的价格收买,这场收购案兜兜转转数月才最终敲定,还因为股票价格上涨而被压价。到现在,Foundry 已泯然众人。 扛住了泡沫破裂,却没扛得住收买。 当初决定缩小 4-7 层交换机产品投入的 Foundry 创始人 Bobby Johnson,看到与 Foundry 同年成立、当初如日中天的老对手 F5,不知会作何感想。 4-7 层交换机这个词,对于初入网络行业的敌人可能比拟少见,明天,大家或者更习惯它的另一个称说——负载平衡。 作为最早推出负载平衡设施的厂商,当年的 Foundry 前程似锦。依照个别的剧本,由负载平衡概念演进而来的利用交付,理当是他们的拿手好戏。 但变动是永恒的,历史总会走上一条少数人未曾构想的路线——包含技术自身。 如何了解利用交付随着数字化过程一直被推动,利用大量涌现、访问量飙升,为了保障利用和内容的平安高效拜访,利用交付技术便应运而生。 利用交付部署在网络和利用之间,将两者深度联合、无效协同,致力于将利用以高效、平安、稳固的形式交付给最终用户。为了实现这一指标,利用交付交融了负载平衡、利用平安治理、利用减速、流量管制等多种技术。在 IT 利用架构中,利用交付位于互联网与数据中心之间的咽喉要道,因而领有重要的策略价值。 责任越大,挑战越大。对于企业来说,这种挑战可能更多在于如何更好地、正当地施展利用交付的价值,为业务利用赋能。而对于利用交付自身来说,挑战则在于如何更好地把握技术倒退方向。 当咱们心愿对将来趋势有一些洞察时,回顾利用交付的倒退历程,是很有必要的。 在利用交付之前在互联网的古早期间,用户访问量少之又少,往往只靠单台服务器就能满足对外服务需要。但随着互联网的遍及,越来越多的用户接入网络,业务流量也天然水涨船高。 当单台服务器无奈应答流量增长、撑持服务运行的时候,通常有两种解决办法: 换更好的服务器加更多的服务器也就是咱们常说的纵向扩大(晋升单台服务器的计算、存储、网络等资源配置)和横向扩大(通过减少多台服务器同时工作,满足大型利用解决需要)。 第一种办法兴许够简略粗犷,但单机性能总是有下限的,而且少数状况下,机器性能的晋升与价格并非呈反比。因而,以多台服务器组成集群,同时承载业务利用,作为一种更理论的解决方案被大家广泛承受。 但此时又面临一个新的问题,业务负载如何调配?多台服务器之间如何协调? 首先咱们看看若不做协调会产生什么?业务流量达到后端时得不到无效管制,呈现工作调配不均的景象:有的服务器曾经超负荷运行,有的却处于闲暇状态。这岂但造成了极大的资源节约,同时也会影响用户的拜访体验。 负载平衡的呈现,就是为了解决这一问题。它能够构建在现有的网络结构之上,作为流量入口,对流量进行调度,将其平衡地调配到集群中的不同机器上。 DNS 负载平衡实现最后,实现负载平衡采纳的是 DNS(Domain Name System,域名零碎)办法。 DNS 实质上是一个分布式数据库,可能将域名和 IP 地址互相映射,使互联网拜访更不便——人们在拜访网站时,只需记住网站的域名即可,而无需记住简单的 IP 地址。 利用 DNS 实现负载平衡,是通过 DNS 服务中的随机名字解析来实现的,在 DNS 中为多个域名地址配置同一个名字,查问到这个名字的客户机将在解析时失去其中一个地址。从而使拜访同一网站的不同的客户机失去不同的域名地址,也就拜访了不同的服务器,从而达到负载平衡的目标。 ...

October 20, 2022 · 2 min · jiezi

关于负载均衡:高达每秒100多个作业吞吐量这一款IT运维国产神器杀疯了

国产神器 TASKCTLTASKCTL 是专门为批量作业调度自动化打造的一款业余的麻利调度工具,批量调度自动化技术是大数据时代数据整合后盾不可短少的重要技术。当初数据是整个社会和各企业个人的重要资产,管好数据、用好数据是整个社会的重要命题。 想要用好数据,实现企业数字化疾速转型,首先就应该管好数据。而批量调度自动化技术,正是管好数据的重要保障。在泛滥大大小小的数据仓库、数据集市以及各类数据池中,是批量调度自动化技术让大量数据的进出、寄存、荡涤、过滤、粗加工、细加工等各种各样的工作有序、高效的开展。 因而,将该技术独立化、系统化、专业化、工具化、产品化,必将给整个 ETL 技术畛域、数据整合畛域带来很大的帮忙,让整个数据整合技术世界变得更美妙。 您能够应用 Web 版,方便快捷:http://demo.taskctl.com/logon.html您也能够下载桌面客户端,Windows、Mac、Linux 平台均反对:http://www.taskctl.com目前, TASKCTL 产品完全免费,欢迎您应用。 产品利用范畴TASKCTL批量麻利调度及其解决方案可广泛应用于银行行业、证券行业、保险行业、能源行业、汽车制造业、电信设施制造业、通信行业、大型连锁超市、百货团体、物流运输业、疾速消费品业、通信运营商、政府行业、互联网行业、医疗行业等其余行业等。能够毫不夸大的说,TASKCTL 实用于任何有数据畛域的行业。目前该产品技术已在政府、银行、保险、证券、互联网、政府、 运营商、能源行业失去了很好的利用。 企业为什么须要业余的调度治理平台1.调度原始落后时至今日依然有一些零碎应用人工调度或操作系统的 crontab 形式调度。在现在谋求自动化甚至智能化的时代已显得十分原始和落后,消耗人力、 容易出错、难以监控已成为这类零碎的致命性问题。 2.应用开源软件调度零碎应用开源软件,学习老本较高并且没有服务保障,bug 修复不及时,生命周期不确定。 3.调度自主研发调度零碎随同我的项目自主研发,投入产出比小并且影响我的项目周期,软件品质也难以保障,需要扩展性差。 4.零碎间协调交互艰难各零碎独立建设,没有对立的规范和标准,无奈简略无效地实现零碎间的交互。运维效率较低,当一个零碎呈现问题,可能须要运维人员一一解决 分割上游零碎确认问题本源。运维效率低下。 5.作业规模变大随着 ODS、BIG DATA 的建设,批量解决作业规模越来越大,绝对应的调度 场景更加多样系统调度逻辑也会更加简单,零碎开发人员很大一部分精 力破费在了调度逻辑的管制上,而非业务解决自身。另外,随着作业规模 的增长,对调度性能和稳定性、扩展性提出了更高要求,一些现有零碎 曾经逐步不能满足要求。 6.零碎越来越多带来治理和运维艰难零碎越来越多,不同零碎,技术要求不同,批处理作业管理越来越简单,IT技术异构危险变大。一个技术人员很难同时相熟多个零碎,导致须要 大量的技术人员别离治理和运维。夜间值班人员同时开着十几个甚至更多 多个监控屏幕也成为常态和痛点。这些问题也很显然地造成了运维投入的 一直减少。 您能够应用 Web 版,方便快捷:http://demo.taskctl.com/logon.html您也能够下载桌面客户端,Windows、Mac、Linux 平台均反对:http://www.taskctl.com目前, TASKCTL 产品完全免费,欢迎您应用。 TASKCTL 的外围劣势TASKCTL 定位于(集体学习/企业我的项目)对立调度监控治理平台。致力于为(集体学习/企业我的项目)的批量解决作业制订对立的开发标准、运维办法,对各零碎的批量作业进行对立治理、调度和监控。可用于帮忙用户轻松构建自动化、规范化批量调度治理平台,也可用于撑持大数据时代下数据流向的调度治理自动化等,造成专门的解决方案。同时 TASKCTL 还提供元数据管理、数据关系剖析、版本控制、日志剖析等欠缺的辅助治理性能,为企业提供数据迁徙、数据仓库、数据标准化、数据同步、数据备份、数据交换以及企业定制化二次开发在内的一体化整合服务。 弱小的调度监控治理能力性能包含串行、互斥、并行、断点续跑、执行打算、容错策略、循环、 自定义控制策略、关系策略、近程调度、负载平衡等性能。【串行调度】串行调度即依赖调度,依赖调度是调度软件最根本的性能,它决定 了作业之间的执行程序关系。如果 A 作业依赖 B 作业,那么 A 作业必须让 B 作 只有执行胜利后,才能够执行 A。【并行调度】并行调度也是调度最根本的性能,它示意多个并行作业之间能够同时执行。【互斥调度】互斥调度是指两个作业之间不能够同时执行,A 与 B 互斥,A 执行 时 B 不能执行,B 执行时 A 不能执行。【断点续跑】断点续跑指流程因某个作业运行失败被迫中断,通过人工解决后, 流程会主动从中断的作业开始持续往下执行。【执行打算调度】执行打算是指按预约打算工夫执行,在 ETL 解决中是尤为重要 的。比方作业按日执行、按周执行、按月执行等都属于执行打算。执行打算在 ETL 中,有两种形式,一种是按逻辑业务日期制订打算;一种是按天然日期制订打算。TASKCTL 在一个流程中能够同时反对该两种打算。 ...

July 15, 2022 · 1 min · jiezi

关于负载均衡:怎么才能一次性通过阿里云ACP考试

这几年有不少人想考阿里云ACP认证证书,心愿能进入IT行业,取得良好的倒退,然而很多人不晓得该怎么样能力报名、该怎么学习、通过考试,上面就和小编一起理解一下吧。 这几年有不少人想考阿里云ACP认证证书,心愿能进入IT行业,取得良好的倒退,然而很多人不晓得该怎么样能力报名、该怎么学习、通过考试,上面就和小编一起理解一下吧。 阿里云是目前咱们国家占市场份额最大的云计算企业,各行各业的龙头企业都抉择和阿里云单干,比方中国联通、微博、知乎、中石油等等,而且阿里云领有我国惟一一套齐全自主研发的云计算零碎——飞天零碎。 而为了满足宏大的市场需求,阿里云也推出了本人的云计算人才认证零碎,越来越多的人抉择考取这个证书。近几年我这里有不少人都想考据书,而且他们总是不谋而合的问我一个问题,怎么能力一次通过考试? 其实阿里云ACP云计算考试的难度不是特地高,只须要考口试,只有通过口试就能拿到证书,所以一次性通过的几率是十分大的,尤其是在有题库的状况下。想要题库的,能够看看这篇文章。(https://www.ls102.com/p1127.html) 阿里云ACP云计算考试内容 1、云服务器 ECS 2、弹性伸缩(Auto Scaling) 3、负载平衡 SLB 4、专有网络 VPC 5、对象存储 OSS 6、内容散发网络 CDN 7、平安(云盾、云平安) 8、云计算通用常识 及格分数:100\80 考试工夫:120min 考试模式:口试

July 11, 2022 · 1 min · jiezi

关于负载均衡:腾讯云TCP考哪个好怎么备考

腾讯作为我国最早研发云计算的企业之一,早早追随市场的需要推出了人才认证零碎,近几年越来越多的人抉择进入这一行,他们最先考取的就是腾讯云TCP认证,这个证书在行业内含金量十分高,考下后能够取得进入华为云的机会,还有机会进入腾讯云的各大合作伙伴。 腾讯云TCP简介 腾讯高级工程师培训,依据不同的技能分为了云开发、云运维、云构架三个方向,每个方向考试内容各不相同。 1、腾讯云高级开发工程师培训 实用于须要在云上进行云原生利用设计与开发的腾讯云开发高级工程师,以及想要深刻理解麻利、DevOps、微服务、容器、技术中台、人工智能等前沿技术的开发人员 通过实践精讲、操作演示和上机试验相结合的形式,系统性地介绍云原生利用设计与开发。本课程将基于前沿技术理念,联合腾讯云平台,介绍云原生的整体概念及具体的落地实际,包含麻利方法论及实际落地、DevOps方法论及实际落地、微服务和Kubernates整体架构及落地应用。本课程还将基于云原生整体技术介绍技术中台的设计,以及人工智能技术的利用开发。 2、腾讯云高级运维工程师培训 适宜从事云端系统维护的运维工程师,以及冀望理解简单业务场景下的腾讯云运维实际的人群,如:云解决方案销售工程师、开发工程师等。 通过实践精讲与上机试验相结合的形式,系统性的介绍如何在腾讯云平台上进行立体化监控、实现云上微服务、自动化运维、上云迁徙、云运维平安、云上业务故障解决和费用治理等高级保护。 3、腾讯云架构高级工程师培训 实用于负责设计云上简单业务架构的腾讯云高级架构师,以及须要针对不同行业设计云上解决方案的技术人员。 次要通过实践精讲与试验操作相结合的形式,基于腾讯云平台,系统性地介绍设计云上简单的业务架构的办法。本课程先从整体角度介绍企业云架构设计的方法论,而后别离介绍布局和设计上云迁徙、云原生、高可用、业务流量顶峰解决、信息安全、大数据、混合云、AI、游戏行业和视频行业解决方案的办法,最初通过架构设计实际演练及案例探讨与理论知识进行交融。 腾讯云TCP例题 1、(2.0分)某挪动端音视频服务商采纳腾讯云的CDN和COS产品解决方案,实现音视频的存储和减速散发等性能。最近,该挪动端利用须要公布新版本安装包,为了进步用户的下载速度和体验,您倡议能够采取以下哪一种形式? A.启用CDN的缓存刷新性能B.启用CDN的防盗链性能C.启用CDN节点的缓存预热性能D.开启分片回源配置性能 2、(2.0分)某电商平台次要的业务零碎包含交易/下单零碎、库存管理系统、积分管理系统和物流管理系统,各个系统都承载在腾讯云的云服务器CIM上。该平台的业务流程如下∶用户下单付款后,库存管理系统要刷新,积分管理系统为用户赠送积分,物流管理系统更新物流信息。该平台在业务量大的时候,往往会呈现交易/下单响应慢、甚至交易失败等问题,因为交易/下单零碎须要期待其余3个零碎响应之后,能力响应用户交易实现,任意零碎呈现故障,也会导致交易失败。但实际上这几个零碎相互之间没有依赖关系,不需期待其余模块的后果就可独立执行。针对该电商平台的这一窘境,您感觉应用以下哪一项优化计划最合适? A.联合内容散发网络CDN放慢用户拜访电商平台的速度B.联合API网关实现流量管制C.通过音讯队列CMQ实现利用零碎的异步解耦D.通过TDSQL实现数据层的分布式架构

June 23, 2022 · 1 min · jiezi

关于负载均衡:阿里云认证有什么哪个值得考

智能化生存是人类社会将来的发展趋势,越来越多的企业生产相干产品,或者转型,绝对应的就须要大量的人才来开发、经营和保护这些产品,由此阿里云推出人才认证体系。接下来和小编一起理解一下吧。 阿里云认证介绍 阿里云认证依照技术专业性分为三个等级,别离是阿里云ACA、阿里云ACP以及阿里云ACE认证,每个等级又依据产品的不同分成了十几个职业,接下来小编以ACP云计算工程师为例,进行介绍。 认证:阿里云云计算工程师ACP认证 适宜人群:在校生或者有肯定工作教训的人,且未来心愿从事阿里云云计算产品的架构、开发、运维人员等工作 考试内容: 1、云服务器 ECS 2、弹性伸缩(Auto Scaling) 3、负载平衡 SLB 4、专有网络 VPC 5、对象存储 OSS 6、内容散发网络 CDN7、平安(云盾、云平安) 8、云计算通用常识 考试费用:1200 考试工夫:120min 考试模式:口试 哪个值得考 依照难度来说,当然是ACE高级工程师,能通过的人曾经把握了相当难度的常识,证书拿出去也十分能哄人,然而综合下来其含金量并不是很高,因为这只针对于架构师方面的常识,而含金量最高的是ACP有肯定难度和专业性,所面向的职业也多,考取后待业范围广。而ACA的难度和含金量在三者中都比拟低,适宜没有什么技术、教训的人员,未来多从事简略的销售、运维、开发等工作。大家能够抉择须要的考取。

June 15, 2022 · 1 min · jiezi

关于负载均衡:阿里云认证难考吗该怎么准备才能通过考试

在云计算行业一直倒退的环境下,越来越多的人抉择进入这一行,为本人挣得最大的利益,想让用人单位一眼看到你,并取得良好的待遇,阿里云认证相对能帮你实现,甚至于有很多用人单位会优先录取领有阿里云证书的人。然而很多人面对官网上的各项认证、课程,基本不晓得该怎么温习、筹备,接下来认证大使就带你一一理解。 考试内容 阿里云认证考试内容根本是对于旗下产品的,包含有大数据计算服务(60%)、Data IDE(25%)、数据集成(10%)以及其余云产品配合的利用架构(5%),次要分为服务器、贮存、平安、网络四大板块,最次要的还是要熟知阿里云旗下的产品。而且只有认真学习过、刷过题,考试的通过率是很高的。 然而考试的题库要谨慎抉择,很多人在网上轻易寻找几个题库,或者图便宜从一些小渠道弄来题库,然而这些都没有保障,很可能是节约了工夫又节约了钱,最好的抉择是从正规的培训机构报名。他们不仅会 提供题库,还会有专业培训,让你的考试之路更加平坦。

May 25, 2022 · 1 min · jiezi

关于负载均衡:服务可用性成险企智能运维关键破局能力博睿数据APM下场助力

在我国经济进入新常态的背景下,数字化转型正在成为当下各行各业经济增长的驱动力。 从政策角度来看,近几年,银保监会公布了多项监管政策及领导意见,波及财产险、健康险、互联网保险等畛域,并在政策中屡次强调了利用现代科技技术改造和优化传统保险业务流程。 从市场角度来看,保险行业仍处于全域数字化倒退初期。从2014年到2019年,保险业务线上化渗透率只维持在6-9%左右,且增速较慢,传统的线下化渠道模式仍为支流,这意味着数字化仍有较大倒退空间。 另一方面,疫情给保险行业带来挑战的同时,也减速了行业的数字化转型,倒逼保险行业摒除粗放倒退的模式,搭建数字化中台,实现翻新与业务模式的符合。 显然,对于保险行业而言,使用大数据、云计算、区块链、人工智能和5G等信息技术晋升业务拓展、经营治理效力,在渠道、产品、服务、风控、生态等方面减速迭代,重塑竞争劣势。数字化转型已不是“选择题”,而是关乎生存和久远倒退的“必修课”。 保险行业的“角色转换” 在数字化转型与疫情倒逼的双重压力下,整个保险行业正在面临新挑战。 一方面,竞争新常态下,数字化、数据化成为了各大险企破局的要害,使用大数据、云计算、区块链、人工智能和5G等信息技术晋升业务拓展、经营治理效力成为各大险企的首要抉择。 因而,对于险企而言,第一个角色转换是用户服务的转换。 据博睿数据的售前介绍:“从保险诞生那天开始,它的实质就是一个契约,出现模式是保单。对保险公司来说,它的零碎更多的是来记录每一张保单的信息,并没有把用户需要与服务包容进去。但在互联网时代,保险早已不仅仅是一个契约,它更是一种数字化商品,能够与客户进行交互甚至能够进行定制化。这种状况下,原有的以保单为核心的零碎就无奈满足客户需要的多样性。” 传统保险的模式以与客户的交互为重点,这样情景下的服务,好与不好,客户都将刻骨铭心。而且,保险施展的大多是出险后的经济弥补,这就是传统保险的特殊性。以往保险行业更多地聚焦效力的晋升、价值链的优化,而在大数据智能时代,服务的晋升和服务的延长成为最大特点。 而随着保险业务的疾速倒退,服务性能和零碎架构日趋简单,迫切需要建设一套智能高效的预警监控体系,实现对服务器、数据库、网络环境和零碎利用的全面笼罩。 另一方面,则是交易模式的角色转换。 疫情期间,受市场需求驱动,科技赋能的智能服务和人机协同的服务模式,成为业内在短时间晋升保险服务能力的新思路。 具体来看,该类经营模式在新契约回访、智能调度、查看回访、理赔结案回访、续保统计、生日节日祝愿、满意度回访等环节无效地节俭了人力,并且凭借其24小时在线、服务水平稳固和继续学习等长处,在晋升效率之外也对客服体系进行了重构,从更宽泛的服务样本中反馈数据、发现问题、优化产品与流程。 短期来看,险企均存在升高金融风险和经营老本、晋升客户体验与品牌认知的需要。 长期来看,如何均衡老本治理与客户体验的抵触,依据不同场景提供差异化、精细化服务,这都是保险公司要面对的问题。主力保险的生产人群正在转向90、00后时代,首次购险年龄随因出世年代而出现年轻化的态势,这正在倒逼保险企业进行产品与渠道翻新,寻找触达年老生产人群的形式。 由此可见,“数字化转型”不仅仅是以后行业应答疫情带来的“短期冲击”的应急动作,在中长期更是企业抓住技术倒退窗口期,是构建本身在下一个网络时代的外围竞争力的必要动作。 博睿数据APM 下场,助力险企智能运维 放诸于具体企业中,其面临的挑战则次要集中在智能运维方面。就博睿数据的某险企为例,在智能运维方面,其面临的挑战次要有以下几方面: 一是其原有的服务器硬件、网络流量、数据库等方面的告警只是被动承受信息,无奈看到重点零碎在上线前后的稳定状况,不足优化服务以及接口的精细化工具。 二是新零碎关注业务服务的可用性,业务应用正确率,线上问题的及时发现和诊断;老零碎重点关注服务稳定性和性能优化,独特难题是不足从服务器、中间件、服务代码层的业务流程的解决联调工具。 三是利用零碎的利用性能问题较多,通过以往运维教训排查问题滞后于用户和业务部门的反馈。 基于此,博睿数据通过APM 对系统服务端部署探针,减少了对服务层和应用层的智能监控能力,获取了零碎、中间件和利用代码层的性能数据,主动实现零碎拓扑构造可视化,并通过透视应用程序和设施关联关系,提供代码级的问题定位能力,达到了大幅晋升定位效率和显著进步故障解决时效的设计指标。 一方面,依据APM构建新老零碎全链路问题追踪体系,联合根底设施信息、接口分位值、代码堆栈,疾速定位故障域。问题发现效率从小时级别晋升到分钟级别;我的项目评估体系实现从0到1的冲破。 另一方面,从报警优化动手,通过故障被动发现能力和慢sql慢接口的定位能力,疾速找到故障所属部门,帮忙其外围业务问题解决效率从小时级别优化到分钟级,大大提高了工作效率。 总体而言,博睿数据为该险企互联网业务疾速倒退提供了强有力的零碎保障,并倡议该险企采取早预警、早发现、早定位、早化解的形式无效化解潜在零碎危险,对保障系统服务水平和推动公司高质量倒退具备重要意义。 今后,博睿数据将继续打磨产品能力,助力更多企业数字化转型。

April 19, 2022 · 1 min · jiezi

关于负载均衡:一文读懂可观测性与Opentelemetry

作者:博睿数据产品经理-刘亚辉 本文分两局部,共3400字,浏览大概5分钟 l 介绍可观测性 l 介绍Opentelemetry的外围概念 重新认识可观测性 管理学巨匠彼得德鲁克有一句话:“如果你无奈掂量它,你就无奈治理它”。在企业中,无论是治理人,还是治理事,抑或是管理系统,首先都须要掂量。掂量的过程其实是收集信息的过程,有了足够的信息能力做出正确的判断,有了正确的判断能力做出无效的治理和口头计划。 上面我用一个简略模型来阐明我对可观测性的了解: 图释:通过观测看到表象,通过判断定位问题,通过优化解决问题。 可观测性形容的就是“观测-判断-优化-再观测”这个闭环的连续性、高效性。如果只有观测而无奈基于观测做出判断,则不能称其具备可观测性。如果只有教训判断而没有数据撑持,也不能称其具备可观测性,这样会导致组织高度依赖集体能力会带来治理危险。如果优化之后无奈反馈到观测上,或者因优化引入新的技术而导致无奈观测,则其可观测性不可继续。如果在观测、判断、优化的闭环中须要付出很高的老本和承当很大危险,则其可观测性的价值为负。 所以,当咱们在谈可观测性的时候,其实更多思考的是观测者、管理者的感触,也就是说在咱们遇到问题的时候,是否轻而易举地在观测平台找到答案,没有阻力也没有困惑,这就是可观测性。随着企业的倒退,组织架构(角色、观测者)和治理对象(零碎、被观测者)都会随之倒退变动,当应用了一堆传统的观测工具,却依然无奈满足观测者、管理者新的需要的时候,咱们不禁要问:“可观测性何在?”。 “可观测”不等于“可观测性” 上面,咱们来看一下咱们司空见惯的观测形式。 图释:传统的观测工具是垂直的,观测者须要从多个工具中进行问题判断。 通常咱们会基于本人想要的数据去搭建观测工具。当咱们想理解把握基础设施的健康状况的时候,咱们会很天然的想到搭建一个仪表盘,实时监测各项指标。当咱们想理解业务是如何出问题的,咱们会很天然的想到搭建一个日志平台,随时过滤排查业务日志。当咱们想理解事务为什么高提早,咱们会很天然的想到搭建一个链路监测平台,查问拓扑依赖和各节点的响应工夫。这种模式很好,帮忙咱们解决了很多问题,以至于咱们从不狐疑可观测性,咱们信念满满。偶然遇到大难题,把咱们的仪表盘、日志平台、链路平台关上,所有的数据都在这里,咱们深信肯定能到找问题的根因。即便破费了很长时间,咱们也只是通知本人要多学习,多理解把握本人负责的零碎,下一次我肯定能更快找到根因。是的,当咱们想要的数据都摆在面前的时候,咱们还有什么理由怪罪观测工具。 图释:人脑像一把尺子,依据教训比对多个指标来发现它们的相关性。 图释:当发现指标有毛刺的时候,往往须要在大脑中构建简单的日志查问条件,费时不说还容易出错。 咱们会不辞劳苦地在各种指标数据中寻找可能的关联性,失去要害线索后,咱们会在大脑中结构出一堆简单的日志查问条件来验证本人的猜测。就这样比对、猜测、验证,同时还要在各种工具中切换,不可否认很空虚。 图释:零碎规模宏大的时候,人曾经无奈去定位问题了。 传统的零碎绝对简略,上述形式卓有成效。古代IT零碎的关键词是分布式、池化、大数据、零信赖、弹性、容错、云原生等,越来越宏大,越来越精密,越来越动静,同时也越来越简单。通过人去寻找各种信息的关联性,再依据教训判断和优化,显然是不可行的,耗时耗力还无奈找到问题根因。 传统的工具是垂直向的,引入一个新的组件的同时也会引入一个与之对应的观测工具,这样是保障了数据的全面性,但失落了数据的关联性和剖析排查的连贯性(换句话说,咱们方方面面都监控到了,但遇到问题,还是不能很好地发现和定位)。此时咱们很天然的想到做一个对立的数据平台,设想中把所有数据放在一个平台就能解决关联性的问题,但往往理论状况是咱们只是把数据堆在一个中央,用的时候还是按传统的形式各看各的。咱们只是把无数根柱子(工具),交融成了三根柱子:一个观测指标、日志、链路的对立平台,数据对立了,但关联性还得靠人的常识和教训。 这里边最要害的其实是解决数据关联的问题,把之前须要人去比对、过滤的事交给程序去解决,程序最善于此类事同时也最牢靠,人的工夫更多的用在判断和决策上。这在简单零碎中,节俭的工夫会被放大很多倍,就这点小事就是可观测性看得见的将来。 图释:将来观测工具须要通过工夫和上下文来关联数据 那么,如何做数据关联呢?说起来很容易,那就是做工夫+空间的关联。在咱们的对立数据平台上,因为数据是来自于各种观测工具的,尽管咱们在数据格式上对立成了metric、log、trace,但不同工具的metric、log、trace的元数据截然不同,而如果咱们在这个对立数据平台下来梳理和映射这些元数据的话,这将是庞杂、难保护、不可继续的。那该如何做呢?答案就是标准化。只有将标准化、结构化的数据喂给观测平台,观测平台能力从中发现微小价值。对立数据平台只是在数据格式上进行了标准化,而要想将trace、metric、log关联还必须建设context的标准化,context就是数据的空间信息,再叠加上工夫信息的关联就能够施展真正的观测价值。 Opentelemetry做了什么? Opentelemetry(以下简称:OTel)就是解决数据标准化问题的一个我的项目,OTel由以下几局部组成: l 跨语言的标准规范(Specification):定义了数据、上下文、API、概念术语等的标准。这是OTel的外围,它使得所有观测数据有机地对立起来,这样观测平台能力主动比对、主动过滤,同时也为AI提供了高质量的数据。 l 接管、解决、输入观测数据的工具(Collector):一个用于接管OTel观测数据的工具,并反对通过配置pipeline对观测数据进行解决,输入给指定的后端。 l 各种语言的SDK(SDK):基于OTel规范的API实现的各种语言的SDK,用来反对自定义开发观测数据采集器。 l 采集器(Instrumentation):开箱即用的观测数据采集器。 OTel是开源我的项目,所有内容都能够在Github找到,上面我介绍几个要害的概念: 属性 从数据的角度看属性是一个键值对,实质上属性形容了空间信息,不便从空间上做数据关联。OTel定义了很多通用的属性,如果定义不明确或数据不统一时,是没法主动关联剖析的。上面是Otel定义的K8S的Pod属性: 资源 从数据的角度看资源是一个键值对汇合,实质上资源形容的是观测对象。雷同观测对象的Metric、log、trace都有雷同的资源数据(或称:雷同上下文),这样就能够主动发现相关性。 事件 从数据的角度看事件是一个工夫戳和一组属性组成的,用来形容某个工夫产生了某件事。实质上事件是一个工夫+空间的组合。 指标 从数据的角度看指标是事件的聚合,在一个沉闷的零碎中,雷同的事件会一直产生,指标提供了一个跨工夫和空间的总览。沉迷在细节不肯定有见解,跳进去,从更高的维度鸟瞰可能寻找到灵感。 跨度 从数据的角度看跨度由:操作名称、开始工夫、持续时间、一组属性组成。跨度(又称:span)形容的是一个过程,如果说事件是在一个工夫点构建了工夫和空间的相关性,那么跨度就是在一个时间段上构建了工夫和空间的相关性。 信号 信号是对规范遥测数据的形象,雷同数据模型的数据被归为一个信号。如:一个Metric是一个信号,所有Metric都具备统一标准的数据模型。一个Trace是一个信号,所有Trace都具备统一标准的数据模型。信号有一个重要的个性就是供应商无关,任何可观测零碎供应商要反对OTel,都必须要按OTel的信号模型收集、上报、解决数据,这是保障高效数据关联的要害。 上下文 所有信号都基于雷同的上下文,如:在同一个服务中采集的Metric、log、trace具备雷同的上下文(如:service.id和service.name)。这其实就是在空间上建设的数据的关联。 敬畏工程 OTel在数据层面提供了标准规范和许多拿来即用的工具,大大不便了构建可观测平台,然而真正落地去构建适宜本人的、全面可扩大的、稳固牢靠的、低成本高效益的可观测平台是一个大工程,不是简略引入就能够的。这其中波及到大数据引擎、高基数剖析引擎、关系引擎、AI引擎等零碎难题。此外,如何设计一个简略、高效、精确、协同、业余的平台也不是一撮而就的,须要懂数据也要懂技术还要懂设计。 我把可观测平台分以下档次: 数据展现+人工关联比对+人工判断:大多数传统观测平台在这一层。信息关联展现+人工判断:局部观测平台通过梳理映射能够做一些相关性展现,缩小人工发现的工夫老本。信息判断 x 人工判断:极少局部观测平台做了数据的高度标准化,能够依据相关性给出见解和倡议。信息判断+口头:没有观测工具能只依附工具做判断。博睿在数据采集层有十多年的技术积攒,探针稳固牢靠,部署简略。在数据处理方面也禁受住了大业务量的客户考验,技术上不断创新造成了极具劣势的架构。在数据标准化、结构化设计方面也造成了本人的体系。能够说咱们刚逾越了第2层来到第3层,咱们将从观测广度和深度两个方面丰盛标准化的数据,基于此同时一直深入数据相关性,加上咱们自研的SwiftAI中台赋能,将来将给出更多更精准的信息判断,帮忙客户疾速落地高效可继续的观测--判断--优化闭环。

March 17, 2022 · 1 min · jiezi

关于负载均衡:为BFE编写扩展插件1-–-回调点

扩大插件机制是所有现代化的七层负载平衡开源软件都具备的能力。通过扩大插件机制,能够很不便的为BFE减少新的性能,同时又能放弃BFE代码组织的清晰逻辑。 因为波及BFE扩大插件的内容比拟多,将分为多篇文章来解说。明天首先解说“回调点”。 1. 扩大插件和回调点BFE扩大插件机制是围绕“回调点”来实现的。模块插件的根本工作原理如下: 在BFE的转发过程中,提供多个回调点(参见图1)。在图1中,包含2个解决步骤,3个回调点。对于一个扩大插件,能够针对这些回调点对应编写回调函数(参见图1)。在图1中,扩大插件提供了2个回调函数。在模块初始化时,把这些回调函数注册到对应的回调点(参见图1)。对于某个回调点,注册在这里的多个回调函数造成了一个链表或队列(参见图2)。在解决一个连贯或申请时,当执行到某个回调点时,会程序执行所有注册的回调函数(参见图2)。图1 扩大插件的回调函数和主流程的回调点 图2 在回调点注册的回调函数队列 2. BFE解决的主流程BFE解决的主流程如图2所示。流程次要包含9步,能够分为5个大的阶段(参见图3):(1) 建设连贯和TLS握手(2) 读取申请头部(3) 确定租户、集群、子集群、实例(4) 转发申请和响应(5) 敞开连贯 图3 BFE解决的主流程 3. BFE的回调点设置在BFE中,针对次要的解决步骤,设置了9个回调点(参见图4):(1) HandleAccept: 位于和客户端的TCP连贯建设后。(2) HandleHandshake:位于和客户端的SSL或TLS握手实现后。(3) HandleBeforeLocation:位于确定租户(产品线)之前。(4) HandleFoundProduct:位于确定租户(产品线)之后。(5) HandleAfterLocation:位于确定集群之后。(6) HandleForward:位于确定子集群和实例之后,以及转发申请之前。(7) HandleReadResponse:位于转发申请和读取到后端响应之后。(8) HandleRequestFinish:位于转发响应处理完毕后。(9) HandleFinish:位于和客户端的TCP连贯敞开后。 有了这些回调点,就能够在BFE解决连贯和申请的过程中塞入本人想实现的各种性能了。在编写某个扩大插件时,只须要抉择适合的回调点,编写对应的回调函数。 图4 BFE的回调点设置 一个BFE的扩大插件怎么写?这方面的具体内容将在下一篇文章中细说。心急的读者能够参阅《万亿级流量转发:BFE核心技术与实现》中的阐明。也能够参阅位于 https://github.com/baidu/bfe-... 的在线图书。 欢送关注“BFE开源我的项目”微信公众号,取得本我的项目的更多更新。谢谢!

January 18, 2022 · 1 min · jiezi

关于负载均衡:大型购物平台的系统设计与架构

作者:ReganYue 起源:恒生LIGHT云社区 一、性能要求1.搜寻顾客是否搜寻到他们想要购买的商品以及咱们是否须要展示咱们不能提供给以后顾客的商品。 比方,如果顾客所在中央是因为疫情而管制快递,那么咱们是否给顾客商品的搜寻后果。 2. 购物车购物车是很有必要的,通过购物车能够减少用户购买他们喜爱或想要的货色。而且通过购物车,能够理解用户的爱好,更好的推送给用户他们须要的货色。 3. 结账这是用户确认订单并付款的中央。 4. 查看订单通过这个性能,用户能够查看他们过来的订单。用户也能够通过这个性能查看最近的购物订单的快递信息和预计达到工夫。 二、非功能性需要1. 低提早这个购物平台应该须要非常低的提早,如果在购物的过程中遇到提早会十分影响购物体验。 2. 高可用搜索算法、订单算法等算法都须要高可用。零碎不能长时间呈现故障,这样会失去用户对平台的信赖。 3.高一致性与领取相干的数据与用户信息必须高度一致。购物平台是和钱打交道,不能呈现多处数据不统一的问题,否则会导致经济损失或失去用户。 三、大型购物平台架构1. Elasticsearch集群Elasticsearch 集群是一组具备雷同属性的节点,当有节点退出或有节点来到,集群都会进行一次重组。Elasticsearch 集群在所以可用节点之间均匀分布数据。次要用于搜寻零碎。 2. Cassandra集群Cassandra 是一个点对点分布式系统,由一组节点组成,其中任何节点都能够承受读或写申请。用于历史订单零碎和举荐服务零碎。 3. Redis集群咱们应用在下订单的时候应用Redis集群。 4. MongoDB集群MongoDB 有两种不同的分布式配置。第一个是“正本集”,其中多个服务器承载雷同的数据来避免出现故障。第二种是“分片集群”,几台服务器中每台只承载整个数据集的一个片段,以达到更强的性能和存储更大的数据集。 次要是用于存储购物平台中各种零碎的数据。比方购物车啊、订单解决零碎啊等等。 5. Kafka集群这个集群次要是协调各零碎的工作。让适合的数据以适合的模式呈现在适合的中央。 6. SparkSpark是进行大数据分析的,次要是为了给用户更好的举荐商品。 7. Restful Web ServiceRestful Web Service 是一种基于 REST 架构的轻量级、可保护和可扩大的服务。Restful Web Service以平安、对立、无状态的形式将应用程序中的 API 公开给调用客户端。调用客户端能够应用 Restful service执行预约义的操作。 8. Load balancer在计算的过程中应用负载平衡,能够让整体解决更加高效。 想向技术大佬们多多取经?开发中遇到的问题何处探讨?如何获取金融科技海量资源? 恒生LIGHT云社区,由恒生电子搭建的金融科技业余社区平台,分享实用技术干货、资源数据、金融科技行业趋势,拥抱所有金融开发者。 扫描下方小程序二维码,退出咱们!

December 31, 2021 · 1 min · jiezi

关于负载均衡:如何基于BFE做灰度发布

1. 灰度公布的原理互联网业务的研发提倡“小步快跑,疾速迭代”。这要求在保障7*24小时不中断服务的前提下,能够高频度的降级服务,这就对“灰度公布”提出了需要。 灰度公布(又名金丝雀公布,Canary Release)是指在黑与白之间,可能平滑过渡的一种公布形式(来自百度百科)。 从流量转发的角度,灰度公布的原理如图1所示。用户流量由负载均衡器转发给服务。服务的部署分为正式服务和测试服务。由负载均衡器执行灰度公布策略,将符合条件的灰度流量转发给测试服务。 图1 灰度公布的原理 灰度策略可能包含两类: 依照肯定的流量特色来抉择灰度流量。可能作为流量抉择的特色包含:用户起源地,非凡的申请标签等。依照肯定的流量比例来抉择灰度流量。例如,能够管制抉择1%的流量作为灰度流量。2. BFE对于灰度公布的反对BFE对基于流量特色和基于流量比例这两种灰度策略都提供了反对。 2.1 基于流量特色的灰度策略反对利用BFE的路由转发表,能够实现基于特色的灰度策略。 在BFE中,对于每个租户都能够独立设置根底转发表、高级转发表和默认转发规定。图2和图3展现了利用高级转发表来实现基于特色的灰度策略的例子。 在本例中,包含A、B、C、D、E共5种服务。其中A、B、C、D这四种服务都应用根底转发表中的配置来实现匹配,E服务作为默认的服务(如图2所示)。 图2 在灰度公布前的转发配置 对于服务D,本来只在根底转发表中进行了配置。起初因为要进行灰度测试,于是在根底转发表中将www.c.c.com对应的指标集群设置为保留字“ADVANCED_MODE”(意为透传至高级转发表持续解决);同时在高级转发表中减少2条规定(基于BFE的条件表达式来形容匹配条件),将在cookie中key为deviceid、值的前缀为“x”的申请转发到D1这个灰度试验集群,将其它Host为www.c.com的流量依然转发至D集群(如图3所示)。 图3 实现基于特色的灰度公布 除了利用cookie外,也常常应用Header和query中的信息来辨别测试流量。对于这些字段,在BFE中也有专用的条件原语用于形容相干的特色。能够在上面的链接中查看BFE反对的条件原语。https://github.com/bfenetwork... 2.2 基于流量比例的灰度策略反对利用BFE提供的内网流量调度机制,能够实现基于流量比例的灰度策略。 图4 基于流量比例的灰度策略 为了配合基于比例的灰度公布,能够常态筹备2个子集群D1和D2。在BFE中,将2个子集群的分流比例设置为1%和99%。 在做新性能上线的时候,新版本的程序首先在D1子集群上线。应用1%的流量,通过一段时间的验证无误之后,再将新版本的程序上线至D2子集群。 能够在上面的链接中查看对子集群设置分流权重的办法https://github.com/baidu/bfe-... 3. 基于BFE管制面的操作目前BFE的管制面组件曾经开源公布。在装置BFE的管制面组件后,对于基于流量特色的灰度公布和基于流量比例的灰度公布,都能够间接登录BFE的dashboard来操作,或者通过调用BFE API提供的接口来操作。 在BFE的Dashboard上操作的阐明,见上面的链接: 对于路由转发规定的配置: https://github.com/bfenetwork...对于子集群分流比例的配置: https://github.com/bfenetwork...图5 应用BFE Dashboard配置路由转发规定 BFE API的接口阐明,见上面这个链接:https://github.com/bfenetwork... 4. 总结“灰度公布”是互联网业务研发所需的重要能力。BFE对于灰度公布的两种形式(基于流量特色的灰度公布、基于流量比例的灰度公布)都提供了反对。联合曾经开源的BFE管制面组件,能够应用BFE Dashboard或BFE API实现灰度公布的相干配置。 欢送关注“BFE开源我的项目”微信公众号,取得本我的项目的更多更新。谢谢!

December 14, 2021 · 1 min · jiezi

关于负载均衡:高可用一览从LVS谈起

当咱们做技术预研/业务起步的时候,功能性(Functionality)是最重要的,能跑通就行。对于最风行的C/S架构来说,上面的架构就是能满足性能需要的最简模式: 但随着的业务的倒退,量级越来越大的时候,可伸缩性(Scalability)和高可用性(HighAvailability)都会逐步变成十分重要的议题,除此以外可管理性(Manageability)和老本效益(Cost-effectiveness)都会在咱们的思考范畴之内。本文重点关注业务倒退中的高可用建设。 其实思考到下面这些因素,LVS这个弱小的模块简直就是咱们的必选项(有些场景中,LVS不是最佳抉择,比方内网负载平衡),也是业务同学接触到最多的模块。上面让咱们从LVS体验开始,一步步扩充视线看高可用是怎么做的。 注:本文不会解说LVS的基础知识,欠缺的中央请大家自行Google。 LVS初体验要一大堆机器做试验是不事实的,所以咱们就在docker外面做试验。 第一步:创立网络:docker network create south而后用 docker network inspect south 失去网络信息 "Subnet": "172.19.0.0/16","Gateway": "172.19.0.1"。也能够抉择在 create 的时候用 --subnet 自行指定子网,就不必去查了。 第二步:创立RS两台real server,rs1和rs2。Dockerfile如下 FROM nginx:stableARG RS=default_rsRUN apt-get update \ && apt-get install -y net-tools \ && apt-get install -y tcpdump \ && echo $RS > /usr/share/nginx/html/index.html别离构建和启动 docker build --build-arg RS=rs1 -t mageek/ospf:rs1 .docker run -itd --name rs1 --hostname rs1 --privileged=true --net south -p 8888:80 --ip 172.19.0.5 mageek/ospf:rs1docker build --build-arg RS=rs2 -t mageek/ospf:rs2 .docker run -itd --name rs2 --hostname rs2 --privileged=true --net south -p 9999:80 --ip 172.19.0.6 mageek/ospf:rs2这外面比拟重要的是privileged,没有这个参数,咱们在容器内是没法绑定vip的(权限不够)。此外,启动时候固定ip也是便于后续lvs配置简略可反复 ...

December 1, 2021 · 7 min · jiezi

关于负载均衡:稳定性系列文章1如何评价系统稳定性

我是非典型文科男号主。 关注后你能够播种最硬核的常识分享, 最乏味的互联网故事 大家好,我是“非典型文科男”。明天跟大家聊聊稳定性建设相干的事件。 没有稳定性,所有归零7月13日B站主站、App、小程序均呈现拜访故障,页面提醒“正在玩命加载数据”。 B站崩了,才让大家发现原来“小破站”的流量如此惊人。上不了网站、没得看视频直播的“B站难民”冲向知乎、微博以及驰名游戏网站NGA。“b站崩了”“陈睿”“豆瓣崩了”等词迅速走红,甚至连B站名梗“蒙古上单”也一起霸榜微博热搜,传遍全网,颇为壮观。 23时左右故障产生,直到23时45分,B站网页端和App才初步恢复正常拜访,但像直播、会员购等板块,以及一些站内互动、评论、投币性能,还无奈失常应用。 B站的这次事件, 在全网火了,同时也让互联网人意识到稳定性的重要性。毫不夸大的说,没有稳定性,所有一些都会归零。 稳定性定义所谓『服务稳定性』就是用户在应用咱们的服务时,服务是可响应的、正确的、高效的。 可响应:app能关上、外面的各项性能点击后有响应;正确:各种性能输入的后果是正确的,合乎预期的,比方领取的金额正确,页面里该有的内容和数据都有,等等;高效:后面两个都符合要求也还存在一个响应效率的问题,如果服务响应忽然变慢,导致用户放弃应用,也是稳定性出了问题;业务倒退的不同阶段,应用不同的稳固保障的策略。 业务倒退初期,所有人二心扑在业务简直不思考稳定性的事件。 随着业务的一直倒退, 业务规模不断扩大, 各类稳定性事件频发。 这个阶段, 个别由业务的同学负责稳定性相干的事件。 业务倒退到了绝对稳固阶段之后, 因为业务规模很大,稳固工夫的影响也越来越大。 甚至带来宽泛的舆情影响, 影响公司的品牌形象。这个阶段, 有会专门的团队负责稳定性建设。 稳定性评估稳定性评估对于稳定性建设很重要。 稳定性评估不仅能够让团队疾速评估出目前零碎稳定性现状,而且也是稳定性团队工作评估的一个规范。 稳定性评估悖论如果一个零碎十分稳固,体现不出稳定性团队工作价值。 如果一个零碎稳定性故障频发,稳定性团队没有做出工作价值。 这仿佛是一个悖论。 因而不能简略的应用零碎是否稳固的定性团队的工作价值。 必须找到一个可度量、可观测的指标评估零碎的稳定性。 同步流程评估同步流程能够应用可用性指标度量。也就是几个9的稳定性。不同的可用性代表用户可应用时长占比。 可用性计算公式目前业界有两种掂量零碎可用性的形式,一个是工夫维度,一个是申请维度,咱们先来看这两个维度的计算公式。 工夫维度 :Availability = Uptime / (Uptime + Downtime) 申请维度:Availability = Successful request / Total request 工夫维度咱们先来看工夫维度的零碎可用性。用一句话来概括:时长维度,是从故障角度登程对系统稳定性进行评估。 以发烧为例子,首先要定义什么状况算发烧,比方体温超过37.5,是否真正发烧还要看继续时长,偶然一次温度超过37.5也不能算作发烧。 从例子能够看出,时长维度评估蕴含三个因素: 一个是掂量指标,比方体温就是掂量指标; 第二个是掂量指标,达到什么指标是失常,达不到就是异样,低于37.5 度算失常,超过 37.5 度就是异样。 然而单次测量不能阐明问题,咱们能够屡次测量, 比方 6 次中有至多 4 次低于 37.5 度才算失常,转化成比例的话就是 67%; 第三个是影响时长,比方继续超过 12 小时。 应用时长纬度评算只有系统故障才会影响可用性,这个后果计算比拟粗。偶然的接口异样或者超时没有达到故障水平不统计到不可用的范畴。 时长维度也没有思考顶峰故障和低峰故障尽管时长一样对用户造成的影响,齐全不同。 申请维度申请维度,是从胜利申请占比的角度登程,对系统的稳定性进行评估。 ...

November 21, 2021 · 1 min · jiezi

关于负载均衡:喜大普奔BFE-控制平面正式开源发布

金秋十月,BFE 的好消息一直。继 BFE Ingress Controller 开源公布后,BFE 管制立体也正式开源公布,BFE 残缺的开源解决方案曾经能够供用户抉择应用。 本次咱们公布了管制立体的 API-Server、Conf-Agent 和 Dashboard 三个组件,均采纳Apache-2.0 License,现已能够下载源码及安装包。Github地址:https://github.com/bfenetworks 概述BFE 是一个企业级的七层负载平衡零碎,其外围转发引擎于2019年7月开源,并于2020年6月成为 CNCF 的 Sandbox Project。BFE 目前承载了包含百度在内的多个互联网、金融、传媒、交通运输等行业头部客户的在线流量。 残缺的 BFE 解决方案能够分为数据立体和管制立体。2019年公布的外围转发引擎属于数据立体,本次咱们公布了管制立体的外围组件后,用户曾经能够应用 BFE 已开源的各个组件,组成残缺的七层负载平衡和流量接入平台,满足组织和企业的流量接入和治理需要。 零碎架构以后已开源的BFE管制立体包含以下三个组件: API-Server: 对外提供Open API接口,实现BFE(BFE转发引擎)配置的变更、存储和生成。管制面必须组件。Conf-Agent: 配置加载组件,从API-Server获取最新配置,并触发 BFE 进行配置热加载。管制面必须组件。Dashboard: 为 BFE 用户提供了图形化操作界面,以可视化的形式对 BFE 的次要配置进行治理和查看。可选组件。管制立体各组件及数据立体BFE转发引擎之间的关系如下图所示: 次要性能本次公布的BFE管制立体组件,次要有如下性能: BFE集群的对立治理:可对立治理一个BFE集群内所有BFE转发引擎实例的配置租户(产品线)治理:提供对配置的多租户治理能力用户和角色治理:治理用户,并赋予其系统管理员或租户管理员权限证书治理:对立治理TLS证书服务后端治理:治理后端服务的实例、子集群和集群,并配置子集群间负载平衡路由治理:治理域名列表和转发规定表配置热加载:配置变更后,主动触发BFE转发引擎热加载最新配置图形化界面:反对Web形式的图形化治理界面API接口:反对合乎RESTful标准的Open API接口部署形式您能够间接在各管制面组件对应的github我的项目的release页面下载可执行文件和初始配置文件,或者通过编译源码的形式失去。 举荐的部署程序为:API-Server-> Dashboard -> Conf-Agent 。 咱们提供了具体的部署文档,可依照文档实现管制立体各组件的部署:https://github.com/bfenetwork... DashboardBFE Dashboard 提供了以 Web 网页形式对 BFE 进行图形化治理操作的界面。因篇幅所限,上面截取了子集群治理页面为例,供大家一览。 界面的布局包含如下几局部: 视图抉择:系统管理员能够抉择零碎视图对系统资源进行治理,或抉择租户视图对租户内的资源进行治理。租户管理员只有租户视图,对其具备权限的租户内的资源进行治理。语言切换:以后反对中文和英文。导航栏:提供侧边导航栏和顶部导航栏,作为性能页面的入口。性能页面主体:每个性能页面提供一个特定性能,通常是对某个资源/配置的治理,包含查看、搜寻、增加、编辑、删除等操作。更多信息,见BFE Dashboard我的项目文档:https://github.com/bfenetwork... 后续打算接下来,咱们将提供更多文档和最佳实际分享,帮忙更多用户不便地搭建BFE流量接入平台。咱们也会持续研发投入,将更多的BFE性能纳入管制立体组件的治理,尤其是一些罕用的扩大模块。 期待您的应用反馈,并心愿有更多人退出BFE开源社区一起建设。点击进入取得更多技术信息~~

October 22, 2021 · 1 min · jiezi

关于负载均衡:喜大普奔BFE-控制平面正式开源发布

金秋十月,BFE的好消息一直。继BFE Ingress Controller开源公布后,BFE管制立体也正式开源公布,BFE残缺的开源解决方案曾经能够供用户抉择应用。 BFE 是一个企业级的七层负载平衡零碎,其外围转发引擎于2019年7月开源,并于2020年6月成为CNCF的Sandbox Project。BFE目前承载了包含百度在内的多个互联网、金融、传媒、交通运输等行业头部客户的在线流量。 残缺的BFE解决方案能够分为数据立体和管制立体。2019年公布的外围转发引擎属于数据立体。本次咱们公布了管制立体的API-Server、Conf-Agent和Dashboard三个组件。至此,用户能够应用BFE已开源的各个组件,组成残缺的七层负载平衡和流量接入平台,满足组织和企业的流量接入和治理需要。 BFE API-Server、Conf-Agent、Dashboard均采纳Apache-2.0 License,现已能够下载源码及安装包。Github地址:https://github.com/bfenetworks 。 零碎架构以后已开源的BFE管制立体包含以下三个组件: API-Server: 对外提供Open API接口,实现BFE(BFE转发引擎)配置的变更、存储和生成。管制面必须组件。Conf-Agent: 配置加载组件,从API-Server获取最新配置,并触发 BFE 进行配置热加载。管制面必须组件。Dashboard: 为 BFE 用户提供了图形化操作界面,以可视化的形式对 BFE 的次要配置进行治理和查看。可选组件。管制立体各组件及数据立体BFE转发引擎之间的关系如下图所示: 次要性能本次公布的BFE管制立体组件,次要有如下性能: BFE集群的对立治理:可对立治理一个BFE集群内所有BFE转发引擎实例的配置租户(产品线)治理:提供对配置的多租户治理能力用户和角色治理:治理用户,并赋予其系统管理员或租户管理员权限证书治理:对立治理TLS证书服务后端治理:治理后端服务的实例、子集群和集群,并配置子集群间负载平衡路由治理:治理域名列表和转发规定表配置热加载:配置变更后,主动触发BFE转发引擎热加载最新配置图形化界面:反对Web形式的图形化治理界面API接口:反对合乎RESTful标准的Open API接口部署形式您能够间接在各管制面组件对应的github我的项目的release页面下载可执行文件和初始配置文件,或者通过编译源码的形式失去。 举荐的部署程序为:API-Server -> Dashboard -> Conf-Agent。咱们提供了具体的部署文档,可依照文档实现管制立体各组件的部署:https://github.com/bfenetwork... DashboardBFE Dashboard提供了以Web网页形式对BFE进行图形化治理操作的界面。因篇幅所限,上面截取子集群治理页面为例,供大家一览。 大家能够关注以下性能: 视图抉择:系统管理员能够抉择零碎视图对系统资源进行治理,或抉择租户视图对租户内的资源进行治理。租户管理员只有租户视图,对其具备权限的租户内的资源进行治理。语言切换:以后反对中文和英文。导航栏:提供侧边导航栏和顶部导航栏,作为性能页面的入口。性能页面主体:每个性能页面提供一个特定性能,通常是对某个资源/配置的治理,包含查看、搜寻、增加、编辑、删除等操作。更多信息,见BFE Dashboard我的项目文档:https://github.com/bfenetwork... 。 后续打算接下来,咱们将提供更多文档和最佳实际分享,帮忙更多用户不便地搭建BFE流量接入平台。咱们也会持续研发投入,将更多的BFE性能纳入管制立体组件的治理,尤其是一些罕用的扩大模块。 期待您的应用反馈,并心愿有更多人退出BFE开源社区一起建设。 欢送关注“BFE开源我的项目”微信公众号,取得本我的项目的更多更新。谢谢!

October 21, 2021 · 1 min · jiezi

关于负载均衡:HaProxy-安装搭建配置

HaProxy简介     HAProxy是一个收费的负载平衡软件,能够运行于大部分支流的Linux操作系统上。     HAProxy提供了L4(TCP)和L7(HTTP)两种负载平衡能力,具备丰盛的性能。HAProxy的社区十分沉闷,版本更新疾速。最要害的是,HAProxy具备媲美商用负载均衡器的性能和稳定性。 HaProxy的外围性能     负载平衡:L4和L7两种模式,反对RR/动态RR/LC/IP Hash/URI Hash/URL\_PARAM Hash/HTTP\_HEADER Hash等丰盛的负载平衡算法     健康检查:反对TCP和HTTP两种健康检查模式     会话放弃:对于未实现会话共享的利用集群,可通过Insert Cookie/Rewrite Cookie/Prefix Cookie,以及上述的多种Hash形式实现会话放弃     SSL:HAProxy能够解析HTTPS协定,并可能将申请解密为HTTP后向后端传输     HTTP申请重写与重定向     监控与统计:HAProxy提供了基于Web的统计信息页面,展示衰弱状态和流量数据。基于此性能,使用者能够开发监控程序来监控HAProxy的状态 HaProxy的要害个性 性能     1 . 采纳单线程、事件驱动、非阻塞模型,缩小上下文切换的耗费,能在1ms内解决数百个申请。并且每个会话只占用数KB的内存。     2 . 大量精密的性能优化,如O(1)复杂度的事件查看器、提早更新技术、Single-buffereing、Zero-copy forwarding等等,这些技术使得HAProxy在中等负载下只占用极低的CPU资源。     3 . HAProxy大量利用操作系统自身的性能个性,使得其在解决申请时能施展极高的性能,通常状况下,HAProxy本身只占用15%的解决工夫,残余的85%都是在零碎内核层实现的。     4 . HAProxy作者在8年前(2009)年应用1.4版本进行了一次测试,单个HAProxy过程的解决能力冲破了10万申请/秒,并轻松占满了10Gbps的网络带宽。 稳定性     在上文中提到过,HAProxy的大部分工作都是在操作系统内核实现的,所以HAProxy的稳定性次要依赖于操作系统,作者倡议应用2.6或3.x的Linux内核,对sysctls参数进行精密的优化,并且确保主机有足够的内存。这样HAProxy就可能继续满负载稳固运行数年之久。 设置主机名 root@hello:~# hostnamectl set-hostname haproxyroot@hello:~#root@hello:~#root@hello:~# bashroot@haproxy:~#装置 haproxy root@haproxy:~# apt-get install haproxyroot@haproxy:~# cp /etc/haproxy/haproxy.cfg{,.ori}root@haproxy:~#root@haproxy:~# vim /etc/haproxy/haproxy.cfgroot@haproxy:~#配置文件如下 root@haproxy:~# cat /etc/haproxy/haproxy.cfgcat /etc/haproxy/haproxy.cfgglobal log /dev/log local0 log /dev/log local1 notice chroot /var/lib/haproxy stats socket /run/haproxy/admin.sock mode 660 level admin expose-fd listeners stats timeout 30s user haproxy group haproxy daemon ca-base /etc/ssl/certs crt-base /etc/ssl/private ssl-default-bind-ciphers ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GCM-SHA384 ssl-default-bind-ciphersuites TLS_AES_128_GCM_SHA256:TLS_AES_256_GCM_SHA384:TLS_CHACHA20_POLY1305_SHA256 ssl-default-bind-options no-sslv3 no-tlsv10 no-tlsv11 no-tls-ticketsdefaults log global mode http option httplog option dontlognull timeout connect 5000 timeout client 50000 timeout server 50000 errorfile 400 /etc/haproxy/errors/400.http errorfile 403 /etc/haproxy/errors/403.http errorfile 408 /etc/haproxy/errors/408.http errorfile 500 /etc/haproxy/errors/500.http errorfile 502 /etc/haproxy/errors/502.http errorfile 503 /etc/haproxy/errors/503.http errorfile 504 /etc/haproxy/errors/504.httpfrontend LOADBALANCER-01 bind 0.0.0.0:80 mode http default_backend WEBSERVERS-01backend WEBSERVERS-01 balance roundrobin server node1 192.168.1.10:9200 check inter 2000 rise 3 fall 3 weight 1 maxconn 2000 server node2 192.168.1.11:9200 check inter 2000 rise 3 fall 3 weight 1 maxconn 2000 server node3 192.168.1.12:9200 check inter 2000 rise 3 fall 3 weight 1 maxconn 2000 server node4 192.168.1.13:9200 check inter 2000 rise 3 fall 3 weight 1 maxconn 2000 server node5 192.168.1.14:9200 check inter 2000 rise 3 fall 3 weight 1 maxconn 2000 server node6 192.168.1.15:9200 check inter 2000 rise 3 fall 3 weight 1 maxconn 2000 server node7 192.168.1.16:9200 check inter 2000 rise 3 fall 3 weight 1 maxconn 2000 backup option httpchk启动服务 ...

October 13, 2021 · 2 min · jiezi

关于负载均衡:认识分布式存储

意识分布式存储一、 概念分布式存储是一种数据存储技术,咱们通过网路来应用企业中各台机器中的存储资源,咱们将扩散的存储资源来形成一整个虚构的数据存储设备。通过一个整合的动作,来充分利用扩散在各个角落的资源。 二、大数据的特点大数据有4个特点,为别为:Volume(大量)、Variety(多样)、Velocity(高速)、Value(价值),称之为4V。 三、分布式存储关键技术参考资料来自华为云:https://www.huaweicloud.com/z...本人将其整顿绘制如图:

September 26, 2021 · 1 min · jiezi

关于负载均衡:ProxySQL实现Apache-doris-FE负载均衡

概述ProxySQL是灵便弱小的MySQL代理层, 是一个能实实在在用在生产环境的MySQL中间件,能够实现读写拆散,反对 Query 路由性能,反对动静指定某个 SQL 进行 cache,反对动静加载配置、故障切换和一些 SQL的过滤性能。 ProxySQL的优缺点,这里我就不说了,我只介绍怎么装置应用 ProxySQL装置(yum形式)[root@mysql-proxy ~]# vim /etc/yum.repos.d/proxysql.repo[proxysql_repo]name= ProxySQL YUM repositorybaseurl=http://repo.proxysql.com/ProxySQL/proxysql-1.4.x/centos/\$releasevergpgcheck=1gpgkey=http://repo.proxysql.com/ProxySQL/repo_pub_key 执行装置[root@mysql-proxy ~]# yum clean all[root@mysql-proxy ~]# yum makecache[root@mysql-proxy ~]# yum -y install proxysql [root@mysql-proxy ~]# proxysql --versionProxySQL version 1.4.13-15-g69d4207, codename Truls设置开机自启动[root@mysql-proxy ~]# systemctl enable proxysql[root@mysql-proxy ~]# systemctl start proxysql [root@mysql-proxy ~]# systemctl status proxysql启动后会监听两个端口,默认为6032和6033。6032端口是ProxySQL的治理端口,6033是ProxySQL对外提供服务的端口 (即连贯到转发后端的真正数据库的转发端口)。[root@mysql-proxy ~]# netstat -tunlpActive Internet connections (only servers)Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name tcp 0 0 0.0.0.0:6032 0.0.0.0:* LISTEN 23940/proxysql tcp 0 0 0.0.0.0:6033 0.0.0.0:* LISTENProxySQL配置ProxySQL有配置文件/etc/proxysql.cnf和配置数据库文件/var/lib/proxysql/proxysql.db。这里须要特地留神:如果存在如果存在"proxysql.db"文件(在/var/lib/proxysql目录下),则ProxySQL服务只有在第一次启动时才会去读取proxysql.cnf文件并解析;前面启动会就不会读取proxysql.cnf文件了!如果想要让proxysql.cnf文件里的配置在重启proxysql服务后失效(即想要让proxysql重启时读取并解析proxysql.cnf配置文件),则须要先删除/var/lib/proxysql/proxysql.db数据库文件,而后再重启proxysql服务。这样就相当于初始化启动proxysql服务了,会再次生产一个污浊的proxysql.db数据库文件(如果之前配置了proxysql相干路由规定等,则就会被抹掉) ...

September 15, 2021 · 6 min · jiezi

关于负载均衡:七层负载均衡应如何选型

1. 问题的提出负载平衡并不是一个很新的技术方向。硬件状态的负载均衡器至多曾经存在了二十年。在传统的硬件网络负载均衡器中,蕴含了比拟综合的性能。从协定的角度,蕴含了对TCP、UDP流量的反对,也蕴含了对HTTP、HTTPS等协定的解决。 而在大多数互联网公司中,广泛应用软件状态的负载均衡器,并且基于所解决的协定辨别为两种不同的零碎:(1) 四层负载平衡,也被称为网络负载平衡,仅用于对TCP、UDP流量进行解决。四层负载平衡在转发中次要基于IP地址、端口等信息。四层负载平衡的开源软件包含LVS、DPVS、Katran等,代表了三种计划:Linux内核,DPDK,eBPF(Extended Berkeley Packet Filter)。 (2) 七层负载平衡,也被称为利用负载平衡,反对HTTP、HTTPS、SSL、TLS等协定的解决。七层负载平衡在转发中能够利用应用层的信息,如HTTP的申请头部,而这些信息对四层负载平衡来说是不可见的。七层负载平衡的开源软件包含Nginx、BFE、Traefik、Envoy、HAProxy等。 随着对于流量治理需要的晋升,七层负载平衡的重要性越来越高。很多公司都在增强七层负载平衡接入层的建设。而目前这方面的软件计划比拟多,应该如何选型呢? 2. 七层负载平衡的生态七层负载平衡的性能要比四层负载平衡简单的多,独立研发十分艰难,个别都要依靠于一个弱小的生态能力倒退起来。目前,在七层负载平衡畛域,有3个比拟弱小的生态: (1) Nginx / OpenResty 生态 Nginx是一个应用十分宽泛的Web Server开源软件,起初也被用做反向代理。通过多年的倒退,在Nginx上积攒了大量的性能。为了解决Nginx性能开发成本高的问题,由章亦春在Nginx上减少了Lua执行模块,造成了OpenResty的生态。之后有一些软件基于OpenResty来开发,如APISIX。 (2) Envoy生态 Envoy最早由Lyft公司研发,起初Google也加入进来。与Nginx相比,Envoy做了一些调整和优化。Envoy最早被设计用于Service Mesh,作为sidecar网关。起初也逐渐用于其它七层负载平衡的应用场景。 (3) Go语言生态 Go语言具备开发成本低、安全性和稳定性高的特点,并且Go语言有大量的开源代码库,这使得一些公司选用Go语言来实现七层负载平衡,如:BFE,Traefik, MOSN等。 3. Service Proxy和API Gateway在CNCF Landscape中,将七层负载平衡做了两个分类:Service Proxy和API Gateway。 这两个分类的出发点不同。Service Proxy偏重于流量的转发,API Gateway偏重于API生命周期的治理。从性能的角度,两个分类下的零碎有很多重合的性能,一些软件也同时具备Service Proxy和API Gateway的性能,软件所属的分类变得含糊。 其实分类没有那么重要,满足本人场景的需要才是更重要的。 4. 七层负载平衡软件选型的因素4.1 可能的比照维度在七层负载平衡软件的抉择上,可能思考的因素包含: (1) 零碎的性能一个零碎所能出现进去的性能,受到很多因素的影响(版本、环境、配置参数等等)。本文并不打算给出一个性能方面的比拟,大家能够搜寻一下网上给出的一些测试报告。 (2) 零碎所提供的性能一个七层负载平衡包含了很多的性能。有一些性能是基础性的,如协定反对、健康检查、转发规定形容;有一些性能可能不是必须的,如流量的镜像、执行脚本语言的反对等。具体抉择哪些性能来比拟,要看具体的应用场景。因为篇幅所限,本文只比照了基础性的性能。 (3) 零碎所提供的扩大开发能力因为七层负载平衡和业务有更严密的分割,扩大开发的需要很大。是否不便和疾速的进行扩大性能的开发,是七层负载平衡选型的重要考察点。 (4) 零碎的安全性和稳定性七层负载平衡作为网络流量转发的要害零碎,安全性和稳定性是十分重要的因素。对于面向外网接入的场景,七层负载平衡间接面对大量潜在的攻击行为,安全性方面的思考必不可少。 (5) 零碎的可运维性作为一个继续运行的在线零碎,七层负载平衡应该具备很好的可运维性。这方面可能包含零碎的可观测性和可监控性,可能很好的把握零碎的运行状态,及时发现零碎的异样;也包含在不停机状况下配置的加载能力,冀望可能不影响零碎的失常转发。 4.2 对于几个比照维度的探讨在以上这些因素中,“性能”是最常被大家拿进去比拟的,仿佛这是最重要的因素。 尽管没有十分主观精确的比照数据,然而大略说来,基于C语言开发的Nginx和Envoy的性能根本是相当的。而它们的性能要比基于Go语言开发的BFE和Traefik要好很多。即便做了一些优化,基于Go语言零碎的性能可能只有C语言零碎的1/2,在某些极其场景下甚至只有1/4(须要阐明,目前体现进去的性能差距可能并不是齐全因为编程语言的起因,而是因为程序编写的问题)。 这么看,仿佛基于Go语言研发的七层负载平衡齐全没有存在的理由呀?! 在小规模的应用场景下,流量较小,性能差别所引发的服务器老本差别并不大,性能并不是一个决策的关键因素。 在大规模的应用场景下,流量较大,性能差别的确会导致服务器老本上较大的差别。但也须要留神到,在大规模场景下,也会有较多的二次开发需要。在这种状况下,不同编程语言所导致的研发效率和研发老本的差别会凸现进去(Go语言的研发效率是C语言的数倍)。在选型时,须要兼顾“硬件老本”、“人力老本”、研发速度等几方面的因素。 零碎的安全性和稳定性也是须要思考的。对于重要的业务,一次因稳定性问题导致的业务中断可能就会导致重大的经济损失(及商誉损失)。平安方面可能导致的问题同样十分重大,平安问题可能导致系统的解体,也可能导致敏感信息的泄露。这两方面的机会成本可能远大于负载平衡自身的硬件老本。 基于C语言开发的零碎在性能方面有相对的劣势,而基于Go语言开发的零碎在二次开发老本、研发速度和零碎的安全性、稳定性方面有更大的劣势。而零碎的性能和可运维性须要针对具体的零碎来具体比照。 4.3 小结在七层负载平衡的3大生态间做抉择是十分艰巨的。从老本、效率、平安和稳定性这几个根底指标来看,目前没有任何计划是完满的。鱼和熊掌,不可兼得。到底抉择走哪条路,须要大家依据本人的场景,联合以上多个维度进行综合的思考。 5. 几种开源七层负载平衡软件的比照上面对一些七层负载开源我的项目进行比照,包含:BFE/Nginx/Envoy/Traefik。 须要阐明的是,因为这些我的项目都在沉闷开发中,信息可能过期或有误,读者可通过这些开源我的项目的官方网站查看最新信息。 5.1 开源我的项目定位在各开源我的项目的官网上对其定位形容如下。(1) BFE: BFE是一个开源的七层负载平衡零碎。(2) Nginx: Nginx是HTTP服务、反向代理服务、邮件代理服务和通用TCP/UDP代理服务。(3) Envoy: Envoy是开源的边缘和服务代理,为云原生利用而设计。(4) Traefik: Traefik是先进的HTTP反向代理和负载平衡。 ...

September 6, 2021 · 1 min · jiezi

关于负载均衡:BFE和Nginx有什么差异-转发模型的对比

Nginx是一个被宽泛应用的反向代理(Reverse Proxy)开源软件。在“反向代理”这个方向上,BFE是被设计用来代替Nginx的。于是,一个被常常提出的问题呈现了:为什么要应用BFE?和Nginx相比,BFE到底有什么中央是不同的。 BFE和Nginx最大的不同是设计出发点和转发模型。BFE从一开始就是为转发场景设计的,可能很好的满足各种转发场景的需要;而Nginx原本是作为Web Server设计的,用来做转发是“科班出身”,在模型方面存在一些问题。 本文将重点阐明两者在“转发模型”上的差别。 1. 对Nginx的剖析1.1 Nginx的转发配置首先看看Nginx是怎么做的。Nginx配置中的外围概念是server, location,upstream。 server:代表一个web server,能够定义web server的监听端口和主机名location:代表一个web server之下的各门路/接口upstream:代表被转发的指标一个典型的Nginx转发配置如下所示: # 定义转发指标集群cluster_aupstream cluster_a { server 192.168.1.1:8080; server 192.168.1.2:8080;}# 定义转发指标集群cluster_bupstream cluster_b { server 192.168.1.3:8080; server 192.168.1.4:8080;}# 定义www.a.com的转发规定server { listen 80; server_name www.a.com; # host location / { # path, 设置为any proxy_pass http://cluster_a;# 转发给cluste_a }}# 定义www.b.com的转发规定server { listen 80; server_name www.b.com; # host location / { # path,设置为any proxy_pass http://cluster_b; # 转发给cluster_b }}如果要在转发过程中做一些非凡的解决,则在以上的配置中插入相干的语句。例如,针对www.a.com的申请,能够减少如下rewrite规定: server { listen 80; server_name www.a.com; location / { rewrite '^/images/([a-z]{2})/([a-z0-9]{5})/(.*)\.(png|jpg)$' /data?file=$3.$4; proxy_pass http://cluster_a }}1.2 Nginx转发模型的问题尽管目前很多人将Nginx用于转发场景,然而不得不说,Nginx的转发机制有比较严重的问题。 ...

August 12, 2021 · 1 min · jiezi

关于负载均衡:深入浅出LB手把手带你实现一个负载均衡器

写作不易,未经作者容许禁止以任何模式转载!<br/>如果感觉文章不错,欢送关注、点赞和分享!继续分享技术博文,关注微信公众号  前端LeBron字节跳动校招进行中,校招内推码: 4FCV6BV 游戏部门前端团队可私聊直推原文链接 简介负载平衡,含意就是依据肯定算法将负载(工作工作)进行均衡,摊派到多个操作单元上运行、执行,常见的为Web服务器、企业外围应用服务器和其余次要工作服务器等,从而协同实现工作工作。负载平衡在原有的网络结构上提供了一种通明且无效的的办法扩大服务器和网络设备的带宽、增强网络数据处理能力、减少吞吐量、进步网络的可用性和灵活性,同时接受住更大的并发量级。 简略来说就是将大量的并发申请解决转发给多个后端节点解决,缩小工作响应工夫。防止资源节约防止服务不可用一、分类四层(传输层) 四层即OSI七层模型中的传输层,有TCP、UDP协定,这两种协定中蕴含源IP、指标IP以外,还蕴含源端口号及指标端口号。四层负载平衡在接管到客户端申请后,通过批改报文的地址信息(IP + PORT)将流量转发到应用服务器。 七层(应用层)代理负载平衡 七层即OSI七层模型中的应用层,应用层协定较多,罕用的为HTTP/HTTPS。七层负载平衡能够给予这些协定来负载。这些应用层协定中会蕴含很多有意义的内容。比方同一个Web服务器的负载平衡,除了依据IP + PORT进行负载平衡,还能够依据七层的URL、Cookie、浏览器类别、语言、申请类型来决定。 四层负载平衡的实质是转发,七层负载平衡的实质是内容替换和代理。 四层负载平衡七层负载平衡基于IP + PORTURL 或 主机IP相似路由器代理服务器复杂度低高性能高,无需解析内容中,需算法辨认URL Header、Cookie等安全性低,无奈辨认DDoS攻打高,可进攻SYN Flood攻打扩大性能无内容缓存、图片防盗链等二、常见算法前置数据结构interface urlObj{  url:string,  weight:number // 仅在权重轮询时失效}urlDesc: urlObj[]interface urlCollectObj{  count: number, // 连接数  costTime: number, // 响应工夫  connection: number, // 实时连接数}urlCollect: urlCollectObj[]Random随机 const Random = (urlDesc) => {  let urlCollect = [];  // 收集url  urlDesc.forEach((val) => {    urlCollect.push(val.url); });    return () => {    // 生成随机数下标返回相应URL    const pos = parseInt(Math.random() * urlCollect.length);    return urlCollect[pos]; };};module.exports = Random;Weighted Round Robin权重轮询算法 ...

July 21, 2021 · 9 min · jiezi

关于负载均衡:猜密码游戏设计逻辑思路

题目: 编程实现猜明码游戏,要求如下:(1) 预置字符串Passtr=”0123456789abcdefghijklmnopqrstuvwxyz”。(2) 编写明码生成函数code(str,n)``从字符串str中随机挑选出6个字符生成6位明码。(3) 调用code()函数从预置的字符串中生成6位明码(4) 用户通过键盘输入所猜明码。如果明码输出正确,显示“明码正确”,完结程序;如果明码输出谬误,显示“明码谬误,从新输出明码进行验证。(预置3次机会) 复制 encoding=utf-8*encoding=utf-8意思是编码格局为UTF-8格局from random import *Passtr="0123456789abcdefghijklmnopqrstuvwxyz"#预置的字符串def code(str): #生成6位明码 Pas=""#空字符串for i in range(6): Pas += str[randint(0, len(str) - 1)]#随机筛选6个字符造成明码return Pas循环断定明码输出的正确与否Pas=code(Passtr)print(Pas)#这一句删掉不影响程序运行for Count in range(1,4): Guess=input("输出猜的明码:")if Guess==Pas: print("明码正确") breakelse: print("明码谬误,你还有{}次机会".format(3-Count))print("游戏完结!")

July 20, 2021 · 1 min · jiezi

关于负载均衡:Redis数据结构必知必会

我是非典型文科男号主。 关注后你能够播种最硬核的常识分享, 最乏味的互联网故事 Redis数据结构Redis在互联网实际中被宽泛应用。 一方面是内存存储以及高效的内存治理保障了数据高效读写。另一方面高效的IO模型使得Redis单机就能够扛住10W/秒的读申请。 除了这些之外, Redis反对丰盛的数据结构并且每个数据结构都通过了极致的优化。 这些个性推动了Redis在互联网畛域开花结果。 作为一名资深的研发工程师,不仅须要晓得Redis反对五种根本数据类型,还须要把握不同编码具体实现和相干优化以及不同数据类型在实践中的利用。 因为相干内容泛滥,我将分两篇文章介绍相干内容。 你将从这篇文章获取Redis对象以及相干形成、 五种根本类型和六种编码方式、不同类型应用场景和相干的Redis命令。 下一篇文章,将具体介绍每种数据结构的具体实现细节。 你讲理解到SDS、空间预调配和惰性删除、渐进式rehash技术、阻塞队列、跳跃表等。 注:所有源代码来源于redis-6.2.4版本, 点击redis relase列表下载对应的源码版本。 Redis外围对象简介在Redis有一个「外围对象」叫做redisObject。 redisObject是Redis定义的数据结构, 用它在示意所有的key和value。 redisObject定义在server.h文件中, 具体定义如下: typedef struct redisObject { // 数据类型 unsigned type:4; // lru时钟批改后,2位的对齐位( unsigned notused:2),在新版本曾经去掉; // 数据编码 unsigned encoding:4; // LRU工夫(全局lru时钟绝对工夫或者8位常常用到或者16位拜访工夫) unsigned lru:LRU_BITS; /* LRU time (relative to global lru_clock) or * LFU data (least significant 8 bits frequency * and most significant 16 bits access time). */ // 援用技术 int refcount; // 指针 void *ptr;} robj;三属性type、 encoding 和 ptr 是最重要的三个属性。 ...

June 27, 2021 · 2 min · jiezi

关于负载均衡:在线教育凛冬将至一份面试指南分享给大家

我是非典型文科男号主。点击上方蓝字关注。 关注后你能够播种最硬核的常识分享, 最乏味的联网故事,泛滥大佬们的心路分享 凛冬已至国家监管的加码下, 在线教育一片狼藉,股价近乎腰斩。在线教育三巨头:猿辅导、作业帮和好将来, 猿辅导和作业帮等在线教育公司IPO打算搁浅。曾经上市的好将来,股价从往年4.27的63.5美元降至21.7美元,市值曾经跌去65%。 相比去年,往年在线教育暑期备战期间的营销投放显著收紧:从最后的广告隐没于电梯、户外等场合,到信息流广告投放暂停,再到公众号投放被叫停。与2020年暑期在线教育广告大战相比, 往年的寒假广告投放,日均耗费缩水近9成。今日的近乎疯狂的广告投放,为明天现金流吃紧,资金链断裂埋下了隐患。大潮褪去,才晓得谁在裸泳。 在线教育纷纷裁员5月27日,跟谁学创始人陈向东召开外部会议,公司被动关停信息流和直播业务,旗下针对学前儿童的业务小早启蒙也被关停,预计裁员20%左右。 相比跟谁学的“杀伐果决”, 更多在线教育企业却是缩减开销,轻轻进行预谋裁员。 6月16日晚间,微博话题“学而思裁员”探讨热度陡升,并在次日达到热度高点。 该话题浏览超过570万次, 探讨超过近千条。 据知情人士称,作业帮IPO打算曾经暂停并曾经开始大裁员。字节旗下教育业务最近几周频繁召开高层会议,大范畴的业务和人员调整曾经箭在弦上。 裁员潮将至,咱们该怎么应答?在线教育寒冬将至, 咱们必须要抱团取暖。面对暴力裁员, 要沉着看待拿起法律武器保护本身利益。 为了帮忙大家顺利找到工作, 将1000+人互联网内推群举荐给大家。 另外,精心筹备了后端面试指南。 微信公众号回复【面试指南】,获取残缺文档。 Java语言相干 MAP 并发编程 JVM 工程实际 稳定性保障 spring全家桶 关注微信公众号【非典型文科男】回复【JVM】获取《深刻了解Java虚拟机:JVM高级个性与最佳实际(最新第二版)》回复 【JDK】获取JDK相干官网文档回复 【架构设计】获取架构设计相干材料回复 【架构师】 获取《架构师经典书目》回复 【infoq】 获取 《Infoq2019年全年架构师选集》回复【电子书】 获取 《美团2019技术合集》回复 【redis】 获取redis独家材料回复 【微信群】 或者【加群】 收费退出 架构师技术交换群祝所有粉丝:身体健康,万事遂意<center> 什么是架构设计?架构设计看这篇文章就够了 Redis为什么这么快? 重磅:解读2020年最新JVM生态报告 BIO,NIO,AIO 总结 JDK8的新个性,你晓得多少? 回复“材料”,收费获取 一份独家呕心整顿的技术材料!</center>

June 24, 2021 · 1 min · jiezi

关于负载均衡:云上高并发系统改造最佳实践

简介:在程度扩大阶段通过SLB挂nginx减少负载平衡扩展性,在数据库拆分阶段通过DRDS进行分库分表。 中转最佳实际:【云上高并发零碎革新】 最佳实际频道:【点击查看更多上云最佳实际】 这里有丰盛的企业上云最佳实际,从典型场景入门,提供一系列我的项目实际计划,升高企业上云门槛的同时满足您的需要! 场景形容随着业务的倒退,零碎并发压力越来越大,如何进行零碎革新以满足高并发场景的业务需要成为了一个技术难题。本实际形象于客户的理论场景,提供高并发下零碎革新的理论指导和局部实操演示。次要实用于以下场景: 1.零碎并发压力大,须要进行零碎利用革新。 2.数据层并发压力大,需进行分库分表革新。 3.数据库数据量微小,亟待分库分表解决查问和写入瓶颈的场景。 解决问题1.在程度扩大阶段,咱们除了通过SLB做负载平衡外,咱们能够通过SLB下挂nginx的形式,减少负载平衡侧的可扩展性。 2.在数据库拆分阶段,在做好数据布局后,咱们借助DTS进行数据迁徙,通过DRDS将RDS MySQL的数据拆分到多个分库和分表中。 产品列表云服务器ECS数据库RDSMySQL数据传输服务DTSPrivateZone分布式关系型数据库DRDS 中转最佳实际 》》 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

June 22, 2021 · 1 min · jiezi

关于负载均衡:基于3ds-Max的游戏建模方案

需要因为本游戏的设计,需要应用到角色以及场景建模。具体模型的搭建与贴图的设计依据原画进行。 工具个别在游戏研发中,模型的搭建次要应用以下工具和概念来渲染建模。 3ds Max3ds Max是Autodesk传媒娱乐部开发的全功能的三维计算机图形软件。它运行在Win32和Win64平台上。在2007年7月,3ds Max公布了第十版。 ZBrushZBrush是一个业余三维角色建模软件,由pixologic公司出品。被誉为革命性的建模软件,广泛应用于各电影,电视,游戏,特效等诸多畛域。因为造型伎俩脱离传统数位伎俩,使得创作数字雕塑更为便捷高效。 拓扑拓扑是3Dmax石墨工具中的一个疾速解决图形的工具。 UVU 相当于世界坐标轴的X轴,V 就是Y 轴,还有一个W就是Z轴,UV 通常是 UVW坐标轴的简称。 Unfold3D一种UV软件,建模贴图工具最好用的软件之一,开展UV的工具,是三维游戏设计中经常用到的制作工具。 模型制作过程这里以角色的建模制作为例,解说整个建模渲染的过程,场景的制作方法与此同理。 低模制作依据最后设计原画将人体基本型捏出,同时把握模型比例。具体的做法是:应用3ds max创立一个初始模型,模型的头部应用3ds Max的头部生成器制作,身材局部的制作有很多办法来制作。接着在主动生成例和大型。同时须要留神的是尽量放弃四边面,这样有利于ZBrush细分雕刻。   ZBrush雕刻这一步实现细节的精密雕刻,一共有两次拓扑,一是为了精密雕刻,二是为了实现底模的制作。过程如下:首先在ZBrush里依据原画设计图雕刻出大型,而后回到3ds Max里从新拓扑进去个适宜精密雕刻的模型,而后在ZBrush进行精密雕刻,这是最重要的局部。接着在再次拓扑前须要把ZB里的高模细分级别降下来,失去根本的形态,这样就能够把模型导入到3ds Max里去进行拓扑。3ds Max里的石墨工具便能够用于进行拓扑。在拓扑完各个局部之后再进行合并,便实现了拓扑工作。     UV与贴图3D建模中的"UV"可了解为平面模型的“皮肤”,将“皮肤”开展而后进行二维立体上的绘制并赋予物体。展UV包含UV地位、大小,尽量避免拉扯。依据软件计算生成的UV布局,将贴图绘制结束,最初将贴图贴在模型上。       结语此时便能够将模型整个保留导出,用于游戏了,在我的设计中,将制作好的模型间接导入应用。————————————————版权申明:本文为CSDN博主「qq_54693189」的原创文章,遵循CC 4.0 BY-SA版权协定,转载请附上原文出处链接及本申明。原文链接:https://blog.csdn.net/qq_5469...

May 19, 2021 · 1 min · jiezi

关于负载均衡:分布式RPC架构Dubbo架构解析使用Dubbo实现负载均衡

Dubbo利用架构 (init)在Dubbo容器Container中启动start容器上的提供者Provider(init)提供者Provider注册register服务到注册核心Registry(init)消费者Consumer从注册核心Registry订阅subscribe服务(async)注册核心Registry给消费者Consumer告诉notify(sync)消费者Consumer调用invoke服务提供者Provider(async)监控核心Monitor监控服务消费者Consumer和服务提供者Provider的应用状况,统计count服务申请次数 Dubbo负载平衡在集群负载平衡时,Dubbo提供多种负载平衡策略,缺省为random随机调用, 也能够自定义负载据平衡策略 负载平衡策略Random LoadBalance随机负载平衡调用: 按权重设置随机概率在一个界面上碰撞的概率越高,但调用量越大散布越平均,而且按概率使用权重后也比拟平均,有利于动静调整提供者权重 RoundRobin LoadBalance轮询负载平衡调用: 按公约后的权重设置轮询比率存在慢的提供者累积申请的问题:当第二台机器很慢但没有挂掉,当申请第二台时就会卡在那,导致所有申请都卡在第二台上 LeastActive LoadBalance起码沉闷调用数负载平衡调用: 雷同沉闷数的随机,沉闷数指调用前后计数差使慢的提供者收到更少的申请数,因为越慢的提供者的调用前后计数差越大 ConsistentHash LoadBalance一致性Hash负载平衡调用: 雷同的参数申请总是发送到同一提供者当某一台提供者挂掉时本来发往该提供者的申请,基于虚构节点,平摊到其它提供者,不会引起激烈变动缺省只对第一个参数Hash,如果要批改,配置 <dubbo:parameter key="hash.arguments" value="0,1">缺省用160份虚构节点,如果要批改,配置 <dubbo:parameter key="hash.nodes" value="320"/>负载平衡配置服务端服务级别 <dubbo:service interface="接口类" loadbalance="roundrobin" />客户端服务级别 <dubbo:reference interface="接口类" loadbalance="roundrobin" />服务端办法级别 <dubbo:service interface="接口类"> <dubbo:method name="办法" loadbalance="roundrobin" /></dubbo:service >客户端办法级别 <dubbo:reference interface="接口类"> <dubbo:method name="办法" loadbbalance="roundrobin"></dubbo:reference>

May 19, 2021 · 1 min · jiezi

关于负载均衡:深入浅出-LVS-负载均衡系列二DRTUN-模型原理

上篇从计算机间的通信说起,晓得通信必要的六因素是 源 IP 地址、端口号、源 MAC 地址,指标 IP 地址、端口号、指标 MAC 地址。其中,端口号标记了在应用层的两个具体利用信息,即快递的具体发送人和接管人,IP 地址示意在网络层上两个端点的地址,即快递的收回地址和收货地址,MAC 地址示意在数据链路层上节点间的地址,即快递传送中的各个驿站的地址。 在理解 LVS 的 NAT、FULLNAT 模型对数据包的批改形式以及它们的毛病之后,站在 NAT 模型的肩膀上,怎样才能更好地优化负载均衡器? 在 NAT 和 FULLNAT 模式中,不论是申请数据包还是响应数据包,都要通过负载均衡器。然而响应数据包个别要比申请数据包大很多,这可能会成为零碎的瓶颈。如果可能将申请数据包转发到实在服务器之后,响应数据包由实在服务器间接返回,这样对负载均衡器的压力就小很多。这种模式又应该如何实现呢? DR 模式 如果真的可能由实在服务器间接响应客户端,而不通过负载均衡器。那么这个由负载均衡器间接响应回客户端的数据包须要满足什么条件,能力被客户端失常接管? 实在服务器收回的数据包,在客户端接管到的时候,肯定要匹配得上从客户端收回的数据包。如果不匹配的话,客户端收到响应数据包后会间接将数据包抛弃。 客户端收回的申请数据包:CIP ➡️ VIP,则收到的响应数据包肯定是 VIP ➡️ CIP。 做个小思考,为什么没有带上 MAC 地址?后文有解释~ 然而 VIP 曾经绑定在负载均衡器上,实在服务器也有多个,在连通的网络里,如何能让多个实在服务器和负载均衡器的 VIP 地址雷同?并且实在服务器的 VIP 不能被其余设施拜访的到。也就是说在每台实在服务器上的 VIP 地址,只能它们本人晓得“我轻轻藏着 VIP”,别的设施压根不晓得。 这里不得不提另一个十分神奇的 IP 地址 127.0.0.1/0.0.0.0。认真想一下,127.0.0.1 不就是每台设施上都雷同,“轻轻藏着”的 IP 地址吗,除了本人的其余设施都没方法拜访。这个神奇的 IP 地址,叫做 Loopback 接口。它是一种纯软件性质的虚构接口,当有申请数据包送达到 lo 接口,那么 lo 接口会将这个数据包间接 “掉头”,返回给这个设施自身,这就是“环回”接口的由来。所以,如果将 VIP 绑定在 lo 接口上,是不是就能够实现“只有本人晓得这个 VIP,别的设施不晓得”呢? 将 VIP 绑定在 lo 接口上,其实只实现了一半,只是做到了在多台实在服务器上绑定雷同的 VIP 地址。还记得上篇文章中所讲的 ARP 协定吗,ARP 协定会采集在以后局域网中,除了本人之外的其余主机的 MAC 地址和 IP 地址的映射关系。而 VIP 是一个不能被别的设施采集到的地址,所以咱们要对实在服务器的 ARP 协定做一些批改,让 VIP 不会被其余设施采集到。很显然,这岂但要批改设施收到 ARP 申请之后的响应(arp_ignore 参数),也要批改设施向外通告 ARP 的申请 (arp_announce 参数)。 ...

April 29, 2021 · 2 min · jiezi

关于负载均衡:微服务服务治理之负载均衡实践使用-Ribbon-和-Feign-实现负载均衡详解

Ribbon负载平衡Ribbon与Nginx的区别客户端负载平衡Ribbbon: Ribbon是从Eureka注册核心服务器上获取注册信息列表,缓存到本地, 而后在本地实现轮询负载平衡策略.即在客户端实现负载平衡.服务端负载平衡Nginx: Ngnix是客户端所有申请对立交给Nginx,由Nginx实现负载平衡申请转发,属于服务器端负载平衡.即申请由Nginx服务器端进行转发.利用场景的区别: Nginx实用服务器端实现负载平衡:Tomcat,JettyRibbon实用于在微服务中RPC近程调用实现本地负载平衡:Dubbo,SpringCloud Ribbon负载平衡的底层实现Ribbon负载平衡: 客户端从Eureka注册核心获取对应的注册信息列表,获取到注册信息列表后,缓存到本地,而后在本地实现负载平衡.即负载平衡是由客户端实现的.负载平衡算法: 接口的总申请数取模服务器数失去理论的服务器下标(从0开始)获取到服务器调用服务实现: 获取对应服务器的近程调用地址:DiscoveryClient List<ServiceInstance> instances=discoveryClient.getInstance("eureka_ticket");应用rest形式发送申请应用近程调用 String result=restTemplate.getForObject(instanceUrl,String.class);FeignSpringCloud中反对两种客户端调用工具: Rest(RestTemplate模板)FeignFeign是申明式Http客户端调用工具,采纳接口+注解形式实现,易读性强. Feign客户端书写是以SpringMVC接口模式书写的@FeignClient(name="服务别名")@FeignClient调用服务接口(name:服务名称)在主类上标注@EnableFeignClients注解开启Feign权限微服务项目目录构造:parent: 寄存独特的依赖信息api-service: 所有服务的接口ticket-service: 特定服务的接口ticket-serviceImpl: 特定服务的实现实体类和定义接口信息寄存在接口包里在特定服务中的参数后面要标注@RequestParam("xx"),这样参数才会被接管Feign客户端超时工夫设置设置Feign客户端超时工夫ribbon.connectTime=5000 # 建设连贯所用工夫,两端连贯所用工夫ribbon.ReadTimeout=5000 # 建设连贯后,从服务器读取可用资源所用工夫

April 28, 2021 · 1 min · jiezi

关于devops:对于AWS中Region和Availability-Zone的理解

Region在AWS中,除了极少数服务(比方Route53, CloudFront等),其余所有AWS服务都是区域性的。这意味着该服务,包含其所有基础架构以及所有数据,在每个AWS region中都是隔离的。所有region之间没有任何共享内容。比方eu-west-1(Ireland)和eu-west-2(London)就是两个齐全隔离的region。 Availability Zone除了通过Region对AWS的各项服务进行隔离,在每个Region中,还存在着若干Availability Zone(AZ)。这些AZ存在的作用,是为了应答故障状况的产生。每个AZ具备独立的性能,独立的网络,独立的供电系统等,它们之间还会存在肯定的物理间隔。 在可用区上构建高可用的服务能够在AZ上构建两种常见的模型,来进步服务的可用性。 Active-Active pattern Active-Standby pattern这两种模型的独特特点在于,提前准备好AZ failure的产生。 一个例子Bad designWHY在AZ eu-west-1a产生故障的状况下,happy path的概率为:2/3 * 2/3 = 4/9. Good designWHY在AZ eu-west-1a产生故障的状况下,happy path的概率为:2/3. 参考文章:https://aws.amazon.com/builde...

April 23, 2021 · 1 min · jiezi

关于spring-cloud:spring-cloud-gatewayspring-cloud-loadbalancer-组合指定版本权重分流

上次写了在gateway上应用ribbon的实现形式。因为思考到ribbon是阻塞版本,不适宜在gateway上应用,所以切换到了spring cloud loadbanlancer 并且配合应用 CircuitBreaker断路器 0. 参考文章 1 Spring Tips: Spring Cloud Loadbalancer文章 2 Spring Cloud LoadBalancer 官网文档文章 3 Spring Cloud Commons 之 loadbalancer 源码笔记版本:spring-cloud.version Hoxton.SR7spring-boot-starter-parent 2.3.2.RELEASE 1. 思路仍旧是基于 Weight Route Predicate Factory 的革新。想法是通过在config上配置版本号和权重比例,达到指定版本分流的目标。例如,配置文件像上面这样配置 - id: temp_old uri: lb://TEMPLATE predicates: - Path=/temp/** - VersionWeight=group1, 99, v1 #权重比例,与版本号 filters: - StripPrefix=1 - id: temp_new uri: lb://TEMPLATE predicates: - Path=/temp/** - VersionWeight=group1, 1, v2 filters: - StripPrefix=199%的流量将进入老版本v1,只有1%的流量进入到新版v2。gateway是用的webflux的,而我的服务是一般servlet的,所以在服务端的负载平衡策略还是应用ribbion 的做法 1.1 调用链路申请链路客户端-> Weight Route Predicate(权重断言) -> ReactiveLoadBalancerClientFilter (如果在uri上配置了“lb”则会进入响应式负载平衡)-> chooes(ServerWebExchange exchange) (该办法从LoadBalancerClientFactory 中获取ReactorLoadBalancer<ServiceInstance> 就是负载平衡策略bean)->loadBalancer.choose(createRequest()) (负载平衡算法 抉择出服务实例)->申请到具体服务 ...

April 21, 2021 · 4 min · jiezi

关于云安全:针对等保20要求的云上最佳实践网络安全篇

简介:随同着国内企业上云步调的放慢,越来越多的企业须要对云上要害业务进行等级爱护自查或实现相干认证。本文以《GB/T 22239-2019 信息安全技术 网络安全等级爱护根本要求》中所要求的三级规范为参考,重点关注其中所波及的网络安全高危危险局部,为企业提供阿里云上有针对性的平安建设最佳实际,助力企业构建层次化的云上网络安全进攻体系,保障外围业务的平安运行。名词解释区域(Region)阿里云上的网络区域通常是以层次化的形式由内部向外部进行划分的,概括来说,通常会有三个层级的网络区域构造: 第一层级(物理区域):地区与可用区地区是指物理的数据中心。用户能够依据指标用户所在的地理位置抉择地区。而可用区是指在同一地区内,电力和网络相互独立的物理区域。在同一地区内可用区与可用区之间内网互通,可用区之间能做到故障隔离。 地区与可用区的配置和运维由阿里云负责,对于最终用户而言,仅须要抉择适合的地区或可用区部署资源,运行云上业务即可。 第二层级(逻辑网络区域):虚构专有网络VPC虚构专有网络VPC以虚拟化网络的形式提供给客户,是每个客户独有的云上公有网络区域。云租户能够齐全掌控本人的专有网络,例如抉择IP地址范畴、配置路由表和网关等,也能够在本人定义的专有网络中应用阿里云资源,如云服务器、云数据库RDS版和负载平衡等。 对于客户而言,虚构专有网络VPC是云上网络配置的第一步,也是真正意义上的云上组网的开始。 第三层级(VPC外部区域):子网与资源边界子网相似传统网络中的VLAN,是通过虚构交换机(VSwitch)提供的,用来连贯不同的云资源实例。而云资源则是通过虚构网卡的形式进行网络互联,也是目前云上最小颗粒度的资源边界。 _——三层网络架构参考图 _ 边界基于阿里云上三个层级的网络区域,天然也就造成了云上三道网络边界,也就是网络安全中常见的“层次化进攻”的举荐架构: 第一边界:互联网边界(南北向流量)云上业务如果对互联网凋谢,或是须要被动拜访互联网,那流量必定会穿过阿里云与互联网的边界,也就是云上网络的第一道边界——互联网边界。对于该类流量,咱们通常称之为南北向流量,针对这类流量的防护,在等保中有明确的要求。因为存在流量被动发起方的区别,防护的重点个别也会辨别由内向内和由外向外的不同流量类型。 第二边界:VPC边界(东西向流量)VPC是云上最重要的网络隔离单元,客户能够通过划分不同的VPC,将须要隔离的资源从网络层面离开。但同时,因为业务的须要,局部流量又可能须要在VPC间传输,或是通过诸如专线,VPN,云连贯网等形式连贯VPC,实现VPC间利用的互访。因而,如何实现跨VPC边界流量的防护,也是云上网络安全很重要的一环。 第三边界:云资源边界(微隔离流量)因为VPC曾经提供了很强的隔离属性,加上相似平安组的细颗粒度资源级管控能力,通常在VPC外部不倡议再进行过于简单的基于子网的隔离管控,通常会应用平安组在资源边界进行访问控制。如果客户须要更精细化的VPC内子网隔离,也能够应用网络ACL性能进行管控。 ——云上三层网络边界示意图 从等级爱护要求看云上网络防护重点以下内容基于《等保2.0》中无关网络安全的相干要求开展,为客户提供阿里云上相干最佳实际。 等保类目:平安通信网络——网络架构网络设备业务解决能力防护要求:应保障网络设备的业务解决能力满足业务高峰期须要最佳实际:通常,对可用性要求较高的零碎,网络设备的业务解决能力有余会导致服务中断,尤其对于传统IDC的网络架构和设施而言,因为无奈疾速程度扩大(物理架构限度),或是老本等相干起因,须要企业预留大量的网络资源,以满足业务高峰期的须要,但在日常应用过程中则会产生大量的节约。对于这一点,上云就很好的解决了这个问题,无论是业务带宽的弹性伸缩,或是阿里云上诸如云防火墙等网络安全类设施的动静程度扩容能力,都能很好地解决传统网络和平安所存在的限度,并大大降低企业的日常网络运行老本。 根底网络能力:虚构专有网络VPC、弹性公网地址EIP、负载平衡SLB、网络地址转换NAT扩大防护能力:云防火墙、云WAF、DDoS防护网络区域划分防护要求:应划分不同的网络区域,并依照方便管理和管制的准则为各网络区域调配地址最佳实际:通常,对于云上的网络区域划分,倡议客户以VPC为颗粒度布局,这是因为VPC可能依据理论须要配置IP地址段,同时又是云上的根底默认网络隔离域。对于VPC的划分,个别倡议参考企业本身的组织架构,或是业务重要属性进行网络拆分。常见的划分形式有: 按业务部门划分(例如To B业务、To C业务等)按传统网络分区划分(DMZ区域、内网区域等)按应用属性划分(例如生产环境、开发测试环境等)等保中有明确指出须要企业依据重要水平进行网络区域划分,同时,在同一VPC内的子网间默认路由互通,因而个别倡议客户以VPC为颗粒度实现网络分区。同时,因为局部业务的通信互联须要,VPC间可能通过云企业网(CEN)进行连通,在此基础上也倡议客户应用阿里云防火墙的VPC隔离能力来实现VPC间的无效隔离。 根底防护能力:虚构专有网络VPC、云企业网CEN、云防火墙扩大网络能力:高速通道、虚构边界路由器VBR网络访问控制设施不可控防护要求:应防止将重要网络区域部署在边界处,重要网络区域与其余网络区域之间应采取牢靠的技术隔离伎俩最佳实际:云上网络的常见访问控制设施有云防火墙、平安组、以及子网ACL。 云防火墙笼罩互联网边界和VPC边界,次要管控互联网出和入向的南北向流量,以及跨VPC拜访(包含专线)的流量管制; 平安组作用于主机边界,次要负责云资源边界的访问控制; 子网ACL次要实现对一个或多个VPC外部子网流量的访问控制,在有精细化拜访管控要求时能够应用。 上述服务均提供给云上客户管理权限,可能依据理论业务须要灵便进行ACL配置。 举荐防护能力:云防火墙、平安组、网络ACL互联网边界访问控制防护要求:应防止将重要网络区域部署在边界处,重要网络区域与其余网络区域之间应采取牢靠的技术隔离伎俩。最佳实际:在传统IDC的网络布局中,通常会配置DMZ区用以隔离互联网和内网区域。在云端,同样能够通过设置DMZ VPC,来实现更高安全等级的网络分区,并联合云企业网的联通性搭配云防火墙的隔离能力,将重要的生产或内网区与互联网辨别隔开,防止高风险区域内的潜在网络入侵影响企业的重要网络区域。 同时,对于互联网边界,企业须要重点关注南北向的流量防护,对于裸露在互联网上的网络资产,包含IP、端口、协定等信息,须要定期进行盘点,并配置针对性的访问控制规定,来实现互联网出入口的平安管控。 举荐防护能力:虚构专有网络VPC、云企业网CEN、云防火墙不同区域边界访问控制防护要求:应防止将重要网络区域部署在边界处,重要网络区域与其余网络区域之间应采取牢靠的技术隔离伎俩。最佳实际:客户在上云初期,个别都会基于VPC进行网络区域的布局,对于不同区域的隔离与访问控制,阿里云提供了非常灵活的形式。通常,VPC之间默认无奈通信,不同的VPC如果须要相互拜访,能够通过高速通道实现点对点的通信,或是将多个VPC退出同一个云企业网(CEN)实现互通,后者对于客户的配置和应用更为敌对,也是更举荐的形式。在此基础上,客户可能通过云防火墙提供的VPC边界访问控制,来对跨VPC的流量进行拜访管控,过程中不须要客户手动更改路由,既简化了路由的配置,又能通过对立的形式实现平安隔离管控。 同时,对于通过专线(虚构边界路由VBR)或VPN形式组建的混合云场景,或是管控来自办公网的云上拜访,也能通过云防火墙在VPC边界,通过分布式的形式实现对立访问控制,保障外围区域内的资源拜访可管可控。 举荐防护能力:虚构专有网络VPC、云防火墙、平安组要害线路、设施冗余防护要求:应提供通信线路、要害网络设备和要害计算设施的硬件冗余,保证系统的可用性。最佳实际:阿里云提供的各类网络和平安服务,在设计初期,首要思考的就是如何实现高可用架构。无论是虚构网络服务,诸如虚构网络VPC、负载平衡SLB或NAT网关,还是安全类服务,如云防火墙、云WAF或DDoS防护,都在硬件层面实现了冗余,并通过集群的形式提供服务,满足客户云上要害业务对于网络安全可用性的要求。 与此同时,当客户在进行网络布局和配置的过程中,还是须要对高可用架构进行必要的设计,例如多可用区架构、专线的主备冗余等,实现更高等级的通信链路保障。 根底网络能力:参考各阿里云网络与平安产品高可用个性等保类目:平安通信网络——通信传输传输完整性爱护防护要求:应采纳明码技术保障通信过程中数据的完整性。最佳实际:对于数据传输完整性要求较高的零碎,阿里云倡议在数据传输实现后,进行必要的校验,实现形式可采纳音讯甄别码(MAC)或数字签名,确保数据在传输过程中未被歹意篡改。 举荐防护能力:客户业务实现传输保密性爱护防护要求:应采纳明码技术保障通信过程中数据的保密性。最佳实际:数据传输过程中的保密性爱护,依据业务类型通常会分为通道类连贯和网站类拜访。 对于通道类连贯,阿里云提供了VPN网关服务,帮忙客户疾速搭建加密通信链路,实现跨区域的互联。对于网站类的拜访,阿里云联结了中国及中国以外地区的多家数字证书颁发机构,在阿里云平台上间接提供数字证书申请和部署服务,帮忙客户以最小的老本将服务从HTTP转换成HTTPS,爱护终端用户在网站拜访过程中的通信安全。 举荐防护能力:VPN网关、SSL/TLS证书等保类目:平安区域边界——边界防护互联网边界访问控制防护要求:应保障逾越边界的拜访和数据流通过边界设施提供的受控接口进行通信最佳实际:对于由互联网侧被动发动的拜访,如果是网站类的业务,个别倡议企业配置云WAF来进行有针对性的网站利用防护,并搭配云防火墙,实现全链路的访问控制;对于非网站类的入云业务流量,包含近程连贯、文件共享、开放式数据库等,客户可能通过云防火墙在公网EIP维度进行有针对性的凋谢接口统计与防护。 对于由云外部被动发动的向互联网的外联,倡议企业基于云防火墙提供的出云方向ACL,同样在EIP维度进行基于白名单的访问控制,将外联危险降到最低。 举荐防护能力:云防火墙、云WAF网络访问控制设施不可控防护要求:应保障逾越边界的拜访和数据流通过边界设施提供的受控接口进行通信;最佳实际:参考【平安通信网络——网络架构】章节中的最佳实际,同时,局部云上PaaS服务也提供了相似的访问控制能力,如负载平衡SLB、对象存储OSS、数据库服务RDS,客户可能依据理论应用状况进行配置。 根底网络能力:参考各阿里云网络产品举荐防护能力:云防火墙、平安组、云WAF、网络ACL违规内联查看措施防护要求:应可能对非受权设施擅自连贯到外部网络的行为进行查看或限度;最佳实际:客户在云上的外部网络,通常会部署外部应用服务器或数据库等重要数据资产。对于向外部网络发动连贯的行为,个别会经由互联网(南北向)通道或专线及VPC(东西向)通道。 对于来自互联网的网络连接,个别倡议客户在边界EIP上进行网络流量的查看。客户可能通过云防火墙提供的深度包检测(DPI)能力,剖析起源IP和拜访端口等信息,辨认出潜在的异样连贯行为,并通过配置有针对性的拜访控制策略,实现违规流量的阻断。 对于东西向的流量,通常是由企业IDC或办公网发动的,尤其是办公网,除了可能在云下边界部署上网行为治理等服务外,也可能利用云防火墙提供的VPC边界管控能力,辨认异样拜访流量,并针对性的进行特定IP或端口的封禁。 举荐防护能力:云防火墙违规外联查看措施防护要求:应可能对外部用户非受权连贯到内部网络的行为进行查看或限度;最佳实际:对于由外部网络被动向内部发动拜访的行为,可能通过云防火墙提供的被动外连辨认能力进行检测。对于所有跨边界的出云方向网络流量,云防火墙会剖析流量的拜访指标,联合阿里云威逼情报能力,一旦发现连贯目标是歹意IP或域名,会立即触发告警,揭示客户查看网络拜访行为是否存在异样,并倡议客户对确认为歹意的流量通过配置ACL的形式进行阻断。 同时阿里云平安核心通过在主机层面进行入侵检测,也可能发现违规的外联过程,并进行有针对性的阻断和告警提醒,帮忙客户进行歹意危险的溯源。 举荐防护能力:云防火墙、云平安核心等保类目:平安区域边界——访问控制互联网边界访问控制防护要求:应在网络边界或区域之间依据拜访控制策略设置访问控制规定,默认状况下除容许通信外受控接口回绝所有通信;最佳实际:“除容许通信外受控接口回绝所有通信”,即网络安全中的“白名单”概念,须要客户配置相似如下的拜访控制策略,实现网络裸露面的最小化: 优先级拜访源拜访目标端口协定行为高特定IP(段)特定IP(段)指定端口指定协定回绝中特定IP(段)特定IP(段)指定端口指定协定容许默认所有(ANY)所有(ANY)所有(ANY)所有(ANY)回绝无论是互联网边界,或是VPC区域边界,都能够通过阿里云防火墙实现上述访问控制的配置和治理。阿里云防火墙作为云原生SaaS化防火墙,与传统防火墙不同,在客户开启过程中,不须要客户进行任何网络架构的调整,并且拜访策略会优先保障客户在线业务的失常运行。在日常应用过程中,倡议客户依据理论业务流量,通过配置“察看”行为类型的规定,在不中断业务的前提下进行流量剖析,逐步完善并增加相应的“容许”类访问控制规定,最终实现默认“回绝”规定的上线,在业务平滑过渡的过程中实现边界拜访的收口;而对于新上云的客户,则倡议在初期就配置访问控制“白名单”规定,增强网络安全管控。* 举荐防护能力:云防火墙## 等保类目:平安区域边界——入侵防备 ### 内部网络攻击进攻 * 防护要求:应在要害网络节点处检测、避免或限度从内部发动的网络攻击行为;* 最佳实际:云上常见的网络攻击,依据攻打类型和所需防护的资产,个别分为网络入侵行为、针对网站的攻打和海量分布式攻打(DDoS攻打)。对于云上裸露资产的入侵检测和进攻,阿里云防火墙通过提供网络入侵检测和进攻(IDPS)能力,帮忙客户在互联网边界和VPC边界防备歹意内部入侵行为,并通过提供虚构补丁的形式,为云上客户在网络边界实现针对近程可利用破绽的虚拟化进攻,帮忙客户晋升整体网络安全进攻程度和应急响应能力。而对于在云上发展网站类业务的客户,阿里云提供了Web利用防火墙的防护能力,对网站或者APP的业务流量进行歹意特色辨认及防护,防止网站服务器被歹意入侵,保障业务的外围数据安全,解决因歹意攻打导致的服务器性能异样问题。针对DDoS攻打,阿里云为云上客户提供了DDoS防护的能力,在企业蒙受DDoS攻打导致服务不可用的状况下,应用阿里云寰球DDoS荡涤网络,通过秒级检测与AI零碎,帮忙云上客户缓解攻打,保障业务稳固运行。* 举荐防护能力:云防火墙、云WAF、DDoS防护### 外部网络攻击进攻 * 防护要求:应在要害网络节点处检测、避免或限度从外部发动的网络攻击行为;* 最佳实际:对于外部发动的网络攻击行为,如果产生在云端,个别是因为云资源曾经被胜利入侵导致。此时,除了应用阿里云平安核心进行资源(例如主机或容器)维度的应急响应和进攻外,同时可能应用云防火墙,加固不同VPC区域之间的平安隔离,并在容许的通信链路上对网络流量进行继续的网络入侵检测进攻(IPS),将网络攻击的影响范畴降到最小,限度网络攻击行为,同时便于前期进行调查取证和攻打剖析。* 举荐防护能力:云防火墙、云平安核心## 等保类目:平安区域边界——恶意代码和垃圾邮件防备 ### 恶意代码防范措施 * 防护要求:应在要害网络节点处对恶意代码进行检测和革除,并保护恶意代码防护机制的降级和更新* 最佳实际:对于阿里云上的恶意代码防护,通常倡议客户在资源层面通过云平安核心实现防护,同时利用云防火墙在网络层面进行协同进攻,并在网站资源上利用云WAF进行防护。云平安核心目前反对蠕虫病毒、勒索病毒、木马、网站后门等恶意代码的检测和隔离革除,并定期降级相干恶意代码规定库;针对挖矿蠕虫(例如对SSH/RDP等进行暴力破解)攻打,云防火墙通过提供入侵检测和防御能力,对恶意代码和相干行为进行检测并告警;针对高危可近程利用破绽,云防火墙利用阿里云平安在云上攻防反抗中积攒的大量歹意攻打样本,针对性地生成精准的进攻规定,并在后盾实现自动化的规定降级和更新,帮忙客户以无感的形式一直晋升整体平安防护能力。云上网站在接入Web利用防火墙后,防护引擎会主动为网站进攻SQL注入、XSS跨站、Webshell上传、命令注入、后门隔离、非法文件申请、门路穿梭、常见利用破绽攻打等Web攻打,实现对云上网站的歹意行为检测和防护。* 举荐防护能力:云平安核心、云防火墙、云WAF## 等保类目:平安区域边界——平安审计 ### 网络安全审计措施 * 防护要求:应在网络边界、重要网络节点进行平安审计,审计笼罩到每个用户,对重要的用户行为和重要安全事件进行审计;* 最佳实际:通常倡议客户在互联网边界和VPC区域边界通过启用阿里云防火墙,实现对全网络边界的流量平安审计,并在产生安全事件时,可能通过网络日志疾速定位异样流量和进行网络溯源。目前云防火墙提供了三类审计日志: 流量日志:通过互联网边界和VPC边界的流量日志记录,包含拜访流量开始和完结的工夫、源IP和目标IP、利用类型、源端口、利用、反对的协定、动作状态、字节数以及报文数等信息; * 事件日志:通过互联网边界和VPC边界且命中了平安检测规定的流量记录,是流量日志的子集,包含事件的工夫、威逼类型、源IP和目标IP、利用类型、严重性等级以及动作状态等信息; * 操作日志:记录云防火墙中的所有用户操作行为,包含操作的用户账号、执行的工夫、操作类型、严重性以及具体操作信息。 同时阿里云针对网络日志提供了弱小的剖析能力,帮忙客户不仅在平安维度发现异常流量,还可能在运维层面提供弱小的数据撑持,统计网络流量行为,剖析并优化网络应用和老本,晋升整体网络运行效率。对于网站类业务,阿里云WAF也提供了日志服务,可能近实时地收集并存储网站拜访日志和攻打防护日志,帮助客户进行深入分析、以可视化的形式进行展现、并依据所设定的阈值实现监控报警。云防火墙和云WAF的日志留存均基于日志服务SLS,可能提供6个月的留存时长,并通过SLS提供的能力进行剖析、统计报表、对接上游计算与提供日志投递等能力,实现灵便的日志剖析和治理。* 举荐防护能力:云防火墙、云WAF## 等保类别:平安区域边界——集中管控### 安全事件发现处理措施* 防护要求:应能对网络中产生的各类安全事件进行辨认、报警和剖析;* 最佳实际:对于云上常见的内外部网络攻击,能够参考【平安区域边界——入侵防备】章节中的相干内容。目前针对不同类型的网络攻击,阿里云都提供了对应的防护能力,从DDoS类的攻打,网络入侵行为的检测和告警,到针对网站的歹意行为辨认和剖析,都能够通过阿里云相干平安产品,实现有针对性的防护。* 举荐防护能力:云防火墙、云WAF、DDoS防护## 等保类目:平安运维治理——网络和零碎运维治理### 运维外联的管控 * 防护要求:应保障所有与内部的连贯均失去受权和批准,应定期检查违反规定无线上网及其他违反网络安全策略的行为* 最佳实际:对于办公环境的外联行为,倡议客户依据理论状况抉择针对性的防护伎俩。当客户应用阿里云上资源发展日常运维工作时(例如应用堡垒机进行云上环境运维),对于云上资源的外访,倡议客户通过云防火墙进行被动外连行为的检测,及时发现歹意的外连行为,进行针对性的封禁。具体最佳实际能够参考【平安区域边界——边界防护】中的违规外联查看措施局部,实现针对性的管控。* 举荐防护能力:云防火墙 *# 总结网络安全等级爱护在2019年曾经从1.0降级为2.0,是我国网络安全畛域的基本国策。针对云上网络安全,等保2.0在欠缺网络架构和访问控制的根底上,也对网络入侵进攻和平安审计提出了更高的要求。通过本最佳实际,心愿可能在企业建设云上网络安全进攻体系的过程中,供企业参考,以更全面的视角对待网络安全,实现更无效的防护。 *# 附录《等保2.0》网络安全高危危险与应答倡议汇总防护层面控制点规范要求举荐防护能力<span class="lake-fontsize-11">平安通信网络</span><span class="lake-fontsize-11">网络架构</span><span class="lake-fontsize-11">网络设备业务解决能力</span><span class="lake-fontsize-11">VPC、EIP、SLB、NAT</span><span class="lake-fontsize-11">网络区域划分</span><span class="lake-fontsize-11">VPC、云防火墙、CEN</span><span class="lake-fontsize-11">网络访问控制设施不可控</span><span class="lake-fontsize-11">云防火墙、平安组、网络ACL</span><span class="lake-fontsize-11">互联网边界访问控制</span><span class="lake-fontsize-11">VPC、云防火墙、CEN</span><span class="lake-fontsize-11">不同区域边界访问控制</span><span class="lake-fontsize-11">VPC、云防火墙、平安组</span><span class="lake-fontsize-11">要害线路、设施冗余</span><span class="lake-fontsize-11">各阿里云网络与平安产品</span><span class="lake-fontsize-11">通信传输</span><span class="lake-fontsize-11">传输完整性爱护</span><span class="lake-fontsize-11">客户业务实现</span><span class="lake-fontsize-11">传输保密性爱护</span><span class="lake-fontsize-11">VPN、SSL证书</span><span class="lake-fontsize-11">平安区域边界</span><span class="lake-fontsize-11">边界防护</span><span class="lake-fontsize-11">互联网边界访问控制</span><span class="lake-fontsize-11">云防火墙、云WAF</span><span class="lake-fontsize-11">网络访问控制设施不可控</span><span class="lake-fontsize-11">各阿里云网络与平安产品</span><span class="lake-fontsize-11">违规内联查看措施</span><span class="lake-fontsize-11">云防火墙</span><span class="lake-fontsize-11">违规外联查看措施</span><span class="lake-fontsize-11">云防火墙、云平安核心</span><span class="lake-fontsize-11">访问控制</span><span class="lake-fontsize-11">互联网边界访问控制</span><span class="lake-fontsize-11">云防火墙</span><span class="lake-fontsize-11">入侵防备</span><span class="lake-fontsize-11">内部网络攻击进攻</span><span class="lake-fontsize-11">云防火墙、云WAF、DDoS防护</span><span class="lake-fontsize-11">外部网络攻击进攻</span><span class="lake-fontsize-11">云防火墙、云平安核心</span><span class="lake-fontsize-11">恶意代码和</span><span class="lake-fontsize-11">垃圾邮件防备</span><span class="lake-fontsize-11">恶意代码防范措施</span><span class="lake-fontsize-11">云防火墙、云平安核心、云WAF</span><span class="lake-fontsize-11">平安审计</span><span class="lake-fontsize-11">网络安全审计措施</span><span class="lake-fontsize-11">云防火墙、云WAF</span><span class="lake-fontsize-11">集中管控</span><span class="lake-fontsize-11">安全事件发现处理措施</span><span class="lake-fontsize-11">云防火墙、云WAF、DDoS防护</span><span class="lake-fontsize-11">平安运维治理</span><span class="lake-fontsize-11">网络和零碎</span><span class="lake-fontsize-11">运维治理</span><span class="lake-fontsize-11">运维外联的管控</span><span class="lake-fontsize-11">云防火墙</span>> 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

April 21, 2021 · 1 min · jiezi

关于监控:阿里云微服务引擎MSE网关功能开启微服务大门云化时代

简介:微服务网关被作为微服务面向客户端的繁多入口,用来解决横向的关注点,包含访问控制、速率限度、负载平衡等等。真正用起来时,咱们还须要关注更多的纵向因素,例如服务发现能力、更全面的监控可观测能力、更高的稳定性保障等。【云原生利用减速发布会】传送门:https://yqh.aliyun.com/live/detail/22720 点击查看详情:https://yqh.aliyun.com/live/cloudnative\_release 微服务网关被作为微服务面向客户端的繁多入口,用来解决横向的关注点,包含访问控制、速率限度、负载平衡等等。真正用起来时,咱们还须要关注更多的纵向因素,例如服务发现能力、更全面的监控可观测能力、更高的稳定性保障等。 近日,阿里云微服务引擎MSE重磅公布网关性能,将在网关的稳定性、安全性、性能齐备性上提供更多增值价值,开启微服务“大门”的云化时代。 一、微服务“大门”有哪些抉择?1、性能抉择-NginxNginx 应该是 Web 利用的标配组件,应用场景包含负载平衡、反向代理、代理缓存等。Nginx 的内核的设计十分渺小和简洁,实现的性能也绝对简略,仅仅通过查找配置文件与申请进行 URL 匹配,用于启动不同的模块去实现相应的工作。 Nginx 在启动后,会有一个 Master 过程和多个 Worker 过程,Master 过程和 Worker 过程之间是通过过程间通信进行交互的。Worker 工作过程的阻塞点是在像 select()、epoll\_wait() 等这样的 I/O 多路复用函数调用处,以期待产生数据可读 / 写事件。Nginx 采纳了异步非阻塞的形式来解决申请,是能够同时解决成千上万个申请的。 2、服务亲和-Zuul & Sping Cloud GatewayZuul 是 Netflix 开源的微服务网关组件,其能够配合 Eureka、Nacos 等开源产品实现不错的服务发现能力,同时集成Ribbon、Hystrix 或 Sentinel 等组件实现对整个链路的流控。 Zuul 的外围是一系列的过滤器,这些过滤器许多性能,例如: 鉴权与访问控制:辨认每次申请的合法性,并回绝那些没有在受权列表中的起源申请。审计与监控:记录每次申请/响应的内容,以及 RT/错误率等,从而剖析出 API 的动静品质、平安状况。动静路由负载:动静地将申请路由分流到不同的服务、利用或者集群。对立上下文:在申请转发前依据业务需要设置公共的上下文信息向后传递。Mock 响应:针对简略申请能够组合配置核心,间接在网关层间接响应,从而防止其转发到外部。下面提及的这些个性是 Nginx 所没有的,Netflix 公司研发 Zuul 是为了解决微服务场景的诸多问题,而不仅仅是做一个相似于 nginx 的反向代理。 Spring Cloud Gateway 是 Spring Cloud 的一个全新我的项目,该我的项目是基于 Spring 5.0,Spring Boot 2.0 和 Project Reactor 等技术开发的网关,它旨在为微服务架构提供一种简略无效的对立的 API 路由治理形式。 Spring Cloud Gateway 作为 Spring Cloud 生态系统中的网关,指标是代替 Zuul,在Spring Cloud 2.0 以上版本中,没有对新版本的 Zuul 2.0 以上最新高性能版本进行集成,依然还是应用的 Zuul 2.0 之前的非 Reactor 模式的老版本。而为了晋升网关的性能,SpringCloud Gateway 是基于 WebFlux 框架实现的,而 WebFlux 框架底层则应用了高性能的 Reactor 模式通信框架 Netty。 Spring Cloud Gateway 的指标,不仅提供对立的路由形式,并且基于 Filter 链的形式提供了网关根本的性能,例如:平安,监控/指标,和限流。 ...

April 16, 2021 · 1 min · jiezi

关于ribbon:分布式springcould服务调用Ribbon的负载均衡

[TOC] 之前咱们介绍了治理分布式组件注册的服务;eureka、consul、zookeeper、nacos他们都能够实现咱们服务的注册于获取。然而理论咱们还是须要咱们本人调用最终的客户端获取数据的。前提概要下面的服务发现框架都能够应用。consul因为须要保障网络通信失常。而eureka是咱们本人注册java服务。所以这里就抉择通过eureka来作为咱们的服务治理框架。这里咱们就借助咱们之前eureka服务搭建整合文章。咱们间接用之前那个分支启动eureka服务,一个order服务、两个payment服务。 而后还是拜访咱们localhost/order/payment/123这个接看看响应是否是负载平衡的。 这些都是咱们eureka章节的内容。这个时候问题来了。为什么restTemplate会实现负载平衡。这里咱们查阅材料就会发现在服务治理框架中会注入ribbon框架。在ribbon注册的时候回将ribbon提供的拦截器注入到restTemplate中。restTemplate执行之前会先走拦截器从而实现负载平衡。所以重点还是在ribbon。因为是他实现了负载平衡Ribbon作用ribbon是springcloud我的项目组件。全名spring-cloud-ribbon。他的次要性能是负载平衡和服务调用。ribbon在服务调用是有超时,重试的设置。外部提供默认负载平衡机制。也提供接口不便咱们自定义负载平衡策略。ribbon的服务调用借助月RestTemplate,RestTemplate的负载平衡依赖于ribbon。两者是相辅相成的一个产品。Ribbon原理下面也说了适宜RestTemplate联合应用的。还有springcloud提供的Feign联合应用的。Ribbon首先外部在构建一个http包下的ClientHttpRequestInterceptor拦截器。@Beanpublic LoadBalancerInterceptor ribbonInterceptor( LoadBalancerClient loadBalancerClient, LoadBalancerRequestFactory requestFactory) { return new LoadBalancerInterceptor(loadBalancerClient, requestFactory);} 而后会获取所有被LoadBalanced规范的RestTemplate。遍历所有RestTemplate诶个注入咱们LoadBalancerInterceptor拦截器。在这个拦截器外部会实现服务列表获取。而后负载平衡。Ribbon源码剖析原理很简略。就是在RestTemplate调用之前根据Ribbon的能力获取真正须要调用的地址而后交由RestTemplate调用。Ribbon主动配置 基于springboot的spi机制咱们可能发现在springcloud-common中会加载LoadBalancerAutoConfiguration配置类。通过名称咱们大略也能理解到这个类是配置负载平衡的主动配置类。上面咱们来看看这个类都为咱们筹备了哪些工作。 首先是注入两个成员变量。restTeplates、transformers两个。restTemplates就是获取所有被@LoadBalanced标注的restTemplate。筹备为他们注入拦截器LoadBalancerRequestTransformer类正文Allows applications to transform the load-balanced {@link HttpRequest} given the chosenLoadBalancerRequestTransformer类正文意思就是容许给指定的申请切换负载平衡策略。这里能力无限有工夫在深挖一下。LoadBalanced这里咱们须要先介绍下Loadbanced这个注解。为什么退出这个注解咱们就能获取到指定的RestTemplate汇合呢。 点开源码发现也没啥货色,就是一个注解示意。然而这个注解不个别。咱们留神到他外部有个元注解@Qualifier。这个注解是org.springframework.beans.factory.annotation包下。理解Spring的读者应该晓得这是spring注入类的一种形式。对于spring注入形式解析咱们独自开篇剖析下。这里咱们只用记住@Qualifier会注入雷同属性的bean.什么叫雷同属性的bean。比方咱们下面可能会多个中央注入RestTemplate。增加@Loadbanlanced注解相当于如下注解 而后@Qualifier联合@Autowired注解就会注入所有RestTemplate在spring容器中的bean。且@Qualifier中的value=""的。也就是下面两个注解spring就会收罗到负载平衡标记的RestTemplateLoadBalancerInterceptor索罗到对象之后上面理所应到应该开始筹备拦截器了 下面生成RestTemplateCustomizer对象springcloud是通过lamda表达式生成的。实际上就是实现RestTemplateCustomizer这个接口。外部会将RestTemplate对象调用set办法将LoadBancerInterptor拦截器注入到对象内。在RestTemplate执行的时候回先通过过滤器的洗礼。这里留个坑吧。对于RestTemplate调用咱们稍后再说。回到LoadBalancerAutoConfiguration 咱们持续回到LoadBalancerAutoConfiguration . 下面咱们晓得两个注入的属性的作用了。在前面咱们看到了SmartinitializingSingleton和LoadBalancerRequestFactory。对于LoadbalancerRequestFactory这理论就是个工厂。在结构LoadBalancerIntercrptor拦截器的时候须要用到。重点在SmartInitializingSingleton这个类。外面传了一个参数通过ObjectProvider封装的。ObjectProvider的作用能够简略了解为@Autowired。而外部的RestTemplateCustomer就是咱们上文提到的作用是为了封装RestTemplate。customizer.customize就是调用增加拦截器了。到此RestTemplate机会被装在有Ribbon实现的拦截器了。当咱们在通过RestTemplate调用接口的时候就会有负载平衡的性能了。RetryTemplate 主动配置之后咱们发现还有两个配置类。认真看看和下面的配置是一样的。然而多了retry字眼。这个类次要依赖于RetryTemplate。是用来重试的。 同样是为RestTemplate注入interceptor。只不过都是Retry模式的。 RetryLoadBalancerInterceptor拦挡外部实现里实际上就是RetryTemplate和RestTemplate的区别。 两个拦截器的区别其实就是前者多了一个重试机制。具体重试的策略是通过LoadBalancedRetryPolicy设置的。在Ribbon中RetryTemplate是须要内部提供的。因为咱们零碎中没有退出所以这里爆红。这里也就没有生成重试的成果。有趣味的读者能够试试。RestTemplate联合Ribbon调用原理public class LoadBalancerInterceptor implements ClientHttpRequestInterceptor 咱们间接察看LoadBalancerInterceptor这个拦截器不难发现。他就是实现了ClientHttpRequestIntrceptor。这里咱们记住这个接口。在RestTemplate调用的时候必定会设计到ClientHttpRequestInterceptor这个类。RestTemplate源码跟踪咱们还是拿咱们的order订单举例。还记的咱们的订单拜访接口吗http://localhost/order/getpayment/123。 getForObject @Override@Nullablepublic <T> T getForObject(String url, Class<T> responseType, Object... uriVariables) throws RestClientException { RequestCallback requestCallback = acceptHeaderRequestCallback(responseType); HttpMessageConverterExtractor<T> responseExtractor = new HttpMessageConverterExtractor<>(responseType, getMessageConverters(), logger); return execute(url, HttpMethod.GET, requestCallback, responseExtractor, uriVariables);}RestTemplate办法外部首先通过申请头验证并组装response。最终会执行execute办法。execute ...

April 15, 2021 · 2 min · jiezi

关于负载均衡:深入浅出-LVS-负载均衡系列一NATFULLNAT-模型原理

LVS(Linux Virtual Server)是一个虚构服务器集群零碎。工作在 OSI 模型的传输层,即四层负载平衡。LVS 自身实现了 NAT、DR、TUN 模型,这些模型仅做数据包的转发,而不会与客户端建设连贯,老本低效率高。FULLNAT 基于 NAT 实现,LVS 自身不反对,须要额定对内核打补丁后能力应用。 本系列依照负载均衡器对数据包的解决形式分类,从计算机间通信的角度登程,浅谈 NAT、FULLNAT、DR、TUN 模型的实现原理。 两台计算机如何在互联网中通信 在理解 LVS 负载平衡之前,先要搞清楚两台计算机如何在互联网中通信。茫茫互联网中,两台计算机如何能力找到对方? 咱们先来看看,快递是如何被快递小哥完满地送到你手上的。依据你填写的地址,快递先送到你所在的省市区,接着在以后省市区找到你的门牌号,最初依据门牌号和姓名,再亲手把快递交给你。 两台计算机在互联网中的通信也是如此。首先须要晓得单方的 IP 地址,即省市区,其次须要晓得单方的 MAC 地址,即门牌号。MAC 地址标记着惟一的计算机。在同一台计算机上,可能有多个不同的服务,如何能像快递小哥依照姓名找到你一样,在计算机上找到对应的服务呢?没错,就是依照端口号。 这样,通信中每台计算机须要提供的信息就很清晰了,即 IP 地址、MAC 地址、端口号。总结一下,计算机之间通信必须的六个因素就是,源 IP 地址、端口号、源 MAC 地址,指标 IP 地址、端口号、指标 MAC 地址。 假如计算机 A 和计算机 B 在上述的网络拓扑图(不在同一局域网)中。能够很清晰地看到 计算机 A 和 计算机 B 通信须要五个步骤,其中 ①② 和 ④⑤ 的原理雷同。当初咱们来看看具体的每个步骤在计算机的世界中是如何实现的。 首先 A 和 B 的 IP 地址和端口号是已知的,即一个数据包从哪来要发往哪去。所以当初的问题是:A 如何能晓得 B 的 MAC 地址? 最简略的形式就是 A 保留网络中全副设施的 MAC 地址,在发送时查问一下,这样就能失去 B 的 MAC 地址。然而网络中的设施有几十亿个,还在一直地增长,显然这种形式是不可取的。如果依照快递发送过程中,在每个驿站之间进行转移,这样只须要晓得该发往的下一目的地在哪里,最终也能将快递胜利地交到你的手上。在理论网络中发送数据包也是这样,当初的指标就是确定 “下一个目的地” 的 MAC 地址。 ...

April 14, 2021 · 2 min · jiezi

关于负载均衡:Kong和konga-入门教程

前沿最近有在学习和理解kong,明天就和大家来分享下kong和konga吧 介绍kong 是一款基于Nginx_lua 模块写的高可用网关API,在客户端和服务间转发API通信的网关,能够通过插件扩大性能。 简略一句话:kong是动静增强版的nginx 看看几个名词 Nginx 是模块化设计的反向代理软件,C语言开发OpenResty 是以Nginx 为外围的web 开发平台,能够解析执行Lua 脚本kong 是一个openResty利用,一个api gatewaykong装置次要以docker 形式来部署。以后kong版本2.3.0 1 . 创立docker 虚构网络 docker network create kong-net2 . 运行postgresql 的数据库 docker run -d --name kong-database \ --network=kong-net \ -p 5432:5432 \ -e "POSTGRES_USER=kong" \ -e "POSTGRES_DB=kong" \ -e "POSTGRES_PASSWORD=kong" \ postgres:9.63 . 初始化数据库(迁徙数据) docker run --rm \ --network=kong-net \ -e "KONG_DATABASE=postgres" \ -e "KONG_PG_HOST=kong-database" \ -e "KONG_PG_USER=kong" \ -e "KONG_PG_PASSWORD=kong" \ -e "KONG_CASSANDRA_CONTACT_POINTS=kong-database" \ kong:latest kong migrations bootstrap4 . 运行kong ...

April 5, 2021 · 2 min · jiezi

关于监控:阿里云微服务引擎MSE网关功能开启微服务大门云化时代

简介:微服务网关被作为微服务面向客户端的繁多入口,用来解决横向的关注点,包含访问控制、速率限度、负载平衡等等。真正用起来时,咱们还须要关注更多的纵向因素,例如服务发现能力、更全面的监控可观测能力、更高的稳定性保障等。【云原生利用减速发布会】传送门:https://yqh.aliyun.com/live/detail/22720 点击查看详情:https://yqh.aliyun.com/live/cloudnative\_release 微服务网关被作为微服务面向客户端的繁多入口,用来解决横向的关注点,包含访问控制、速率限度、负载平衡等等。真正用起来时,咱们还须要关注更多的纵向因素,例如服务发现能力、更全面的监控可观测能力、更高的稳定性保障等。 近日,阿里云微服务引擎MSE重磅公布网关性能,将在网关的稳定性、安全性、性能齐备性上提供更多增值价值,开启微服务“大门”的云化时代。 一、微服务“大门”有哪些抉择?1、性能抉择-NginxNginx 应该是 Web 利用的标配组件,应用场景包含负载平衡、反向代理、代理缓存等。Nginx 的内核的设计十分渺小和简洁,实现的性能也绝对简略,仅仅通过查找配置文件与申请进行 URL 匹配,用于启动不同的模块去实现相应的工作。 Nginx 在启动后,会有一个 Master 过程和多个 Worker 过程,Master 过程和 Worker 过程之间是通过过程间通信进行交互的。Worker 工作过程的阻塞点是在像 select()、epoll\_wait() 等这样的 I/O 多路复用函数调用处,以期待产生数据可读 / 写事件。Nginx 采纳了异步非阻塞的形式来解决申请,是能够同时解决成千上万个申请的。 2、服务亲和-Zuul & Sping Cloud GatewayZuul 是 Netflix 开源的微服务网关组件,其能够配合 Eureka、Nacos 等开源产品实现不错的服务发现能力,同时集成Ribbon、Hystrix 或 Sentinel 等组件实现对整个链路的流控。 Zuul 的外围是一系列的过滤器,这些过滤器许多性能,例如: 鉴权与访问控制:辨认每次申请的合法性,并回绝那些没有在受权列表中的起源申请。审计与监控:记录每次申请/响应的内容,以及 RT/错误率等,从而剖析出 API 的动静品质、平安状况。动静路由负载:动静地将申请路由分流到不同的服务、利用或者集群。对立上下文:在申请转发前依据业务需要设置公共的上下文信息向后传递。Mock 响应:针对简略申请能够组合配置核心,间接在网关层间接响应,从而防止其转发到外部。下面提及的这些个性是 Nginx 所没有的,Netflix 公司研发 Zuul 是为了解决微服务场景的诸多问题,而不仅仅是做一个相似于 nginx 的反向代理。 Spring Cloud Gateway 是 Spring Cloud 的一个全新我的项目,该我的项目是基于 Spring 5.0,Spring Boot 2.0 和 Project Reactor 等技术开发的网关,它旨在为微服务架构提供一种简略无效的对立的 API 路由治理形式。 Spring Cloud Gateway 作为 Spring Cloud 生态系统中的网关,指标是代替 Zuul,在Spring Cloud 2.0 以上版本中,没有对新版本的 Zuul 2.0 以上最新高性能版本进行集成,依然还是应用的 Zuul 2.0 之前的非 Reactor 模式的老版本。而为了晋升网关的性能,SpringCloud Gateway 是基于 WebFlux 框架实现的,而 WebFlux 框架底层则应用了高性能的 Reactor 模式通信框架 Netty。 Spring Cloud Gateway 的指标,不仅提供对立的路由形式,并且基于 Filter 链的形式提供了网关根本的性能,例如:平安,监控/指标,和限流。 ...

March 25, 2021 · 1 min · jiezi

关于消息中间件:快手基于RocketMQ的在线消息系统建设实践

简介:快手须要建设一个次要面向在线业务的音讯零碎作为 Kafka 的补充,低提早、高并发、高可用、高牢靠的分布式消息中间件 RocketMQ 正是咱们所需的。作者:黄理 黄理,10多年软件开发和架构教训,热衷于代码和性能优化,开发和参加过多个开源我的项目。曾在淘宝任业务架构师多年,以后在快手负责在线音讯零碎建设工作。 为什么建设在线音讯零碎在引入RocketMQ之前,快手曾经在大量的应用Kafka了,但并非所有状况下Kafka都是最合适的,比方以下场景: 业务心愿个别生产失败当前能够重试,并且不梗塞后续其它音讯的生产。业务心愿音讯能够提早一段时间再投递。业务须要发送的时候保障数据库操作和音讯发送是统一的(也就是事务发送)。为了排查问题,有的时候业务须要肯定的单个音讯查问能力。为了应答以上这类场景,咱们须要建设一个次要面向在线业务的音讯零碎,作为Kafka的补充。在考查的一些消息中间件中,RocketMQ和业务需要匹配度比拟高,同时部署构造简略,应用的公司也比拟多,于是最初咱们就采纳了RocketMQ。 部署模式和落地策略在一个已有的体系内落地一个开软软件,通常大略有两种形式: 形式一,在开源软件的根底上做深度批改,很容易实现公司内须要的定制性能。但和社区开源版本各奔前程,当前如何降级? 形式二,尽量不批改社区版本(或缩小不兼容的批改),而是在它的外围或者下层进一步包装来实现公司外部须要的定制性能。 注:上图形式一的图画的比拟极其,实际上很多公司是形式一、形式二联合的。 咱们抉择了形式二。最早的时候,咱们应用的是4.5.2版本,起初社区4.7版本大幅减小了同步复制的提早,正好咱们的部署模式就是同步复制,于是就很轻松的降级了4.7系列,享受了新版本的红利。 在部署集群的时候,还会面临很多部署策略的抉择: •      大集群 vs 小集群 •      抉择正本数 •      同步刷盘 vs 异步刷盘 •      同步复制  vs 异步复制 •      SSD vs 机械硬盘 大集群会有更好的性能弹性,而小集群具备更好的隔离型,此外小集群能够不须要跨可用区/IDC部署,所以会有更好的健壮性,咱们十分看重稳定性,因而抉择了小集群。集群同步复制异步刷盘,首选SSD。 客户端封装策略如上所述,咱们没有在Rocketmq外面做深度批改,所以须要提供一个SDK来提供公司内的须要的定制性能,这个SDK大略是这样的: 对外只提供最根本的API,所有拜访必须通过咱们提供的接口。简洁的API就像冰山的一个角,除了对外的简略接口,上面所有的货色都能够降级更换,而不会毁坏兼容性。 业务开发起来也很简略,只有须要提供Topic(全局惟一)和Group就能够生产和生产,不必提供环境、Name Server地址等。SDK外部会依据Topic解析出集群Name Server的地址,而后连贯相应的集群。生产环境和测试环境环境会解析出不同的地址,从而实现了隔离。 上图分为3层,第二层是通用的,第三层才对应具体的MQ实现,因而,实践上能够更换为其它消息中间件,而客户端程序不须要批改。 SDK外部集成了热变更机制,能够在不重启client的状况下做动静配置,比方下发路由策略(更换集群name server的地址,或者连贯到别的集群去),Client的线程数、超时工夫等。通过maven强制更新机制,能够保障业务应用的SDK基本上是最新的。 集群负载平衡 & 机房灾备所有的Topic默认都调配到两个可用区,生产者和消费者会同时连贯至多两个独立集群(散布在不同的可用区),如下图: 生产者同时连贯两个集群,如果可用区A呈现故障,流量就会主动切换到可用区B的集群2去。咱们开发了一个小组件来实现自适应的集群负载平衡,它蕴含以下能力: •      千万级OPS •      灵便的权重调整策略 •      健康检查反对/事件告诉 •      并发度管制(主动升高响应慢的服务器的申请数) •      资源优先级(相似Envoy,实现本地机房优先,或是被调服务器很多的时候选取一个子集来调用) •      主动优先级治理 •      增量热变更 实际上它并不仅仅用于音讯生产者,而是一个通用的主调方负载平衡类库,能够在github上找到: https://github.com/PhantomThief/simple-failover-java 外围的SimpleFailover接口和PriorityFailover类没有传递第三方依赖,非常容易整合。 多样的音讯性能提早音讯提早音讯是十分重要的业务性能,不过RocketMQ内置的提早音讯只能反对几个固定的提早级别,所以咱们又开发了独自的Delay Server来调度提早音讯: 上图这个构造没有间接将提早音讯发到Delay Server,而是更换Topic当前存入RocketMQ。这样的益处是能够复用现有的音讯发送接口(以及下面的所有扩大能力)。对业务来说,只须要在结构音讯的时候额定指定一个延迟时间字段即可,其它用法都不变。 事务音讯RocketMQ 4.3版本当前反对了事务音讯,能够保障本地事务和生产发送同时胜利或者失败,对于一些业务场景很有帮忙。事务音讯的用法和原理有很多材料,这里就不细述了。但对于事务音讯的实际网上材料较少,咱们能够给出一些倡议。 首先,事务音讯性能始终在不断完善,应该应用最新的版本,至多是4.6.1当前的版本,能够防止很多问题。 其次,事务音讯性能是不如一般音讯的,它在外部实际上会生成3个音讯(一阶段1个,二阶段2个),所以性能大概只有一般音讯的1/3,如果事务音讯量大的话,要做好容量布局。回查调度线程也只有1个,不要用极限压力去考验它。 最初有一些参数注意事项。在broker的配置中: transientStorePoolEnable这个参数必须放弃默认值false,否则会有重大的问题。endTransactionThreadPoolNums是事务音讯二阶段解决线程大小,sendMessageThreadPoolNums则指定一阶段解决线程池大小。如果二阶段的处理速度跟不上一阶段,就会造成二阶段音讯失落导致大量回查,所以倡议endTransactionThreadPoolNums应该大于sendMessageThreadPoolNums,倡议至多4倍。useReentrantLockWhenPutMessage设置为true(默认值是false),免得线程抢锁呈现重大的不偏心,导致二阶段解决线程长时间抢不到锁。transactionTimeOut默认值6秒太短了,如果事务执行工夫超过6秒,就可能导致音讯失落。倡议改到1分钟左右。生产者client也有一个注意事项,如果有多组broker,并且是2正本(有1个Slave),应该关上retryAnotherBrokerWhenNotStoreOK,免得某个Slave呈现故障当前,大量音讯发送失败。 分布式对账监控除了比拟一些惯例的监控伎俩以外,咱们开发了一个监控程序做分布式对账。能够发现咱们的集群以及咱们提供的SDK是否有异样。 具体做法是在每个Broker上都建设一个监控专用的Topic,监控程序应用咱们本人提供的SDK框架来连贯集群(就像咱们的业务用户那样),监控生产者会给每个集群发送大量音讯。而后查看发送是否胜利: 发送胜利胜利刷盘超时Slave超时Slave不可用发送失败具体错误码 生产者只对这些后果进行打点,不判断是否失常,具体到监控(或者演练)场景能够配置不同的报警规定。消费者收到了音讯会通过TCP旁路Ack生产者,生产者这边会做分布式对账,将对账后果打点: * 收到音讯* 音讯失落(或超时未收到音讯)* 反复收到音讯* 音讯生成到最终生产的时间差* Ack生产者失败(由消费者打点) 同样监控程序只负责打点,报警规定可另外配置。这套机制也能够用于分布式性能压测和故障演练。在做压测的时候,每个音讯都Ack的话,对生产者的内存压力很大,因为它收回去的音讯,须要在内存中保留一段时间(直到达到这个音讯的对账工夫),这段时间消费者Ack或者反复Ack都须要记录。所以咱们实现了按比例抽样对账的性能,开启当前只有须要对账的音讯才会在内存中保留一段时间。顺便说一下,咱们做压测时,合格的规范是异步生产不失败、生产不提早、每一个音讯都不失落。这样做是为了保障压测时能给出更加精确的,可供线上零碎参考的性能数字,而不是制作现实条件,谋求一个大的数字。比方异步生产比同步生产更软弱(压测client如果同步生产,broker抖动的时候,同步client会被梗塞导致发送速度升高,于是升高了broker压力,音讯发送不容易失败,然而会看到发送速率在稳定),更贴近生产环境的理论状况,咱们就抉择异步生产来评估。# 性能优化Broker默认的参数在咱们的场景下(SSD、同步复制、异步刷盘)不是最优的,有的参数兴许在大多数场景下都不是最优的。咱们列出一些重要的参数,供大家参考:参数默认值阐明flushCommitLogTimedFalse默认值不合理,异步刷盘这个参数应该设置成true,导致频繁刷盘,对性能影响极大deleteWhen04几点删除过期文件的工夫,删除文件时有很多磁盘读,这个默认值是正当的,有条件的话还是倡议低峰删除sendMessageThreadPoolNums1解决生产音讯的线程数,这个线程干的事件很多,倡议设置为2~4,但太多也没有什么用。因为最终写commit log的时候只有一个线程能拿到锁。useReentrantLockWhenPutMessageFalse如果前一个参数设置比拟大,这个最好设置为True,防止高负载下自旋锁空转耗费CPU。sendThreadPoolQueueCapacity10000解决生产音讯的队列大小,默认值可能有点小,比方5万TPS(异步发送)的状况下,卡200ms就会爆。设置比拟小的数字可能是放心有大量大音讯撑爆内存(比方100K的话,1万个的音讯大略占用1G内存,也还好),具体能够本人算,如果都是小音讯,能够把这个数字改大。能够批改broker参数限度client发送大音讯。brokerFastFailureEnableTrueBroker端疾速失败(限流),和上面两个参数配合。这个机制可能有争议,client设置了超时工夫,如果client还违心等,并且sendThreadPoolQueue还没有满,不应该失败,sendThreadPoolQueue满了天然会回绝新的申请。但如果client设置的超时工夫很短,没有这个机制可能导致音讯反复。能够自行决定是否开启。现实状况下,能依据client设置的超时工夫来清理队列是最好的。waitTimeMillsInSendQueue200200ms很容易导致发送失败,倡议改大,比方1000osPageCacheBusyTimeOutMills1000Page cache超时工夫,如果内存比拟多,比方32G以上,倡议改大点得益于简略、简直0依赖的部署模式,使得咱们部署小集群的老本非常低;不对社区版本进行魔改,保障咱们能够及时降级;对立SDK入口不便集群保护和性能降级;通过复合小集群+主动负载平衡实现多机房多活;充分利用RocketMQ的性能比方事务音讯、提早音讯(加强)来满足业务的多样性需要;通过主动的分布式对账,对每一个Broker以及咱们的SDK进行正确性监控;本问也进行了一些性能参数的分享,但写的比较简单,根本只说了怎么调,但没能细说为什么,当前咱们会另写文章详述。目前RocketMQ曾经利用在公司在大多数业务线,期待未来会有更好的倒退!扫码理解更多技术干货与客户案例: *> 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

March 18, 2021 · 1 min · jiezi

关于负载均衡:被集群节点负载不均所困扰TKE-重磅推出全链路调度解决方案

引言在 K8s 集群经营过程中,经常会被节点 CPU 和内存的高使用率所困扰,既影响了节点上 Pod 的稳固运行,也会减少节点故障的几率。为了应答集群节点高负载的问题,均衡各个节点之间的资源使用率,应该基于节点的理论资源利用率监控信息,从以下两个策略动手: 在 Pod 调度阶段,该当优先将 Pod 调度到资源利用率低的节点上运行,不调度到资源利用率曾经很高的节点上在监控到节点资源率较高时,能够主动干涉,迁徙节点上的一些 Pod 到利用率低的节点上为此,咱们提供 动静调度器 + Descheduler 的计划来实现,目前在私有云 TKE 集群内【组件治理】- 【调度】分类下曾经提供这两个插件的装置入口,文末还针对具体的客户案例提供了最佳实际的例子。 动静调度器原生的 Kubernetes 调度器有一些很好的调度策略用来应答节点资源分配不均的问题,比方 BalancedResourceAllocation,然而存在一个问题是这样的资源分配是动态的,不能代表资源实在应用状况,节点的 CPU/内存利用率 常常处于不平衡的状态。所以,须要有一种策略能够基于节点的理论资源利用率进行调度。动静调度器所做的就是这样的工作。 技术原理原生 K8s 调度器提供了 scheduler extender 机制来提供调度扩大的能力。相比批改原生 scheduler 代码增加策略,或者实现一个自定义的调度器,应用 scheduler extender 的形式侵入性更少,实现更加灵便。所以咱们抉择基于 scheduler extender 的形式来增加基于节点的理论资源利用率进行调度的策略。 scheduler extender 能够在原生调度器的预选和优选阶段退出自定义的逻辑,提供和原生调度器外部策略同样的成果。 架构 node-annotator:负责拉取 Prometheus 中的监控数据,定期同步到 Node 的 annotation 外面,同时负责其余逻辑,如动静调度器调度有效性掂量指标,避免调度热点等逻辑。dynamic-scheduler:负责 scheduler extender 的优选和预选接口逻辑实现,在预选阶段过滤掉资源利用率高于阈值的节点,在优选阶段优先选择资源利用率低的节点进行调度。实现细节动静调度器的策略在优选阶段的权重如何配置?原生调度器的调度策略在优选阶段有一个权重配置,每个策略的评分乘以权重失去该策略的总得分。对权重越高的策略,符合条件的节点越容易调度上。默认所有策略配置权重为 1,为了晋升动静调度器策略的成果,咱们把动静调度器优选策略的权重设置为 2。 动静调度器如何避免调度热点?在集群中,如果呈现一个新增的节点,为了避免新增的节点调度上过多的节点,咱们会通过监听调度器调度胜利事件,获取调度后果,标记每个节点过来一段时间的调度 Pod 数,比方 1min、5min、30min 内的调度 Pod 数量,掂量节点的热点值而后弥补到节点的优选评分中。 产品能力组件依赖组件依赖较少,仅依赖根底的节点监控组件 node-exporter 和 Prometheus。Prometheus 反对托管和自建两种形式,应用托管形式能够一键装置动静调度器,而应用自建 Prometheus 也提供了监控指标配置办法。 ...

January 22, 2021 · 2 min · jiezi

关于负载均衡:深耕音视频技术拍乐云Pano亮相LiveVideoStackCon2020

10月31日-11月1日,LiveVideoStackCon2020音视频大会在北京隆重开幕,有近500名多媒体开发工程师、技术负责人、产品负责人及高端行业用户深度参加。本次大会的主题为“多媒体开启新视界”,聚焦音频、视频、网络、编解码、AI 等技术的最新摸索与利用实际,笼罩教育、娱乐、金融、智能设施等行业畛域。拍乐云创始人&CEO赵加雨受邀参会,作为陪伴LiveVideoStack一路走过三年的老LVSer和在音视频技术畛域深耕20年的老司机,赵加雨在“简单环境的网络优化”专题会场进行了题为《奇葩说之RTC的那些事》的主题演讲,并在“视频流量暴发下的时机、挑战、将来趋势”圆桌论坛中分享了本人的行业洞察。 基于过来在思科WebEx的实际和对Zoom技术架构的理解,赵加雨介绍到,要构建一张寰球音视频散发大网,问题要害不在于多少个节点,关键在于是否解决了音视频寰球散发的这些问题,包含:各国进口带宽受限问题、防火墙问题、各个运营商互联互通问题、网络路由变动导致的Jitter问题、链路的灵便调度等。拍乐云团队作为有着丰盛视频会议教训的团队,遵循分层、自适应、智能的准则,充分利用了网络技术、传输算法等多种技术,高效解决了这些问题。同时,拍乐云构建了一张笼罩寰球的实时传输减速网络Pano Backbone,由网络基建和应用层算法独特组成,保障了实时音视频的超高品质和超低时延,实现了寰球网络覆盖和用户就近接入。 紧接着,赵加雨又抛出了对于视频品质的两个辩题:时延越低越好吗?1080P比720P体验更好吗?这两个辩题看起来答案不言而喻,而事实上,当通话单方时延超过400毫秒时,用户就会有感知;而过后延低于200毫秒时,一味地升高时延所带来的用户体验晋升就不显著了。赵加雨认为,在音视频利用里为了放弃晦涩度,往往须要通过数据包缓冲区,如果一味的谋求低时延,而压缩数据包缓冲区大小,很可能会导致更容易呈现卡顿,除非某些场景须要谋求极致的低时延,比方线上KTV独唱。 对于视频分辨率,赵加雨介绍到,视频分辨率并不等于清晰度,视频清晰度取决于分辨率、码率、帧率等。在码率肯定的状况下,分辨率在肯定范畴内取值都是清晰的;同样地,在分辨率肯定的状况下,码率在肯定范畴内取值都将是清晰的。因而,如果码率不够,1080P的清晰度很可能比720P更差。拍乐云遵循了视频利用中“够用就好”的准则,在产品上可能很好地反对视频大小流,客户端能够按需抉择大流或者小流,保障最优的视频体验。 音视频利用是时延、晦涩、品质、老本等方面的均衡,谋求低时延、高晦涩和高质量的同时,还须要思考经济效益,因而做音视频利用就是在各种受限的条件下找到那个最优解,不能一味谋求某一项指标。 最初,赵加雨分享了拍乐云互动白板产品的技术思路。目前支流视频会议厂商的做法都是视频白板,从技术上来说是正当的,一套技术计划实现了共享和白板两个性能,无需多保护一套技术计划。但从用户体验角度来说,视频白板传输的是视频,会导致流量更大,不容易保障用户在缩放后的清晰度。拍乐云提供的是数据白板,传输的是数据,因而数据量更小,辅以信令优化和数据压缩,数据量能够进一步变小,确保更低时延、更少卡顿和更高清晰度。 作为红杉资本投资的音视频通信团队,拍乐云以更高的通话质量、服务稳定性和差异化的互动白板等产品能力,为宽广企业、开发者提供一个音视频服务的优质抉择。目前拍乐云正在为线上教育、社交泛娱乐、视频会议、在线金融等行业的泛滥场景提供业余的音视频解决方案,以科技赋能产业线上化。 拍乐云深信,在技术上谋求极致、在产品上谋求极简,把20年的音视频技术积攒和继续冲破的翻新实际转化为牢靠的产品与服务,能力构建更好的品牌、博得市场的信赖。将来,拍乐云将减速接入更多的行业客户,赋能更多的互动场景,用技术创新解决业务痛点,与客户共创美好未来!

January 11, 2021 · 1 min · jiezi

关于负载均衡:3000人同时访问一个单纯的html文件多少带宽足够

1.所谓打的字多,就是好答案!! 3000人同时拜访一个纯动态文件,动态文件大小28K,那霎时申请流量最大理论值为:3000x28K≈82M 。然而此值仅仅是实践上的霎时最大流量,因为你的站点不可能每时每秒都放弃在3000人拜访,而是一段时间内的拜访人数。如果真是每秒都至多是3000人拜访,那你的服务器上行带宽至多得在 82x8 = 656M(之所以乘以8,是因为咱们说的速率和运营商说的速率不是一个概念,换算单位不同),这样看来费用是相当的高。 但理论状况下并不能这样计算,理论申请带宽要远远低于656M,起因次要有以下几点: 用户流量是扩散的,并不是每秒都有3000人拜访;浏览器对于动态页是有缓存的,所以这3000人中有一部分用户发出请求后,其实是间接从本地缓存中加载的,而没有申请近程服务器。要晓得,服务器的上行带宽是很贵的,按下面计算方法,就算打个折,你的服务器固定带宽100M的话,那光带宽费用一个月就要近7000元。 所以个别中小型网站的服务器上行带宽100M都算很大了,鉴于你的访客量不固定,我给你的倡议是: 前端走CDN缓存,如果动态文件长期不更新,能够把缓存工夫设得很长,如一个月;后端ECS抉择低配即可,带宽不要选固定带宽(抉择按应用流量来计费,带宽抉择5M足够了)。 这种配置下,别说3000人同时拜访了,更高的并发都能抗得住。因为CDN自身就充当了负载平衡的角度,而且CDN节点遍布全国,使得用户“就近读取”动态资源。 2.其余网友的答案 消失的L211:看大家都在探讨×8的问题,我感觉有误会的中央,不是运营商的要×8,这个只是日常的称说习惯的不同而已,一个是带宽的单位,咱们用M示意,一个是速率的单位,咱们用Mbps示意。在日常生活中咱们说下载速率习惯了用Mbps,而因为Mbps这个单位经常被简略说成了下载速度是多少M,才产生了这个所谓×8的概念,起初因为一些成心的误导,放大了民众对于假带宽的怨念,仅此而已,其实就是单位换算而已。很多人不是到当初也认为光年是速度单位嘛,相似的状况。 贵仁农业科技:并发拜访3000,如果是小中型网站的话除非是网络歹意攻打,要不然不可能的,一般的3000访问量,哪怕同一时间下,也不可能准确到秒级的同时拜访,所以 倡议调整CDN负载平衡,还有带宽到5M即可,能保障一小段时间有3000的访问量,留神不是并发。 天然认为:首先把你的动态文件都放oss上,益处是客户端申请时动态资源走oss流量不走服务器的,速度快,而后抉择按量付费申请流量费5毛1g。ecs配置2核8g,不必另外买数据盘,应用50m带宽同样抉择按量付费5毛1g,足够应用。流动完结间接开释资源节省成本

December 14, 2020 · 1 min · jiezi

关于负载均衡:10万级etl调度软件Taskctlweb版免费授权及产品功能特性

初识Taskctl-Web版Taskctl Free利用版原型是在原有商用版Taskctl 6.0衍生扩大开发出的专门为批量作业调度自动化打造的一款轻便型麻利调度工具。可为批量作业自动化调度者提供简略的办法来治理各类简单作业的调度和监控治理。 Taskctl通过将企业外部简单的作业调度依赖关系,进行灵便的对立编排和治理,带来前所未有的简略性。Taskctl采纳全内存计算,基于全事件技术驱动,可简略、疾速地对作业进行定义、编排和执行,并生成优化调度执行倡议,从而负载平衡执行作业调度。 Taskctl作为麻利批量调度的开拓者,产品设计从一开始就专门为整洁的体验而设计,并提供丰盛、直观的用户界面,以简化常见的作业调度执行编排流程。 Taskctl-Web利用版遵循软件产品标准化的准则,以“业余、专一”为设计理念,联合 ETL 调度畛域本身的特点,构建了一套直观易用的 ETL 管制容器调度设计、监控 、保护、治理平台 Taskctl-Web-Application 。 性能框架 通过上图理解到,Taskctl-Web 是Taskctl 中客户端应用软件家族的重要一员。 有三大功能模块: 平台治理( Admin ):平台级T配W置信息管理。如网络节点治理,作业类型扩 展,工程治理,全局变量治理,调度元信息导入导出,用户及权限治理,音讯接 口治理等。 作业设计( Designer ):作业调度元信息设计。如作业控制容器(定时器 / 作业流)的治理,作业关系、属性编辑,变量治理,作业组织模块治理等。 运行监控( Monitor ):作业运行监控保护平台。对设计好的调度元信息进行运行监控以及人工操作干涉。对运行信息进行查问、统计、剖析等。 零碎个性在 Windows 桌面客户端的根底上, TASKCTL 从新构建了一套基于 web 浏览器的利用 taskctl-web-application 。它具备如下个性: 性能残缺:实现了桌面客户端 Admin,Designer,Monitor 所有的性能(包含高级剖析性能)部署简略:采纳安装程序一键部署利用,不须要部署额定的 web 容器体验简介:从新优化图形操作体验,简化操作步骤正当导向:从新组织了页面 UE,让每个操作天然晦涩性能卓越:200k 带宽、单核处理器即可实现 10 个用户同时利用稳固牢靠:间接与调度服务外围通信,信息更间接牢靠。登录界面平台部署的时候,曾经确定了调度服务端信息。因而不用再像桌面客户端一样须要输出调度服务端地址。 如上图所示:输出正确的用户名、明码点击“登录”按钮,登录胜利后, Taskctl-Web-Application 将依据登录用户进行一系列的初始化操作,加载根本的运 行信息。 下载方式百度网盘提取码(97mk) 官网下载装置环境筹备因为在线利用端基于java开发,因而须要装置java1.8及以上版本。能够通过 java – version 命令查看具体,如下图所示: 装置步骤 上传并解压安装包taskctl-web-1.2.0.tar.gz 进入解压后的taskctl-web-1.2.0目录。执行sh install.sh命令3.确定web利用的IP/端口及调度服务端的IP/端口信息。 4.执行startup.sh启动web利用及调度服务 ...

November 16, 2020 · 1 min · jiezi

关于负载均衡:关于tomcat服务器脚本和mycat的介绍

对于tomcat服务器脚本问题阐明:如果通过命令:java -jar xxx.var的形式启动服务器时,如果近程的终端敞开之后,那么tomcat服务器也会随之敞开,影响用户的应用,上述的命令示意前台运行。 线上部署的命令阐明:个别在Linux零碎中部署服务器,个别采纳后端运行的形式启动tomcat服务器,并且指定日志文件输入。命令: nohup java -jar 8081.war -> 8081.log & 对于文件查看的阐明cat 输入文件所有的内容more 输入文档所有的内容,分页输入,空格浏览下一屏,q退出less 用法和more雷同,只是通过PgUp、PgOn键来管制 q退出tail 用于显示文件后几号,应用频繁tail -10 nginx.conf 查看nginx.conf的最初10行tail –f nginx.conf 动静查看日志,不便查看日志新增的信息ctrl+c 完结查看 Linux脚本阐明阐明:Linux中的"脚本(外挂--荒野口头)的后缀为sh创立文件:vim start.sh执行":wq"保留退出执行脚本 数据库构造的优化阐明:因为须要用户同时连贯2台甚至多台数据库时须要引入代理,所以有如下的部署。注意事项:用户连贯代理服务器断后号个别为8066端口 Mycat介绍 什么是Mycat一个彻底开源的,面向企业应用开发的大数据库集群反对事务、ACID、能够代替MySQL的加强版数据库一个能够视为MySQL集群的企业级数据库,用来代替低廉的Oracle集群一个交融内存缓存技术、NoSQL技术、HDFS大数据的新型SQL Server联合传统数据库和新型分布式数据仓库的新一代企业级数据库产品一个新鲜的数据库中间件产品Mycat要害个性要害个性 反对SQL92规范反对MySQL、Oracle、DB2、SQL Server、PostgreSQL等DB的常见SQL语法恪守Mysql原生协定,跨语言,跨平台,跨数据库的通用中间件代理。基于心跳的主动故障切换,反对读写拆散,反对MySQL主从,以及galera cluster集群。反对Galera for MySQL集群,Percona Cluster或者MariaDB cluster基于Nio实现,无效治理线程,解决高并发问题。反对数据的多片主动路由与聚合,反对sum,count,max等罕用的聚合函数,反对跨库分页。反对单库外部任意join,反对跨库2表join,甚至基于caltlet的多表join。反对通过全局表,ER关系的分片策略,实现了高效的多表join查问。反对多租户计划。反对分布式事务(弱xa)。反对XA分布式事务(1.6.5)。反对全局序列号,解决分布式下的主键生成问题。分片规定丰盛,插件化开发,易于扩大。弱小的web,命令行监控。反对前端作为MySQL通用代理,后端JDBC形式反对Oracle、DB2、SQL Server 、 mongodb 、巨杉。反对明码加密反对服务降级反对IP白名单反对SQL黑名单、sql注入攻打拦挡反对prepare预编译指令(1.6)反对非堆内存(Direct Memory)聚合计算(1.6)反对PostgreSQL的native协定(1.6)反对mysql和oracle存储过程,out参数、多后果集返回(1.6)反对zookeeper协调主从切换、zk序列、配置zk化(1.6)反对库内分表(1.6)集群基于ZooKeeper治理,在线降级,扩容,智能优化,大数据处理(2.0开发版)。Mycat部署上传Mycat安装包解压Mycat压缩包 tar -zxvf Mycat-server-1.7.0-DEV-20170416134921-linux.tar.gz查看JDK是否装置 对于Mycat配置文件阐明server.xml配置文件阐明阐明:在server.xml配置文件中定义用户名和明码及操作的数据库信息,必须与YML配置文件始终。批改YML配置文件 schemas配置文件阐明阐明:schemas文件次要的作用就是配置数据库读写的策略 <writeHost host="hostM1" url="192.168.126.129:3306" user="root" password="root"> <!--读数据库1--> <readHost host="hostS1" url="192.168.126.130:3306" user="root" password="root" /> <!--读数据库2--> <readHost host="hostS2" url="192.168.126.129:3306" user="root" password="root" /></writeHost> Mycat测试启动命令:进入到Mycat中的bin目录执行./mycatMycat测试:

November 6, 2020 · 1 min · jiezi

关于负载均衡:高并发系统设计负载均衡架构

一个零碎倒退初期,往往都是单机零碎。利用和数据库在一台服务器上,随着业务的倒退,访问量的增大,一台服务器性能就会呈现天花板,往往曾经难以撑持业务量了。这个时候就要思考把数据库和应用服务器离开,拜访持续减少,就会思考数据库分库分表,应用服务器做负载平衡,其实这也属于分布式系统的一个领域。分布式系统的外围概念就是一个“分”字,一台服务器撑持不住,那就两台,三台,四台....当然分之后会带来其余问题,比方最常见的数据一致性问题,调用链监控等问题,这些不在今日的探讨范畴内,有趣味的同学请移步百度。 很多我的项目做“分布式”部署进步零碎性能,首期采纳的往往是负载平衡策略。负载平衡负载平衡,英文名称为Load Balance,其含意就是指将负载(工作工作)进行均衡、摊派到多个操作单元上进行运行,例如FTP服务器、Web服务器、企业外围应用服务器和其它次要工作服务器等,从而协同实现工作工作。负载平衡构建在原有网络结构之上,它提供了一种通明且便宜无效的办法扩大服务器和网络设备的带宽、增强网络数据处理能力、减少吞吐量、进步网络的可用性和灵活性。负载平衡既然属于“分”策略的一种表现形式,就会波及到工作的调配者,工作执行者,调配算法。这里的任务分配者就是咱们常说的负载均衡器,工作执行者就是解决工作的服务器,调配算法就是常说的轮训等调配策略。这里把工作的调配者叫做负载均衡器其实是不正确的,负载均衡器这个概念重视的更多是平均分配任务,让每个工作的计算单元的任务量达到平衡状态,而事实中工作的调配更多是出于每个计算单元的性能或者业务来思考。让每个计算单元解决简直雷同数量的工作只是分布式均衡器其中的一部分内容。 以http申请为例,在一个http申请的过程中,其实会遇到有很多负载平衡的过程,一个零碎在什么阶段做负载平衡取决于它的申请量,这和常说的QPS/TPS/DAU等有间接关系,假如零碎的申请量非常少,其实齐全没有必要做负载平衡,当然有时候为了达到高可用的目标也做负载平衡,这里不在展开讨论。那一个http申请到底能够通过哪些负载均衡器呢?http申请的过程如下图所示 DNS负载平衡当一个client向一个url发动申请(这里不思考间接申请IP地址的状况),第一步须要做的就是申请DNS服务器去做域名解析,把申请的域名转换成IP地址。DNS解析同一个域名能够依据起源返回不同的IP地址,利用这个个性能够做DNS负载平衡。client申请离本人最近的资源才是最快的,所以能够把零碎部署在不同区域的机房,每个client通过DNS解析只申请离本人最近的机房资源,比申请异地的机房资源要快的多。例如:一个网站能够同时部署在北京机房和深圳机房,河北的用户申请网站的时候都会被导向北京机房,比拜访深圳的速度要快的多。 DNS负载平衡仅限于解析域名的机会,所以它的力度是很粗的,相应的负载平衡算法也无限。然而这种计划实现起来比较简单,老本也很低,而且在肯定水平了缩短了用户的响应工夫,放慢了访问速度。因为DNS信息都有很长时间的缓存,所以更新的时候会有一段时间的信息差别,会导致局部用户失常业务的拜访的谬误。 硬件负载平衡当一个申请晓得了要拜访的指标IP,便会通过层层的网关和路由器达到指标IP的机房,在这之前属于网络传输的领域,个别很难进行干涉。有很多机房都通过硬件设施来实现负载平衡的目标,这和路由器、交换机相似,也能够了解为底层的设施。目前最罕用的莫过于F5了,这样的硬件设施个别都出产于大公司,性能都通过严格测试,功能强大,然而很贵,个别的中小公司不会更没有必要应用这种土豪设施。 硬件负载平衡性能很弱小,撑持的并发个别都在每秒几百万,而且反对的负载算法也很多,而且个别都配套的有平安防护措施,比方防火墙,防攻打等平安性能。 软件负载平衡相比于硬件负载平衡,当初每个公司更常见的是软件负载平衡,根本过程就是独立出一个负载平衡服务器或者集群,装置上有负载平衡性能的软件来进行散发。最罕用的4层负载平衡软件LVS,简直所有应用层的负载平衡都能够做,目前LVS曾经被集成到Linux内核模块中。该我的项目在Linux内核中实现了基于IP的数据申请负载平衡调度计划。还有处于7层的nginx也能够实现负载平衡,Nginx 反对 HTTP、E-mail协定,当然当初有相应的nginx做4层负载平衡的模块。 与硬件想比,软件负载平衡的吞吐量要小很多,就算是4层的LVS的性能也只在几十万而已,nginx在几万,不过这对于个别公司的业务也足够了,当一个公司的业务量申请量达到几百万,预计也有钱买F5硬件了。软件负载平衡的最大劣势在于配置灵便,可扩展性强,可定制性比拟强,而且老本还很低。这也是中小公司首选的计划。 利用说了这么多,其实以上几种计划是基于http申请的途经来解决问题,每种计划都有它本人的毛病和长处,设计一个零碎的时候初期就把以上计划全副采纳以达到高性能的要求,兴许并不是什么坏事,每一个零碎都是随着业务的增长而逐步扭转架构状态,而这个过程采纳的负载计划个别过程都是 软件负载->硬件负载->DNS负载,当然这里的硬件和DNS兴许有时候会颠倒过去,然而软件必定是首当其冲的。随着业务量的增大,以上三种计划更多的是互相配合,相互补充的,就像微信这种业务,不可能独自的应用硬件负载就能达到业务要求的。 至于什么阶段采纳什么计划,还是要依据具体业务的申请量来决定,比方:以后我的QPS在 一万左右,齐全能够用nginx或者LVS去解决,当回升到百万级别,能够尝试着用硬件+软件的形式去解决,当达到千万甚至更高,就要思考多机房部署DNS负载平衡了,没有一种计划是完满的,然而能够采纳多种计划混用的形式来达到近乎完满的状况。 更多精彩文章 分布式大并发系列架构设计系列趣学算法和数据结构系列设计模式系列

October 11, 2020 · 1 min · jiezi

关于负载均衡:后浪移动互联网时代的数据中心设计

前言随着挪动互联网的蓬勃发展,明天的数据中心和10年前的数据中心大为不同,无论从IDC的机器规模,还是流量模型都产生了很大变动。《前浪:传统数据中心的网络模型》曾经为大家介绍了数据中心网络建设的根本要求、传统web时代的网络架构;本文将从以下几方面对挪动互联网时代的数据中心进行介绍。 01 挪动互联网时代的数据中心网络设计的指标是什么? 02 挪动互联网时代数据中心的架构是怎么的? 03 Clos架构为何抉择BGP作为路由协定? 04 数据中心中服务器双归路接入是怎么的? 作者| 个推高级运维工程师 山川 01 互联网时代数据中心的设计指标 古代数据中心的演进都是由大型互联网公司的需要驱动的,数据中心的外围需要次要包含三个维度: a)  端到端(server to server)的通信量 单体利用到微服务化的转变,导致南北向流量缩小,东西向流量减少。 b)  规模 古代数据中心一个机房可能就无数万台服务器。 c) 弹性 传统数据中心的设计都是假如网络是牢靠的,而古代数据中心利用都是假如网络是不牢靠的,总会因为各种起因导致网络或机器故障。弹性就是要保障产生故障时,受影响的范畴可控,故障结果可控。 古代数据中心网络必须满足以上三方面根本需要。 注:多租户网络须要额定思考反对虚构网络的疾速部署和拆除。 02 古代数据中心网络架构 目前,大型互联网公司采纳一种称为 Clos 的架构。Clos 架构最后是贝尔实验室的 Charles Clos 在 1950s 为电话交换网设计的。Clos设计能够实现无阻塞架构(non-blocking architecture),保障上下行带宽都充分利用。 1) Clos架构由来 传统三层网络架构采纳的“南北流量模型”,不适用于挪动互联网环境。2008年,一篇题为《A scalable, commodity data center network architecture》的文章,首先提出将Clos架构利用在网络架构中。2014年,在Juniper的白皮书中,也提到了Clos架构。这一次,Clos架构利用到了数据中心网络架构中来。这是Clos架构的第三次利用。因为这种网络架构来源于交换机外部的Switch Fabric,因而这种网络架构也被称为Fabric网络架构。当初风行的Clos网络架构是一个二层的spine/leaf架构, spine交换机和leaf交换机之间是以full-mesh形式连贯。 2) Clos架构中交换机的角色 Clos架构中交换机有两种角色:leaf switch 和 spine switch。 leaf switch:相当于传统三层架构中的接入交换机,作为TOR(Top Of Rack)间接连贯物理服务器。与接入交换机的区别在于,L2/L3网络的分界点当初是在leaf交换机上,leaf交换机之上则是三层网络。 spine switch:相当于外围交换机。spine和leaf交换机之间通过ECMP(Equal Cost Multi Path)动静抉择多条门路。区别在于,spine交换机当初只是为leaf交换机提供一个弹性的L3路由网络,数据中心的南北流量能够抉择从spine交换机收回,也能够与leaf交换机并行的交换机(edge switch)先连贯,再从WAN/Core router中进来。 ...

October 8, 2020 · 2 min · jiezi

关于负载均衡:阿里云负载均衡SLB服务使用教程实战图文

背景        有两个高访问量的前端H5我的项目同时上线,为了保障微信分享接口能接受住高并发,尝试用阿里云负载平衡来配置分享接口。 尽管理论访问量没有达到预估的百万,日均有4、5万,并发有100多,所以此次配置还是相当无效的。 思路        因为我的项目是纯前端H5,把我的项目整体打包到CDN,这样就算分享接口挂掉,也不会影响H5的失常拜访。那压力就集中在分享接口的承载上。        依据之前投放微信朋友圈我的项目的教训,服务器架构抉择:多台服务器+负载平衡+云数据库,具体为 阿里云 ECS(云服务器)(8核16G)*2+SLB(负载平衡)+RDS(MySQL数据库)(1核2G)。 官网地址: 阿里云负载平衡SLB 操作方法        具体的SLB操作方法这里不再陈说,阿里云SLB的入门文档 写的很分明了。这里只是依据实例说重点的几步和要避掉的坑。         大体有几步:创立ECS实例、搭建利用、创立负载平衡实例、增加监听和后端服务器、域名解析。 1、创立ECS实例         是按微信朋友圈一跳并发400的规范 抉择ECS配置的,计费形式肯定要抉择 按量付费,这样能够随便减少删除ECS,推广期过后能够开释掉ECS(SLB和RDS同样是按量付费),防止不必要的资源节约。         零碎镜像选用的 护卫神PHP环境 集成了Apache、PHP、MySQL、FTP、phpMyAdmin,不用再手动去搭建服务器环境,节俭了大把的非开发工夫。         留神要按护卫神文档,把几个TCP端口增加到ECS的平安组里。   2、搭建利用         因为服务器环境是用的第三方镜像,利用的搭建办法要依据护卫神的阐明,          留神一点:要把SLB的域名、SLB的IP、ECS的IP退出到护卫神的绑定域名里,不然无奈通过SLB的IP拜访哦。 3、创立负载平衡实例、增加监听和后端服务器         把2台ECS退出到SLB的默认服务器组里,第一次通过SLB的IP拜访到ECS上的网页,还的确能让人惊喜一下~ ...

September 19, 2020 · 1 min · jiezi

关于负载均衡:阿里云配置和使用负载均衡服务案例教程

这两天筹备在阿里云服务器部署我的项目,用到阿里的负载平衡服务,查了一些材料。由此记录一下,不便当前再次应用: 第一步:创立负载平衡实例  官网教程链接:创立负载平衡实例 点击创立负载平衡实例,抉择负载平衡规格,输出实例名称(给负载平衡起个小名儿),点击去购买,对勾购买协定,点击去开明。创立胜利! 第二步,配置负载平衡实例 官网教程链接: 配置负载平衡实例        给刚创立的负载平衡增加监听,如下图: 端口804为我的项目服务器提供的端口。    点击下一步,持续配置,如下图。  监听增加配置胜利。 第三步:为监听增加后盾服务器 如下图,增加两台服务器,保障两个服务器都部署了该我的项目且端口为804 (其余端口也行,只有与监听的配置端口0对立) 最终降级: 配置多个监听 重复本文章中的操作,再次增加一个监听。 至于端口,查看博主的上篇文章,linux服务器上部署我的项目,同时运行两个或多个tomcat ,能够实现一台服务器提供多个端口,而后为负载平衡增加多个监听。 原文地址:http://tencent.yundashi168.com/676.html

September 19, 2020 · 1 min · jiezi

关于负载均衡:负载均衡说明

咱们的我的项目个别有单体架构的我的项目,分布式我的项目和微服务架构的我的项目 个别在分布式和微服务项目中会波及负载平衡的问题 负载平衡集中式负载平衡在分布式中服务器根本是这样的负载平衡的状况, 因为nginx处于负载平衡的核心,所以什么样的服务都会通过nginx之后转向到不同的服务器中. 所以会造成nginx的负载压力很大. 并且nginx的次要的作用是反向代理,而当我的项目较大时,nginx也就不适宜再作为负载平衡了,也就引出了上面一种. 客户端负载平衡因为我的项目较大,咱们能够由分布式转为微服务架构, 在微服务中咱们引入了注册核心的机制,在上文中也提到过注册核心能够记录服务提供者的ip端口信息,并将信息与消费者同步, 所以,在微服务调用过程中每个服务的消费者都能够在客户端实现负载平衡的操作,在每次申请之前通过服务列表获取将要拜访的服务信息.实现了压力私有化.

September 17, 2020 · 1 min · jiezi

关于负载均衡:数据库不只是Mysql你需要知道这些才能拿到offer

数据库不只是Mysql,你须要晓得这些能力拿到offer有大半年的工夫没有跟新微信公众号了。上半年疫情的影响,过年之后始终在家办公。直到快4月才开始去公司办公。疫情期间在线教育疾速倒退,7-9月教育行业暑期大战,继续忙了3个多月,因而也把公众号丢了下来。很快慰的看到参加的我的项目疾速倒退,缓缓走向正规。本人也逐步把公众号捡了起来。 明天想跟大家聊一聊,数据库相干的话题。 数据库全景图提到数据库,大多数人脑海中浮现都是mysql,sqlserver,oracle。其实,数据库不只是这些。它还包含例如MongoDB,Cassandra,Es等其余的存储模式。那么,常见的数据库有哪些?并且怎么分类这些数据,以及该怎么在不同场景下抉择不同数据库呢? 首先,放一张"451Group"剖析报告中的数据库的全景图 从图中,能够看出,数据库行业保罗万象。包含了很多不同分类的产品。 数据库分类数据库总的来看能够分为三类: 关系型数据库:例如mysql,sqlserver,oracle等NoSql(非关系型数据库): 例如Redis,MongoDB,HBase等NewSql:是对各种新的可扩大/高性能数据库的简称,这类数据库不仅具备NoSQL对海量数据的存储管理能力,还放弃了传统数据库反对ACID和SQL等个性。包含例如:lustrix、GenieDB、ScalArc、Schooner等。上面别离介绍这三种类型的数据库。 传统的关系型数据库首先给出关系型数据库一个官网定义:关系型数据库:指采纳了关系模型来组织数据的数据库。关系模型指的就是二维表格模型,而一个关系型数据库就是由二维表及其之间的分割所组成的一个数据组织。 关系型数据库的长处: 1.容易了解:二维表构造是十分贴近逻辑世界的一个概念,关系模型绝对网状、档次等其余模型来说更容易了解 2.使用方便:通用的SQL语言使得操作关系型数据库十分不便 3.易于保护:丰盛的完整性(实体完整性、参照完整性和用户定义的完整性)大大减低了数据冗余和数据不统一的概率 关系型数据库存在的问题: 高并发反对不够:网站的用户并发性十分高,往往达到每秒上万次读写申请,对于传统关系型数据库来说,硬盘I/O是一个很大的瓶颈。海量数据的挑战:网站每天产生的数据量是微小的,对于关系型数据库来说,在一张蕴含海量数据的表中查问,效率是非常低的横向扩大艰难:在基于web的构造当中,数据库是最难进行横向扩大的,当一个利用零碎的用户量和访问量一劳永逸的时候,数据库却没有方法像web server和app server那样简略的通过增加更多的硬件和服务节点来扩大性能和负载能力。当须要对数据库系统进行降级和扩大时,往往须要停机保护和数据迁徙。性能欠佳:在关系型数据库中,导致性能欠佳的最次要起因是多表的关联查问,以及简单的数据分析类型的简单SQL报表查问。为了保障数据库的ACID个性,必须尽量依照其要求的范式进行设计,关系型数据库中的表都是存储一个格式化的数据结构。数据库事务必须具备ACID个性,ACID别离代表Atomic(原子性),Consistency(一致性),Isolation(隔离性),Durability(持久性)。 当今十大支流的关系型数据库Oracle,Microsoft SQL Server,MySQL,PostgreSQL,DB2,Microsoft Access, SQLite,Teradata,MariaDB(MySQL的一个分支),SAP。 NoSQL针对传统关系型数据库的毛病,为了更好的适应古代互联网高并发,高性能,高可用以及海量数据的挑战的须要,呈现了不同的NoSQL数据库。NoSQL放弃了传统SQL的强事务保障和关系模型,重点放在数据库的高可用性和可扩展性。 NoSQL 的次要劣势: 高可用性和可扩展性,主动分区,轻松扩大不保障强一致性,性能大幅晋升没有关系模型的限度,极其灵便NoSQL次要的劣势: 不保障强一致性:对于一般利用没问题,但还是有不少像金融一样的企业级利用有强一致性的需要。NoSQL不反对SQL语句:兼容性是个大问题,不同的 NoSQL 数据库都有本人的 api 操作数据,学习起来比拟繁琐。NoSQL数据库的分类1. key-value存储以key-value对的模式存储数据。value能够是自定义的不必的数据结构。这个类型的数据库次要包含: 数据库分类特点RedisKey-value store,Document store,Graph DBMS,Search engine,Time Series DBMS Amazon DynamoDBDocument Store,Key-value store CouchbaseDocument Store,Key-value store etcdKey-value store MemcachedKey-value store EhcacheKey-value store LevelDBKey-value store 2. 文档存储以比拟自在的格局(通常为JSON)的形式存储文档内容。这意味着: 记录不须要具备对立的构造,即不同的记录能够具备不同的列。每个记录的各个列的值类型能够不同。列能够具备多个值(数组)。记录能够具备嵌套构造。常见的文档存储有: MongoDB,Amazon DynamoDB,Couchbase,CouchDB。 3. 宽列存储宽列存储(也称为可扩大记录存储)将数据存储在记录中,并且可能包容大量动静列。因为列名和记录键不是固定的,并且一条记录能够蕴含数十亿列,因而宽列存储能够看作是二维键值存储。 宽列存储与文档存储共享无模式的个性,然而实现却大不相同。 在某些关系零碎中,不能将宽列存储与面向列存储相混同。这是一个外部概念,用于进步RDBMS针对OLAP工作负载的性能,并存储表中的数据,而不是逐条记录,而是逐列存储。 列存储应用场景: 行式存储对于 OLTP 场景是很天然的:大多数操作都以实体(entity)为单位,即大多为增删改查一整行记录,显然把一行数据存在物理上相邻的地位是个很好的抉择。 ...

September 16, 2020 · 1 min · jiezi

nginx反向代理导致session失效的问题处理

一共事求援:后盾零碎的登录胜利了,但不能胜利登进零碎,依然跳转到登录页,但同一套代码另一个环境却没有问题。 背景经理解,他对同一个我的项目应用tomcat部署了两个环境,一个在开发服务器上,一个在他本机,两个环境代码配置完全相同。两边通过同一个nginx进行反向代理,nginx配置大抵如下, location /health/ { proxy_pass http://192.168.40.159:8081/health/; #无问题的配置 }location /health-dev/ { proxy_pass http://192.168.40.202:8080/health/; #有问题的配置}一个反向代理到开发环境,一个反向代理到本机服务。 定位既然代码配置完全相同,那么问题很大可能就呈现在nginx的反向代理上。 因为两边location门路不同(即浏览器门路不同),然而反向代理的服务端门路却雷同,联合session的基本原理,如下图, 当浏览器第一次关上页面时,服务端会为这次会话创立一个session,并将session id通过response的header传递给浏览器,header个别为 Set-Cookie: JSESSIONID=xxxxx; Path=xxxx浏览器接管到响应后,如果header Set-Cookie 中path的值与浏览器地址门路匹配,则将该header值存于浏览器的Cookie中浏览器在下次申请服务器时,将Cookie中的JSESSIONID值通过request的header上报给服务端,header个别为 Cookie: JSESSIONID=xxxx;服务端可通过该JSESSIONID来定位到对应的sessionnginx反向代理按这种形式配置时 location /health-dev/ { proxy_pass http://192.168.40.202:8080/health/;}浏览器拜访 http://www.domian.com/health-dev 时,服务端返回的 Set-Cookie 的 Path 值为 /health(因为两头有反向代理,服务端并不知道代理前的门路是啥,是按最终申请服务端的门路设置),如图 因为浏览器拜访地址的门路 /health-dev 与 Set-Cookie 的 Path /health 不匹配,所以浏览器并不会将其值存入Cookie中,如图 因而在下次申请服务器时,浏览器无奈设置request Cookie header的 JSESSIONID 值,服务器无奈定位到对应的session,因而会将其当做第一次申请,创立一个新的session,如此重复,因而就算你登录认证通过了,但服务器返回的登录凭证(JSESSIONID)浏览器不会保留,并在下次申请时携带,导致服务器认为你是一个新的申请,当然就会又跳到登录页面了。 解决nginx有一个命令 proxy_cookie_path(参考: proxy_cookie_path)可将服务器返回的 Set-Cookie 中的path进行批改,格局为 proxy_cookie_path 原门路 指标门路,咱们在配置中增加 proxy_cookie_path 如下。 location /health-dev/ { proxy_pass http://192.168.40.202:8080/health/; proxy_cookie_path /health /health-dev;}重启nginx,问题解决。 ...

July 13, 2020 · 1 min · jiezi