关于服务器:如果路由器dns被劫持怎么办

路由器DNS被篡改是什么意思?如果路由器DNS被篡改/劫持该怎么办?路由器的DNS被劫持后,通常会呈现以下问题:您能够在计算机和手机上登录QQ,然而无奈应用浏览器关上网页。 如果还遇到这种状况,则能够登录QQ,但无法访问Internet;能够判断路由器DNS被劫持。目前,有两种解决方案:1、在路由器上手动设置DNS;2、在计算机上手动设置DNS。 IIS7网站监控能够及时防控网站危险,疾速精确监控网站是否受到各种劫持攻打,网站在全国是否能失常关上(查看域名是否被墙),精准的DNS净化检测,具备网站关上速度检测性能,第一工夫晓得网站是否被黑、被入侵、被改题目、被挂黑链。精益求精的产品,缺点为零数据提供! 它能够做到以下性能:1、检测网站是否被黑2、检测网站是否被劫持3、检测域名是否被墙4、检测DNS是否被净化5、网站实在的齐全关上工夫(独家) 6、领有独立监控后盾,24小时定时监控域名官网图:官网地址:IIS7网站监控 一、在路由器上手动设置DNS 揭示:本文将以TP-Link无线路由器为例,介绍路由器上DNS的批改和设置办法。其余品牌的路由器的设置相似,请参考各自的办法。 1、登录到设置界面:在浏览器中输出路由器治理页面地址:192.168.1.1(请查看路由器底部的标签)— — >输出用户名和明码登录设置界面。 在浏览器中输出路由器治理页面地址 填写登录明码以登录设置界面 2、单击“ DHCP服务器”->“ DHCP服务”->而后填写“首选DNS服务器”:180.76.76.76->“备用DNS填充”在“服务器”之后:114.114.114.114->单击“保留”。 在路由器的DHCP服务器中绑定DNS服务器地址 设置实现后,倡议重新启动路由器以使设置失效。您能够切断路由器的电源,而后从新插入。您还能够在设置界面上单击重新启动按钮以重新启动路由器,如下图所示: 重新启动路由器二、以在计算机上手动设置DNS 1、在计算机上找到“本地连接”选项(在Windows 8中称为“以太网”),右键单击并抉择“属性”。 输出本地连接属性 2、抉择“ Internet协定版本4(TCP / IPv4)”)->单击“属性”。 抉择“ Internet协定版本4(TCP / IPv4)”) 3、抉择“应用以下DNS服务器地址”->“首选DNS服务器”填写:180.76.76.76->“备用DNS服务器”填写:114.114.114.114->点击“确定”。 在计算机上手动设置DNS服务器地址 以上两种办法能够解决路由器DNS劫持的问题,然而建议您应用第一种办法,即在路由器的DHCP服务器中手动设置DNS服务器地址,以使所有计算机和手机无奈浏览网页问题已解决。

December 27, 2020 · 1 min · jiezi

关于服务器:为什么说企业云盘是企业存储数据的标配

现如今,仍然还有不少企业在抉择云盘上都比拟随便,认为本人企业的规模又不大,只有能达到咱们日常办公中文件材料的上传,下载就能够了,其余性能有没有都一样,更没必要破费一大笔资金去购买那些所谓的企业云盘。其实这种想法是谬误的,不论企业的规模做得有多大,它们都有一个共同点,那就是对本人企业的材料都非常看重。如果被竞争对手窃取到本人企业的材料,那带来的结果是不堪设想。所以,企业在抉择企业云盘的同时无妨多考虑一下除了能满足日常文件的应用需要,还能给企业带来什么样的劣势?能给企业发明什么样的价值? 置信大家都很理解什么是中心化存储的云盘,市场上可供的产品也很多。然而去中心化分布式存储的云盘不晓得大家有没有据说过,可能到目前为止绝对较少。少数抉择中心化存储的根本都有这样一个想法,就是老牌子信任度高;新产品去中心化存储还无奈给人相对高的信赖,也对它的作用还没有齐全的理解。当初,中心化存储在市场上也存在一个饱和状态了,平安方面也存在隐患。此时,去中心化分布式存储的企业云盘横空出世胜利缓解了这一问题, 它不止能够存储海量的数据,在平安上也有着区块链存储的技术保障。说了这么多,就拿yotta企业云盘举个栗子。 Yotta企业云盘旨在为各企业打造一个平安、易用、治理便捷的办公平台;其业余的存储技术除了能为企业节俭存储空间,还无效保障了企业的数据资产。它在产品安全性能上还有着权限管控;意思是说企业管理层可依据工作须要对上面的人员进行权限调配治理,从而进一步增强数据的安全性。 文档的权限治理能够抉择共享对象,从而管制其对文档的拜访权限;其日志治理性能,具体记录了所有用户对文档的操作记录和保留周期,不容许任何人随便删除和批改日志,便于监控和当前的审计;除了以上所述,还有其水印爱护、外链传输等平安性能。 以上yotta企业云盘的性能都是为了企业的数据失去更好的平安保障,在办公中更牢靠。对外能够避免黑客对企业的数据进行攻打,对内能够避免别人进行数据的拷贝,截图和转发。

December 25, 2020 · 1 min · jiezi

关于服务器:CentOS7安装VMware-Tools

查看首先查看零碎外面是否装置了 VMware Tools卸载预装的 open-vm-tools 包,检测是否预装了 open-vm-toolsyum list installed | grep open-vm-*卸载预装的程序包yum remove open-vm-tools再次确认是否卸载胜利rpm -qa | grep open-vm-*重启虚拟机reboot装置点击 VMware菜单栏【虚拟机(M)】,抉择【装置VMware Tools(T)...】;如果装置了晚期版本的 VMware Tools,则菜单项为【更新 VMware Tools】 挂载目录查看 cdrom 目录,在虚拟机中,以 root 身份登录客户机操作系统,关上终端窗口并运行ls /dev命令查看是否含有 cdrom 目录 创立 /mnt/cdrom将 CD-ROM 挂载到其余目录下,个别是将 /dev/cdrom 挂载到 /mnt/cdrom 目录 应用 ls /mnt 查看是否曾经含有 /cdrom 目录 从上图中能够发现 /mnt 中含有 /cdrom 目录,如果没有呈现上图的 cdrom 目录,则本人手动创立一个,应用命令 mkdir /mnt/cdrom 或 mkdir -p /mnt/cdrom(带上 -p 则能够一次创立多个目录),应用命令 ls /mnt 查看目录是否创立胜利 ...

December 24, 2020 · 2 min · jiezi

关于服务器:ECS实践案例丨逻辑卷的创建和扩容操作指导

摘要:实现跨硬盘应用,在传统硬盘之上的一层,在云服务器中能够实现跨EVS应用,用户在某些场景须要创立逻辑卷或者对已有的逻辑卷进行扩容解决,或者在某些时候因为误操作导致上述操作失败。【背景形容】:实现跨硬盘应用,在传统硬盘之上的一层,在云服务器中能够实现跨EVS应用,用户在某些场景须要创立逻辑卷或者对已有的逻辑卷进行扩容解决,或者在某些时候因为误操作导致上述操作失败。 【操作概述】:创立逻辑卷整体过程:创立物理卷→创立卷组→创立逻辑卷→建设文件系统→创立挂载点→挂载文件系统→设置开机主动挂载 扩容逻辑卷整体过程:扩容卷组(将闲暇的卷组扩容进卷组)→扩容逻辑卷→扩容文件系统 【操作步骤】:操作一:创立逻辑卷(1)通过fdisk –l命令查看所有的物理卷 上述挂载的数据盘的分区曾经创立了文件系统,同时文件系统也被挂载。间接执行物理卷创立命令会失败,须要将文件系统卸载,同时在进行逻辑卷创立的过程中,会有删除文件系统的操作。 (2)创立卷组 【留神】前提是分区不能有文件系统,同时不能进行挂载 pvcreate /dev/vdb1 /dev/vdc1 或者 pvcreate /dev/vd[b,c]1(通配符) 因为之前磁盘建设过文件系统,所以须要将其中的文件系统革除 如果回显命令不存在,通过yum install lvm2命令下载安装工具 (3)通过pvs查看物理卷 (4)通过vgcreate vg1 /dev/vdb1 /dev/vdc1命令创立卷组 【留神】一个pv不能退出两个vg (5)通过lvcreate -L 100M -n lv1 vg1命令创立逻辑卷 红框中内容一次为新建逻辑卷的大小、名称以及在那个卷组中创立 (6)创立挂载点 mkdir /mnt/test (7)建设文件系统 mkfs.ext4 /dev/vg1/lv1 (8)挂载文件系统(能够在/etc/fstab中设置开机主动挂载) mount /dev/vg1/lv1 /mnt/test 操作二:扩容逻辑卷(1)裁减卷组:vgextend vg1 /dev/vdd1 此时逻辑卷还没有扩充 (2)裁减逻辑卷:lvextend –L +20G /dev/vg1/lv1 此时文件系统还没有扩充 (3)扩充文件系统 对于ext4文件系统,命令为:resize2fs /dev/vg1/lv1 如果/dev/vg1/lv1的文件系统文xfs,则命令为:xfs_growfs /dev/vg1/lv1 本文分享自华为云社区《【ECS】逻辑卷的创立和扩容操作领导 》,原文作者:云技术搬运工。点击关注,第一工夫理解华为云陈腐技术~

December 24, 2020 · 1 min · jiezi

关于服务器:想要团队办公效率更快企业云盘助你一臂之力

在日常的工作中咱们难免会遇到不同团队须要一起合作办公的状况。然而多团队合作的同时也会产生很多大大小小的事件,比方晨会和每日的工作报告。特地是在负责大型项目的状况下,员工之间的沟通和合作都会比平时更频繁,更严密。当然,仅仅增强沟通是满足不了多团队合作的需要;那么,如何无效地进步跨团队合作的效率呢?它的秘诀是什么? 一个优良的办公软件除了能够实现各种文件的共享和数据的平安存储,还能帮忙团队的工作效率实现质的飞跃。以yotta企业云盘为例,它的分布式存储不仅能够满足多团队之间的沟通和合作需要,它还反对多终端信息同步,为文件传输和共享带来了极大的便当。为了团队能无效地进行合作,同时还要避免数据外泄和失落,一个好的文件治理性能必不可少。企业管理层能够为多个部门建设一个共享文件夹,并且依据不同人员的工作须要对文件设置对应的拜访权限,极大地保障了数据的平安。 在多人团队中,共享文件的治理非常重要,yotta企业云盘反对多人同时在线编辑,批改等性能,并且还会主动保留每个文件的历史版本,云盘的主动同步性能保障了团队中每个成员获取公司的最新信息和我的项目停顿的准确性放弃高度一致。同时云盘还能依据文档标签,关键字,作者,文件大小等信息进行全文搜寻,能够疾速找到所需文件。 在跨团队合作中还要常常跟踪我的项目的工作进度,以便随时应答各种突发状况。yotta企业云盘的实时音讯揭示能让你随时接管文件的动静和音讯告诉,从而帮忙其余人员及时把握无关文件其余数据的一手信息。 其实无论是大型企业,还是其余中小型团队,都须要一个高效运行的办公模式来帮助企业在将来的倒退路线上走得更远。yotta企业云盘致力于为企业提供一个业余、高效的文件管理工具和解决方案,从而让企业,团队之间的沟通更晦涩,权责更明显,让团队全面施展出1+1>2的能力。

December 24, 2020 · 1 min · jiezi

关于服务器:企业云盘新时代办公的领头羊

在这个数字化迅速倒退的时代,无纸化办公模式曾经逐步取代传统办公模式,信息化的遍及,让电子文档成为企业数据资产的次要载体曾经是不可避免的事件。随着企业外部员工之间文件传输和工作交换的逐步增多,传统的文件传递形式(QQ、微信、Email)曾经无奈满足企业日常对数据的收集和重要文档治理的办公需要了,一个业余的文件治理平台是解决当初企业对以上问题的重要要害,并且还能使企业员工在办公效率方面失去显著的进步。 针对以上存在的问题,咱们能够应用企业云盘中的文件对立集中管理的性能来解决。意思是将所有存储在不同中央的散乱文件进行集中管理,并对立上传至云端;除了能节俭存储空间,你还能对每一个文档贴上标签,利用云盘的搜寻性能疾速查找到本人所须要的文件,从而进步文件检索效率。对于文件治理难,文件信息更新不及时,yotta企业云盘中的共享空间就非常适合以上问题的治理。员工之间能够通过共享空间疾速对文件进行散发和共享,并且能够依据文件的权限治理性能对文档进行操作,而云盘的日志治理会自动记录所有的操作过程,无效避免了企业文件的失落和数据资产的损失。 海量的数据文件归档,内存太大导致传输受限;企业云盘的空间具备扩容性,所以不必放心空间内存不够的问题。 从治理方面来看,云盘简略易操作,就算是电脑小白也无需培训就能疾速上手进行操作,疾速融入应用,大大地进步了员工的工作效率。 对于出差在外的员工,yotta企业云盘反对多终端拜访性能,如PC端、web端、挪动端等;员工能够随时随地登录云盘查看公司的最新信息或我的项目停顿,不便与共事、客户或合作伙伴疾速进行协同办公。无效解脱了材料忘拿,材料少拿的状况产生。 无论从数据的平安性能,还是办公效率方面来看,yotta企业云盘都会是企业将来倒退中必不可少的重要组成部分。

December 23, 2020 · 1 min · jiezi

关于服务器:打破传统物理机限制支持RSSD云盘可分钟级交付的UCloud裸金属物理云来了

近年来,云主机因其弹性、易用、低成本劣势逐步成为企业部署业务的首选,但有些对业务性能要求极高的企业仍然会抉择应用独享的物理机。传统的物理机诚然具备人造的高性能和强隔离个性,实际上却因为部署流程简短、灵便扩展性较差而难以满足企业高速倒退的业务需要。 为此,UCloud于近期全新上线了裸金属物理云2.0,兼具物理机的高性能与虚拟机的弹性。其系统盘和数据盘均反对基于RDMA网络的RSSD云盘,取代了原有的本地磁盘,IOPS最高可达40万;后端为分布式三正本存储,数据更加安全可靠,且反对分钟级装机、磁盘在线扩容与故障迁徙;网络性能采纳bonding后达到了40Gbps程度;同时其无虚拟化开销,用户依然齐全独享资源,保障了物理隔离与性能独享。 从基于网关到基于BlueField智能网卡的裸金属物理云1.0如何为大量云计算租户提供高吞吐、低提早的物理网络和虚拟化网络是UCloud自成立以来就在一直攻克的命题。最后基于网关的传统物理云解决方案存在过于低廉,万兆网卡已无奈满足企业倒退需要,还存在VPC网关的带宽瓶颈,部署不够灵便,不反对计算、存储拆散等限度。 从2018年起,UCloud 便开始积极探索基于NVIDIA BlueField DPU的高性能裸金属物理云计划,并在往年上半年胜利上线裸金属物理云1.0。 UCloud基于NVIDIA BlueField DPU研发的裸金属物理云1.0,通过DPU集成的多核ARM CPU疾速将物理云基础架构软件从x86迁徙到DPU中,满足了物理云客户高带宽、低延时的网络需要,并应用 NVIDIA ASAP² 技术,将OpenvSwitch Kernel和GRE隧道硬件卸载到DPU,实现了物理云用户无缝接入NVGRE Overlay虚构网络,UCloud 也成为首家利用此技术的私有云厂商。 裸金属物理云1.0 宽泛服务于大数据、数据库等场景,并禁受住双十一大考,播种了用户宽泛的应用好评。其中某客户采纳裸金属物理云1.0搭建的大数据集群已达到200台规模。 搭载RSSD高性能云盘的裸金属物理云2.0裸金属物理云2.0继承了1.0版本的长处,在取代原先传统物理云独立网关的模式,买通私有云网络的同时,内网带宽也实现了降级,采纳bonding后可达到40Gbps程度。 存储方面,通过管制面仿真NVMe设施,数据面借助ASIC芯片高速转发,并通过UDisk基于 RoCEv2无损网络连接后端分布式存储集群,为裸金属物理机接入灵便可扩大的RSSD云盘服务。经测试,裸金属云盘能够达到约40万IOPS的高吞吐,真正实现灵活性与性能的兼顾。 裸金属物理云2.0 VS 传统物理机 由以上比照表可见,裸金物理云与传统物理机一样,都是独享物理机且无虚拟化耗损。传统物理机的问题非常显著:首先,传统物理机从控制台申请到装机实现动辄须要半小时,以致业务扩容效率不高;其次,内网带宽只有10G,导致诸如大数据等高网络并发的业务常常会面临网络性能瓶颈;本地磁盘不反对后续扩容,导致业务若有扩容需要只能新建服务器;在数据备份安全策略上,因为传统物理机依赖于本地RAID,使磁盘故障通常会影响业务,且磁盘数据失落危险更高。 针对传统物理机的这些限度问题,裸金属物理云2.0从多个角度进行逐个击破: 1.实现免装机流程:操作系统会在云盘预装置好,秒级间接拷贝镜像正本; 2.分钟级物理机交付:操作系统云盘即用即挂载,只有服务器启动工夫; 3.故障复原工夫快:当服务器故障时,只需将云盘挂载到另一台服务器启动,即可实现分钟级别的疾速复原应用; 弹性易扩容:相比本地磁盘,RSSD云盘可随时疾速进行磁盘扩容,最高反对32T*20;数据安全可靠:后端采纳分布式存储集群提供三正本,数据可靠性高。且将来将反对UCloud的数据方舟服务,数据可复原到任意一秒。除此之外,裸金属物理机还可享有云主机的各项能力,反对与其余云产品间接互联互通,构建虚构专有网络;通过Web界面的治理控制台,升高了用户的应用门槛。 UCloud裸金属物理云的推出,能够解决一些对计算性能、数据安全性要求较高的企业用户需要,特地实用于外围的数据库业务、大数据分析、金融证券等场景。目前裸金属物理云2.0产品已在北京二可用区B公测上线,后续更多可用区公布敬请期待~

December 22, 2020 · 1 min · jiezi

关于服务器:dns被劫持怎么办dns被劫持的解决方法

尽管咱们常常上网,但并不是每个人都对开启一个网页背地的机制一目了然。轻点鼠标,网页即出现在眼前,何其相熟的操作,但这相熟操作的背地,却蕴藏着一套环环相扣的流程。从用户点击鼠标、敲下回车,到网页显示,信息首先会通过浏览器发送,而后经路由直达,接着DNS将域名解析成IP,找到服务器后服务器会发送内容给用户,接着再由路由转发数据,最初浏览器将内容出现给用户。视理论状况,这个过程中还可能存在更多关卡,比如说防火墙、代理服务器等。 IIS7网站监控能够及时防控网站危险,疾速精确监控网站是否受到各种劫持攻打,网站在全国是否能失常关上(查看域名是否被墙),精准的DNS净化检测,具备网站关上速度检测性能,第一工夫晓得网站是否被黑、被入侵、被改题目、被挂黑链。精益求精的产品,缺点为零数据提供! 它能够做到以下性能:1、检测网站是否被黑2、检测网站是否被劫持3、检测域名是否被墙4、检测DNS是否被净化5、网站实在的齐全关上工夫(独家) 6、领有独立监控后盾,24小时定时监控域名官网图:官网地址:IIS7网站监控 dns 被 劫持了怎么办 网页浏览存在诸多环节,被劫持的机会很多,其中DNS非常容易被做手脚 在这套流程中,无论浏览器、路由、DNS、服务器等任一环节中出了叛徒,都有可能导致网页无法访问。而被人篡改最多的,或者就是DNS了。DNS全称是域名零碎,它所起到的作用,在于把域名解析为IP地址。咱们能拜访到某个网站,靠的是连贯到该网站服务器的IP地址,DNS在这外面起到的作用就是把“www.baidu.com”解析成“123.125.114.144”这样的IP地址,让你可能连贯到这地址的服务器来拜访网站。 dns被劫持了怎么办 把网址解析为IP地址,就是DNS所起到的作用了 在上网的流程中,有太多的起因能够影响到DNS,例如你的PC的设置、路由器的设置、运营商的设置等等,DNS一旦呈现了过错,就会无奈把域名解析成为正确的IP地址,咱们天然也无法访问到正确的页面。因而,如果你发现开启不了网页,但QQ这样直连IP的网络软件却能够失常服务,那DNS就是一个十分值得狐疑的起因。 DNS出错会导致什么结果? DNS这个环节能够被太多起因影响,所以不少利益相关者都会在这外面做手脚。例如,DNS劫持就是十分常见的广告投放伎俩。 个别状况下,如果你不特地设置DNS服务器,那么DNS服务器就会由运营商来提供。按理来说,运营商提供的DNS服务器应该用于正确地为你提供IP跳转,但偏偏很多运营商DNS服务器的人品都不堪入目。你经常就能看到运营商会把你给跳转到什么开明上网套餐之类的页面,甚至会呈现你输出A购物网但却被跳转到竞争对手B的状况,这就是所谓的DNS劫持。 开个百度,整个网页都被强制跳转到XX娱乐城去了,这就是典型的DNS劫持 要凑合运营商的DNS劫持,设置一个牢靠的DNS服务器往往就能够搞定问题。然而,很多敌人在设置了牢靠的DNS服务器后,仍旧不能解析到正确的IP地址,例如某个网站的IP地址明明是能够Ping通的,但就是无法访问。这种状况,通常是DNS净化所导致的。 尽管DNS服务器可能失常工作,但咱们向DNS服务器发送域名解析申请的时候,是通过UDP连贯发送的。UDP并不是什么牢靠的连贯,所以域名解析申请可能在半路上就被人拦挡,而后假冒DNS服务器给你发送谬误的IP地址。IP地址是错的,咱们天然也不能失常地拜访网站,有可能会看到广告、钓鱼页面,也有可能什么也看不到。 dns被劫持了怎么办 DNS默认使用UDP连贯,而且未经加密,很容易遭逢净化、投毒 无论是那种状况,DNS出错就意味着你没法正确地拜访网站。在整个上网的流程中,DNS这环节无疑是软弱而且不受用户管制的,如果肯定要有人用DNS来害你没法失常上网,大多数人都对此无能为力。那么DNS频频出错到底还有没有救呢? DNS出错到底有没有救? 后面也提到过,要凑合运营商的DNS劫持,咱们能够设置一个牢靠的DNS服务器来进行域名解析。当初很多平安厂商或者互联网企业乃至公益组织,都提供了DNS解析服务。例如奇虎360、诺顿、Comodo、百度、阿里、Google等企业,都有提供DNS解析服务,你也能够抉择Open DNS这样的老牌收费DNS服务。这些DNS服务,都能够在网上轻易搜到具体的IP地址,这里就不一一列举了。当然,并不是说用了这些DNS服务,就肯定不会有DNS劫持,万一这些企业人品也不行呢?至于谁靠谱,就得靠你来自个儿筛选了。 另外,DNS如果不是运营商所提供的话,速度体现并不一定现实。这里举荐一款名为“DNS jumper”的软件,它可能比拟全面得测验DNS的连贯速度,并设置DNS。利用DNS jumper,很容易就可能找到适宜你网络情况的DNS。

December 22, 2020 · 1 min · jiezi

关于服务器:性能优化之OnCPU

CPU Flame Graphs确定 CPU 忙的起因是性能剖析的惯例工作,这通常波及剖析堆栈跟踪。以固定速率采样剖析是查看哪些代码门路是热门代码(On-CPU)的毛糙但无效的办法。它通常通过创立一个工夫中断来收集以后程序计数器、函数地址或整个堆栈回溯,并将这些中断转换为可读的摘要报告。 剖析数据可能长数千行,难以了解。火焰图是采样堆栈跟踪的可视化成果,可疾速辨认热代码门路。无关 CPU 剖析以外的此可视化成果的应用,请参阅Flame Graphs主页。 火焰图可与任何操作系统上的任何 CPU 探查器一起应用。我的示例应用 Linux perf_events、DTrace、SystemTap 和 ktap。无关其余探查器示例,请参阅Updates列表;无关火焰图软件,请参阅 github。 在此页面上,我将介绍和解释 CPU 火焰图,列出创立它们的通用阐明,而后探讨特定语言的生成。 目录: 1. Problem 2. Flame Graph 3. Description 4. Instructions 5. Examples 6. C 7. C++ 8. Java 9. Node.js 10. Other Languages 11. Other Uses 12. Background 13. ReferencesProblem在这里, 我应用 Linux perf_events (又名 "perf" 命令) 来剖析正在耗费 Cpu 的 bash 程序: perf record 命令以 99 赫兹 (-F 99) 采样,在咱们的指标 PID (-p 13204) 上采样,并捕捉堆栈跟踪 (-g --),用于调用图形信息。 ...

December 22, 2020 · 6 min · jiezi

关于服务器:企业云盘如何解决办公难题

现如今,不论是大型企业还是中小型企业在工作中都会面临着各种各样的问题,让管理者和员工的工作效率得不到无限进步的,同时企业的文件数据也存在着安全隐患。 大量的文件扩散存储在不同的人员设施上,没有进行对立集中管理;文件检索艰难,搜寻速度慢;权限管理混乱,容易造成文件失落和材料外泄;文件无奈主动备份,硬件损坏难以复原;文件传输大小受到限制;文档重复被批改,容易造成版本凌乱;文件共享数据和协同办公不便;传统的系统维护老本高,须要大量的人力和物力等。 下面的每一项都给企业带来了肯定的困扰,而泛圈企业云盘则能够帮忙企业解决以上存在的问题。企业管理层能够依据人员组织架构进行对立划分,并且为各部门建设对立的文件共享平台,对各种散乱的文件对立集中管理,防止过多的数据占用存储空间,同时也防止了文件夹过多而失去应用价值。 依据不同人员的需要设置文件拜访权限,确保在文件平安的状况下实现协同办公等需要。而且云盘领有日志记录性能,能具体记录着任何成员任何工夫对任何文件的所有操作记录,万一呈现文件泄露或遭逢人为毁坏的状况,都有迹可寻。 云盘的主动备份性能可及时将本地文件上传至云端,确保了所有设施上的文件版本高度一致,同时也不会错过任何文件所更新的信息。 可依据文件分类设置对应的标签,后续可依据标签进行疾速搜寻;云盘还反对全文搜寻性能,可联合标签,作者,文件大小等因素实现疾速定位。 主动保留所有文件历史版本,文件失落也可轻松复原,杜绝因误删,泄露,蓄意毁坏等因素所带来的困扰。 外链加密传输,零碎严格把控对外的文档安全性,保障公司文档资料不被泄露。 企业可为各部门建设共享文件夹,实现多人同时在线合作办公,文件共享,满足部门之间的单干交换,从而进步工作效率。 应用泛圈企业云盘让你体验随时随地办公的便捷,轻松实现内外部单干事项。

December 21, 2020 · 1 min · jiezi

关于服务器:什么是网站流量劫持流量劫持常见方法有哪些

什么是网站流量劫持? 其实就是黑客动用所有技术手段,当亲们输出一个网址而后点击回车的时候,把亲们忽悠另一个网站下来哦,或者向亲们本来想拜访的的网站内容里加点其它内容。 IIS7网站监控能够及时防控网站危险,疾速精确监控网站是否受到各种劫持攻打,网站在全国是否能失常关上(查看域名是否被墙),精准的DNS净化检测,具备网站关上速度检测性能,第一工夫晓得网站是否被黑、被入侵、被改题目、被挂黑链。精益求精的产品,缺点为零数据提供! 它能够做到以下性能:1、检测网站是否被黑2、检测网站是否被劫持3、检测域名是否被墙4、检测DNS是否被净化5、网站实在的齐全关上工夫(独家) 6、领有独立监控后盾,24小时定时监控域名官网图:官网地址:IIS7网站监控 网站流量劫持常见的办法有以下几种: 流量劫持的伎俩也层出不穷,从主页配置篡改、hosts劫持、过程Hook、启动劫持、LSP注入、浏览器插件劫持、http代理过滤、内核数据包劫持、bootkit等等一直花样翻新。或者从开机的一瞬间,流量劫持的故事就曾经开始。 应用最多的网站流量劫持就是DNS流量劫持。 DNS域名解析过程是把亲们平时输出的好记的网址翻译成一个ip地址的域名解析过程。那么DNS歹意劫持,其实就是在DNS翻译的过程中通过所有技术手段扰乱亲们的电脑,使得DNS翻译成另一串数字,连贯到其它网页上。 比方咱们常常据说的山寨网站,在咱们想登录正规网站时,后果被劫持到山寨网站上,浑然不觉地输出了账号密码,就会有很大的危险。所以对于本人做网站时,要学会网站如何避免被歹意攻打造成流量劫持,并且做好网站备份。

December 19, 2020 · 1 min · jiezi

关于服务器:企业云盘新一代的办公神器

说到企业云盘,很多人第一反馈就是说它是一个用来存储货色的服务器,其实它不止是用来存储,还有另一个身份就是“办公神器”。至于为什么大家首先想到的是存储,这也是因为大量的用户在日常生活中应用集体云盘来存储数据所带来的印象。实际上,云盘依据不同的应用人群分为两种模式,集体云盘和企业云盘。 集体云盘置信大家都很相熟的了,我就不介绍了。上面我跟大家介绍一下另一个存储界的“新宠”。它是基于企业或团队所研发进去的服务器。没错,它就是YottaChain企业云盘,为了满足企业和其余用户的需要,它的设计架构和性能与集体云盘齐全不一样。集体云盘所存储的数据大多都是个人隐私,想要实现多人同时协同办公根本是不可能的事。 站在企业的角度来看,数据的平安存储是他们最根本的需要。除此之外,文件共享、协同办公和保障数据安全等性能也是一个企业所须要的。接下来,我将通过Yotta企业云盘率领大家简略理解一下企业云盘如何实现共享、平安和合作的。1、随时随地办公在5G时代疾速倒退的明天,企业办公也逐步向智能数字化转变,而挪动办公作为一种新兴的互联网模式,它反对多场景拜访形式,如PC端、Web端、挪动端等。不同场景应用不同终端登陆,随时随地与共事、客户或合作伙伴进行协同办公。 2、数据安全治理应用企业云盘,企业对于数据的安全性和机密性能够说十分重视。而yotta企业云盘领有的分布式存储和Truprivacy外围数据加密专利,能很好地保障了数据的平安和避免材料泄露。 同时,它还领有数据主动备份、水印爱护、外链加密去重传输等性能,就算企业管理员也无奈获取其内容,进一步保障了企业的数据资产。 3、数据集中管理,提高效率在理论办公中,企业管理员能够依据工作须要设置一个共享文件夹,为不同部门的人员建设一个文件共享的工作平台。当各部门在工作须要时能够实现在线沟通,编辑,预览和共享信息,把数据进行对立集中管理,从而进步工作效率。 企业云盘正处于疾速倒退期间,凭借着本身性能的劣势,曾经失去了各行各业的宽泛关注和认可;放眼将来,企业云盘将会成为企业整体IT生产的不二抉择。

December 19, 2020 · 1 min · jiezi

关于服务器:企业云盘需求量极速上涨背后的原因是什么

企业云盘作为一个新的企业材料存储和应用的服务器,随着研发人员不断创新的技术使其在性能上愈发的欠缺;并且可能很好地满足古代企业对工作材料存储和经营的需要。所以当初越来越多的企业为了进步工作效率,爱护材料平安,曾经纷纷开始使用企业云盘这一软件了。 一、合乎材料存储需要对于企业来说工作上有很多文件材料是须要窃密的,其中最要害的就是是否从根本上确保数据的平安。相比于传统的存储形式,企业云盘领有先进的加密去重、外链传输和分布式存储等技术,可能更好地保障企业数据的安全性,无效防止了材料外泄的状况产生。从它的平安性能来看,它岂但满足了当初通过互联网形式对材料存储的需要,还疾速进步了企业云盘的使用量。 二、内存更大另一方面无效地治理材料对于一个企业来说也是十分要害的,大多时候因为受到内存的限度,很多文件材料无奈依照失常的形式进行存储,并且会随着工夫的长远导致材料散失。若是应用企业云盘,它能够依据工夫,文件大小,类别等形式进行无效分类和归档,确保材料存储继续无效保留。三、性能的扩大当然企业云盘的劣势不止这一点,它在性能模板这一块也是相当给力的,它既能满足于古代企业办公的需要,还能高效地实现文件疾速搜寻内容的须要。联合现代化办公的特点,完满地展示了一个好的企业云盘如何在企业中起着至关重要的作用。 四、性能和老本绝对匹配对于很多中小企业来说,一个稳固的企业云盘能够很好地解决文件存储和材料对接的需要。而对于大企业而言,切合实际性能需要,能够有针对性的进行凋谢付费性能,保障其应用价值。应用老本的劣势也展示了好的企业云盘不可比较的一面,使其在泛滥的设施设施中怀才不遇,成为企业治理中不可或缺的重要组成部分。 综合以上所说不难看出企业云盘之所以可能与时俱进促成需求量大幅上涨,还是归根于其自身的劣势,性能越欠缺,其在将来实现量化也是必然趋势。

December 18, 2020 · 1 min · jiezi

关于服务器:想要企业数据变现何不试试企业云盘

随着5G数据化信息时代的到来,如何疾速获取各种信息成了各企业在行业竞争中怀才不遇的制胜要害。然而依据现状来看,很多信息型人才在收集信息的路线上走得并不是很顺畅,其中存在着诸多起因,比方企业的文化,本身的起因和对电脑操作的熟练度等;然而不论什么起因,节约在信息和文件检索上的工夫曾经让越来越多的企业意识到这个问题必须要解决。 企业的各种文档数据和常识财产都散落存储在不同人员的电脑上,U盘或手机里。曾有报告指出,一般工作人员每天有两个半小时的工夫是用在文件搜寻和筛选信息上。因为以上状况看似是小问题,所以始终都得不到上级领导的器重;若非遇到员工的频繁投诉和信息流通性越发低下的状况,企业管理者都还没意识到事件的严重性。这也是企业无时无刻不在亏损的次要因素之一。尽管很多企业都有资金和技术支持应用内网零碎来采集数据,但因为内网部署老本比拟高,不是所有企业都能具备这样的条件。企业云盘作为一个低成本,操作简略易上手的云服务器,自然而然成为了越来越多企业所青眼的管理工具。 应用企业云盘,能够主动把员工电脑上和各种挪动设施中的数据同步存储上云端,企业管理员也可随时随地进行查看,也可依据人员的需要对文件进行拜访权限设置。同时云盘还反对多终端拜访形式,如PC端,挪动端和web端,能够通过任何电脑或手机与共事,客户进行文件的疾速散发和共享。云盘还装备了全文搜寻性能,当员工有须要查找某个文件时,能够通过文件的工夫,作者,标签和关键字等形式疾速找到须要查找的文件,从而大大地进步了文件搜寻的效率。 企业云盘具备超强的安全性,除了能够主动备份数据和帮忙用户疾速提取文件,它还全方位爱护了文件的平安。基于它的分布式存储技术,为企业文件打造了一个数据资产的存储池。云盘领有的多种性能实用于任何企业和机构,能够实现异地协同办公,帮忙企业进步工作效率,从而给企业带来间接的经济利益。

December 17, 2020 · 1 min · jiezi

关于服务器:还在为管理企业数据文件感到烦恼企业云盘了解一下

随着数字化时代的疾速倒退,企业云盘高度受到了行业市场的青眼。作为现代科技的文件管理软件,企业云盘在数据存储、文件治理和利用方面为企业带来了新的解决方案;同时其简略易用的操作模式也为协同办公带来了高效的便捷。 云盘的主动备份和同步性能无效地保障了企业文件数据资产的散失;大量的企业文档都别离存储在不同的工作人员的电脑上或者硬盘里,万一遇到人员的到职或调动,都有可能导致数据的失落,从而给公司造成数据资产损失。所以做好数据安全治理是企业的首要任务。然而企业文件的数据一般来说都比拟宏大,所以如果手动备份的话难免会存在脱漏景象,工作效率也会显得非常低下。而企业云盘领有多种拜访形式,可随时随地实现文件轻松快捷上传至云端,节俭本地存储空间。云盘全方位的去重性能,极大地提高了云盘存储空间的使用率。当企业倒退得越快,员工存储的文件反复率就越高,这样不仅浪费时间还节约存储空间。当文件在传输过程中忽然断网导致文件需从新上传,这就给员工削减不必要的麻烦。应用企业云盘就能很好地解决这一问题,它的断点传输性能让你在断网复原后仍能持续上一步的操作,高效地进步了工作效率。 随着企业的疾速倒退,如果宏大的数据文档得不到无效治理的话,前期须要查阅某文件时就会十分困难。使用企业云盘能够把各种文件分门别类进行存储,之后能够依据文件的工夫,作者,标签,关键字等信息疾速查找,同时也反对全文搜寻,让每一份文件都有迹可循。 企业工作中免不了团队单干,当在团队工作分工时,文件通过屡次批改后版本也会变得非常凌乱,到最初还有可能退回到最后的版本。应用企业云盘能够轻松实现多人同时在线编辑,预览、批改、评论等;管理人员还能够依据员工的需要设置文件拜访权限,无效保障文件的数据安全。 企业云盘作为新时代的办公模式,让协同办公变得轻松又高效,它联合用户的需要,一直改善本身性能,为用户在应用过程中失去更好的体验。

December 16, 2020 · 1 min · jiezi

关于服务器:企业云盘让你告别企业数据资料泄露问题

企业云盘对这个知识经济的时代来说,它不只是一个工具,还是一个面向数据用户治理的信息平台。在科技疾速的倒退下,集体都能攒下很多材料,何况企业呢;随着企业的倒退,文件的数量和品种变得越来越多,这些重要的常识财产必须要好好地进行文件治理。无论是集体还是企业,对于材料的存储、备份和共享都有着很大的需要。企业云盘联合了当下集体和企业的存储现状,利用企业云盘所具备的分布式存储,为企业和集体打造了专属的常识存储池。 当初还有很多的企业员工还在应用传统的办法对工作材料,数据文档进行来回传输,而这些文档在操作的过程中难免会感化上电脑病毒呈现安全隐患;万一材料泄露,就会给公司带来无奈设想的结果。企业倒退越快,它的工作材料和经营的数据文档所占用的存储空间也就越大,而这些数据和材料在不同的设施上传输所消耗的工夫也会越长;这不仅节约了大量的存储空间,同时也升高了员工的工作效率。针对以上问题,企业云盘作为应答计划利用自身的劣势,能够让用户随时随地对材料和数据文档进行上传下载和共享等。这样不仅可能对企业的文件进行对立集中管理,还能缩小文档应用的存储空间,无效地保障了文件传输的安全性。企业云盘的多场景利用性能,使员工在外出差或与客户进行交谈时,都能第一工夫获取我的项目的最新进展和数据信息,以便进一步和客户洽谈。在实现企业流动办公的同时,还高效地晋升了员工的工作效率。 咱们曾经进入了5G数字化信息高速倒退的时代,无论从数据存储管理、文件共享合作到智能自动化,企业云盘在将来具备有限的可能性和发展性。企业云盘通过分布式存储的技术来保障数据的平安,放慢数据流动,在将来将会成为企业数据安全存储必不可少的工具。

December 15, 2020 · 1 min · jiezi

关于服务器:Vsan分布式文件系统逻辑架构损坏恢复过程

一、存储故障状况介绍北京某公司一台vSAN分布式文件系统的存储设备呈现未知起因的关机重启,随后发现逻辑架构呈现重大故障,下层虚拟机瘫痪,存储内的数据失落。客户的这台VSAN存储采纳了超交融架构,存储内配置24块硬盘用来存储数据。 二、vsan数据恢复镜像备份因为数据恢复操作须要对存储内的数据进行剖析、重组、提取,因而在进行数据恢复操作前须要对客户原始存储设备下面的数据进行镜像备份,在数据恢复时只须要对镜像文件进行剖析及重组即可,不会对客户原始存储设备进行任何操作,无效爱护原始数据的平安。工程师首先将客户的存储设备进行断电,将存储内的硬盘进行编号并按程序移出盘位,应用数据恢复专用存储设备对每一块硬盘进行扇区级镜像备份,在镜像过程中留神察看硬盘是否有物理故障,在本次复原过程中客户硬盘不存在物理故障。当镜像备份胜利后,工程师简略剖析底层数据判断客户存储下层的虚拟机组件信息有毁坏,但毁坏不很重大,查找了复原数据所需的关键性信息也都失常。 三、vSAN存储数据恢复过程1. 剖析组件ID工程师编写了针对本次故障状况的数据扫描和重组工具,利用工具主动扫描存储底层所有数据碎片并进行重组,最终胜利提取了所有组件ID以及对象ID,可间接用于下一步数据恢复应用。2.提取所有数据碎片利用组件及对象ID追溯数据碎片的逻辑地位,将所有数据碎片进行提取。3.重组vmdk文件将提取出的所有数据碎片进行重组、拼接,生成残缺的vmdk文件。4.剖析vmdk文件,提取数据对vmdk文件进行持续剖析,合并快照父盘,解析快照及vmdk文件,提取可用数据。5.验证下层数据库可用性所有数据提取实现后,在数据恢复存储上搭建与客户原存储环境雷同的数据验证环境,分割客户工程师亲自对复原出的数据进行验证,通过验证,客户原服务器上的所有数据均胜利复原,本次数据恢复胜利。 四、服务器数据恢复后果通过客户管理员的验证,确认本次数据恢复后果残缺度为100%,本次服务器数据恢复胜利。

December 14, 2020 · 1 min · jiezi

关于服务器:互联行业转型之战企业云盘如何C位出道

在5G时代疾速倒退的明天,很多企业在管理文件方面还是没有做到信息化,工作文件得不到一个好的治理形式。就互联网软件行业而言,个别的企业规模相对来说都比拟大,就算是小企业也有属于本人的工作团队。而且互联网行业相比其余行业较为非凡,它的人员流动性比拟大,企业的产品打算,设计原稿,技术外围常识等重要资料都扩散存储在各个人员的电脑上或者硬盘里,如若遇上工作人员的到职、调动,硬盘的失落或损坏,都会在无形之中给企业造成数字资产的散失,还会给企业将来的继续高速倒退带来肯定影响。 对于一个企业来说,大量的产品设计、核心技术常识、市场培训资料等重要文件在整个公司的经营中都是十分重要的。而这些文档都扩散存储在不同的电脑上或U盘里;因为短少一个对立管理文件的零碎,想要查找某些数据资料就会十分困难,从而升高了员工的工作效率。在传统的办公模式下,除了内部人员之间沟通不及时,和客户之间的合作也无奈实现共享;大量的文件也是通过QQ、微信、email等形式进行传输,这就存在着信息不及时,版本不统一,文件容易泄露等问题。企业云盘的呈现就是为了实现企业文件对立治理和平安备份;它能够依照公司的组织架构,把重要的材料分布式存储在不同的节点上,还能够对相干人员设置拜访权限,实现文件对立治理和常识积淀,把数据价值出现最大化。一方面通过加密存储,岂但能够更好地爱护了企业用户数据的平安,另一方面还保障了数据资产损失等问题。 互联网企业能够为各个不同部门建设一个共享文件夹,并且依照其人员的需要设置拜访权限,自主获取所需材料。公司可通过云盘的共享形式,把我的项目的最新动静实时同步更新到文档,确保团队获取信息准确统一,同时通过云盘的多层治理和权限设置,无效地保障了共享文档的安全性。 企业用户能够随时随地通过PC端,挪动端、Wed端等形式登陆云盘对我的项目进行查看、批改、下载、评论等。多级的权限治理性能,既能保障了数据的安全性,又能收集各自的意见和想法,还能解决文件传输等问题。 企业云盘帮忙互联网软件企业实现数据安全治理和常识积淀,进步工作协同效率,让各人员、各部门、各区域的我的项目实现自动化、高效化,全面助力互联网企业的数字化治理,让企业顺应时代,实现业务高效疾速倒退。

December 14, 2020 · 1 min · jiezi

关于服务器:企业云盘成为咨询服务业的着力点

咨询服务作为一种高级智能型信息服务,具备颇高的常识密集性、外部合作严密和专业性强的特点。企业云盘可能帮忙征询服务行业的工作人员管理系统文件数据,高效助力协同办公,保障文件数据的平安。然而依照目前来说,征询服务行业在日常工作中还存在各种各样的难题!一、重要数据无奈对立,失落重大技术常识,集体教训、技能,合同档案、客户资料、培训课程材料、各种卷宗、案例剖析等都扩散存储在员工个人电脑上或者U盘里,工作人员的到职,硬盘的失落或损坏,无形之中就会给企业带来重大损失。 二、共享合作不便征询服务行业须要定期给客户发送行业重点信息、培训资料、剖析报告、投资报告、计划书和价值评估等资料,信息沟通仍然采取QQ、微信、email等传统形式,一来二去就容易导致工作效率低下。 三、查找不便,升高工作效率企业之间信息的传递多以纸质文件进行,查找十分艰难,而且没有高效便捷的文档搜寻形式,就显得办公效率非常低下。企业云盘解决方案1、对立治理,主动备份企业云盘能够把公司所需文档对立集中存储在云端上,主动备份,对立治理,就算人员产生变动,岗位信息也不失落,便于工作交接,同时还防止了内部人员非法窃取企业外围材料和数据的不当行为产生。 2、文件共享,高效便捷我的项目管理者可为咨询服务我的项目创立一个共享文档,并可依据每位成员的需要设置相应的自主拜访权限,当一份文件须要疾速传递给别人时,可通过外链性能的形式来实现培训资料、计划书、合同档案等大文件的轻松秒传,云端实时同步,保障相干人员随时随地获取文件最新版本,并放弃了各方信息的及时性和准确性,无效地避免了数据不统一的状况产生。 3、反对全文搜寻云盘保留了各个版本的信息,工作人员可依据创立的工夫、作者、关键字来查找文件,还可在线预览,批改,下载等;而且云盘的日志性能也全程记录了文件的所有操作记录,防止版本产生谬误,无效地保障了文档的完整性和准确性。 yotta企业云盘在征询服务行业起到了平安高效的治理作用,使行业信息更加数字化,并能高效地将征询信息传递给客户,使征询服务行业步入了新台阶。

December 12, 2020 · 1 min · jiezi

关于服务器:企业云盘怎么成为企业数字化转型的大热选手

市面上的企业云盘有很多,然而每个公司对云盘的关注点都不一样。除了简略的文件集中管理和权限设置性能,还有其余很多方面是企业所思考的要害;比方云盘的稳定性、安全性、兼容性和利用等,正是因为这些性能才造就了各种云盘之间存在不同的差别。 个别状况下除了比拼数据存储空间的容量,还有信息的安全性,操作性和网络的服务质量,才是用户抉择它的要害。而且从目前的状况来看,云盘能疾速推动企业数据化转型的步调。所以抉择哪个企业云盘比拟好,首先还是看客户的需要和估算,是要性能全面点的,还是简略实用的,而后再抉择对应的云盘产品计划。毕竟每个云盘在基本功能相差不大的状况下,还是领有本身的技术性能劣势的。 企业云盘在数据管理平安方面,通过基于用户空间的权限设置,数据隔离,传输去重加密等技术性能,数据的安全性和私密性失去了无效的保障。 企业云盘采纳分布式存储技术,保障了所有数据的存储交易记录、可查、可追溯;每个数据块进行分片存储,别离存储在不同的节点上,相互备份,完满的实现异地容灾机制。无明文加密,所有用户的文档密钥均不雷同,任何人都无奈轻易获取文件内容。 云存储、随时拜访数据,用户能够随时随地通过企业云盘wed端、PC端、挪动端等查看曾经收集的数据。 通过云盘能够轻松将文件和别人共享,还能够实现多人同步编辑,协同办公能力强;而硬盘简直没有协同办公性能,只能通过拷贝、QQ、微信、email等形式来分享文件。 不同的模块,除了领有惯例的共享协同性能外,还能实现文档防泄密,防截屏,防复制,防歹意删除等。 企业云盘的性能次要是帮忙企业或者机构单位轻松实现文件备份、分享和挪动拜访,利用其多项治理性能,能够实现高效便捷的协同办公,帮忙企业进步工作效率,从而带来间接的经济利益。

December 11, 2020 · 1 min · jiezi

关于服务器:企业与数字化转型之间就差一个企业云盘

企业云盘是当初企业转型必备的一个抉择,它的定位不只是一个服务器,还是一个面向社会公众的数据管理平台。目前企业云盘从平安管理性、合作办公性以及将来科技倒退等都有了很大的提高。一、安全性如果企业不器重数据的平安存储,那么就容易导致数据的失落和外泄。而云盘领有的数据集中管理,主动备份等性能,让其成为了企业数据安全存储的首选服务器。另一方面,企业云盘反对多层治理和权限拜访设置,在传输上所有数据都通过数据加密去重来施行爱护,而且云盘的日志性能具体地保留了文档所有的操作记录,能够说在云盘中你无奈轻易删掉任何文件,也无奈随便拜访其余重要的文档。假使文件不慎失落,还能够通过云盘回收站,数据的备份等形式找回。 二、协作性企业云盘除了用于数据的存储,如何进行无效治理、依据企业需要开展合作也是一个外围因素。相比于传统的办公形式,企业云盘集多层治理,文档权限设置,在线编辑,批改,预览等性能于一体,让本身产品的吸引力在其余服务器中突围而出。另外,依据企业云盘的用户钻研发现,大部分都是从传统的服务器中间接迁徙到企业云盘,这也阐明了传统的服务器曾经无奈满足当初企业的数据存储和治理的需要了。 三、将来倒退随着信息科技的一直成熟倒退,企业云盘的作用也不再限度于数据的平安存储管理,而是与人工智能相结合,例如AI智能引擎、语音辨认等性能,让文件合作趋势自动化、轻松化。 在新兴技术产业的推动下,所有的企业都面临着数据重组的新商业模式,实现数字化改革。而管理软件也要从业务管理软件转型向组织效率管理软件,这关乎企业将来的倒退,也是企业走向将来的基石。

December 10, 2020 · 1 min · jiezi

关于服务器:企业云盘怎么解决零售商超存储问题

对于商超批发行业来说,每天的监控视频和交易数据文档都须要存储,而传统的存储形式无奈满足大量的视频存储。购买硬件设施老本低廉,商超批发无奈承当。另外,超市门店个别都很多,上级领导出差频繁,所以无奈及时查看门店的销售额。行业痛点一、视频存储艰难为了更好地治理好每家门店,门店都会装置监控摄像头,而且监控视频所产生的文件均为超大附件,传统的电脑无奈满足视频存储的需要,还不利于保留。 二、查看销售数据不便因商超分店多,总部需及时把握门店的销售数据,做好货品的调配工作。传统的销售统计是经各门店店长汇总再把报表传送到总部,而后再由另一位共事进行汇总,这样下来办公效率就非常低下。 三、后勤人员多为电脑小白后勤人员在电脑保护方面根本是小白,比方服务器,还需另外延聘电脑技术人员来做保护,岂但须要额定领取维护费用,老本还低廉。 企业云盘解决方案1、云端主动备份视频,数据随时查看员工可将录制结束的视频存储到云盘云端,不占用本地存储空间。云盘领有全文搜寻性能,可通过工夫,关键字等来疾速查找有须要的文档。还可通过wed端、pc端和挪动端将每天的监控数据上传到云端。针对连锁超市,可依照文件类型来搭建属于它的组织架构,从而进行对立的集中管理。 2、材料信息同步更新出差频繁的人员可通过挪动端,wed端等形式登录云盘,实时把握公司最新信息。而且文件一旦批改,云端就会实时同步更新,该文件的其余共享人员也能同时获取最新版本,保障各方信息的及时性。 3、操作简略,轻松上手企业云盘除了操作简略,同时还领有多种权限治理设置性能,能够依据文件的不同对拜访人员进行拜访设置,而且云盘日志具体记录了每一个行为的操作,万一产生数据泄露,可按记录进行疾速追溯,材料的安全性也失去更好的保障。 应用企业云盘能够为商超批发行业文件的治理、异地合作办公提供一套残缺的解决方案。公司各类我的项目打算的执行效率,市场降级和销售经营能力进一步失去进步。

December 9, 2020 · 1 min · jiezi

关于服务器:电脑被流量劫持流量劫持通过什么方式控制别人电脑

是否用流量劫持伎俩管制他人电脑这个问题,置信不少敌人都想晓得,上面就介绍下通过流量劫持管制他人电脑的几种办法。1、钓鱼浏览器插件 有时为了能让网页取得更多的在线能力,装置插件必不可少,例如领取控件、在线播放器等等。在方便使用的同时,也埋下了安全隐患。如果是一些小网站强制用户装置插件的,大家简直都是束之高阁。但若一些正规的大网站,提醒用户短少某些插件,并且配上一些业余的提醒,置信大多都会抉择装置。而这所有,通过被注入的攻打脚本齐全能办到。不过,正规的插件都是有残缺的数字签名的,而伪造的很难躲过浏览器的验证,会呈现各种平安提醒。因而,攻击者往往应用间接下载的形式,提醒用户保留并关上安装包。IIS7网站监控能够及时防控网站危险,疾速精确监控网站是否受到各种劫持攻打,网站在全国是否能失常关上(查看域名是否被墙),精准的DNS净化检测,具备网站关上速度检测性能,第一工夫晓得网站是否被黑、被入侵、被改题目、被挂黑链。精益求精的产品,缺点为零数据提供! 它能够做到以下性能:1、检测网站是否被黑2、检测网站是否被劫持3、检测域名是否被墙4、检测DNS是否被净化5、网站实在的齐全关上工夫(独家) 6、领有独立监控后盾,24小时定时监控域名官网图:官网地址:IIS7网站监控 2、页面提权 当初越来越多的应用程序,抉择应用内嵌网页来简化界面的开发,在挪动设施上更是广泛。通常为了能让页面和客户端交互,赋予一些本地程序的接口供调用,因而具备了较高的权限。不过,失常状况下嵌入的都是受白名单限度的可信页面,因而不存在安全隐患。然而在被劫持的网络里,所有明文传输的数据都不再具备可信度。同样的脚本注入,就能取得额定的权限了。一些带有缺点的零碎,攻打脚本甚至能取得出其不意的能力。通过之前提到的网页缓存投毒,这颗埋下的地雷随时都有可能触发。3、下载程序 即便上网从不装置插件,然而下载应用程序还是常常须要的。因为大多数的下载网站,应用的都是 HTTP 流量,因而劫持者能轻易的批改可执行文件,将其感化上病毒或木马,甚至齐全替换成另一个程序。用户总认为从官网上下载的必定没问题,于是就毫无顾虑的关上了。这时,入侵的不再是浏览器环境,而是能管制整个零碎了。防范措施:如果是从浏览器里下载的程序,注意是否具备数字签名,正规的厂商简直都会提供。如果想试用一些来路不明的小程序,保留到虚拟机里应用就释怀多了。

December 9, 2020 · 1 min · jiezi

关于服务器:使用js代码检测域名劫持和DNS劫持教程

1、对于DIV注入的,能够初始化时查看全副html代码。检测是否被劫持比较简单,但反抗就略麻烦,这个在说完第2点之后再解释。IIS7网站监控能够及时防控网站危险,疾速精确监控网站是否受到各种劫持攻打,网站在全国是否能失常关上(查看域名是否被墙),精准的DNS净化检测,具备网站关上速度检测性能,第一工夫晓得网站是否被黑、被入侵、被改题目、被挂黑链。精益求精的产品,缺点为零数据提供! 它能够做到以下性能:1、检测网站是否被黑2、检测网站是否被劫持3、检测域名是否被墙4、检测DNS是否被净化5、网站实在的齐全关上工夫(独家) 6、领有独立监控后盾,24小时定时监控域名官网图:官网地址:IIS7网站监控2、对于js注入,能够在window监听DOMNodeInserted事件。事件有srcElement,能够获取到刚插入的dom节点。这里开始简略粗犷的做正则匹配,匹配所有url。再一一比拟是否白名单域名,如果不是,则断定为劫持。能够上报,同时能够移除dom.parentNode.removeChild(dom);但这样容易造成误伤,因为失常页面中可能有内部链接,或者一些纯文本url。 function checkDivHijack(e) { var html = e ? (e.srcElement.outerHTML || e.srcElement.wholeText) : $('html').html(); var reg = /http:\/\/([\w.:]+\/)[^'"\s]+/g; var urlList = html.match(reg); if (!urlList || urlList.length == 0) { return; } reg = /^http:\/\/(.*\.qq\.com|.*\.gtimg\.cn|.*\.qlogo\.cn|.*\.qpic\.cn|.*\.wanggou\.com|.*\.jd\.com)\/$/; var hijack = false; for (var i = 0; i < urlList.length; i++) { if (!reg.test(urlList[i])) { hijack = true; break; } } }起初改为 function checkDivHijack(e) { var dom = e ? e.srcElement : document.documentElement; if (!dom.outerHTML) { return; //e不是一个dom,只是插入一段文本 } var imgList = (dom.nodeName.toUpperCase() == 'IMG') ? [dom] : dom.getElementsByTagName('img'); if (!imgList || imgList.length == 0) { return; } var httpReg = /^http:\/\/(.*\.qq\.com|.*\.gtimg\.cn|.*\.qlogo\.cn|.*\.qpic\.cn)\//; var base64Reg = /^data:image/; var src; var hijack = false; for (var i = 0; i < imgList.length; i++) { src = imgList[i].src; if (!httpReg.test(src) && !base64Reg.test(src)) { hijack = true; break; } } }但这样也有破绽,如果运营商通过div+style设置背景的形式显示广告图,上述代码就无奈查看进去。 ...

December 8, 2020 · 1 min · jiezi

关于服务器:房地产行业如何利用企业云盘打造属于它的春天

随着房地产行业信息化疾速倒退,企业日常办公、业务经营、文件治理等越来越依赖于信息系统,对于文件数据的安全性和业务连续性的要求也越来越高。传统工程文档的管理局限于存档,早已无奈满足房地产我的项目的日常运作需要。房地产行业的我的项目过程文件领有品种繁多,数量宏大的特点。但因为文件扩散存储在各部门成员的PC中,因而文件常常无奈在外部失去积淀和传承。 当遇到岗位或我的项目人员到职和调动时,我的项目文件经常因工作交接不全而导致文件失落、泄露。 近程办公时,如果施工现场的停顿无奈失去高效传播,或者因相干负责人出差而无奈审批文件,就会对我的项目的停顿产生影响。 房地产外部与内部施工方、建设方共享文件还应用传统的QQ、E-mail和微信等形式,这样不仅工作效率低,而且数据还存在透露平安的隐患。 应用企业云盘就能无效解决以上问题 按我的项目需要与合作方建设共享文件夹,设置拜访权限,在确保文件平安前提下,实现各我的项目材料无障碍沟通和对立治理。 出差在当地或我的项目现场时,可间接登录云盘挪动端上传实地照片,还可查看云盘中的我的项目材料信息。通过云盘的多种拜访形式,如PC端、wed端,挪动端等,齐全突破了工夫与空间的限度。 通过外链形式可轻松实现设计图纸,施工图纸等大文件秒传,还能设置拜访权限,同时后盾主动启用加密性能,无需放心因为零碎异样而造成数据失落,高效地保障了共享传输的安全性。 员工工作文件存储云端,到职或岗位调动时,云盘管理员有权将其建设的所有文档一键移交给其余在职人员,而且到职人员无奈随便删除文件,也带不走客户资源,无效防止了因人员的散失造成数据资产损失。 企业云盘可能帮忙房地产企业治理好宏大的地产材料信息,解决文件存储散乱、文件失落、信息搜寻艰难、信息共享落后等难题,对于进步房地产管理效率起着关键作用,而数据的积淀和积攒也将在将来对企业应答大数据时代有着不一样的意义。 

December 7, 2020 · 1 min · jiezi

关于服务器:java程序员需要知道的底层知识二

此次次要记录与cup相干的常识cup乱序执行(1)、介绍:cpu在进行读期待的同时执行指令,cpu乱序的本源,不是乱,而是提高效率,如上图,如果指令1和指令2没有依赖关系,指令2会优先执行,因为从内存获取指令1须要期待(2)、导致的问题:DCL单例为什么要加volatile(volatile能够禁止指令重排),因为对象初始化有个两头态,这个时候如果产生指令重排,会有问题,如下图:(3)、如何禁止指令重排 (3-1)、CPU层面:内存屏障:1、sfence:在sfence指令前的写操作当必须在sfence指令后的写操作前实现。2、Ifence:在Ifence指令前的读操作当必须在Ifence指令后的读操作前实现。3、mfence:在mfence指令前的读写操作当必须在mfence指令后的读写操作前实现锁总线:intel lock汇编指令:原子指令,如x86上的“lock...”指令是一个Full Barrier,执行时会锁住内存子系统来确保执行程序(实际上是锁内存总线),甚至跨多个CPU,Software Locks通常应用了内存屏障或原子指令来实现变量的可见性和保留程序程序(3-2)、jvm层面(8个hanppens-before准则 4个内存屏障(LL LS SL SS)): JSR内存屏障(cpu的lock指令):对于cpu的原语(sfence、Ifence、mfence)不是每个cpu都有,而lock指令是大部分cpu都有的,所以jvm采纳了偷懒的形式cpu的合并写技术此技术不重要,做个笔记而已,因为cpu的速度切实太快,所以在cpu内还有一个4字节的buffer,当cpu在向L1缓存写数据的时候会同时向这个buffer外面写,写满之后一次性刷到L2,因为L1写完都是要刷到L2的,罗唆间接写道这个buffer,满了就刷一次,总的来说也都是为了提高效率,此说法针对Intel CPUUMA和NUMAUMA(Uniform Memory Access),对立拜访内存,所有的cpu共享一块内存,领有雷同的拜访优先级,如下图: NUMA(Non Uniform Memory Access)非对立拜访内存,在主板上有不同的插槽,每个cpu都有一块离本人最近的内存,本人的拜访优先级最高(也能够拜访他人家的内存,只是效率稍低一些),如下图: 4.拓展:as if serial 不论如何重排序,单线程执行后果不会变,看起来像失常的程序执行一样,比方a=1;y=b;这两条息息相关的指令,是能够进行重排序的 上一篇:https://segmentfault.com/a/11...

December 1, 2020 · 1 min · jiezi

关于服务器:EMC存储raid5阵列瘫痪数据恢复成功全过程学会就是赚到

一、服务器数据恢复故障形容服务器型号:EMCVNXe3100存储硬盘数量:8块Raid级别:raid5磁盘阵列故障体现:2块硬盘离线,服务器解体,下层利用不可用故障状况预判:典型的硬盘离线数量超过raid5的冗余数量导致的服务器数据失落,能够通过数据恢复操作对原始数据进行复原,预估数据恢复成功率为90%。 二、对服务器数据进行备份数据恢复工程师首先将客户服务器内的所有硬盘通过镜像的形式进行备份,在备份过程中留神查看掉线硬盘是否存在物理故障,在本次数据恢复案例中,客户两块掉线硬盘均不存在物理故障,间接镜像即可。 三、服务器底层数据分析及数据恢复过程镜像实现后,数据恢复工程师偿还了客户原始硬盘,开始在镜像文件上剖析底层数据,通过底层数据分析计算出服务器原始的硬盘盘序,raid条带大小、raid阵列信息等,通过数据恢复工具重组raid。因为LUN是基于RAID组的,因而须要根据上述剖析的信息将RAID组重组进去。而后剖析LUN在RAID组中的调配信息,以及LUN调配的数据块MAP。因为底层只有一个LUN,因而只须要剖析一份LUN信息就OK了。而后依据这些信息应用raid恢复程序,解释LUN的数据MAP并导出LUN的所有数据。 四、解释ZFS文件系统并修复数据恢复工程师对导出的lun进行了文件系统解释,在文件系统解释过程中呈现报错,数据恢复工程师对报错内容进行剖析,调试文件系统解释程序,通过剖析与调试确认是因为存储中某些元文件损坏导致解释zfs文件系统程序报错。数据恢复工程师针对这些损坏的文件进行了手动修复,以确保zfs文件系统能够被失常解析。 五、服务器数据恢复胜利通过对zfs文件系统的修复和解析,验证最新数据,通过验证数据无误。分割客户管理员对复原的数据进行验证,确认数据恢复胜利,数据恢复率为100%。

November 30, 2020 · 1 min · jiezi

关于服务器:阿里云RAM

RAM (Resource Access Management) 是阿里云提供的资源访问控制服务。RAM用户是代表任意的通过控制台或OpenAPI操作阿里云资源的人、零碎或应用程序。RAM容许您在云账号下创立并治理多个用户,每个用户都有惟一的用户名、登录明码或拜访密钥。云账户与RAM用户是一种奴才关系。云账户(主账号):1)阿里云资源归属、资源应用计量计费的根本主体RAM用户(子账号):1)只能存在于某个云账户下的RAM实例中2)不领有资源,在被受权操作时所创立的资源归属于主账户3)RAM用户不领有账单,被受权操作时所产生的费用也计入主账户账单。 用户群组:如果多个用户的工作职责雷同,通过创立群组的形式来进行用户权限治理。角色: 1)子用户和角色都能够指定一个受权策略,用来阐明这个子用户或角色可能拜访云资源的权限。2)子用户,在RAM中能够为一个子用户设置明码和AccessKey, 而后通过用户名或明码来以这个子用户的身份登录阿里云治理控制台; 或者应用这个子用户的AccessKey,以这个子用户的身份拜访阿里云OpenAPI。3)角色,不能够设置明码和AccessKey,然而能够设置可信实体。 您能够在可信实体中定义哪些云服务或哪些云帐号下的子用户能够表演此角色,既以此角色的身份和权限来拜访您的云资源。受权策略:1)受权策略是一组权限的汇合,它以一种策略语言来形容。通过给用户或群组附加受权策略,用户或群组中的所有用户就能取得受权策略中指定的拜访权限。2)反对两种类型的受权策略:零碎受权策略和客户自定义受权策略。3)反对策略版本治理,一个受权策略有多个版本能够应用。受权拜访场景: 1)间接应用云账号拜访资源2)应用RAM用户拜访资源3)应用STS令牌拜访资源STS:阿里云STS (Security Token Service) 是为阿里云账号(或RAM用户)提供短期拜访权限治理的云服务。通过STS,您能够为联盟用户(您的本地账号零碎所治理的用户)颁发一个自定义时效和拜访权限的拜访凭证(token令牌)。联盟用户能够应用STS短期拜访凭证间接调用阿里云服务API,或登录阿里云治理控制台操作被受权拜访的资源。签名:RAM服务会对每个拜访的申请进行身份验证,所以无论应用HTTP还是HTTPS协定提交申请,都须要在申请中蕴含签名(Signature)信息。RAM通过应用Access Key ID和Access Key Secret进行对称加密的办法来验证申请的发送者身份。Access Key ID和Access Key Secret由阿里云官网颁发给访问者(能够通过阿里云官方网站申请和治理),其中Access Key ID用于标识访问者的身份;Access Key Secret是用于加密签名字符串和服务器端验证签名字符串的密钥,必须严格窃密,只有阿里云和用户晓得。

November 30, 2020 · 1 min · jiezi

关于服务器:华为云鲲鹏云服务器介绍

因为我的服务器到期,所以当初从新选购了一款服务器,基于ARM架构的华为云鲲鹏ECS。▣ 博主主站地址:微笑涛声 【www.cztcms.cn】▣ 博主其余平台: CSDN 简书 开源中国 思否 华为云博客 ◈ 华为鲲鹏处理器,保持继续翻新 华为海思设计的鲲鹏(Kunpeng)920系列芯片是兼容ARMv8A架构的高性能处理器片上零碎,也是华为 “算、存、传、管、智”五个产品系列形成的鲲鹏芯片家族的外围产品。 鲲鹏处理器是华为在2019年1月向业界公布的高性能数据中心处理器。 目标在于满足数据中心的多样性计算和绿色计算需要 ,具备高性能,高带宽,高集成度,高效能四大特点。 ◈ 产品系列低功耗级鲲鹏916处理器:采纳16nm工艺,反对24个内核,主频2.4GHz,功耗低至75w。极致效力级鲲鹏920-3226和鲲鹏920-4826处理器:采纳7nm工艺,反对32和48个内核,主频2.6GHz,单位功耗的计算性能体现优良。极致性能级鲲鹏920-6426处理器:采纳7nm工艺,反对64个内核,主频2.6GHz。◈ 华为云鲲鹏云服务概述华为云鲲鹏云服务基于鲲鹏处理器等多元基础设施, 涵盖裸机,虚机,容器等状态,具备多核高并发特点,非常适合AI、大数据、 HPC、云手机/云游戏等场景。 ◈ 华为云鲲鹏云服务列表 ◈ 华为鲲鹏弹性云服务器型号和场景 ◈ 华为鲲鹏计算服务总览 因为以前我的WordPress网站是搭建在X86架构的云服务器上,这次购买的是基于ARM的鲲鹏服务器,所以利用部署产生了比拟大的艰难。前面我会一一讲述华为云鲲鹏云服务器搭建MySQL、NGINX、PHP、wordPress等等服务的过程。

November 30, 2020 · 1 min · jiezi

关于服务器:想了解物联网应用的自动部署看这篇就够了

摘要:如何实现物联网利用主动部署,这篇文章中你或者能够找到答案。物联网技术在各行各业都有着宽泛的利用场景,例如智慧园区、智慧城市、智慧交通、工业互联网等。但物联网计划交付也面临着复杂度高、交付周期长等问题。以智慧园区为例,复杂度高次要体现在: 1)大部分厂家的物联网利用和设施强绑定,设计方案不灵便。 2)云端利用部署波及10+云产品,例如云服务器、云专线、虚构公有云、云容器等。 3)波及的子系统多达20+,硬件100+,SI在交付过程中波及上百个厂家的组织、协调和交付。 规范物模型,解耦第一步物模型,是智能设施的形象模型,用于形容设施具备的能力和个性,包含设施信息、属性、命令、事件等。IoT Stage通过物模型的标准化,实现了物联网利用与设施的解耦,物联网设施和利用只须要依照规范的物模型去实现开发,在装置部署后就可能主动实现对接。SI在设计物联网计划的时候,能够自由组合利用和设施,使物联网方案设计变得像拼积木一样简略,这样就能够构筑出最优、最合适、老本最低的解决方案。 利用一键装置,主动部署在我的项目交付环节,IoT Stage将根底资源虚拟化、利用模型化以及分布式技术进行交融,从而为SI提供了物联网利用对立购买、对立装置的极致体验。SI只须要在华为云物联网市场实现一次购买,就能对硬件、利用以及利用所依赖的资源实现一键下单开明,并把利用部署到各种状态的根底资源下面,蕴含有私有云、HCSO、HCS、智能站点以及智能边缘网关。 一键体验,疾速入门IoT Stage提供线上物联网体验馆,体验馆外面蕴含有100+以上优质的物联网解决方案,一键秒级进入Demo体验。那样就以一种沉迷式的体验,疾速帮忙SI搭档,了解咱们各行业的物联网解决方案,也极大不便了客户演示。 更多精彩解读→《揭秘物联网利用主动部署的神秘》 ☟☟☟点击传递门,观看视频 本文分享自华为云社区《如何实现物联网利用主动部署,华为云IoT Stage通知你》,原文作者:华为IoT云服务 。点击关注,第一工夫理解华为云陈腐技术~

November 24, 2020 · 1 min · jiezi

关于服务器:微服务

什么是微服务阐明1.为了升高代码的耦合性,将我的项目进行拆分,装置功能模块拆分为若该个我的项目,该我的项目称之为微服务;2.如果采纳微服务的构造,要求服务器如果呈现了故障应该实现自动化的故障有的迁徙(高可用) 微服务架构的设计外围组件: 注册核心(Zookeeper)设计图: 搭建注册核心 (Zookeeper)调用步骤:1.将服务信息写入到注册核心(1.服务名称 2.服务IP地址 3.端口)2.注册核心接管到服务器信息,会动静的保护服务列表数据.3.消费者启动时会链接注册核心.目标获取服务列表数据.4.注册核心会将服务列表数据同步给消费者,并且保留到消费者本地.当前不便调用.5.当消费者开始业务调用时,会依据已知的服务信息进行负载平衡操作,拜访服务提供者.6.当服务提供者宕机时,由与注册核心有心跳检测机制.所以会动静的保护服务列表.7.当注册核心的服务列表变动时, 则会全网播送 告诉所有的消费者 更新本地服务列表 Zookeeper介绍ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的性能包含:配置保护、域名服务、分布式同步、组服务等。ZooKeeper的指标就是封装好简单易出错的要害服务,将简略易用的接口和性能高效、性能稳固的零碎提供给用户。ZooKeeper蕴含一个简略的原语集,提供Java和C的接口。ZooKeeper代码版本中,提供了分布式独享锁、选举、队列的接口,代码在zookeeper-3.4.3srcrecipes。其中散布锁和队列有Java和C两个版本,选举只有Java版本。

November 18, 2020 · 1 min · jiezi

关于服务器:如何进行容量预估

随着业务的增长,日流量从10w级别,增涨到100w级别,这时候就须要进行容量预估。 什么样的场景须要进行容量预估呢?容量有量变性增长长期经营流动新零碎上线场景一: pm要做双十一流动,技术老大杀过来,问了两个问题:机器能扛得住吗?扛不住,须要加多少台机器?那些指标须要进行容量预估?看具体的业务 ,对应到零碎侧的主要矛盾是什么,例如: 数据量并发量、吞吐量宽带cpu/mem/DISK等向微博帖子等是数据量为只有矛盾,12306的抢票业务就是并发量为只有矛盾,音视频、直播业务宽带为只有矛盾,数据计算、区块连等是CPU为只有矛盾。 如何进行容量预估?第一步:评估总访问量。 答:询问产品和经营同学流动的用户量,预计有用户会来点击?例子:某公司要做一个APP-push的经营流动:1. 打算在30分钟内实现5000w用户的push推送2. 预计push音讯点击率10%push落地页零碎的总访问量? 答:5000w*10%=500w第二步:评估均匀吞吐量(QPS) 答:咱们假如所有的申请都产生在白天。例子一:push落地页30分钟的总访问量是500w,均匀QPS是多少?答:500w/(30*60) = 2778,大略3000QPS.例子二:某网站首页日均PV约8000w, 均匀QPS是多少?答:一天按4w秒算,8000w/4w=2000, 大略2000QPS。第三步:评估峰值吞吐量QPS。(咱们要抗住的是峰值QPS) 答:绘制业务趋势拜访图。依据拜访图来计算峰值QPS。如果没有趋势拜访图,咱们就依据二八准则,假如80%的申请拜访在20%的工夫上。然而像秒杀业务这类不能这样计算。 依据计算失去峰值QPS为5000QPS.第四步:评估零碎、单机极限QPS; 答:压力测试,计算出一台机器的QPS,记住磁盘,内存,io,宽带都不应该是零碎的瓶颈。 假如压力测试失去,单台机器极限是1200,因为不会跑满个别为80%,也就是单台机器抗1000。 第五步:依据线上冗余的做决定。 答:比方线上机器有2台,峰值5000,单机1000,两台扛不住。在加3台,4台更稳。~~~~论断:互联网架构设计如何进行容量评估呢(以吞吐量为例)? 评估总访问量:询问产品和经营评估均匀吞吐量:总量除以总工夫,一天算4w秒。评估峰值吞吐量QPS: 依据业务曲线图,或者二八准则。评估零碎、单机极限QPS:压力测试。依据线上冗余的做决定:计算需要和线上冗余度差值。

October 26, 2020 · 1 min · jiezi

关于服务器:趣味科普丨一文读懂云服务器的那些事儿

摘要:什么是云服务器?有哪些服务?为何传统企业也开始抉择云服务器?它的劣势到底是什么?传统的服务器,是自建房。你得把图纸画好,交给建筑商给你把房子盖好。你还得得操心地皮,水电,装修等等等等。房盖好了,住着不难受,要么默默接受,要么捂捂你的小心脏:哎哟我去,革新扩建又要花钱啊! 私有云服务器,是群租房,当然也有土豪:这栋楼我租了。你基本上啥都不必管,房东负责把房子盖好了,配套也都整好了,你只须要提着行李住进来,付租金就行了。尽管是租几间房子,整栋楼可是按别墅规范盖的,奢华的物业,认真的保安。住着不爽了,擦,换中央!新房东高高兴兴地跑过来帮你拿行李,老房东哭着抱着你的腿:哥,别走! 开发商天南地被盖了很多小区,你租了一间卧室,这叫云服务器租用; 你看上了样板间,给房东说,按这个规范给我来上几间,我要租。这叫做公共镜像创立云服务器。 你租了一间房,从新安排了一下,而后给房间拍了张照片,给房东说,你按这个给我整上几间一样的,我要租,这叫公有镜像创立云服务器。 你感觉一套房只租一间,住着不难受,得整套房租下来才爽,这叫裸金属服务。 你有本人的公司,想把员工的住房问题全给解决了,你找房东租下几栋楼,这叫专属主机。 过两天丈母娘一家子十几口人来玩了,你再租几间,等丈母娘玩完走了,你又把这几间退租了,这叫云服务器弹性伸缩; 你把房子安排称心当前照了个照片,你开了个party把房子弄的乌七八糟,本人懒得拾掇,你把照片给房东,让房东依照片给你复原,这叫云服务快照与复原。 你party开完,开门送敌人,发现房间的楼层变了!我去!穿梭了!这叫云服务器热迁徙。(情谊揭示,理论状况:客户是感知不到云服务器的具体物理地位的) 以上通过艰深的语言,将云服务器相干的产品服务为大家带来常识科普。家喻户晓,当初上云是大势所趋,不仅是IT互联网公司宽泛应用云服务器,一些传统企业也在信息化过程中开始抉择云服务器。正如开篇所提到的,物理服务器在企业IT基础设施的升级换代或革新中,存在着诸多的问题。云服务器有着许多传统物理服务器无法比拟的劣势,次要体现在以下几个方面: 1、老本较低以往企业部署传统IT基础设施,都要先洽购包含物理服务器在内的各种硬件,这是一笔固定成本。后续企业还要对这些设施进行保护与技术迭代,并购买需更新的设施,这是一笔不确定的额定老本。这些固定以及不确定的老本导致传统IT基础设施的总成本比拟高。 利益驱动技术的倒退,为升高企业IT老本,倒退云服务器技术是一个好的抉择。云服务器是处于云服务商建设的一个宏大的云计算资源池中,云服务商利用云服务器的规模效应升高云服务器老本。企业只需通过网络拜访就能疾速洽购到老本较低的云服务器,而且企业无需承当硬件设施洽购与运维的老本,同时缩小人力物力收入,因为应用云服务器后,这些都是云服务商做的事件,企业毋庸思考到这些问题。 2、性能劣势在整体性能上,传统物理服务器无奈与云服务器相比。云计算是利用了虚拟化技术,云服务器具备弹性计算的劣势,能够取得更弱小的计算能力,而企业能够将业务自在无缝地部署到云端。 传统物理服务器的局限性较大,难以裁减计算能力。云服务商能一直地利用最新的技术和更新硬件设施,这点是企业独自难以做到,特地是初创型企业。所以比照老本与性能,云服务器有很高的性价比。 3、保障业务的连续性市场环境瞬息万变,使得业务也随时面临着转变。当企业须要做业务数据迁徙时,从一个中央的物理服务器迁徙到另一个中央的物理服务器是一件十分艰巨的事件,波及到企业IT的多方面,如果处理不当可能导致业务中断,客户数据失落。 如果应用云服务器弱小的网络传输能力,业务数据在各个地区间自在迁徙,甚至能扩大到寰球区域,平安与便捷性较高,从而保障业务的连续性。 4、弹性灵便当一个企业的业务量在短时间内暴发时,所需的IT资源也须要追随及时扩容。物理服务器更换与降级硬件配置是比较慢与艰难的,当业务量升高后,暴发期扩容的IT资源就空置节约。 云服务器具备弹性灵便的特点,能够弹性自在地配置CPU、内存、带宽等,能及时应答业务量的疾速变动,防止IT资源的节约。 5、无需高水平的运维技术能力企业传统的IT架构有较多的硬件设施,须要大量技术人员运行、保护,还要应答网络安全的威逼,这就须要一个业余技术水平较高的运维团队。即便这样,有时候运维团队面对从天而降的网络攻击,也会显得难以应答。 云服务商不仅领有更业余更高水平的运维技术能力,还有更强的网络安全能力。企业应用云服务器就无需为技术能力和平安能力担心,无需组建宏大的高水平运维团队,从而省下人力老本。 点击关注,第一工夫理解华为云陈腐技术~

October 22, 2020 · 1 min · jiezi

关于服务器:宝塔Linux面板解决跨域问题

首先对于跨域是什么https://baike.baidu.com/item/...在宝塔Linux面板算对老手比拟敌对的服务器面板,然而也是不能够防止一些服务器常见的问题例如跨域问题:网站》抉择网站》配置文件解决办法 add_header 'Access-Control-Allow-Origin' '*';add_header 'Access-Control-Allow-Credentials' 'true';add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS';来到这个页面在最上面粘贴下面的代码,后重启服务器就能够了这里有一个做好的音乐的json数据能够测试http://101.200.141.4/api/musi... juqery:$.ajax({ type: "get", url: "http://101.200.141.4/api/music.json", success: function (response) { console.log(response.name); console.table(response.data); }});在vue中能够装置vue-axios进行申请

October 15, 2020 · 1 min · jiezi

关于服务器:理论研究漫谈传统IT基础设施04服务器下

本文欢送转载,转载请注明出处和作者。 最初,从部署利用的维度,对服务器进行一下探讨。 何谓服务器所谓服务器,其实就是硬件配置比拟好(CPU、内存等),关键部件冗余配置(电源、网卡等),装置了可能开机自启动及对外服务的应用程序,可能7*24小时全天候不关机且能稳固运行不死机的电脑。 说白了,当你的笔记本装置了windows零碎,而后右键属性将文件夹设置共享,并且设置好拜访权限。局域网内的受权用户可能“\你的笔记本IP地址”,就能拜访你的共享目录。那么你的笔记本电脑,在某种意义上,就是文件服务器了。 你的笔记本电脑,装置了个播放器软件,可能播放小电影了,某种意义上,也是个媒体服务器了。 如何用服务器构建业务零碎在以往,特地是WEB1.0的时代,也就是动态网页的时代。上网就是为了关上网站,而网站基本上都是相似新闻门户类的网站。信息是单向流传的,也就是你只能下来网站浏览信息,他们给你看啥你就看啥,他们不给你看啥,你就没得看。并且看归看,既不能评论,也不能转发,所以用户与网站齐全是零交互的。 动态网站这种状况下,只须要找台服务器,装置上Windows/Linux操作系统,并且进入操作系统之后,Windows装置自带的IIS性能,Linux装置个Apache的软件(动态网站软件),而后编写一些html文件,放到指定目录外面,网站就能够供他人拜访了。 (当然这里只谈服务器,网络什么私网地址NAT映射至公网地址等货色暂且不表) 这个时候,业务零碎就单纯是单台服务器+动态网站应用软件(IIS/Apache)。 记得那个年代有很多网页开发的书籍,就叫做《网页制作三剑客》,次要是讲述应用Macromedia公司开发进去的,Dreamweaver,Fireworks,Flash三个软件,来进行网站开发。Dreamweaver能够做页面布局与网页元素的排列,Fireworks图像、矢量图的编辑,Flash预计就不必多作介绍了,能够做那个年代很火的动画制作。 然而那时候,这些网站也会称本人为动静网站,然而这里的“动静”,是指例如页面的广告位的图片会主动轮换,页面的Banner会有Flash插入的动画,会有个简略的动画播放。而不是当初的“动静网站”,指的是与用户有交互,例如用户有账户,能够登录、回帖、评论、签到、秒杀等。 动静网站到了WEB2.0时代,单向传输信息曾经不能满足人们的诉求了。网民上网要求可能与网站交互,单纯的动态页面就不够用了。 这个时候,服务器首先还是要装置动态网站的软件(IIS/Apache),而后既然要存储用户的账号、明码、身份信息、评论等内容,当然要找个中央存取(存入与读取),所以就要装置数据库软件了(支流mysql、Oracle、SQL Server)。动态网站的软件是怎么与数据库连接起来的呢。 动态网站软件用的是html语言编写的html的文件,而数据库软件则是用的SQL命令进行存取的货色,相当于一个讲中文,一个讲英文,所以这两个货色是通信不了的。 那么怎样才能让一个讲中文的中国人与一个讲英文外国人失常沟通呢?那当然就是找个翻译当中间人啦。 计算机亦然,所以就呈现了PHP、JSP、ASP等动静网页语言,相当于能够将前端html的申请翻译成SQL,而后从数据库外面读取数据,翻译为html的语言,而后再返回给前端。 这里就不能不介绍经典的LAMP组合了,Linux+Apache+Mysql+PHP,因为4个软件都是开源的,收费、轻量、容易部署,因而很多集体利用(如博客),企业守业初期,LAMP都是用作建站的首选架构。 这个时候,能够在单台机器(Linux/Windows)下面装置好Apache+Mysql+PHP,而后将写好的网站内容放上指定目录,把几个服务都起起来,并且互相买通即可。此时业务零碎,就是1台服务器。 基本功能拆分用户规模日渐增大,单台机器的性能有余了,此阶段最简略的做法就是拆分机器。2台(1台WEB服务器–装置Apache与PHP,1台数据库服务器–装置mysql),就可能很好地晋升问题。而一个动静网站(一个最小化的残缺业务零碎),就是1台WEB服务器与1台数据库服务器就构建起来了。 这就是之前说的服务器为什么依照性能维度划分,分为WEB服务器与数据库服务器的起因了。有点像化学外面,“原子(动静网站)是化学变化(业务零碎)外面的最小粒子,由原子核(WEB服务器)与电子(数据库服务器)组成”一样。 继续增加性能随着用户量的增长,原有的设施,无论是性能(纵向),还是性能(横向),很可能都无奈持续满足业务零碎的倒退要求。 这个时候,纵向须要持续减少WEB与数据库服务器。 横向,就要依据性能需要减少形形色色的其余类型服务器了,并且这些性能服务器通常只为了解决一个类型的问题: 例如可能把网站的动态图片集中寄存到1台服务器,html下面的图片地址间接指向这台服务器的图片,不必从数据库外面提取,放慢页面加载速度(缓存服务器)。 或者将用户上传的文件寄存到1台服务器,供大家共享上下载。(文件服务器) 或者将所有打印机驱动与打印机装置到1台服务器,所有用户都通过连贯这台服务器来与打印机通信,打印。(打印服务器) 因为这些性能大多都只为了解决某一个需要/问题,而且基本上都在一条平行线上,互不穿插/重叠,没有交加,不好对它们分门别类。 因而个别就把他们归类为除WEB与数据库服务器之外的第三类:应用服务器(其实文言说,就是其余性能服务器)。 说完这一节,传统IT基础设施服务器局部的实践就讲完了,前面就开始讲网络局部的实践。 更多精彩内容,能够关注我的微信公众号:Waiting的运维日常本篇文章由一文多发平台ArtiPub主动公布

October 14, 2020 · 1 min · jiezi

关于服务器:理论研究漫谈传统IT基础设施03服务器中

本文欢送转载,转载请注明出处和作者。 书接上一回,为什么既有机架式服务器,又有刀片服务器呢。 刀片服务器VS机架式服务器机房/数据中心,其实就是房地产经济。机房面积就那么大,如何在无限的空间内,尽可能地晋升装机密度,装置上架更多的机器,那么单台机器摊分的机房老本就越低,机房的经济效益就越高。 而机架式服务器通常1台占了2U(2CPU的设施居多)或4U(4CPU的设施居多)。一个规范的19英寸机柜个别42U,并且因为为了不便理线、布线、应用托盘来装机、留出保护空间等起因,个别设施与设施之间要隔开1~2U(至多1U),那么算下来一个机柜最多只能装置8台4U设施,14台2U设施。 因而,为了进一步提升机架的装机密度,刀片式服务器应运而生。DELL M1000E的刀框高10U,能够装置16块半高刀片(2CPU),华为的E9000刀框,能够装置16块半高刀片(2CPU)。只有装置上一笼刀框(满配刀片),就曾经可能顶原来一个机柜全副装置2U的机架式服务器的密度了,大大节俭了机柜的空间。 而限度42U规范机柜装机密度的次要因素,就从空间转移为单个机柜的供电了。以往运营商机房很多时候单个机柜只有3KW的额外功耗。1个刀框额外功耗2500~3000W,限度了就算解决了空间问题,也无奈冲破供电问题,无奈晋升装机密度,刀片服务器如同鸡肋。然而随着工夫的推移,当初一般的IDC机房,都推出了6KW甚至1万W的机柜,那么单机架装置2到3框(满配刀片)都变得不成问题。 那么刀片式服务器在空间下面的劣势就十分大了。至于在老本方面,应用刀片服务器的老本还要思考刀框是否满配刀片,如果配置刀框而后加大量刀片(如1片),那么老本必定比机架式服务器高。而在满配的状况下,等同次要配置(说次要配置,次要是仅能比照CPU、内存、硬盘配置,因为刀片在网卡、光纤卡、电源等配置下面,是刀框配置,所有刀片共用的,所以无奈与机架式服务器的独享配置进行比拟),刀片服务器单块的老本还是会比机架式服务器略贵,然而这仅仅是服务器的建设老本。 如果像下面这样思考机房空间的建设老本,综合布线的建设老本等周边老本摊分,应用刀片服务器,往往综合老本就比机架式服务器低了。 然而刀片也有刀片本身的毛病,受限于设施体积,刀片的可扩展性没有机架式服务器好。例如机架式服务器能够配置更多的硬盘而后做Raid,晋升磁盘的IO读写性能。机架式具备更多的内存插槽,能够插入更多的内存,同时也具备更多的PCI-E插槽,配置更多的网卡、光纤卡,确保网络冗余的根底上,能够进一步做网络流量的拆散(拆散业务、治理、vMotion、存储等各种流量)。甚至能够通过PCI-E插槽配置GPU图形加速卡,满足3D设计、视频渲染等需要,这些都是刀片所不迭的中央。 因而,刀片服务器与机架式服务器各有优劣。机房空间无限的状况,须要多台设施并行计算而对单台的性能依赖不高,可扩展性要求不高的,优先应用刀片,对单台设施的性能要求高,可扩展性要求高(如网卡、光纤卡),本地磁盘容量与IO要求高的,能够优先应用机架式服务器。 服务器功耗实测记录素日在做设施装置布局/工程设计的时候,有个艰难是如何妥善安顿服务器在机架的装置机位。其中除了依照设施高度调配装置的U位外,另外的一个问题就是功耗了。 厂商给出的额外功耗,往往大大超过设施素日理论运行的均匀功耗。 如以往运营商的一些机房,单机架功耗3KW,而一台4节点的Nutanix 3060超交融服务器,标称电源功耗2KW,每个节点500W,高2U,那么42U机柜,只能装置1.5台3060就不够功耗了。 1台DELL PS6210E磁盘阵列,额外功耗1080W,那么1个机柜只能装置不到3台。(每台4U) 如果依照这个装机密度,机柜的空间利用率不到1/3。 而依据理论的测量察看,Nutanix 3060每个节点日常运行均匀功耗在250W/台,PS6210E均匀功耗在400W左右,再察看其余设施的带业务负载理论运行均匀功耗,基本上能够得出结论,设施的理论运行均匀功耗为额外功耗的40%~50%左右。 更多精彩内容,能够关注我的微信公众号:Waiting的运维日常本篇文章由一文多发平台ArtiPub主动公布

October 14, 2020 · 1 min · jiezi

关于服务器:理论研究漫谈传统IT基础设施02服务器上

本文欢送转载,转载请注明出处和作者。 上一篇分享IT基础设施的三大部分组成:计算,网络,存储。这一篇咱们来深入探讨一下服务器。 服务器维度与品种话说砖家们都有一个独特的特点,就是不爱说人话。一篇文章外面越多富丽的辞藻,越多专有的名词越好,就是心愿读者听不懂,这样才显得特地业余。 因而,无论什么类型的设施,专家们特地喜爱弄几个不同比照维度而产生的名词来一起比拟,弄得人昏头昏脑。 就像男人与女人是性别维度,中国人与美国人是国籍维度,亚洲人与非洲人是天文维度,然而怎么能拿男人、中国人、非洲人来进行横向比照呢? 因而,要弄明确服务器,必须先弄清楚当初到底在什么维度聊。 CPU架构维度从CPU架构维度聊,分为RICS精简指令集,CISC简单指令集,ARM(嵌入式)指令集的3个维度。简单对应的是Unix服务器/小型机,精简指令集对应x86服务器(Linux、Windows零碎服务器),后者对应的是像单片机/树莓派等小型设施下面跑的嵌入式零碎。 物理形状规格维度从形状维度,分为了塔式服务器,机架式服务器,刀片服务器。前面开展具体论述。 部署利用维度从部署利用后服务器的性能维度,次要分为WEB服务器、数据库服务器、以及应用服务器(泛指所有的其余利用,例如音讯队列、中间件等)。 从CPU指令集维度,就不太好开展说了。首先是大型机、小型机的货色当初用得越来越少了,特地是云计算的衰亡后,企业都上云(私有云/公有云)租用一堆x86服务器来部署业务了。而聊嵌入式零碎,基本上开展说,就要开始聊编程的话题了。 而素日接触得最多的,应该是物理形状规格维度(物理硬件)与部署利用维度(windows/linux操作系统&利用部署)。因而前面对这两个维度开展详述。 塔式服务器 塔式服务器,指的就是台式的工作站电脑,例如联想的P系列(P320等),DELL的T系列等。 比个别的台式电脑会装备好一点的CPU(例如I7),大一点的内存(16G/32G),硬盘可能会多配置1块。(并且配置阵列卡,2块硬盘做个Raid1镜像,数据有一份正本,避免一个硬盘故障当前数据失落) 属于比上不足,比下有余,如果家用,或者企业设计人员做图形设计、视频渲染,能够配置。 然而不适宜用来跑企业级的业务利用,因为毛病显著,例如CPU还是I7,而不是服务器用的intel xeon CPU(E3/E5/E7),只有单个电源等(故障了就宕机了)。 机架式服务器 机架式服务器个别高1~4U(1U高4.45cm),配置1/2/4个CPU,核心部件都是双冗余配置(双端口网卡*2,冗余电源)。个别运行稳固,单台性能较好。经典的设施包含IBM的X系列(X3650,X3850),HP的DL系列(DL380,DL580),DELL的R系列(R720,R820,R930)等。 刀片服务器刀片服务器,指一个刀框,能够插入多块刀片服务器(1框插4、8、16块刀片),每块刀片服务器都配置了独自的芯片、CPU、内存、硬盘等部件,独立运算。整个刀框电源与内部对接的网络模块共用。 经典设施包含CISCO的UCS C220,C440,DELL的M1000刀框与M630刀片等。 更多精彩内容,能够关注我的微信公众号:Waiting的运维日常 本篇文章由一文多发平台ArtiPub主动公布

October 12, 2020 · 1 min · jiezi

关于服务器:迅雷ftp下载工具利用Windows和迅雷下载工具轻松实现FTP上传和下载

须要在局域网windows零碎之间互传文件怎么办?网上纷繁复杂的FTP搭建难懂难用难下怎么办?自己亲自实际Windows7自带性能+人人都有的迅雷下载工具,搭建FTP上传和下载环境。IIS7服务器管理工具实用群体为:机房治理、站长、运维工作、程序员,等须要大量服务器或者电脑的用户敌人。 IIS7服务器管理工具能够批量治理、定时上传下载、同步操作、数据备份、到期揭示、自动更新。IIS7服务器管理工具实用于Windows操作系统和liunx操作系统;反对Ftp客户端批量操作。 下载地址:IIS7服务器管理工具 ![image](/img/bVbOOp0) 1、开始——控制面板——程序,在程序和性能上面点击【关上或敞开Windows性能】 2、在【Windows性能】这个弹出窗口外面,找到【Internet信息服务】,勾选【FTP服务器】两项,Web管理工具勾选【IIS治理控制台】点击确定 3、开始——控制面板——零碎和平安——管理工具,双击关上第一项【Internet信息服务(IIS)管理器】 4、把右边栏的选项都点开,在网站上右键点击,抉择【增加FTP站点】而后依照我的图示,一步一步设置完,最初点击一下实现,你的ftp服务器就建好了。测试FTP是否胜利,只须要在浏览器地址栏外面输出ftp://你刚刚抉择的ip地址回车拜访就能够了 5、上面开始说用迅雷怎么去下载ftp服务器中的内容关上你的迅雷,找到有一个小工具的按钮,点击抉择FTP工具 6、在这个工具外面填写你刚刚配置的FTP服务器的ip地址就能够了。点击连贯——弹出关上站点的对话框,填一下ip地址,确定之后就功败垂成了!!!

October 9, 2020 · 1 min · jiezi

关于服务器:如何判断服务器IP-是否正常

如何判断服务器IP 是否失常 1、登录服务器 2、获取服务器网卡所有IP 是否跟 服务器商给的统一 3、装置IIS 4.到c盘创立一个 www文件夹 5.增加网站 6.网站名称 填写测试物理门路 填写c:www (到C盘创立一个WWW文件夹), www文件夹,创立一个文本index.html index.html 外面填写 :<html xmlns="http://www.w3.org/1999/xhtml"> <head> <meta http-equiv="Content-Type" content="text/html; charset=gb2312" /> <title>ceshi</title> 而后保留 重命名为:index.html后从新关上 8.所有IP 加上Http:// 如:hettp://216.24. 38.125。 9.把所有IP 拿到 http://www.iis7.com/b/plc/ 获取题目,能获取到ceshi 就阐明服务器IP失常

October 7, 2020 · 1 min · jiezi

关于服务器:ftp服务器软件好用的ftp服务器软件

ftp服务器软件,是指用于本地电脑和ftp服务器之间数据上传下载的软件,它能给咱们的文件传输带来便当,让咱们的网站治理等相干工作更加简略高效,当然,这须要一款弱小的ftp服务器软件作为撑持,上面就给大家介绍1款好用的ftp服务器软件。 iis7服务器管理工具 这款软件的ftp下载软件设计十分合乎应用需要,不仅具备定时上传和定时下载的同步性能,还具备主动备份和更新性能,有了它工作效率间接腾飞。 同时,IIS7服务器管理工具有着十分全面而且便捷的性能,如:批量治理windows系列的操作系统, linux操作系统以及linux的vnc、win的vnc等,满足使用者的不同需要。还有工作人员在一直开发更好的性能,一直的优化和晋升,置信当前也会越来越好用。

September 25, 2020 · 1 min · jiezi

关于服务器:搭建邮件服务器过程非常简单

通常在Linux搭建邮件服务器是须要装置很多软件和配置文件的,所以咱们能够应用一个开源邮件服务器软件来搭建的。 筹备一台服务器与零碎云服务器或本地虚构的服务器都能够。服务器须要能链接网络。装置centos6/7零碎,须要全新洁净的零碎环境。配置零碎`查看swap是否已启动,如没启动须要配置启动swap。` * 1下载EwoMail邮件服务器`在git下载EwoMail开源版git地址:https://gitee.com/laowu5/EwoMailEwoMail集成的软件:Postfix:邮件服务器Dovecot:IMAP/POP3/邮件存储Amavisd:反垃圾和反病毒Fail2ban:监控策略LNAMP:apache2.2,nginx1.8, mysql5.5,php5.4EwoMail-Admin:WEB邮箱治理后盾Rainloop:webmail` * 1* 2* 3* 4* 5* 6* 7* 8* 9* 10* 11* 12装置`将安装包重新命名ewomail.zip解压装置` * 1* 2`unzip -o ewomail.zipcd EwoMail/install#须要输出一个邮箱域名,不须要前缀,列如上面的xxx.comsh ./start.sh xxx.com`* 1* 2* 3* 4`装置胜利会呈现“Complete installation”剩下只须要配置域名DNS即可应用了` * 1* 2配置域名DNS 请参考上图DNS配置将mail.ewomail.cn 改成你的装置的域名,例如(mail.装置的域名)红色局部请改为你的服务器IP 治理后盾 治理后盾用于治理你的邮箱和域名,能够有限增加域名和邮箱。地址:http://IP:8010 (IP是你的服务器公网IP) WebMail WebMail用于登录邮箱,发送与接管邮件。 结尾通过以上几个步骤,根本曾经实现搭建一个邮件服务器了,应用过程中如果有什么问题能够留言给我

September 14, 2020 · 1 min · jiezi

关于服务器:应用服务器和数据库服务器有什么区别

数据库服务器个别都装有数据库如oracle,mssql,mysql等,如:oracle的linux服务器, 应用服务器是你的利用得服务器,提供应用服务,如你的j2ee中间件:基于jboss,weblogic等的利用,也能够是本人的网络应用服务器,接口服务器是提供给第三方调用的服务,次要是为了咱们本人的利用得安全性,所以咱们只把能供应第三方调用的货色封装在接口服务器 数据服务器和应用服务器有什么区别? 不晓得你对数据库理解不理解!数据库服务器简略点:还不好和你解释! 数据库服务器 数据库:存储数据的应用软件 服务器:公共的意思了! 一台机子!装置一个软件,你能够用,他人也能够用!就像你的电脑一样能够有多个用户一样,你能够用你的用户名登陆,他人能够有另一个用户名登陆,就是说能够有多集体用,然而每个人又是独立的!(当然这个还是有点区别的!) 首先,依据你应用环境的不同,须要的数据库服务器也不同,一般来说,如果数据库服务器须要连贯的客户端多、并且是不同权限组的客户端的话须要网络接口比拟多的,除此之外,数据库服务器的处理器性能要求比拟高,因为其要进行频繁的操作,内存要求大,放慢数据存取速度。 应用服务器相对而言要求低一些,如果是FTP服务器的话网卡的速率要求要高,起码是千兆的,网页服务器对于网卡的速率也同样有较高的要求,但对于处理器性能要求就不那么高了。 其次,前面波及到产品硬件这块也是十分重要的。 应用服务器位于网络和数据库之间,然而应用服务器实际上是做什么的? 应用程序服务器是为应用程序提供业务逻辑的。它是基于组件的,位于以服务器为核心的架构的中间件。 这个架构通常是一个次要的基于Web的界面。中间件是业务逻辑所在的应用服务器。而第三层,后端是负责数据库的服务器。应用程序服务器充当用户和数据库之间的交互。 应用服务器通过各种协定向客户端应用程序关上业务逻辑。它还能够包含计算机,web服务器或其余应用服务器上的图形用户界面。业务逻辑通过组件API。它还治理本人的资源以及执行安全性,事务处理,资源和连接池以及消息传递。 对于高端要求,应用服务器往往具备高可用性监控,集群,负载平衡,集成冗余和高性能分布式应用服务,并反对简单的数据库拜访。 为什么要应用应用服务器?有什么益处? 当你须要与现有数据库和服务器(如Web服务器)集成时,应应用应用程序服务器。 它能够通过启用集中式办法来提供应用程序更新和降级来提供数据和代码的完整性。 可伸缩性是应用应用服务器的另一个起因和益处。应用程序服务器能够与数据库连贯。这意味着企业能够扩大Web服务器群,而不须要减少数据库连贯的数量。 另一个益处是平安。从网页到数据库的间接链接如果裸露,可导致SQL注入攻打基础架构。通过独自的数据拜访层执行数据验证和/或显示业务逻辑,能够确保以Web表单输出的文本不被用作SQL调用。通过集中身份验证过程以及数据拜访治理,还能够进步安全性。 它还能够通过对网络流量进行限度来进步对性能要求高的应用程序的性能。 它与其余类型服务器有何区别? 应用程序服务器与Web服务器不同,因为前者通过多种协定解决向应用程序提供业务逻辑,而Web服务器响应并解决HTTP申请;它托管一个网站并存储动态内容,如图像,CSS,JavaScript和HTML页面。尽管Web服务器可能不反对事务或数据库连贯,但它可能具备容错和可扩展性性能,如负载平衡,缓存和集群。 它与数据库服务器不同,因为该服务器执行诸如数据分析,存储,数据处理,归档以及其余数据管理相干工作之类的工作。数据库服务器应用诸如ODBC,JDBC等协定。他们还将托管数据库,如Oracle,SQL Server,MySQL等。

September 14, 2020 · 1 min · jiezi

关于服务器:如何在服务器端开启X-Display

问题是这样:在服务器上解决一些照片,有时候想间接在服务器上看图。然而服务器是ubuntu server,不带图形界面的。这时候咱们应用feh, 或者cv2.imshow()之类的命令就会报错,谬误如下: feh ERROR: Can't open X display. It *is* running, yeah?解决办法: 首先须要保障在ssh到服务器的时候应用如下参数:ssh -CAXY your-server-name@your-server-ip具体参数含意请自行man ssh 在服务器端的~/.bashrc文件中应该有export DISPLAY=localhost=10.0在服务器端上/etc/ssh/ssh_config文件应该设置成:`1. Host * 2. ForwardX11 yes `

September 14, 2020 · 1 min · jiezi

关于服务器:服务器部分宕机问题

空指针的应用调用了一些外部会销毁指针的函数(背包函数居多,比方合并物品)后,上面的日志输入外面再次用到了该指针Tips:一般的空指针判断起来都很容易,最怕的就是这一些操作指针的接口,在调用时很有必要去接口外部看下是否存在对指针的操作。 野指针的应用家族驻地存在一个主动销毁的机制。然而之前因为销毁场景时仅仅销毁了scene指针,却没有销毁以后scene下的所有Npc。导致此时那些npc身上存的scene指针都成了野指针,这些npc被人为调用todie销毁时,拜访了其scene这个野指针导致宕机。Tips:野指针的问题个别都比拟不好间接定位,比拟难查。在编码时须要留神,波及到一个指针销毁时,思考下该指针是否存在一些别的被援用中央,如果有,须要对那些中央做下置nullptr解决;此外尽量不要间接保留一个指针,比方须要治理npc的话,尽可能保存期npc的惟一id,而不是指针,再须要拜访时,通过惟一id从管理器获取指针再拜访,能够缩小这个野指针呈现的状况。 循环的外部开释了容器每日指标性能已经出过一个bug,玩家开着界面隔天,支付前一日达成的指标时,服务器宕机。根本的起因在于,这个跨天支付时,会遍历更新一个容器的状态,而遍历过程中调用的一个函数触发了每日指标的跨天重置机制。这个重置机制会开释掉以后这个遍历的这个容器,从而导致了宕机。Tips:在循环遍历操作一个容器时,其外部的调用接口尽可能避免出现操作容器自身的中央,两者的逻辑尽可能解耦掉。 递归死循环我的项目外面有个函数getTopMaster()。是获取一个npc的最上层客人。这是个循环递归获取的函数,然而因为没有对递归次数做限度,对于一些助战Npc,策动通过脚本配置号召进去,因为配置不当和程序局部代码不强壮,呈现过该函数在有限递归循环。Tips:所有波及循环和递归的接口,都须要评估下危险,诸如这一类的无奈间接预见性循环次数的,都须要人为加一个防错循环上限值。 变长音讯拷贝溢出我的项目里曾呈现过这样的状况,Function宕机后从新拉起,然而却引起了Session的宕机。排查后发现是Function起来后,Session会同步以后所有的玩家根本数据到Function,宕机宕在了这个同步玩家数据的音讯拷贝这里。因为思考到玩家人数可能会很多,所以在循环拷贝玩家数据到变长音讯构造的时候,程序上是做了一个限度的,限度的条件是一次性同步的最大玩家人数。问题就出在这个人数下面,因为玩家的根本数据结构在我的项目前期是会变大的,导致之前限定的单次同步人数最大值*一个玩家的根本数据后的总大小大于了咱们设定的一次音讯发送缓存区的大小,从而导致了stack-overflow。Tips:这个同步策略须要批改为断定以后拷贝进去的这个变长音讯的大小是否非法,而不是断定同步的玩家人数。因为导致栈溢出的是这个音讯构造申请的内存空间不够,这个空间大小不仅取决于个数还取决于单个数据结构的以后理论大小。

September 14, 2020 · 1 min · jiezi

关于服务器:FTP服务器小工具4个好用的FTP服务器小工具

ftp软件是一种文件传输下载方式,它是TCP/IP协定栈的一部分;其中FTP又由两局部组成,一部分是FTP的服务器,另一部分是FTP的客户端!它可能高效平安地进行文件传输下载操作!能够应用服务器管理工具来作为FTP的客户端,进行FTP的操作,实现FTP的下载安装。所以ftp软件的抉择也是很重要的。接下来,小编给大家举荐四款实用的服务器ftp软件。 第一款:IIS7服务器管理工具 这款软件外面的ftp服务器堪称是做的十分好的,内容全面又容易上手。适宜老手也适宜长期从事网站治理的工作人员。IIS7服务器管理工具外面的ftp服务器不仅具备批量治理的性能,还具备定时上传下载、定时备份和多任务同时进行,最要害的是还能自动更新。这些性能真的是设计到我的心坎外面了。能够说没有一个性能是我不喜爱的。 不过IIS7服务器管理工具可不止这一个性能。它具备所有服务器管理工具的性能,比方批量治理。同时它还有很多的自主研发性能。比方同步操作、到期揭示、数据安全和定期执行。当然实用的零碎也有Windows和liunx操作系统。还反对Vnc和Ftp批量操作。这款软件还有一个十分重要的特点,这是一款中文软件,十分合乎国人的用户需要。这是一款不可小看的一款管理工具。工具也在不断更新中,开发人员技术人员都在一直致力的为宽广用户做出致力。 下载地址:IIS7服务器管理工具第二款:FileZilla 3.24 FileZilla是一个收费开源的FTP软件,分为客户端版本和服务器版本,具备所有的FTP软件性能,具备极好的可控性及条理性。此为FileZilla最新官方版,请释怀下载应用。FileZilla性能介绍:能够断点续传进行上传、下载(须要服务器反对);自定义命令;可进行站点治理。 第三款:FlashFXP 5.4 FlashFXP是一个功能强大的 FXP/FTP 软件,交融了一些其余优良 FTP 软件的长处,如像 CuteFTP 一样能够比拟文件夹,反对黑白文字显示;像 BpFTP 反对多文件夹抉择文件,可能缓存文件夹;像 LeapFTP 一样的外观界面,甚至设计思路也差相好像。反对文件夹(带子文件夹)的文件传送、删除;反对上传、下载及第三方文件续传。 第四款:Yummy FTP MAC版 Yummy FTP反对批改服务器文件、设置本地或近程门路,上传下载文件都十分稳固,并且反对中文。齐全兼容最新的 Leopard 操作系统。通过FTP,FTPS的(SSL / TLS的)和SFTP(SSH)连贯。

September 14, 2020 · 1 min · jiezi

关于服务器:nginx基础配置文件nginxconf

1、首先找到/usr/local/nginx/conf外面的nginx.conf。2、批改http外面的server。 一、动态网站配置,内部拜访www.abc.com就是拜访服务器上的html目录里的文件 http { server { listen 80; server_name www.abc.com;//拜访地址 location / { root html;//网站源码搁置的门路 index index.html index.htm;//默认首页 } error_page 404 /404.html; }}二、node反向代理,内部拜访www.efg.com就是拜访服务器上的http://127.0.0.1:8888 http { server { listen 80; server_name www.efg.com;//拜访地址 location / { proxy_redirect off; proxy_connect_timeout 30; proxy_send_timeout 30; proxy_read_timeout 60; proxy_set_header X-Real-IP $remote_addr; proxy_set_header Host $host; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_pass http://127.0.0.1:8888;//服务器上的node的拜访地址 } }}

September 11, 2020 · 1 min · jiezi

关于服务器:知道什么是大带宽服务器吗

随同着通信技能的持续升級,现如今传输数据不论是在速率上還是在总流量下面早已取得了一个挺大的飞越,在服务器租用中,因为香港的服务器在带宽上的資源五彩缤纷的缘故,2GB端口号或是2GB带宽的大带宽服务器也是十分广泛,或者许多 客户针对大带宽服务器并不是很把握,下边壹基比小喻(企鹅名字)就详解一下什么大带宽服务器。大带宽服务器带宽理论多少钱? 在服务器租借上,带宽要害就是指第个层面,第一个就是指出口带宽的总流量带宽,第二个就是指服务器上的网口的带宽,第三个就是指服务提供商在你所租借的服务器为独享带宽时,服务提供商让你所调配的理论总流量。而在具体中,客户要冲着几类界说要把握清晰。 针对服务器而言,现阶段服务器的网口早已宽泛为100 Mbps /1000 Mbps 的网口,而针对100 Mbps的网口界说就是指:假如带宽时为2GB时,服务器所运作的较大带宽就为100Mbps,而100 Mbps /1000 Mbps 的网口基础能够思考事实上的要求。而针对进口带宽,是指主机房的出门总流量带宽,也是只从ISP处选购的带宽才就是你的机器设备连贯互联网技能的带宽。例如民用型光纤宽带的2M/4M/10M及其个别服务器的10M/100M等,1000M带宽的主机房在海内早已有多家,可是个别全是同享的。比如针对壹基比数据信息的主机房而言,80G传送数据电信网,20G传送数据中国联通,这一就是说主机房的进口带宽,而全副服务器的总流量就是说依据进口带宽开展调配,你所抉择的为同享带宽,这一数据信息還是有肯定性的取决于功效。

September 10, 2020 · 1 min · jiezi

关于服务器:程序员自救指南中关村保洁大叔的一句话竟然帮我转正了

摘要:没想到,我在中关村遇到了“扫地僧”……事件是这样的,公司成立了一个新我的项目,须要洽购一批服务器。作为公司的行政,接到这个安顿,我一个人坐车来到了中关村,开始了我的扫楼。 半个小时过来了,我逛完了e世界;30分钟,我又逛完了科贸大楼;15分钟,看完了海龙大厦… … 怪不得,方才下车感觉有点“人烟稀少”,原来已不是当年的“中关村”,大楼里就没几家店。“完了,产品都没看到几个,工作没法交差啊。”一不下心,我带的材料掉到地上了。 这时,一个保洁大叔递给我掉的材料。我接过材料,连忙感激大叔,而后抬头去查手机。 “你要买服务器?”听到这句话,我低头看了看保洁大叔。心想:大叔还懂这个? “是的,公司最近要上个新我的项目,老板让我到市场上找找产品。” “你们公司买服务器要做什么?”大叔又问道。 “这个我的项目是要建一个网站,如同还要做什么图片渲染的。” 大叔听完,一副了然于心的表情。他从兜里掏出了一根红塔山,点着抽了一口,说道:“既然遇到了,就是缘分。我来教教你吧。” 什么,我遇到传说中的“扫地僧”了? 大叔在那娓娓道来,“服务器是网络环境中的高性能计算机,能够侦听网络上的其余计算机(客户机)提交的服务申请,并提供相应的服务。” “当初都是AI时代了,企业都在进行数字化转型,而云服务器凭借简略高效、安全可靠、弹性伸缩、灵便不便等服务特点,成为企业转型中必不可少的基础设施产品。企业业务云化是可能将IT服务老本升高30~50%的。” 听到这里,心里笃定这位大叔是个真“巨匠”。我立马从包里拿出了笔记本边听边记。大叔在那持续讲着, “云服务器的规格是反对变更的,在购买之后,发现以后云服务器无奈满足本人的业务需要,能够变更规格,内存反对扩容,带宽能够依据业务量进行调节。这也是云服务器的一个劣势,可依据业务需要灵便配置,及时调整,很不便的!” 大叔说完,用手指着对面大楼上的“华为手机”广告牌,接着说道,“就拿华为云来说,华为云依据市场和用户需要一直对云服务器进行迭代降级,推出的C6、C6s、HECS三款机器,主打企业多种场景的利用,能够满足不同需要的企业上云。” “三款产品,可是华为云最“聚人气”的三款云服务器,它们能帮忙企业缩小上云50%的试错老本。” 我一听,这正是我要的呀。“大叔,那这三款产品都有啥特点啊?”我问道。 大叔就持续为我介绍着三款产品的特点: C6:高负载场景利用首选新一代C6通用计算增强型云服务器: 搭载华为自研高性能智能网卡,联合集成流表卸载架构、Virtio-Direct、无缝热降级等软件技术,实现千万级网络包转发;基频3.0GHz,睿频3.4GHz;40Gbps最大内网带宽,大幅升高内网时延;内存频率降级,2933MHZ业界最高,晋升高负载场景解决性能;搭载超高IO型云硬盘,性能最高可达33000 IOPS、350MB/s吞吐量,满足客户更高读写速率以及更大存储带宽需要。典型场景举荐1.Web商城—40Gbps内网带宽,网络速度翻倍晋升。网络时延升高,在等同竞争环境下,可取得更高的网站成交速度和更好的网站体验。 2.视频直播—网络收发包性能晋升,可使集群规模老本大幅缩减,千万级网络包转发能力,可轻松应答千万级用户实时在线互动。 3.社交/短视频—高性能网络中间件,可反对微博类社交平台同一秒上亿级音讯转发与评论,可反对短视频类平台同一秒上万人同时上传视频。 4.政务大数据业务—搭载超高IO型云硬盘,性能最高可达33000 IOPS、350MB/s吞吐量,满足极大型数据集进行高性能程序读写访问的工作负载。 C6s:企业办公利用优选新一代C6s云服务器好而不贵!计算性能极致稳固,价格相比C6同规格实例降幅15%左右。是针对游戏行业、渲染场景等这种老本敏感型场景的主力机型。次要有如下亮点: 基频2.6GHz,睿频3.5GHz,内存频率降级至2922MHz。可搭载通用型SSD云硬盘,并发性能最大可晋升4倍,当先友商20%计算性能极致稳固,稳定小于5%典型场景举荐1.游戏业务-满足游戏行业高性能、高稳定性要求 以挪动和战斗为主的游戏更重视玩家的交互,游戏自身更器重交互乐趣,可能晋升玩家体验。同时在多人在线,协同作战时游戏服务器在大量的战斗计算,并且随着游戏世界观的巨大展示,同屏间玩家相互实时可见,存在大量的挪动包和战斗包在网络中播送。 以32U规格为例,C6s最大内网带宽15Gbps,转发性能450万PPS, 具备短缺的网络带宽和较高的网络包吞吐能力,满足此类游戏对计算和网络性能的强烈诉求。 2.渲染场景-优质渲染成果下提供极致性价比 渲染即意味着低劣的制作与精美的画面,且其业务自身有较大的波峰波谷属性。C6s致力于提供高性价比的优良渲染成果。依照作业需要动静调度计算资源,且C6s在保障高性能的状况下价格极优,渲染场景性价比首选。 HECS(云耀云服务器):中轻负载场景必选HECS专一晋升产品易用性,基于擎天架构,全面开释技术红利,打造“极优、极简”的云上体验,升高购买老本同时升高购买门槛。次要有如下亮点: 秒级开明。罕用region,罕用镜像精准举荐,免去手动抉择懊恼;配置类型由26种精简至3种,无需手动输出参数,配置均匀耗时缩小40%。一键部署。购买页面集成 WordPress,Lamp等中小企业罕用镜像,只需一次简略操作,即可疾速部署云服务器的运行环境。极简治理。集成式运维监控,云服务器治理页面显示要害运维指标,及时理解零碎运行状况。场景式疏导,罕用操作web化,轻松治理服务器。典型场景举荐1.电商/建站场景---对于中小开发者而言,HECS无需配置参数,规格明确,易于开明轻松搭建专属网站,是建站的首选机型。 2.企业应用场景---HECS(云耀云服务器)具备独立、残缺的操作系统和网络性能,以更稳固的计算能力,配套高性能网络,能够提供稳固的企业应用运行环境,实用于中小企业部署运维业务所需的企业应用。 3.集体开发者类利用---HECS(云耀云服务器)可依据工作负载的须要实现肯定水平的性能突增,具备短期施展更高性能的能力。实用于不会常常用尽vCPU性能,但会偶然忽然应用的场景。例如开发、测试环境以及中低性能数据库等。通过联合市场镜像,能够达到疾速搭建开发环境,晋升开发效率的成果。 听完这些,我霎时有种醍醐灌顶的感觉。手中的笔也始终都没停下来。 大叔抽完最初一口,说道:“最近华为云在做流动#828企业上云节#,优惠力度还是很大的。你们当初购买云服务器的话,还是很划算的。” 我立马用手机关上华为云官网,间接被华为云828企业上云流动的价格震撼到了。1核2G的云耀服务器只有82元。登时,感觉领导安顿的工作我实现了。 就在我一低头要感激大叔的时候,我发现大叔不见了。看着远方,心里默默的说了声:谢谢大叔。 我立马拾掇好货色,我拔腿就打车回公司给领导汇报… … 点击关注,第一工夫理解华为云陈腐技术~

August 24, 2020 · 1 min · jiezi

关于服务器:至强服务器-CPU-有何优劣

至强服务器有何优劣?我看意思就是指那堆洋垃圾,而不是2066或者3647那堆家伙,所以这个至强得限定一下。 谈一下长处: 价格便宜 这是洋垃圾最特点的一点,国外服务器或者工作站的CPU过保之后绝大多数抉择淘汰换新而不是出问题了才花钱售后,起初被因为在国内市场因为价格低廉而且兼容家用主板而炽热一时,同时很多至尊平台的处理器还和某些至强存在着相似的双胞胎关系,就比如说E5 1660 V3和i7 5960X,这俩光看CPU性能指标就齐全是同一个货色。 时至今日,E5 1660 V3淘宝卖的价格多为1.5K左右,而5960X目前还挂在两千多,所以E5 1660 V3的性价比就显著比5960X要高。能以更便宜的价格买到简直一样的货色天然就意味着要更受欢迎。 还有以前大火的E3系列,在4C8T的E3刚刚被开掘之前价格还比拟低,图吧过后流传的是“i5的价格,i7的性能”,这里的着重点还是价格,在这个市场价格简直是影响一款处理器受欢迎与否重要的一点。 当然这种事件当初还在持续,比如说E-2176G这些就性价比要比8700他们要高,只不过玩的人也少 我手上还有一块W3530,以前几块钱买的,淘来当玩具的 而后来谈谈劣势: (1).不是很好找靠谱的板子,或者靠谱板子偏贵 淘宝卖的CPU一般来说都是没有问题的,然而问题就出在这板子上,就比如说X79主板,对应E5的V1和V2系列,可是当初淘宝上挂着的那堆大厂的“可能没有问题”的X79主板价格也都不便宜,而且最重要的是——基本上都过保了,而后其余的板子基本上就是赫赫有名的“寨板”,性价比高的好板子早就被簇拥而出的垃圾佬捡光了。 要我说个别人犯不着来蹚这一趟浑水,老老实实该买当代i5或者当代R5就买这些,四通道和多的PCIE通道个别人又用不到,上上网打打游戏办办公能用失去这些?用失去这些的还回来纠结这个问题?有技术玩得起的基本就不会有多少心理障碍。 目前来说,X99主板可能还有一些库存,就往年来说有少量X99玩家曾经摈弃X99平台转向AM4或者1151亦或者是筹备买明年的LGA1200,有买X99板子志愿的能够多去加几个硬件群,这种中央呈现靠谱板子的几率大些,当然个别人还是不倡议去玩这些过期的至尊平台,除非你是做那些吃内存带宽然而又估算不太高的人,然而这种人还是比拟少的。 X58及以前的就更加不适宜个别人换了,X58有一颗发热比拟大的北桥,算是比拟容易坏。 (2).配套设施比较落后,X99好歹有nvme盘可用,X79就剩个华南的魔改板还能够用NVME盘了,X58就只有SATA2接口了,内存这边X99能够用ddr4,X79和X58这些就只有ddr3了。 X58还是PCIE2.0,尽管2.0的带宽对用X58的用户来说也够用 (3).售后方面 CPU个别是不必思考售后的,极其状况下CPU会坏,然而X58和X79这些主板以及相应的配套产品售后可能就不是那么难看了。 当初这堆主流产品的售后方面显著要强些。 而后再来说说题主的,题主买了一块L5640,而后淘了一块X58,一个GTX950,还有双通道内存,玩游戏必定是能玩的,L5640基本上对应一代酷睿,没人说一代酷睿不能玩游戏啊,甚至更差的翼龙速龙都有人拿来玩吃鸡,所以这种事件也不是什么发现新大陆的事,题主是以极低的价格获取到这一套的,这就是洋垃圾的魅力,毕竟用的钱又少又组装进去了一台电脑,还能玩游戏。而这一套就算换硬件费用也不算太高,就算全坏了也就是那么回事。 洋垃圾次要就是玩性价比的,而且玩的人还得有肯定的技术与人脉,碰到问题能够找到无效的解决办法,像E5 V3还爆出过鸡血BIOS,刷了之后能够全外围稳固在单核睿频的最大频率(前提是主板和散热这些没问题),所以像E5 2698 V3这种,能够达到16C32T,全外围频率达到3.6Ghz的级别,当然不刷BIOS也能够全外围睿频2.8Ghz,当初淘宝卖三千左右,搭配一个X99板子或者买双路X99的板子来搞多开模拟器还是不错的,数框框体验也挺好,鲁巨匠跑分也高,这么多线程去夸耀的时候虚荣心也是MAX。

August 18, 2020 · 1 min · jiezi

关于服务器:联想服务器在UEFI-HII界面中配置阵列的基本操作

操作步骤:重要提醒:配置阵列时请审慎操作,并仔细阅读各种提醒,以防误操作导致数据损失。 内容导航 一、进入阵列卡配置界面并查看硬盘状态 二、创立RAID0/1/5/6阵列 三、创立RAID10阵列 四、创立分卷的RAID5阵列 五、设置热备盘及手动替换已故障的硬盘重建阵列 六、从新初始化阵列 七、批改阵列缓存策略等参数 八、配置CacheCade(SSD缓存减速) 九、设置JBOD(单盘直通)模式 十、导入和革除外来阵列 十一、修复掉线的硬盘 十二、删除阵列 十三、清空阵列配置 十四、查看阵列卡缓存大小及电池状态 十五、阵列在线扩容及阵列级别在线迁徙 十六、阵列卡固件刷新 一、进入阵列卡配置界面并查看硬盘状态 ThinkSystem系列服务器进入阵列配置界面操作请参考《如何进入ThinkSystem系列服务器SAS RAID阵列配置界面》(知识库编号:167409)。 System x M4、M5、M6及X6系列服务器进入阵列配置界面操作请参考《如何进入System x系列服务器SAS RAID阵列配置界面》(知识库编号:167408)。 ThinkServer RD650、RD550、RD450、RD350、TD350系列服务器进入阵列配置界面操作请参考《如何进入ThinkServer RD/TD_50系列服务器SAS RAID阵列配置界面》(知识库编号:167404)。 ThinkServer RQ940型服务器进入阵列配置界面操作请参考《如何进入ThinkServer RQ940系列服务器SAS RAID阵列配置界面》(知识库编号:167411)。 联想各系列服务器的UEFI HII SAS RAID阵列配置界面有所不同,但操作步骤统一。有多数操作形式略有区别,详见以上联想知识库文档中无关硬盘抉择操作及确认操作的阐明。 本文以ThinkSystem系列服务器文字界面及System x系列服务器UEFI HII阵列配置界面为例。 进入SAS RAID阵列配置界面后,首先是Dashboard界面,其中会显示: "Status",即SAS RAID卡状态,失常状况下是"Optimal"; "BBU",即备份单元状态,如阵列卡装备有电池(BBU)或者超级电容(CVM)的即会显示"Yes",否则是"No"; "Drivers",即硬盘数量; "Virtual Drives",即RAID卷数量等状态信息。 (留神:局部旧型号SAS RAID卡及旧版本固件没有Dashboard界面,Dashboard界面中的要害信息体现在Main Menu中的Controller Management中。) 向下翻页,在"MegaRAID ADVANCED SOFTWARE OPTIONS"会显示RAID卡已激活的性能,例如下图所示的: MegaRAID RAID6,即RAID6性能; MegaRAID RAID5,即RAID5性能; MegaRAID SafeStore,即数据保护性能; MegaRAID FastPath,即SSD加强性能; ...

August 17, 2020 · 4 min · jiezi

关于服务器:Jira-和-Confluence-企业最佳部署方式

在Atlassian,咱们为客户提供不同的形式来部署 Atlassian 产品:能够部署在由 Altassian 治理的云端(Cloud)上,也能够部署在客户本人抉择的服务器(Server)或数据中心(Data Center)上。对于须要自托管版本的企业用户们,Data Center 版本提供了大型、简单组织所须要的可靠性和灵活性。Data Center 版本还具备弱小的安全性、高性能、产品洞察等个性,这些个性能够给予企业用户更多抉择和能力去晋升团队效力,同时还能节省时间和老本。 尽管 Data Center 版本有很多专为企业用户构建的性能,但咱们还为大型组织提供了一些外围劣势。在 Data Center 版本中能够应用以下 4 种办法来反对您的企业: 确保您的工具平安且合规 牢靠的安全性和合规性对于任何企业来说都是至关重要的,这早已不是什么机密了。依据 Marsh&McLennan 公布的《2018年网络与数据安全危险调查报告》,60% 的高管认为网络安全是组织的五大危险之一,这难能可贵,因为过来几年网络安全事件始终在稳定增长,这些网络安全事件对组织而言可能会造成微小的损失。埃森哲和波耐蒙研究所预计,每个组织在 2018 年为了躲避因为网络立功造成损失的均匀老本为 1300 万美元(埃森哲/波耐蒙研究所,网络立功老本钻研,2019)。思考到网络安全事件相干所收入的这些老本,IT 管理者必须意识到其抉择工具的安全性,近程工作的衰亡也使得企业对于工具卓越安全性的需要更加突出。因为近程登录,企业须要治理比以往更多的员工,因而应用平安的工具十分重要。 对于那些在金融,医疗保健或政府等受到严格监管的行业中经营的企业,合规性至关重要。然而,即便对于那些并非属于这些行业畛域的企业,随着法规的一直变动,这不然而一个亟需解决的次要问题,同时也是一个一直变动的指标。因为违规可能意味着高额罚款,所以领有各种工具来帮忙您放弃合规性并轻松满足行业法规是各种企业的必备条件。 Atlassian Data Center 版本产品提供高级审计和企业用户治理等性能,从而打消了放弃安全性和合规性的麻烦。 放弃大型和跨国团队的生产力 当您的企业有成千上万的员工在应用 Atlassian 产品,并从全国或寰球各地登录时,工具性能和可用性就成了大问题。当位于不同地位的团队登录时,经常会产生性能降落。例如,当纽约的团队在早上开始工作并登录到欧洲团队曾经在应用的工具上时,这就大大增加了在线用户数量,这可能会升高工具的性能。即便对性能造成很小的影响,也意味着员工的生产力降落。 更蹩脚的是,随着实例的增长,您可能会蒙受停机的困扰。当员工依附 Atlassian 产品实现工作时,停机老本可能会很高。假如您有 500 名员工在应用 Bitbucket,并且零碎停机了一个小时,依据美国软件工程师的平均工资,这意味着仅工资一项就损失约 22,000 美元——更不用说生产力的损失了。 为了帮忙您防止性能降落和停机导致的金钱和生产力的损失,Data Center 版本中蕴含了许多性能,能够帮忙您为大型和寰球团队提供反对。在 Jira 中反对 CDN,集群,我的项目归档等,还能够帮忙您确保 Atlassian 产品的速度和可靠性。此外,应用这些性能能够轻松扩大产品,因而您能够增加更多的用户和团队,而不用放心对性能的影响。 深刻理解合作工具的影响和有效性 在当今世界,大量数据正在变成筹码的状况下,对于工作中所应用到的工具的数据也是必不可少的。有了这些数据,您能够更深刻地理解合作工具带来的影响和有效性,从而使管理者通过这些数据为企业带来微小的价值。 但这不只是领有数据,还在于领有正确的数据,并可能提供您真正须要的信息,打消或疏忽您不须要的信息,这一点十分重要。 因为这种洞察力至关重要,因而,除了现有性能(如高级审核和问题存档)外,咱们还在此类型性能上进行了更多的投入,以使您可能更多地拜访正确的信息。Data Center 版本行将推出的性能将帮忙您更好地理解 Atlassian 产品的健康状况和有效性以及团队的工作效率,从而使您能够成为对状况一目了然的管理者。 节省时间和老本 所有这些归纳起来就是大大节俭了工夫和老本,这对于每项业务都很重要,在整个企业级别上而言甚至更为重要,因为对于企业来说,工夫和老本的节俭能够成倍增长,并对业务倒退反对起到了很重要的作用。 然而,上述性能并不是 Data Center 中惟一可帮忙您节省时间并降低成本的性能。作为真正的企业版,Data Center 提供了肯定水平的管制和灵活性,这对于更简单的组织而言至关重要。诸如对 AWS 或 Azure 的反对,速率限度,零停机工夫降级等性能(仅举几个例子),为企业提供他们须要的抉择和能力,以一种晋升工夫和老本效益的形式反对大型团队。 ...

August 11, 2020 · 1 min · jiezi

高考评卷将首次使用国产服务器基于华为鲲鹏处理器研发生产

技术编辑:徐九丨发自 思否编辑部 2020 年高考今日开考。 因新冠疫情的原因,今年的高考史无前例地推迟了一个月。未来四天,千万考生将在遍布全国的 7000 余个考点、40 万个考场完成自己的人生大考。 还有一场“考试”也在同期进行 —— 这次的高考评卷将首次使用国产服务器,此次高考也将是对国产服务器的一场考验。 据官方信息表示,湘江鲲鹏合作伙伴拓维信息旗下品牌深圳市海云天科技股份有限公司成功中标《贵州省招生考试院对贵州师范大学评卷基地服务器进行更新采购》项目,将在贵州省 2020 年高考网上评卷中部署应用国产化、自主创新、的湘江鲲鹏服务器。 严格的高考评卷过程 为了评卷过程更加的公平公正,目前我国高考通行采用的是网上阅卷。 以去年为例。试卷在被扫描后,考生选择题答卷(2B铅笔填涂部分)内容直接录入数据库,非选择题答卷内容形成图像后也被原原本本地存入主数据库,评卷系统会对数据库中的答题卡图像进行加密和编号,然后由评卷系统根据评卷需要对图像进行按题切割,随机派发给不同的评卷教师评阅。 评卷教师在评阅时只能看到自己所评阅试题的答题内容,无法与考生对应,也无法获知同一张答题卡上其他试题的答题内容等无关信息。 同时,阅卷有严格的评卷质量监控程序,对评卷员的评卷质量进行全程检查、复查和修正,全程监督、纠正评卷工作可能出现的宽严把握不一的现象。 高考、中考关系千万家庭切身利益。在疫情防控常态化的特殊条件下,公开、公平、公正、透明、安全地完成高考、中考评卷工作,是寒窗苦读莘莘学子的殷切期盼,也是对此次首次采用的国产服务器,提出的严峻考验。 今年 4 月正式投产,基于华为鲲鹏处理器研发 据了解,湘江鲲鹏服务器是基于华为鲲鹏处理器研发和生产的自主品牌服务器。 由湖南湘江鲲鹏公司研发制造的首台“湖南造”服务器于今年 4 月份才正式开始投产。根据官网信息显示,服务器采用 2U 双路机架式产品形态,系统最高能够提供 128 核、2.6GHz 主频的计算能力,最多 28个NVMe SSD 硬盘,具有高性能、低功耗以及灵活的扩展能力等特点,适合为大数据分析、软件定义存储、Web 等应用场景的工作负载进行高效加速,能够满足数据中心多样性计算、绿色计算的需求。 首条产线正式进入投产运行后,根据计划预计三年投产 8 条生产线,年产服务器 50 万台,实现产值 100 亿元。 基于国家安全考量,采用国产服务器势在必行贵州省此次选用湘江鲲鹏服务器进行网上评卷,一方面是因为国产服务器在硬件指标上可能已经完全可以满足高考评卷系统的对于稳定性和可靠性的需求。 另一方面,高考作为国家选拔人才的重要手段,关系到国家人才战略的实施。高考试卷属于国家机密,采用自主创新的国产服务器也是基于国家安全的重要考量,也是未来考试应用的必行之径。 除了高考评卷外,国产鲲鹏服务器也已经尝试部署在重庆、新疆、甘肃、贵州等地标准化考点建设方案以及部分考试的阅卷当中。

July 7, 2020 · 1 min · jiezi

手把手教你如何注册腾讯云账号图文教程

概要腾讯云目前是国内非常受用户喜爱的一个云服务器商,对于新手来说,还不是很清楚腾讯云的注册方式有哪些,怎么注册腾讯云账号,另外一般云厂商对于新注册的用户都是有代金券可以领取的,腾讯云也不例外,下面给大家介绍下腾讯云账号怎么注册,注册之后如何领取腾讯云的代金券: 工具电脑网络手机号码(接收腾讯云短信)方法/步骤第一步:打开腾讯云官网打开腾讯云官网 或者百度搜索腾讯云进入也可以: 第二步:点击免费注册进入腾讯云官网之后,点击右上角的免费注册: 第三步:选择注册方式(推荐微信公众号)进入注册页面之后,我们可以看到腾讯云的注册方式有微信扫码快速注册,QQ,邮箱,微信公众号等注册方式,如果我们是通过微信扫码注册,只需要用微信扫码即可。这里推荐微信扫码注册,因为操作简单可行。如果没有微信,可以选择QQ或者邮箱等方式注册。 第四步:QQ快速注册例如我们通过QQ快速注册,点击右侧的QQ图标,然后选择对应的QQ授权登录,并设置账号绑定的微信或者电话号码自后即可注册成功。 第五步:邮箱注册如果我们是通过邮箱注册,点击右侧的邮箱图标,然后邮箱账号,密码和绑定的手机即可: 第六步:领取新用户代金券注册后如何领腾讯云代金券?因为腾讯云针对新用户有专门的代金券,可以用于用户在购买腾讯云产品的时候抵扣部分金额,达到节约成本的目的,腾讯云代金券领取官网页面为: https://cloud.tencent.com/redirect.php 这里贴出网址(是官网链接,非第三方链接地址)方便大家直接领取,省去在官网找代金券入口的时间。 原文地址:http://tencent.yundashi168.com/546.html

July 1, 2020 · 1 min · jiezi

科创人独家GrowingIO叶玎玎技术要能够成就他人享受更高级的自由

2007~2009自由职业者叶玎玎 2006年,业界瞩目的网易杭州研究院在杭州落成,是年毕业自浙大的叶玎玎在众多应聘者中脱颖而出,成为杭研院的一员。可仅仅一年之后,他便选择辞职,成为了一名自由职业者…… 科创人:技术跨越式成长的常见模式是大厂镀金或创业历练,为何您在毕业后不久就选择成为了自由职业者? 叶玎玎:概括一句话:我希望自己的时间能被填得很满,职场工作对我来说有些悠闲,这种悠闲说直白些是浪费时间。 我1999年接触电脑,当时windows已经非常成熟,我老家那边对电脑的看法就是新一代的游戏机,没有人把它当成创造价值的工具。我本人对游戏不感冒,家里有了电脑,放着不用还浪费,干脆就开始练打字,进大学之前把打字练得飞快(笑)。 进入浙大之后,才知道计算机技术原来能够创造这么多美好的东西。那时候开始有了紧迫感吧,参与开源社团以及一些外部的开源项目,也帮学校的论坛——那时候很火的88(Freecity)等等IT产品提供维护,很享受把时间填满的感觉。 还有一个原因,相比起研究技术本身,我更希望用技术去创造产品、创造价值,而成为自由职业者既能让我自由调配时间,又能直接参与到国内外的各类项目中去。 科创人:很多做技术的朋友都有一颗Freelancer的心,但自由职业者面临的挑战显然很大,比如如何持续实现收入,您在很多采访中都谈到了方法,《科创人》更想了解您的勇气从何而来? 叶玎玎:我家里是做生意的,生意人在挑战新事物方面胆子比较大,相信自己怎么都能养活自己,这是第一个原因。 第二个原因,其实在网易杭研院工作期间,我已经开始利用业余时间帮师兄做一些项目,一个是分布式餐饮搜索,一个是稍后阅读。在做这些项目的过程中,体验了远程协作,对于技术提供者如何能够很好的去实现产品、交付成果有了一些心得,感觉自己可以搞定。 可说实话,直到走出来那一天,我依然不确定自己是不是能做下去,但持续一种让自己不满意的生活状态是不可接受的,所以我想挑战一下,至于问题,想办法解决就好。 Tips:叶玎玎的Freelancer心得 1.    自由职业不是与世隔绝,相反,保持优质社交最为重要 2.    参与开源项目,既能确立专家形象,又能结识很多朋友 3.    在人脉匮乏的时候,思考适合自己的项目来源,主动出击 4.    建立个人的宣传阵地(叶玎玎是知名IT播客TeaHour的创始人) 5.    图书馆和咖啡店是比家更适合工作的场所(杭州图书馆非常棒) 科创人:当年接触的项目中,有没有让您眼前一亮、认为能火起来的产品? 叶玎玎:我的客户主要是美国那边的,2008、2009年的美国与国内的2013、2014年非常像,涌现出很多创业者和创业项目。印象比较深刻的有一个舆情分析工具,还做过一款垂直房地产行业、类似Facebook的产品。 但那段时间我的角色还是一个开发者,我的目标也是成为一名有质量、有速度的优秀开发者,主要负责响应需求,利用技术实现需求方的想法,对于商业领域的东西思考不多,当然也受制于遥远的空间距离,我没办法判断项目在美国市场的未来。 自由职业者可能都要经历这样两个阶段,第一个阶段就是要在技术层面打磨好自己,先要技术过硬,再寻找机会向商业领域拓展自己的认知边界。我用了两年多时间打磨技术,在2009年的时候,接触到了一个企业微博项目,开始从0到1的构建产品,进入到了第二阶段。 创业者叶玎玎 2009~2015 科创人:从自由职业者成为了创业者,工作方式上对您造成了哪些影响? 叶玎玎:企业微博这个项目,在美国的合作方负责提出商业理念和想法,负责市场、销售,我需要思考如何将商业与技术结合,不再是拿着软件设计直接开工,而是成为了产品设计者。还要学习团队管理,技术团队是我在中国搭建的。 科创人:复盘10年前的这次创业经历,您认为最有价值的经验是什么? 叶玎玎:企业微博是一个典型的To B项目,客户到底喜欢什么、在意什么,需要我们去持续探索。我们的想法是以信息流作为交互方式,衍生出企业内部的协同功能——本质上我们的产品和Slack非常像。在信息流的基础上,我们尝试嫁接了很多第三方工具,比如QA、项目管理工具等等。 我们的竞争对手是yammer,它的形态更接近于企业版Facebook,后来被微软10亿美金收购。在竞争过程中,我们不断思考差异化竞争点,确定PK方法。比如yammer的SaaS服务收费标准是每人每月2美元,我们则采用了免费吸引用户试用、在私有部署环节闭环的战术。但在推进过程中发现,私有部署从实施到成本都非常重。另一个问题就是,我们不断在产品中添加功能,却逐渐意识到产品缺乏一个核心价值,我们到底做的是一个什么产品?私有部署的成本压力以及产品缺乏核心价值,这是我们处于竞争劣势的主要原因。 科创人:私有部署的压力和价值分散导致竞争弱势,哪一个是更为关键的原因? 叶玎玎:10年之前我认为是前者,私有部署模式导致ROI很低,但现在我坚定认为是后者,明确核心价值不仅能够让客户更好的了解你、接受你,也能让企业资源得到最高效的分配和利用。 虽然项目进展得不是很顺利,但我认为协同管理是一个很有价值的To B服务方向,在2010年前后,国内使用的主流协同工具还是05、06年那段出现的一些开源项目,于是我启动了第二个创业项目:风车,是一款协同工具。2011年开始思考、做出Demo,2012年和两个伙伴一起正式创业。 科创人:在三人创业团队中,您扮演的角色是什么?商业负责人?还是技术核心? 叶玎玎:我们三个人都是技术背景,另外两位合伙人更偏向技术一些,市场端主要是我自己在做。团队虽然人不多,但我们的目标很大——如今我仍然在坚持着这个目标,就是做出一款中国自己的世界级软件。 风车直到今天都在维护着,它是一个能活下来的商业项目,但最初我狭隘地认为应该做出色的产品去吸引客户,拒绝走融资砸市场的路线;待到醒悟过来、有意向投资者要加入的时候,又出现了一些早期约定模糊不清、难以整理的状况,所以风车现在只是以一个情怀的形态在维系着,好在用户付费的额度足够COVER服务器成本,维护也不怎么牵涉精力。 CTO 叶玎玎 2015至今 科创人:您跟Simon(张溪梦)是怎么认识的? 叶玎玎:一连串的机缘巧合吧,通过了几个朋友连接在一起。第一次见面的时候,他跟我谈如何使用数据分析工具推动增长,这恰好是我一直关注的一个领域,如何更高效使用数据赋能业务,并且我认为他的想法可以产品化,他也正在找技术合伙人,所以一拍即合。 Tips. 张溪梦GrowingIO创始人兼CEO 前LinkedIn美国商业分析部高级总监,被美国DataScienceCentral评选为“世界前十位前沿数据科学家”。 科创人:加入GrowingIO,让您结束了持续7年的远程办公生活,适应得顺利么? 叶玎玎:还不错,因为这份事业与我契合度很高。技术方面我很自信,企业微博那个项目我们采用的技术超前竞争对手两到三年。拿风车和GrowingIO比较,前者是偏运营的产品,后者更偏技术,其实前者并不适合我的发挥,在GrowingIO我能创造更多的价值,那么工作习惯之类的就不是该计较的事。 GrowingIO的Demo在2014年12月做了出来,但其实直到2015年初,大家还在纠结:到底是在美国还是在中国发展。前面提到过,2013、2014年中国掀起了一轮创业热潮,我认为这是一个机遇,初创企业一定需要解决增长问题,需要更有效地使用数据分析用户、驱动业务,另外中国互联网行业的增长也远未封顶,在发展力度大的市场中打拼更好一些。 我拉着Simon来中国待了三个礼拜,在全国几个主要城市转了一圈,其实第一周他就已经下决心要做中国市场了。 科创人:眼下涌现出了越来越多的To B创业项目,这也是技术人发挥能量的主要战场,您能否分享一些GrowingIO的创业经验? 叶玎玎:GrowingIO 的核心团队来自美国,早期对国内市场认知不足是我们面临的主要挑战。比如,在美国SaaS云服务是主流的商业模式,但在国内,很多企业,尤其是金融等行业客户接受的还是私有化部署的方式。不过,GrowingIO对这种转变适应得很快,一旦开始深入市场,了解客户,就快速地调整了思维和产品方向。这种快速调整与适应能力也是创业团队非常重要的能力之一。 第二,作为技术人,要时时刻刻认知,产品和技术是为市场、为客户、为需求服务的。在过去半年,我基本每周都拜访客户,疫情期间也保持跟客户的互动,我们越来越发体会到,产品、服务、市场等都不能闭门造车,必须深入到客户一线,才能真正了解客户需求、懂得客户语言等。客户需要的是工具、是服务,还是整体解决方案。只有想通客户需要的是什么,才知道你应该如何和客户一起成长,如何匹配产品、提供配套的培训、咨询等服务。 科创人:在GrowingIO的5年中,您个人最大的成长体现在哪个方面? 叶玎玎:思维模型和认知。从最初自由职业阶段的接单干活,到早期创业完成产品从设计到交付,再到GrowingIO进一步深入到业务层面。思维转变是一个长期挑战,说实话,直到今天偶尔我依然会用产品去反推需求,然后就会被团队警醒,相互提醒必须要以客户需求为中心。 GrowingIO服务的客户群也在逐步扩大,从之前的互联网到现在传统零售、金融、汽车、房产等行业,大家的背景、语言和需求都有巨大的不同,如何用客户认可的语言体系进行交流,我必须更主动、更积极地跳出自己的舒适区,才能更好地服务对方。

July 1, 2020 · 1 min · jiezi

浪潮被美国加入管制名单英特尔暂停向其供货两周

技术编辑:芒果果丨发自 思否编辑部SegmentFault 思否报道丨公众号:SegmentFault 美国修改《出口管理条例》将包括浪潮在内的 20 家公司列为“中国军事公司或归中国人民解放军‘拥有或控制的公司’”,从 6 月 29 日 23:59 起,美国公司必须申领交易出口许可才能与这 20 家公司进行贸易往来。 英特尔方面回应称,根据美国相关法律,必须对供应链做出调整,因此不得不对一些客户临时暂停供货。这次临时暂停供货时间预计将持续两周。 浪潮服务器国内市场份额第一,全球市场份额第三浪潮是 IT 基础架构技术、产品、方案和服务供应商,业务涵盖了 X86 服务器、存储、数据库以及 AI 加速器、AI 管理软件等。据悉,浪潮服务器的客户包括阿里云、百度云等全球知名企业。 2019 浪潮 X86 服务器国内市场份额领先华为,以 28.7% 位居第一。根据 Gartner 的 2020 年 Q1 数据,浪潮在中国服务器市场以 37.6% 对市场份额位居第一,在全球服务器市场以 9.6% 对市场份额位居第三。 英特宣布断供,浪潮今日股价暴跌如果英特尔对浪潮停止供货或短时间无法恢复供货,将对浪潮的全球业务造成巨大影响。受此新规影响,今日浪潮信息盘中一度跌停,浪潮软件下跌近 2%。 据了解,自 2000 年起,浪潮就与英特尔建立了合作关系,英特尔也是浪潮最大的供应商。今年 2 月,浪潮还与英特尔联合发布了一系列基于 M5 系列服务器的解决方案。 对于此次暂停供货的消息,浪潮方面回应称:“具体问英特尔”。

July 1, 2020 · 1 min · jiezi

应对高并发服务器如何笑而不崩

摘要:什么样的IT基础设施才能支撑持续一整天甚至多天的高并发流量?如何规避618带来的各种“坑”?细听我分说。特殊时期让2020年新年伊始就走出异常曲线,社会机器被按下暂停键,恐惧在每个人之间蔓延。在经过了数月战疫磨砺和经验积累之后,病毒的阴霾正逐渐退散,618购物节如约而至。每年的618都是各家电商的兵家必争之地,叠蛋糕、叠火车,商家使出浑身解数引流。 电商行业的一个非常典型的业务需求,就是促销活动带来的流量暴涨。比如在618大促中,在高访问量的冲击下,电商的系统会遭遇众多挑战。然而在这背后,如何确保确保IT系统在订单洪峰中保证高稳定,高可用,对各家618活动组织者都是一个巨大的挑战,这需要厂商从技术、架构到具体实施措施都经过缜密思考与打磨。在日常业务中,电商的IT系统除了系统稳定性和安全性的高标准,还需要低成本的应对突发流量,提供弹性的计算资源,这些需求驱动了云技术的成熟。 随着技术的发展及企业数字化转型的变革,发现传统的服务器已经无法满足当前企业的业务需求。传统服务器受硬件可靠性限制,容易出现问题。它还需要额外购买和部署各种安全措施,还不能做多用户到多服务器访问控制的操作。如果出现问题的话,只有一招“手动”操作。手动重复所有部署、手动备份、手动数据恢复... ...最后做的能让你怀疑人生。 那么,什么样的IT基础设施才能支撑持续一整天甚至多天的高并发流量?如何规避618带来的各个“坑”,华为云凭借十余年电商行业服务经验,为电商从业者奉上独家攻略,愿618一切安好。 流量洪峰下,用户面临业务突发诉求618活动中,出现爆发性的用户访问和下单请时可能会出现如下问题 CPU飚高:序列化和反序列化、高频日志输出、大量反射的应用是CPU飙高的主要原因。而大多数核心的业务对请求响应时间又有着比较严格的要求,这就对单实例的CPU性能提出了严格的要求。 磁盘IO瓶颈:为了提升活动留存效果,数据埋点和用户行为分析都是十分必要的,然而大量的埋点数据会导致磁盘IO 飙升,对业务稳定性又会造成影响 资源监控:如何在到系统的性能拐点以及承载的极限点到来前识别出扩容需求?大批量实例如何做到海量监控?监控数据又如何被采集和存储? 面对以上难题,高性能弹性云服务器成为企业应对流量洪峰必备华为云于2020年初推出的新款实例C6s瞄准中高负载场景,以出色的稳定性能和高性价比,为游戏、电商、渲染、视频直播等对服务器计算、存储、网络能力有强诉求的场景提供强而有力的基础支撑,能够助力用户轻松应对618活动中的业务浪涌。 通用计算增强型C6s作为一款高性能云服务器,与C6云服务器一脉相承,采用新一代英特尔处理器,基频2.6GHz,睿频3.4GHz,内存频率升级至2922MHz,计算性能极为出色。 C6s云服务器在虚拟化层面资源分配算法进行了深度优化,将计算波动控制在5%以内。同时,C6s可搭载通用型SSD云硬盘,读写能力提升4倍,时延低至1ms。即使在大量计算和超高并发的情况下,用户也能得到稳定强劲的计算表现。 在网络性能方面,C6s搭载双25GE高性能智能网卡,最大内网带宽可达30G,支持高性能网络转发,最高收发包能力高达 850万PPS,网络性能领先业界同规格实例2倍。更低的网络时延、更高的内外带宽、更大的网络吞吐量赋予C6s更高的数据传输效率,使其处理高负载、多线程、大数据量计算的业务游刃有余。 安全层面,C6s默认集成企业主机安全服务,其中账户暴破防护功能提供快速暴力破解检测算法与慢速暴力破解检测算法,以及全网IP黑名单,能够三位一体的有效阻止账户暴力破解攻击。并且企业主机安全在发现账户暴破攻击后,会精准地封锁攻击源IP24小时,禁止其再次发起攻击。同时,针对主机病毒防护,全新提供了已知病毒检测和高危自动查杀功能,极大程度阻止大促期间主机被攻击影响用户业务。 资源监控层面,主要是主机性能和网络层面进行监控,这些都是保障业务顺利运行的基础环境,搭配云监控服务后,即可实时查看资源运行状态并设置告警规则,通过在C6s中安装Agent插件,为用户提供服务器的系统级、主动式、细颗粒度监控服务。数据采集频率为1分钟1次。除了CPU使用率等指标外,还可以支持内存使用率(Linux)等指标。针对主机内活跃进程还可以进行进程监控,默认采集活跃进程消耗的CPU、内存,以及打开的文件数量等信息。进行延迟、错误主动信息上报, 提前发现有问题的服务并采取扩容、降级等相关措施 C6s云服务器的超强竞争力,不仅体现在它的优异性能表现上,同时还体现在它极具竞争力的性价比上。华为云不断革新技术,降低高性能产品的门槛,使得用户能够以普惠级别的价格享受到超高性能的产品。目前C6s正在华为云618活动热卖中,折扣低至3.2折起,还有6600大礼包送不停,欢迎体验! 对于中小规模的互联网企业和电商企业而言,建设自己的IT系统,会是不小的成本。华为云服务器可以提供统一的解决方案,让电商和更多中小企业在华为云平台上部署应用,通过统一运维、云平台的安全机制来保障系统的稳定和安全,实现多赢的格局。 点击关注,第一时间了解华为云新鲜技术~

June 20, 2020 · 1 min · jiezi

灵动微MM32F103单片机常见问题解答

灵动微MM32F103系列产品使用高性能内核M3的 32 位微控制器,典型工作频率可达144MHZ,内置高速存储器,丰富的增强型 I/O 端口和外设连接到外部总线。提供5种封装形式,包括 LQFP100、LQFP64、LQFP48、LQFP32 和 QFN32 共 5 种封装形式。根据不同的封装形式,器件中的外设配置不尽相同。该产品适合使用在电机驱动和应用控制,医疗和手持设备,工业应用以及警报系统等。下面英尚微代理商解答关于MM32F103产品中的一些常见问题。 SPI 1 、SPI 支持哪几种模式 按传输方向分 1) 全双工模式,同时收发数据,同时使能 TX 和 RX; 2) 半双工,在不同时间段进行读写,ENABLE TX 时 DISABLE RX,ENABLE RX 时 DISABLE TX; 按采样时序分 1) 模式 0,空闲时时钟为低,第一个时钟沿采样; 2) 模式 1,空闲时时钟为低,第二个时钟沿采样; 3) 模式 2,空闲时时钟为高,第一个时钟沿采样; 4) 模式 3,空闲时时钟为高,第二个时钟沿采样; 2 、SPI 主机通信不正常有哪些原因 常见原因: 1) 配置不正确,表现为无时钟输出; 2) 模式配置不正确,表现为采样点与预期不一致(SPI_CCTL bit0 = 0 为第二个时钟沿采样); 3) 速度配置过快,表现为波形异常; 4) 数据位数配置与 device 不一致,表现为 CLK 个数不对. 5) CS 信号不正确,表现为 CS 信号与 device 时序不对应; ...

June 4, 2020 · 1 min · jiezi

超低功耗CMOS-16Mbit-SRAM

美国ISSI主要产品是高速低功耗SRAM和中低密度DRAM。主要为汽车,通信,数字消费者以及工业和医疗等市场提供存储器产品。IS62WV102416DBLL是超低功耗CMOS 16Mbit静态RAM,组织为1M字乘16位。它是使用ISSI的高性能CMOS技术制造的。这种高度可靠的工艺加上创新的电路设计技术,可生产出高性能和低功耗的设备。 IS62WV102416DALL/DBLL和IS65WV102416DALL / DBLL封装在48引脚TSOP(I型)中。 功能说明 SRAM是随机存取存储器之一。每个字节或字都有一个地址,可以随机访问。 SRAM支持三种不同的模式。 待机模式 取消选择时,设备进入待机模式(HIGH或CS2 LOW或两者都为HIGH)。输入和输出引脚(I / O0-15)处于高阻抗状态。根据输入电平,此模式下的电流消耗为ISB1或ISB2。此模式下的CMOS输入将最大程度地节省功率。 写模式 选择芯片时(LOW和CS2 HIGH),写使能()输入LOW时的写操作问题。输入和输出引脚(I / O0-15)处于数据输入模式。即使为LOW,在此期间输出缓冲区也会关闭。并启用字节写入功能。通过启用LOW,来自I / O引脚(I / O0至I / O7)的数据被写入该位置。 在地址引脚上指定。处于低电平时,来自I / O引脚(I / O8至I / O15)的数据被写入该位置。 读取模式 选择芯片时(LOW和CS2为HIGH),写使能()输入为HIGH时,读操作出现问题。当为低电平时,输出缓冲器打开以进行数据输出。不允许在读取模式下对I / O引脚进行任何输入。并启用字节读取功能。通过启用LOW,来自存储器的数据出现在I / O0-7上。处于低电平时,来自内存的数据将出现在I / O8-15上。 在读取模式下,可以通过拉高来关闭输出缓冲器。在此模式下,内部设备作为READ操作,但I / O处于高阻抗状态。由于器件处于读取模式,因此使用有功电流。 工作温度范围 商用工作温度为0°C至+ 70°C ,电压为2.2V 3.3V 3.6V 工业工作温度为-40°C至+ 85°C ,电压为2.2V 3.3V 3.6V 汽车类工作温度为 -40°C至+ 125°C,电压为2.2V 3.3V 3.6V

May 26, 2020 · 1 min · jiezi

吊打面试官系列缓存雪崩击穿穿透

你知道的越多,你不知道的越多点赞再看,养成习惯 前言Redis在互联网技术存储方面使用如此广泛,几乎所有的后端技术面试官都要在Redis的使用和原理方面对小伙伴们进行360°的刁难。作为一个在互联网公司面一次拿一次offer的面霸(请允许我使用一下夸张的修辞手法),打败了无数竞争对手,每次都只能看到无数落寞的身影失望的离开,略感愧疚,在一个寂寞难耐的夜晚,我痛定思痛,决定开始写《吊打面试官》系列,希望能帮助各位读者以后面试势如破竹,对面试官进行360°的反击,吊打问你的面试官,让一同面试的同僚瞠目结舌,疯狂收割大厂offer! 一点感慨本来都把稿子放到公众号保存了,洗澡的时候想了一下晚上的比赛,觉得还是打开电脑写点东西,跟文章内容没关系,只是一点个人的感慨,不知道多少小伙伴看了昨天SKT VS G2的比赛,又不知道多少小伙伴还记得Faker手抖的那一幕。 不知道你们看了是什么感受,我看到他手抖的时候我内心也抖了,世界赛我支持的都是LPL的队伍,但是我喜欢李哥这个人,那种对胜利的执著,这么多年了那种坚持自己的坚持,这么多利益诱惑在面前却只想要胜利,这样的人我好喜欢啊,我想很多人也喜欢。 可能就像很多网友说的那样,英雄迟暮,但是我觉得他还是有点东西,就像很多人说我们程序员只能吃年轻饭一样,但是如果你坚持自己的坚持,做个腹有诗书气自华的仔,我想最后肯定会得到自己的得到。 好了我也不煽情了,我们开始讲技术吧。 正文上一期吊打系列我们提到了Redis的基础知识,还没看的小伙伴可以回顾一下 《吊打面试官》系列-Redis基础 那提到Redis我相信各位在面试,或者实际开发过程中对缓存雪崩,穿透,击穿也不陌生吧,就算没遇到过但是你肯定听过,那三者到底有什么区别,我们又应该怎么去防止这样的情况发生呢,我们有请下一位受害者。 面试开始一个大腹便便,穿着格子衬衣的中年男子,拿着一个满是划痕的mac向你走来,看着快秃顶的头发,心想着肯定是尼玛顶级架构师吧!但是我们腹有诗书气自华,虚都不虚。 小伙子我看你的简历上写到了Redis,那么我们直接开门见山,直接怼常见的几个大问题,Redis雪崩了解么?帅气迷人的面试官您好,我了解的,目前电商首页以及热点数据都会去做缓存 ,一般缓存都是定时任务去刷新,或者是查不到之后去更新的,定时任务刷新就有一个问题。 举个简单的例子:如果所有首页的Key失效时间都是12小时,中午12点刷新的,我零点有个秒杀活动大量用户涌入,假设当时每秒 6000 个请求,本来缓存在可以扛住每秒 5000 个请求,但是缓存当时所有的Key都失效了。此时 1 秒 6000 个请求全部落数据库,数据库必然扛不住,它会报一下警,真实情况可能DBA都没反应过来就直接挂了。此时,如果没用什么特别的方案来处理这个故障,DBA 很着急,重启数据库,但是数据库立马又被新的流量给打死了。这就是我理解的缓存雪崩。 我刻意看了下我做过的项目感觉再吊的都不允许这么大的QPS直接打DB去,不过没慢SQL加上分库,大表分表可能还还算能顶,但是跟用了Redis的差距还是很大 同一时间大面积失效,那一瞬间Redis跟没有一样,那这个数量级别的请求直接打到数据库几乎是灾难性的,你想想如果打挂的是一个用户服务的库,那其他依赖他的库所有的接口几乎都会报错,如果没做熔断等策略基本上就是瞬间挂一片的节奏,你怎么重启用户都会把你打挂,等你能重启的时候,用户早就睡觉去了,并且对你的产品失去了信心,什么垃圾产品。 面试官摸了摸自己的头发,嗯还不错,那这种情况咋整?你都是怎么去应对的?处理缓存雪崩简单,在批量往Redis存数据的时候,把每个Key的失效时间都加个随机值就好了,这样可以保证数据不会在同一时间大面积失效,我相信,Redis这点流量还是顶得住的。 setRedis(Key,value,time + Math.random() * 10000);如果Redis是集群部署,将热点数据均匀分布在不同的Redis库中也能避免全部失效的问题,不过本渣我在生产环境中操作集群的时候,单个服务都是对应的单个Redis分片,是为了方便数据的管理,但是也同样有了可能会失效这样的弊端,失效时间随机是个好策略。 或者设置热点数据永远不过期,有更新操作就更新缓存就好了(比如运维更新了首页商品,那你刷下缓存就完事了,不要设置过期时间),电商首页的数据也可以用这个操作,保险。 那你了解缓存穿透和击穿么,可以说说他们跟雪崩的区别么?嗯,了解,我先说一下缓存穿透吧,缓存穿透是指缓存和数据库中都没有的数据,而用户不断发起请求,我们数据库的 id 都是1开始自增上去的,如发起为id值为 -1 的数据或 id 为特别大不存在的数据。这时的用户很可能是攻击者,攻击会导致数据库压力过大,严重会击垮数据库。 小点的单机系统,基本上用postman就能搞死,比如我自己买的阿里云服务 像这种你如果不对参数做校验,数据库id都是大于0的,我一直用小于0的参数去请求你,每次都能绕开Redis直接打到数据库,数据库也查不到,每次都这样,并发高点就容易崩掉了。 至于缓存击穿嘛,这个跟缓存雪崩有点像,但是又有一点不一样,缓存雪崩是因为大面积的缓存失效,打崩了DB,而缓存击穿不同的是缓存击穿是指一个Key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个Key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在一个完好无损的桶上凿开了一个洞。 面试官露出欣慰的眼光,那他们分别怎么解决缓存穿透我会在接口层增加校验,比如用户鉴权校验,参数做校验,不合法的参数直接代码Return,比如:id 做基础校验,id <=0的直接拦截等。 这里我想提的一点就是,我们在开发程序的时候都要有一颗“不信任”的心,就是不要相信任何调用方,比如你提供了API接口出去,你有这几个参数,那我觉得作为被调用方,任何可能的参数情况都应该被考虑到,做校验,因为你不相信调用你的人,你不知道他会传什么参数给你。 举个简单的例子,你这个接口是分页查询的,但是你没对分页参数的大小做限制,调用的人万一一口气查 Integer.MAX_VALUE 一次请求就要你几秒,多几个并发你不就挂了么?是公司同事调用还好大不了发现了改掉,但是如果是黑客或者竞争对手呢?在你双十一当天就调你这个接口会发生什么,就不用我说了吧。这是之前的Leader跟我说的,我觉得大家也都应该了解下。 从缓存取不到的数据,在数据库中也没有取到,这时也可以将对应Key的Value对写为null、位置错误、稍后重试这样的值具体取啥问产品,或者看具体的场景,缓存有效时间可以设置短点,如30秒(设置太长会导致正常情况也没法使用)。 这样可以防止攻击用户反复用同一个id暴力攻击,但是我们要知道正常用户是不会在单秒内发起这么多次请求的,那网关层Nginx本渣我也记得有配置项,可以让运维大大对单个IP每秒访问次数超出阈值的IP都拉黑。 那你还有别的办法么?还有我记得Redis还有一个高级用法布隆过滤器(Bloom Filter)这个也能很好的防止缓存穿透的发生,他的原理也很简单就是利用高效的数据结构和算法快速判断出你这个Key是否在数据库中存在,不存在你return就好了,存在你就去查了DB刷新KV再return。 那又有小伙伴说了如果黑客有很多个IP同时发起攻击呢?这点我一直也不是很想得通,但是一般级别的黑客没这么多肉鸡,再者正常级别的Redis集群都能抗住这种级别的访问的,小公司我想他们不会感兴趣的。把系统的高可用做好了,集群还是很能顶的。 缓存击穿的话,设置热点数据永远不过期。或者加上互斥锁就能搞定了 作为暖男,代码我肯定帮你们准备好了 面试结束嗯嗯还不错,三个点都回答得很好,今天也不早了,面试就先到这里,明天你再过来二面我继续问一下你关于Redis集群高可用,主从同步,哨兵等知识点的问题。晕居然还有下一轮面试!(强行下一期的伏笔哈哈)但是为了offer还是得舔,嗯嗯,好的帅气面试官。 能回答得这么全面这么细节还是忍不住点赞 (暗示点赞,每次都看了不点赞,你们想白嫖我么?你们好坏喲,不过我喜欢) ...

November 5, 2019 · 1 min · jiezi

RAKsmart新增几款香港服务器方案满足用户建站需求

为满足不同用户建站需求,近日RAKsmart主机商新增几款服务器方案,包括美国机房和香港机房,业内关注度较高。 此次增加了香港机房L5630、E5等香港服务器(包括站群)方案,可以满足众多的站长的选购需求。 之前RAKsmart只提供一款E3 1230香港服务器方案,由于方案数量有限,加上用户租用需求量大,所以一度处于缺货状态,基本很难买到。而为解决此种窘境,RAKsmart主机商现在也增加了L5630、E5两款香港服务器方案。 在租用价格方面,L5630、E5比E3 1230方案要贵一些,但整体性能配置要高一些,详细参数配置如下: 需要注意的是,L5630、E5香港服务器均采用CN2线路,所以国内访问速度较快。目前L5630、E3、E5香港服务器方案货源充足,有需要的朋友可尽快选购。 详情访问:www.idcspy.com/increase-plan.html

October 17, 2019 · 1 min · jiezi

一个-URL-的自述

苏醒虽说现在是凌晨 3 点,但 acohome.cn 所在的服务器却收到了一个请求:http://acohome.cn 。伴随着警报响起,睡梦中的服务器冷不防打了个激灵。 “快告诉我,你的传输协议是什么?” “咦?你是在问我吗?” 我回答道。 “这里只有你一个,难不成我问空气?哦这里空气是比较稀薄,你还好吧?” 服务器见我迷迷糊糊的样子问道。 “我是谁,我在哪里?” 刚睡醒的我有点失忆。 “你是一个 URL,这是我的地盘,刚被网卡送到这,都忘了吗?” “哦,对,我是一个 URL 大概 10 毫秒前被浏览器创建,并送出,终于到你这啦,这是我的传输协议 HTTP 给你。” 在经历了一次长眠后,我想起了自己的使命,去服务器要一张网页。 “好,HTTP 服务,你过来下,这里有你的请求,快来领走。” 在得到我的传输协议后,服务器向 HTTP 服务喊道,语气显有点不耐烦,可能是因为我的短暂失忆让他有点生气了。 “赶紧的,起来干活了,这么早就有请求过来了,还让不让人休息了。” 服务器在 HTTP 服务没过来之前,又咕哝了一句。 我在一旁瑟瑟发抖,我已经记起了我的使命,只希望 HTTP 服务早点过来。过了不久,HTTP 服务走了过来。 “速度点,跟我过来!” HTTP 服务也没好气的说道。 使命跟着 HTTP 服务来到了一个陌生的环境,里面高高挂着 80 443 8080 8000,4 个牌子。 “你端口号是多少?” 一摸口袋,竟然找不到端口号,心中一虚,吞吞吐吐道 “那个,我好像没有端口号。” “没有就没有” 看到我吞吞吐吐的样子,HTTP 服务更不耐烦了,但手上的动作却没停,狠狠的拉了一下 80 的牌子,然后头也不回的走了。 “来了来了” 80 牌子的另一头响起一个略微耳熟的声音,不一会来了一个人。 虽说看起来有点陌生,但却看到了熟悉的身影,我赶忙过去打了声招呼。 “Hi JavaScript 你怎么也在这啊?” “咦?你是谁,你怎么认识我?” 突然间,我想起这是服务器,它不可能是我认识的那个人。 “我认识一个长的很像你的人,生活在浏览器的那个?我刚从那边过来。” “哦~ 那是我哥。我和他不熟。” ...

October 17, 2019 · 1 min · jiezi

阿里云葛岱斌让天下没有难做的安全运维

作为一个热爱看丧尸片的女编辑,我曾被多位宅客频道同事吐槽口味很重。 天啦噜,我只是喜欢看丧尸围城这种精彩刺激的情节,哪像有些同事去排队抢过优衣库与KAWS合作T恤,这才是现实版“僵尸大战”好么? 赛博世界的“另类丧尸临城”也很有意思。一种是喜悦划过嘴角,业务量上涨,尤其如果平台搞了大促,用户一拥而上,这种简称为“人肉版”DDoS。还有一种是正经 DDoS,别想了,就是有人要搞你,比如最常见的游戏业,如果一款游戏爆火,它的安全做得又那么随意,眼红的竞争对手可能要派攻击者来搞一把DDoS。 这类“僵尸大军”会堵在“门口”,不让真正的用户使用业务,或者频繁无效地抢占业务入口,搞瘫系统。可怕的是,发展到现在,黑产已经可以用少量的带宽打出巨量的 DDoS 攻击,轻而易举地把一个系统打趴下。 就像懵懂无知的年代,如果一个男生被欺负,可能会愤愤不平地对方说:放学你别走。然后,找一堆“兄弟”前去助阵。 一般企业平常没有储备对抗上T大流量攻击的能力,但他们想到了一个办法——上公有云,号召五湖四海的“兄弟”,一起抗衡超大流量的攻击。 我们把这种动作称为“云化”。 换了一个环境,安全迎来挑战,很多安全公司提出了自己的解法和产品,甲方爸爸要做的就是捋清楚自己的需求,花钱购买安全产品和服务,像串羊肉一样串好自己买的“武器”,这是一种解法。 另一种解法则是由公有云安全厂商提出,他们的理念是,既然我们提供了最好用的云,我们也要提供最好用的云安全产品和服务,后者的核心是“云原生安全能力”。 知己知彼云的原生安全能力有什么不一样?以占据国内公有云市场大半江山的阿里云为例。 既然强调“原生”,与前一种解法的不同当然是“统一”:统一的身份接入、统一的网络安全连接、统一的主机安全以及统一的整体全局管理。 无论是将军带兵打仗,还是企业安全守卫者与攻击者对阵,最重要的一条兵法就是“知己知彼”。云原生安全能力中的其中三项能力都是为此努力。 第一,了解自己有什么,边界线在哪里,有哪些薄弱点,哪里正在遭受入侵。 云的天然优势是“网络的虚拟化调度能力”,企业可以清晰的看到自己主机东西南北向的流量,统一管理好自身边界安全问题,包括对外的安全边界以及内部资产之间的安全边界,公网资产暴露情况、端口暴露情况,甚至是正遭受攻击的情况一目了然。 第二,如果说第一条是从自身角度出发,我们还需要知道“大局”。 云具备实时的全网威胁情报监测和分析能力,打破单点视线的局限,知道整体环境的“变化”。但这还不够,如果一有风吹草动,士兵就得出动勘察及作出行动,对于现实战争而言,可能还可行,但是对于网络威胁而言,完全行不通,天知道浩如烟海的威胁告警中哪些应该真正值得注意?就算人力可以分析,问题是没有这么多人力可以实时待命,所以从发现威胁到主动防御的自动化响应是一项迫切的要求。 第三,我要知道什么人是我的员工,员工是否正在干权限范围内的事情,但是如果企业内部业务系统太多,怎么办?当企业拥抱云并享用SaaS级服务带来效能的同时,基于云的统一身份管理认证成为关键。 企业安全事件中有接近50%都是员工账户权限问题导致的。基于云的 API 化等原生能力,企业可以对身份权限进行统一的认证和授权,并可以在动态环境中授于不同人不同权限,让任何人在任何时间、任何地点,以正确、安全、便捷的访问正确的资源。 安全的本质是为了保障业务的连续、顺利进行,如果还能提升业务效率,简直就是享受买一送二的增值喜悦。 云原生安全能力的后三项是为“知彼”准备的。 它坚守的第一条准则是,“我知道攻击者一定都是时时存在,并且锲而不舍,所以我要把自己打造得更安全”。将安全下沉到底层硬件与可信环境是一种选择,但是困境依然是:没人没钱,成本高,但是云原生内置的安全芯片就不一样了,公有云厂商将安全芯片的底层硬件能力开放给使用者,并构建可信环境,很简单,不需要用户自己辛苦布人布局,且“众筹”给公有云的成本要低很多。 第二条准则是,“我知道攻击者一定会盯上我最宝贵的数据,我知道它想要这个”。未来随着数据安全、用户隐私数据保护要求越来越高,全链路的数据加密一定是云上企业的最大需求。基于云原生操作系统的加密能力,秘钥由企业自己保管,无论是云服务商、外部攻击者、内部员工没有秘钥都无法看到数据。 第三条准则是,“我知道无论自己怎么预防,攻击者都会来,所以我要比预防还快一步”。在云和互联网模式背景下,业务的频繁调整和上线对业务流程安全提出了更高的要求,从源头上做好安全才能消除隐患。基于云的原生能力,安全可以内置到全流程的设计开发过程中,确保上线即安全。 混合云的需求问题来了,企业上云不是一个一蹴而就的“动作”,而是一个时间跨度比较长的过程。越是大型的企业,历史包袱越重,上云的时间越长。 还有一些企业自己的业务做得好好的,本来没有上云的需要,突然要做一些创新的业务需要上云。 因此,可能出现一个在“公有云”“私有云”“专有云”中排列组合游戏:混合云,也就是说,企业中可能有好几朵云,那么,这与公有云的云原生安全能力所说的“统一”又有什么用,难道能在本地与公有云,或者几朵云中共用一套云安全方案吗? 有这种解法。 阿里云智能安全总监葛岱斌说,混合云安全方案的形成其实靠用户发展需求或者遭遇的安全事件驱动。 有一家企业用了四朵云,并用专线把四朵云打通,一天,企业发现自己遭遇了蠕虫式病毒,刚开始,他只在阿里云上应用了云安全中心,心想要不也在其他几朵云上部署一下安全中心,看看其他云有没有受到影响,结果发现其他云已经中毒了。 这是第一个需求:能否给四朵云应用同一套安全中心,就像一个有钱业主在四个小区都有房,业主心想:这四套房要是都由同一个物业公司管理,有一样的安保系统就好了。 还有一种需求是,降低运营成本,保证业务的连续性,就像开头提到的“僵尸大军”的故事一样,把本地接口交给公有云,扛住攻击。 但是混合云还有“天然的基因缺陷”:不一样的资源管理、不同的底层架构、不一致的安全工具。 从原生能力落地的化繁为简葛岱斌思考,混合云安全主打的云原生安全能力应该落在四个方面。 采用混合云时,安全的边界变得模糊不清,怎么缩小边界? 身份成了最小的逻辑边界。 “这时需要一个统一的身份认证,到底有哪些人可以访问应用,如何访问,有哪些应用的权限。以前做法是内外网分属不同系统,我们希望给他一个统一的身份认证体系,不管是外网用户还是内网用户,无论认证源是设在公共云还是在私有云上都可以,只要认证一次就行。”葛岱斌对宅客频道说。 就像现在的有些大学校园没有围墙,但师生进入各类实验室要靠刷卡或刷脸,虚拟环境给了用户一把更强大的“钥匙”:只要认证一次,就被系统记住,更加便利。 除了将身份变成边界,还可以把边界扩大到“无垠”:专有云和私有云不需要有互联网的暴露面,将所有流量入口放在阿里云上,无论是内部员工还是外部用户,访问的都是阿里云的接口,虽然用户和攻击者都不知道流量已经悄悄回到了企业内部的IDC中,暴露面降低,则安全风险降低。 “以前设置一个DMZ区(边界区),所有的流量经过这个DMZ区,但是现在流量全部从阿里云过来,相当于把边界交给了阿里云,阿里云是你的边界,我只要把阿里云的边界做好。”面对潜在的攻击者,葛岱斌祭出“虚晃一招”,企业则从原来“雇了几个保安”转变到将安保工作交给了“安保公司”。 这一招也叫作“统一接口”。 有些用户有自己的机房,后来因为业务需求把一部分业务放到公有云上,还有的用户有几万台分布式的服务器,如果云上有一套安全系统来管理安全,线下服务器的安全怎么管理?几个地方的服务器怎么管理? 就像前面提到被蠕虫病毒侵蚀的四朵云的用户,服务器的安全其实可以被统一起来,无论线上线下,通通交给云安全中心。还可以把探针部署到其他云平台上做统一的检测,做统一的响应,因为只要所有云的 API 接口也开放了,云安全中心就可以调用 API 做响应。 和想要由同一个物业来管理自己四套房子的房主一样,安全管理也可以统一,不过,有些政企用户的考虑是,大部分资产在线下,只有少部分资产在云上,如果使用统一管理平台,干脆直接将控制台从云上搬到云下也是可选的选项。 “我们想要做的就和整个阿里巴巴的理念一样,让天下没有难做的生意,让天下没有难做的安全运维。”葛岱斌对宅客频道说。 说白了,这一套混合云安全方案的直接目的并不是像安全服务提供商一样做可以挣钱的安全方案,而是让阿里云飘得更远,被云覆盖的用户以更低的成本、更少的专业安全人员、更轻盈的方式获得更大的安全。 天下武功路数纷繁,阿里云安全想做的,是化繁为简,更少地向对手暴露“薄弱面”的同时,打破威胁情报、数据、运维的藩篱,登泰山顶,众山动向一览无遗。 赛博世界如同战场,随时面临威胁,没有人可以做到永远安全,但安全可以更简单。 本文作者:李勤 阅读原文 本文为云栖社区原创内容,未经允许不得转载。

October 17, 2019 · 1 min · jiezi

DNS攻击防范科普系列1你的DNS服务器真的安全么

 DNS服务器,即域名服务器,它作为域名和IP地址之间的桥梁,在互联网访问中,起到至关重要的作用。每一个互联网上的域名,背后都至少有一个对应的DNS。对于一个企业来说,如果你的DNS服务器因为攻击而无法使用,整个企业的网站、邮箱、办公系统将全部瘫痪,这意味着对你造成的是成千上万个用户的不可访问,将产生不可估量的影响。你的DNS服务器是否受到过安全威胁,它现在真的安全么?         DNS面临着各种各样的网络安全威胁,它一直是网络基础架构中较弱的一环。 我们先来看看DNS服务器的威胁之一:DDoS攻击。DDoS攻击,即分布式拒绝服务攻击,攻击者通过控制大量的傀儡机,对目标主机发起洪水攻击,造成服务器瘫痪。 DDoS攻击通常分为流量型攻击和应用型攻击。以bps为单位的流量型的攻击,这类攻击会瞬间堵塞网络带宽;以qps为单位的应用层攻击,主要是将服务器的资源耗尽,攻击将造成DNS服务器反应缓慢直至再也无法响应正常的请求。DNS服务易受攻击的原因,除了专门针对DNS服务器发起的;还有就是利用DNS服务的特点,用“DNS放大攻击”对其他受害主机发起攻击。如下就是DNS放大攻击的示意图,DNS方法攻击的危害极大。         16年美国针对 DNS 供应商Dyn,爆发来史上最大规模的DDoS攻击,这一攻击造成了半个美国网络瘫痪的严重影响。这次严重的攻击事件,就是DNS放大攻击造成的。         接下来,我们再来看看DNS劫持对DNS服务器会造成哪些威胁。DNS劫持是指攻击者在劫持的网络范围内拦截域名解析的请求,篡改了某个域名的解析结果。比如用户本来想访问www.aliyun.com,却被指引到了另一个假冒的地址上,从而达到非法窃取用户信息或其他不正常的网络服务的目的。对用户而言,DNS劫持是很难感知的,因此造成的影响极大。如2013年就爆发过一次大型的DNS钓鱼攻击事件,导致约800万用户感染。攻击者通常会通过两种方式实现DNS劫持,一种是直接攻击域名注册商或者域名站点获取控制域名的账户口令,这样可以修改域名对应的IP地址,另外一种方式是攻击权威名称服务器,直接修改区域文件内的资源记录。如下图,中国电信发现域名劫持时,给访问用户的提醒。         DNS劫持主要是将NS纪录指向到黑客可以控制的DNS服务器,而DNS投毒却是指一些有意或无意制造出来的域名服务器数据包,利用控制DNS缓存服务器,将域名指引到了不正确的IP地址。一般DNS服务器为了加快解析速度,通常都会把访问过的域名服务器数据暂存起来。待下次其他用户需要解析域名时,如果发现缓存中有该数据,就立刻调出来提供服务。如果DNS的缓存受到了污染,就会把访问的域名指引到错误的服务器上。简单点说,DNS污染是指把自己伪装成DNS服务器,在检查到用户访问某些网站后,使域名解析到错误的IP地址。         DNS服务如此重要,当对DNS的解析配置操作时,也必须谨慎小心。这里最后介绍的一种DNS常见威胁,就是人为误操作造成的。大家都知道域名做好解析后并不能立即访问到您的网站,因为解析生效需要时间。由于各地的dns服务器刷新时间不同,各地的大概时间范围为0-24小时。最长的生效时间,达到24小时,如果不小心改错了域名的解析配置,也将造成极大的影响。这就要求我们对域名的管理需要精细化,分配好使用者的权限,存留好操作记录等日志信息。在域名修改配置或进行迁移时,操作一定要谨慎。         以上简单介绍了DNS服务器可能遇到的常见威胁。作为互联网最基础、最核心的服务,DNS服务安全至关重要。打垮DNS服务能够间接打垮一家公司的全部业务,或者打垮一个地区的网络服务。面对重重威胁,怎么才能保障好我们的DNS服务器呢?接下来的专题,我们会针对DNS服务器常受到的攻击一一突破,敬请期待。 原文链接 本文为云栖社区原创内容,未经允许不得转载。

October 16, 2019 · 1 min · jiezi

聊一聊DNS劫持那些事

作为《DNS攻击防范科普系列》的最后一篇,今天我们来好好聊聊DNS劫持。先回顾一下DNS劫持的概念?DNS劫持即通过某种技术手段,篡改正确域名和IP地址的映射关系,使得域名映射到了错误的IP地址,因此可以认为DNS劫持是一种DNS重定向攻击。DNS劫持通常可被用作域名欺诈,如在用户访问网页时显示额外的信息来赚取收入等;也可被用作网络钓鱼,如显示用户访问的虚假网站版本并非法窃取用户的个人信息。那DNS劫持到底有多大的危害呢?我们来看两个真实的大事件: DNS劫持大事记事件1、《AWS route53 BGP路由泄漏事件》事件危害:据不完全统计,DNS劫持导致两个小时内有多个用户的以太坊钱包被转账清空,共计至少13000美元的资产被黑客盗取。事件还原: 事件发生在2018年4月24日。黑客针对四段分配给AWS,本应作为AWS route53 DNS服务器服务地址的IP空间(205.251.192.0/23, 205.251.194.0/23, 205.251.196.0/23, 205.251.198.0/23)发布了虚假的BGP路由,导致在BGP泄漏的两个小时期间,本应该AWS route53 DNS服务器的DNS查询都被重定向到了黑客的恶意DNS服务器。且黑客DNS劫持的目标十分明确,恶意DNS服务器只响应对myetherwallet.com的查询,其他域名的查询均返回SERVFAIL。一旦用户没有注意“网站不安全”的提示而访问myetherwallet.com登录自己的以太坊钱包,黑客就可以轻易获取用户的私钥进而窃取用户的数字货币资产。正常情况的DNS,和劫持后的DNS的情况,请参考如下攻击示意图(来自cloudflare博客):正常情况: BGP泄漏后: 事件2、《巴西银行钓鱼事件》事件危害:黑客诱导原本想访问正常银行网站的受害者访问到钓鱼网站,并恶意窃取受害者的银行账目密码信息。事件还原:事件发生在2018年。黑客利用D-Link路由器的漏洞,入侵了至少500个家用路由器。黑客入侵后更改受害者路由器上的DNS配置,将受害者的DNS请求重定向到黑客自己搭建的恶意DNS服务器上。黑客入侵后更改受害者路由器上的DNS配置,将受害者的DNS请求重定向到黑客自己搭建的恶意DNS服务器上,最终诱导原本想访问正常银行网站的受害者访问到钓鱼网站,并恶意窃取受害者的银行账目密码信息。 图片参考:bankinfosecurity 上面两个案例都是触目惊心啊。接下来我们来介绍一下黑客们是怎么做到DNS劫持的? DNS解析原理介绍劫持原理前,你需要先了解典型的DNS解析流程。 客户端发起递归DNS请求,本地递归DNS(大多数情况下为运营商DNS)或者公共DNS通过迭代查询请求多级的DNS权威服务器,并最终将查询结果返回给客户端。可以看到,一次完整的DNS查询:• 链路长。查询过程包含多次,多级的网络通信。• 参与角色多。查询过程涉及客户端,DNS递归服务器,权威服务器等角色。 在一次完整DNS查询链路的各个环节,其实都有可能被DNS劫持,下面的章节会逐一分析各种类型的DNS劫持。 DNS劫持分类我们按照客户端侧--递归DNS服务器--权威DNS服务器的路径,将DNS劫持做如下分类: 【一、本地DNS劫持】客户端侧发生的DNS劫持统称为本地DNS劫持。本地DNS劫持可能是: 黑客通过木马病毒或者恶意程序入侵PC,篡改DNS配置(hosts文件,DNS服务器地址,DNS缓存等)。黑客利用路由器漏洞或者破击路由器管理账号入侵路由器并且篡改DNS配置。一些企业代理设备(如Cisco Umbrella intelligent proxy)针对企业内部场景对一些特定的域名做DNS劫持解析为指定的结果。【二、DNS解析路径劫持】DNS解析过程中发生在客户端和DNS服务器网络通信时的DNS劫持统一归类为DNS解析路径劫持。通过对DNS解析报文在查询阶段的劫持路径进行划分,又可以将DNS解析路径劫持划分为如下三类: • DNS请求转发通过技术手段(中间盒子,软件等)将DNS流量重定向到其他DNS服务器。案例: ![图片来自《巫俊峰, 沈瀚. 基于旁路抢答机制的异网DNS管控实践. 电信技术[J]》](https://upload-images.jianshu... • DNS请求复制利用分光等设备将DNS查询复制到网络设备,并先于正常应答返回DNS劫持的结果。 案例:一个DNS查询抓包返回两个不同的应答。 • DNS请求代答网络设备或者软件直接代替DNS服务器对DNS查询进行应答。 案例:一些DNS服务器实现了SERVFAIL重写和NXDOMAIN重写的功能。 【三、篡改DNS权威记录】篡改DNS权威记录 我们这里指的黑客非法入侵DNS权威记录管理账号,直接修改DNS记录的行为。 案例:黑客黑入域名的管理账户,篡改DNS权威记录指向自己的恶意服务器以实现DNS劫持。 黑客黑入域名的上级注册局管理账户,篡改域名的NS授权记录,将域名授权给黑客自己搭建的恶意DNS服务器以实现DNS劫持。 黑客黑入域名的上级注册局管理账户,篡改域名的NS授权记录,将域名授权给黑客自己搭建的恶意DNS服务器以实现DNS劫持。(以上参考fireeye博客) DNS劫持应对策略DNS劫持在互联网中似乎已经变成了家常便饭,那么该如何应对各种层出不穷的DNS劫持呢?如果怀疑自己遇到了DNS劫持,首先要做的事情就是要确认问题。 如何确认DNS劫持查看路由器DNS配置是否被篡改。可以使用一些全网拨测的工具确认DNS劫持和其影响范围。在此隆重介绍一下,阿里的DNS域名检测工具于国庆后已经正式上线,地址是:https://zijian.aliyun.com/#/domainDetect  通过工具查看回复DNS应答的DNS服务器,确认DNS解析是否被重定向。• whatismydnsresolver http://whatismydnsresolver.com/移动端可以安装一些DNS相关的测试工具进行排查:• 安卓 ping & dns• IOS IOS iNetTools DNS劫持防范• 安装杀毒软件,防御木马病毒和恶意软件;定期修改路由器管理账号密码和更新固件。• 选择安全技术实力过硬的域名注册商,并且给自己的域名权威数据上锁,防止域名权威数据被篡改。• 选择支持DNSSEC的域名解析服务商,并且给自己的域名实施DNSSEC。DNSSEC能够保证递归DNS服务器和权威DNS服务器之间的通信不被篡改。阿里云DNS作为一家专业的DNS解析服务厂商,一直在不断完善打磨产品功能,DNSSEC功能已经在开发中,不日就会上线发布。• 在客户端和递归DNS服务器通信的最后一英里使用DNS加密技术,如DNS-over-TLS,DNS-over-HTTPS等。 ...

October 14, 2019 · 1 min · jiezi

Linux服务器-下载并安装JDK

⭐ 我的网站: www.mengyingjie.com ⭐ 与这篇文章相关的操作:Linux服务器上下载并安装tomcat首先是jdk8u211的下载地址:https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html 1检查并卸载OpenJDK第一步检查系统是否自带了OpenJDK以及相关安装包,如果有的话则应先将其卸载。 检查命令: java -versionrpm -qa | grep java如果发现有安装好的OpenJDK以及安装包的话那么首先依次执行卸载。 卸载命令: rpm -e --nodeps tzdata-java-2012c-1.el6.noarchrpm -e --nodeps java-1.6.0-openjdk-1.6.0.0-1.45.1.11.1.el6.x86_642解压安装(如何向服务器里上传下载文件)将安装文件上传到linux服务器后,进入到该目录执行解压安装: tar -zxvf jdk-7u75-linux-x64.tar.gz 解压完成后创建一个新的java目录并将刚刚解压的jdk目录移动到我们创建的目录: mkdir /wocloudmv ./jdk1.8.0_211 /wocloud3配置环境变量(不太熟悉vi操作的可以去学习下)安装完成后需要配置一下环境变量,编辑/etc/profile文件: vi /etc/profile在文件尾部添加如下配置: export JAVA_HOME=/wocloud/jdk1.8.0_211export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jarexport PATH=$PATH:$JAVA_HOME/bin截图如下: 编辑完成后按esc后输入:wq保存退出,最后一步就是通过source命令重新加载/etc/profile文件,使得修改后的内容在当前shell窗口有效: source /etc/profile4测试输入java -version查看一下jdk版本信息: 如下图图所示正常显示了jdk版本,到此为止就已经安装成功了。 遇到此类问题,但看了文章还是未解决,评论或加 QQ:781378815

September 8, 2019 · 1 min · jiezi

Linux服务器上下载并安装tomcat

⭐ 我的网站: www.mengyingjie.com ⭐ 下载安装tomcat前,先下载安装JDK:Linux服务器 下载并安装 JDK 1下载tomcat:下载地址 2、上传文件,并解压:(如何向服务器里上传下载文件) tar -zxvf apache-tomcat-9.0.19.tar.gz3、加入tomcat的环境变量(不太熟悉vi操作的可以去学习下)安装完成后需要配置一下环境变量,编辑/etc/profile文件: vi /etc/profile在文件尾部添加如下配置: export CATALINA_HOME=/wocloud/tomcat_cluster/tomcat1/apache-tomcat-9.0.19编辑完成后按esc后输入:wq保存退出,最后一步就是通过source命令重新加载/etc/profile文件,使得修改后的内容在当前shell窗口有效: source /etc/profile4、启动tomcat,进入/wocloud/apache-tomcat-9.0.19/bin(我直接安装在了wocloud目录下,如果安装路径不一样,按照自己的路径)执行:./startup.sh,出现如下图片则启动成功。此时还是不能访问的tomcat主页的。 5、然后我们需要在阿里云服务器管理中开发8080和8009端口。 这个时候可以用你本机上的浏览器访问一下,如果可以访问,跳过第6步。不能访问进行第6步。6、配置防火墙在CentOS 7中引入了一个更强大的防火墙——Firewall。打开firewall systemctl start firewalld我们需要在Firewall中开启8080和8009端口(这里的两个端口是tomcat默认的访问tomcat服务器的端口,如果自己改变了端口,要按照自己修改的端口),也就是将8080和8009端口加入到zone(Firewall的新特性,简单讲它的作用就是定义了网络区域网络连接的可信等级)中。命令如下: firewall-cmd --zone=public --add-port=8080/tcp --permanentfirewall-cmd --zone=public --add-port=8009/tcp --permanent这样就成功的将8081端口加入了public区域中,permanent参数表示永久生效,即重启也不会失效,最后不要忘记更新防火墙规则: firewall-cmd --reloadOK,下面看一下public区域下所有已打开的端口,命令如下: firewall-cmd --zone=public --list-ports7、这个时候,就可以通过服务器的外网ip或者域名来访问tomcat了.遇到此类问题,但看了文章还是未解决,评论或加 QQ:781378815

September 8, 2019 · 1 min · jiezi

Linux服务器上搭建javaweb环境

⭐ 我的网站: www.mengyingjie.com ⭐ javaweb环境搭配为:tomcat9.0.19+jdk8u211+ mysql一、主要分为以下步骤:1.服务器购买,购买地址2.下载并安装jdk3.下载并安装tomcat4.下载并安装mysql,用Navicat远程访问5.将项目war包放到tomcat的webapps目录下即可二、可能遇到的问题:1.不加项目名或8080端口号,访问tomcat上的项目2.如何向服务器里上传下载文件3.使用xshell登陆时密码框为灰色遇到此类问题,但看了文章还是未解决,评论或加 QQ:781378815

September 8, 2019 · 1 min · jiezi

下载并安装mysql用Navicat远程访问

⭐ 我的网站: www.mengyingjie.com ⭐ 下载并安装mysql (1)在服务器上打开Mysql端口号:3306 (2)用Xshell连接服务器(在Windows上下载安装及使用xshell)(3)下载和安装mysql第一步:安装从网上下载文件的wget命令 yum -y install wget第二步:下载mysql的repo源 wget http://repo.mysql.com/mysql-community-release-el7-5.noarch.rpm第三步:安装mysql-community-release-el7-5.noarch.rpm包 rpm -ivh mysql-community-release-el7-5.noarch.rpm第四步:查看下 ls -1 /etc/yum.repos.d/mysql-community*/etc/yum.repos.d/mysql-community.repo/etc/yum.repos.d/mysql-community-source.repo会获得两个mysql的yum repo源:/etc/yum.repos.d/mysql-community.repo,/etc/yum.repos.d/mysql-community-source.repo 第五步:安装mysql yum install mysql-server(4)启动Mysql服务service mysql start(5)连接mysql (6)创建用户GRANT ALL PRIVILEGES ON *.* TO 'username'@'%' IDENTIFIED BY 'password' WITH GRANT OPTION;username:为用户名%:表示所有外网IP都可以连接password:是你自己设置的密码-- 刷新权限表 flush privileges;(7)记得打开服务器的防火墙启动防火墙 systemctl start firewalld.service(8)在本地电脑用Navicat连接第一种方法 第二种方法 遇到此类问题,但看了文章还是未解决,评论或加 QQ:781378815

September 8, 2019 · 1 min · jiezi

在Windows上下载安装及使用xshell

⭐ 个人网站⭐ 引言:Xshell 是一个强大的安全终端模拟软件,它支持SSH1, SSH2, 以及Microsoft Windows 平台的TELNET 协议。Xshell 通过互联网到远程主机的安全连接以及它创新性的设计和特色帮助用户在复杂的网络环境中享受他们的工作。Xshell可以在Windows界面下用来访问远端不同系统下的服务器,从而比较好的达到远程控制终端的目的。除此之外,其还有丰富的外观配色方案以及样式选择。 Xshell的下载大家可以去Xshell的官网下载,下载链接https://xshell.en.softonic.co... Xshell的安装双击下载好的安装包,点击下一步 勾选我接受许可证协议后点击下一步 可以输入自己想要定义的名称,也可以默认设置,点击下一步 选择安装位置,点击下一步 点击安装 点击完成,打开Xshell Xshell的使用打开后,默认弹出一个界面,在这里点击新建 输入你为该会话起的名称,并输入主机IP(例如192.168.1.25),输入完成后点击连接 输入你的用户名,点击确定 输入你的密码,点击确定 然后你就发现你已经成功连接上了远程主机,进入了交互式界面 注意:如果你连接不上,请先通过CMD测试看你的电脑能不能与输入的主机地址ping通 可能想要的操作:用xshell向linux服务器上传下载文件 遇到此类问题,但看了文章还是未解决,评论或加 QQ:781378815

September 7, 2019 · 1 min · jiezi

如何向服务器里上传下载文件

⭐ 个人网站⭐如何向服务器里上传下载文件 1在Windows上下载安装及使用xshell 2用xshell向linux服务器上传下载文件 遇到此类问题,但看了文章还是未解决,评论或加 QQ:781378815

September 7, 2019 · 1 min · jiezi

用xshell向linux服务器上传下载文件

⭐ 个人网站⭐前置操作 (在Windows上下载安装及使用xshell)利用 lrzsz工具 首先通过xshell登录到服务器上 利用此命令查看是否安装了lrzsz rpm -qa | grep lrzsz如果没有任何反应则是没有安装 若没有安装 yum install lrzsz安装之后输入 rz弹出以上窗口选择上传文件 上传的文件的路径在输入rz命令的路径 下载文件的话就 sz filename 遇到此类问题,但看了文章还是未解决,评论或加 QQ:781378815

September 7, 2019 · 1 min · jiezi

阿里云与A站在一起后悄悄干了件大事

八月盛夏,“AcFun弹幕视频网站”(简称“A站”)的视频服务器全面迁移上阿里云(此处应有掌声)! A站去年与阿里云达成此项合作。在迁移过程中,阿里云提供专业技术解决方案团队,为A站建立就近迁移方案,定制专门的迁移工具,同时加以自动和人工双重校验环节,在确保数据安全的情况下完成高效迁移。整个迁移上云的工作历时半年多,完整迁移了A站建成十多年以来,累计数百万份的视频稿件。 去年6月快手正式收购A站。7月,快手派出的第一批服务端开发团队负责人飞哥与团队入驻A站。“A站要重生,播放体验不能弱于行业内。”飞哥说。 将视频系统重构优化的最佳方式是全面迁移上云,完成服务器迁移后,A站基础配置明显提升,服务器不再宕机。数据显示, A站在今年7月视频UP主数量环比增加45%,日弹幕总数增加55%,日视频投香蕉数量(用户给UP主的打赏)总数增长88%,粉丝数增长128%,日活环比实现成倍的增长。 此外,在合作过程中,A站还携阿里云在原有的基于有效时间的签名鉴权算法上,更新了一套“二次鉴权中心”的方案,借助数据算法标记出盗链网站,通过鉴权规则阻止恶意访问。方案实施后,屏蔽A站上每日多达数十亿次的盗链访问请求,释放了近90%的宽带资源。 “现在我们已经不需要去监控或关注云服务质量,阿里云能够一站式解决,在A站最关键的时候阿里云提供了最好的服务。”飞哥说。 云计算作为一项新兴技术,经历10年发展已在关键技术和应用规模上全面超越传统IT。全面上云的拐点到了,上云后综合成本下降一半,稳定性有10倍以上提升,安全性更是提升50倍。 趋势嗅觉灵敏的企业不仅将网站APP等互联网业务放在云上,还将核心系统在内的全量业务上云。其中,不仅包括创业公司和互联网公司,大型企业、公共服务机构也在全面上云。 行业分析认为,阿里云在视频领域拥有绝对的技术优势,依托于全球范围内2500多个CDN节点、120 T带宽的资源储备以及全自动的质量监测和流量调度能力,搭建超大规模的媒体处理、分发平台,每天连接10亿台设备,每年超过100EB的数据实现分发。 阿里云视频云帮助客户快速构建稳定、高效、全面、易用的企业级视频应用,已在超低延时直播、大型赛事直播、移动短视频、智能视频生产、版权视频保护、实时音视频通信等业务场景推出完整的产品与解决方案,成为文娱、教育、金融、传媒、电商、游戏等众多行业数十万企业客户的共同选择。 本文作者:阿里云头条阅读原文 本文为云栖社区原创内容,未经允许不得转载。

August 19, 2019 · 1 min · jiezi

云原生化的迁云实战

云原生的时代已经到来,云原生技术正在重塑整个软件生命周期,阿里巴巴是国内最早布局云原生技术的公司之一。 容器服务团队在过去的几年时间内帮助很多用户成功把业务云原生化并迁移上云,其中有现在已经是我们TOP10的大客户,也有需要在国内开展业务的海外用户,有些是从其他云厂商迁移过来的用户,有些是从IDC里迁移上云的用户,而且越来越多的用户开始咨询如何对自己的应用做云原生化改造、如何把业务平滑地迁移到云上。每个用户的业务场景都是不同的,有些差异化的业务场景对容器平台也有一些定制化的需求,我们在帮助这些用户落实迁云方案的同时也在不断思考如何把这些案例中共性的东西做一些沉淀,总结出一些优秀的解决方案、最佳实践以及开发一些工具来帮助用户快速完成迁云的这件事情。这些解决方案、最佳实践以及迁云工具就是今天这篇文章想要分享的内容。 在帮助用户落实迁云方案之前,我们首先必须要回答至少3个问题:(1)ACK(阿里云容器服务Kubernetes)如何能保证用户业务的可靠性、稳定性、安全性和灵活性;(2)如何设计迁云方案把业务平滑地迁移到ACK;(3)应用如何做进一步改造来适配ACK提供的更强大的扩展能力。 1. ACK如何保证用户业务的可靠性、稳定性、安全性和灵活扩展性 首先,ACK是以阿里云可靠稳定的IaaS平台为底座的,有最大的弹性化与低廉成本和全球化接入的优势;其次,ACK本身处于阿里云的安全体系架构之下并从基础设施到容器运行时环境对容器集群有全维度的安全加固;过去几年我们很好地支撑了成百上千家大小企业的业务运行,有海量用户经验总结并经过双11验证;除此之外。ACK是在标准的Kubernetes基础上,对与用户息息相关的能力做了大幅提升,用户完全不需要担心会被某一家厂商绑定。 在我们过去帮助用户业务上云的案例中,绝大部分是自建Kubernetes集群迁移到ACK集群,与自建Kubernetes集群相比较,ACK在成本、弹性、IaaS高度融合、性能、安全加固以及实践经验等方面都有非常巨大的优势。 另外,ACK与阿里云的所有region保持一致,除了国内多个区域开服外,在东南亚、中东、欧洲、美东美西都有开服,完全可以满足用户开展全球业务的需求。 2. 整体迁云方案设计用户业务整体迁云的方案设计会涉及到集群规划、数据搬迁、监控切换、日志切换以及最终的生产流量切换或并网操作。 迁云到ACK需要做涉及到哪些组件、搬迁哪些数据、切换哪些服务等,都是需要用户又清晰的概念的。首先需要做集群规划,用户需要根据自己业务场景的不同来选择不同的机器类型,比如CPU机器还是GPU机器,比如虚拟服务器ECS还是神龙裸金属服务器等等,网络规划这部分会涉及到容器集群基础设施选择vpc内网网络还是经典网络,集群内pod之间进行通信模式是flannel模式还是terway模式等,在容量规划这部分,用户可以根据自己的成本以及预算规划一个可满足初期业务正常运行的容量即可,随后可以配置动态扩缩容随时弹缩集群规模;在安全防护提升这部分,有基础架构安全比如设置合理的安全组规则,有镜像安全比如使用私有镜像并定义镜像安全扫描,K8S应用安全管理比如设置不同服务间互相访问的网络安全策略等;监控切换这部分相对于用户自建Kubernetes会更加全维度和立体,从基础设施到容器运行时监控一应俱全,并可根据阈值设定触发报警通知;用户一般也会把自建的日志收集方案切换成阿里云上企业级的日志产品SLS;数据迁移是非常重要的一部分,这些数据包括数据库数据、存储数据、容器镜像等,我们会对接阿里云上企业级的粗出产品以及迁移工具,目的是为了保证数据迁云的可靠性、安全性;应用改造主要涉及的内容包括镜像地址的更新、服务暴露方式的优化以及存储盘挂载方式的更新适配;最后提供一个满足用户快速迭代上线产品的CICD方案。以上各个组件调试完毕后,我们就可以进行一部分生产流量的切换。以上从集群规划到生产流量切换便是用户业务迁移上云所需要涉及到的方方面面。 我们提供了一个企业容器化生命周期模型,这个模型是根据时间阶段和用户侧各个业务角色来划分的,比如业务架构师角色需要关心的是业务上云能给公司带来什么价值,在TCO和场景上会带来哪些优化,云平台在安全性以及计算、存储、网络能力上是否能满足当前业务需求;IT架构师负责规划当前业务需要的集群容量和规模以及网络选型等问题,剩下的就是系统管理员与应用管理员把迁云方案的各个细节落实下来。这个模型的主要核心关注点是让用户的业务上云后能更稳定、成本更低、效率更高。 全栈迁云架构思路分两种,一种是整体迁移,一种是平滑迁移。整体迁移是指用户应用全部迁移上云后,各个组件调试完毕、测试验收通过后,可以整体切换生产流量到线上集群,待线上集群上的业务稳定运行一段时间后再下线原有环境。平滑迁移是指用户可以使用线上ACK集群纳管线下节点,或者线上集群与线下集群混合组网对外提供服务,逐步改造业务组件上云后将原有环境下线。这两种方式相比,整体迁移更简单,平滑迁移响度复杂但对业务影响小,所以也需要根据用户的实际场景做选择。 容器化整体迁云这部分还有两个小场景,一个是用户从自建Kubernetes集群迁移到ACK,此场景下用户的应用已经做了很大一部分的云原生化改造,迁移工作相对来说会简单些,还有一部分用户的应用是传统应用,直接运行在虚拟机或者裸金属服务器上,没有做过任何云原生化的改造,对于这部分场景,我们也提供了相关工具或方案帮助用户进行云原生化的迁云改造,比如使用derrick项目可以自动检测源码项目类型并生成Dockerfile和用于应用部署编排的yaml文件,比如我们正在联合ECS SMC(迁云中心)开发的虚拟机转换容器镜像并运行在ACk集群中的能力。 为了帮助用户提高迁云的效率,我们也在持续积累和开源一些迁云工具。比ack-image-builder为用户提供创建ACK集群节点自定义镜像的模板并通过校验模块检查自定义镜像是否满足ACK集群要求;sync-repo能够帮助用户快速完成容器镜像批量迁移至ACR(容器镜像仓库服务); velero能够帮助用户快速把其他云厂商后者自建Kubernetes集群下的完整应用迁移至ACK集群。 Velero迁移Kubernetes应用到ACK视频DEMO 在数据搬迁部分,可靠迁移是关键,根据用户数据类型的不同,我们会使用与之匹配的企业级迁移工具,比如数据在线迁移服务DOMS,比如OSS的迁移工具,还有离线海量数据迁移方案闪电立方等。 数据、应用迁云完成后,需要进一步适配监控、日志等组件,待各个组件调试完毕通过验收后,可以使用智能DNS进行生产流量的切割。 3. 应用改造和优化 对于应用改造和优化这部分,K8s到K8s的场景下,需要优化的是去适配自动扩容等自建K8s不具备的那些能力,在传统应用迁移到ACK的场景下,这部分的工作量会更大些,所以我们针对这个场景也输出了一些方案,比如类似于异地多活的方案,我们把用户传统应用环境,通常是虚拟机或者裸机环境集成到线上ACK部署的Istio网格中,逐步改造应用直至业务全部切换到线上ACK集群。 在应用逐步改造的这个过程中,会涉及到应用如何容器化、网络环境如何迁移以及数据迁移的问题,应用容器化这个问题,我们可以使用前面我提到过的一个服务叫做SMC迁云中心来完成虚拟机转换为容器镜像的过程,网络这部分可以通过iptables,External,CoreDNS PrivateZone等方式对IP地址DNS域名做处理,保持原先的逻辑IP和域名不变,并通过Istio实现网络虚拟路由和可观测性的管理。 4. 案例 接下来是部分迁云案例,有对高性能网络有特殊需求的用户,有做深度学习相关业务对大规模GPU机器有需求的用户,有要求裸金属机型服务器的用户等等。 5. 总结不同用户的不同业务场景在云原生化迁云方案的设计和落实上都有各自的差异性,不尽相同,需要结合ACK团队沉淀下来的最佳实践来快速做出评估和计划,并借助已有的一系列迁云工具快速完成业务从线下迁移上云的过程。 本文作者:流生 阅读原文 本文为云栖社区原创内容,未经允许不得转载。

July 26, 2019 · 1 min · jiezi

阿里云-EMAS-HTTPDNS-联合函数计算重磅推出-SDNS-服务三大能力获得突破

1. 什么是 HTTPDNS ?传统的 DNS(Domain Name System)使开发者常面临着域名劫持、调度不精准的问题。 HTTPDNS 使用 HTTP 协议替换常用的 UDP 协议,完成客户端和递归 DNS 之间的域名解析过程,使得 HTTPDNS 服务器自身可以充当递归 DNS ,这样域名解析请求直接发送到阿里云的 HTTPDNS 服务器,可以绕过Local DNS运营商 ,避免由于 Local DNS 造成的域名劫持和调度不精准问题。产品原理如下图所示: 2.SDNS 软件定义解析虽然,HTTPDNS 在域名劫持和调度上,相对传统 DNS 已经有了质的飞跃,但是还存在如下不足:(1)【权威 DNS 存在不足】传统权威 DNS 的功能非常有限,且不同供应商提供的能力参差不齐,有优化空间;(2)【无法优化结果】HTTPDNS 充当递归DNS的功能时,无法改变权威 DNS 解析的结果;(3)【缺乏管理】客户域名解析缺乏集中管理,大型客户的域名解析往往分布在多个 DNS 供应商。 而 SDNS 不仅可以帮助开发者进一步优化调度质量,而且可以结合函数计算等能力,扩展 HTTPDNS 的服务边界,提供了用户自定义的处理逻辑,让业务更加方便灵活。 2.1 什么是 SDNS ? SDNS(Software-Defined Name System,简称SDNS)即软件定义解析,是在 HTTPDNS 的基础上,创造性的引入了自定义解析功能。其主要特性有:(1)支持客户端自定义参数输入;(2)HTTPDNS 服务器端结合自定义函数处理能力,支持客户实现复杂的自定义解析功能;(3)返回自定义解析结果给客户端。 2.2 SDNS 的三大能力 SDNS 在功能上完成了三个方面的飞跃: (1)自定义能力 域名解析过程,可以基于自身业务诉求和实际检测数据情况,改进权威解析结果,实现业务最优。(2)服务扩展能力 不再局限于域名解析调度。例如可以结合函数计算等云服务,丰富和扩展自身业务能力。(3)系统调度能力 由于域名解析过程可以定义,可以修改权威的结果,增加额外的数据信息,客户可以在现有服务的基础上,整合各个权威 DNS 服务,规避由于多权威 DNS 不规范所导致的调度质量不够高的问题。2.3 SDNS 使用指南 ...

July 16, 2019 · 2 min · jiezi

从入门到放弃Java并发编程线程安全

概述并发编程,即多条线程在同一时间段内“同时”运行。 在多处理器系统已经普及的今天,多线程能发挥出其优势,如:一个8核cpu的服务器,如果只使用单线程的话,将有7个处理器被闲置,只能发挥出服务器八分之一的能力(忽略其它资源占用情况)。同时,使用多线程,可以简化我们对复杂任务的处理逻辑,降低业务模型的复杂程度。 因此并发编程对于提高服务器的资源利用率、提高系统吞吐量、降低编码难度等方面起着至关重要的作用。 以上是并发编程的优点,但是它同样引入了一个很重要的问题:线程安全。 什么是线程安全问题线程在并发执行时,因为cpu的调度等原因,线程会交替执行。如下图例子所示 public class SelfIncremental { private static int count; public static void main(String[] args) { Thread thread1 = new Thread(() -> { for (int i = 0; i< 10000; i++) { count++; System.out.println(count); } }); Thread thread2 = new Thread(() -> { for (int i = 0; i< 10000; i++) { count++; System.out.println(count); } }); thread1.start(); thread2.start(); }}执行完毕后count的值并不是每次都能等于20000,会出现小于20000的情况,原因是thread1和thread2可能会交替执行。 如图所示: t1时刻: thread1 读取到count=100t2时刻: thread2 读取到count=100t3时刻: thread1 对count+1t4时刻: thread2 对count+1t5时刻: thread1 将101写入countt5时刻: thread2 将101写入count因为count++ 不是一个原子操作,实际上会执行三步: ...

July 15, 2019 · 1 min · jiezi

QPS-提升60揭秘阿里巴巴轻量级开源-Web-服务器-Tengine-负载均衡算法

前言在阿里七层流量入口接入层(Application Gateway)场景下, Nginx 官方的Smooth Weighted Round-Robin( SWRR )负载均衡算法已经无法再完美施展它的技能。 Tengine 通过实现新的负载均衡算法Virtual Node Smooth Weighted Round-Robin(VNSWRR )不仅优雅的解决了 SWRR 算法的缺陷,而且QPS处理能力相对于 Nginx 官方的 SWRR 算法提升了60%左右。 问题接入层 Tengine 通过自研的动态 upstream 模块实现动态服务发现,即运行时动态感知后端应用机器扩缩容、权重调整和健康检查等信息。同时该功能可以做很多事情,比如用户可通过调整后端应用某台机器的权重从而达到线上真实引流压测目的。然而,这些操作在 Nginx 原生 SWRR 算法下却可能引起不可逆转的血案。 在接入层(Application Gateway)场景下, Nginx 的负载均衡算法 SWRR 会导致权重被调高机器的QPS瞬间暴涨,如上图App2-host-A机器当权重调整为2时,某一时刻流量会集中转发到该机器;Nginx 的 SWRR 算法的处理时间复杂度是O(N),在大规模后端场景下 Nginx 的处理能力将线性下降;综上所述,对接入层 Tengine 的负载均衡转发策略的改造及性能优化已迫在眉睫。 原生 SWRR 算法分析在介绍案列之前,我们先简单介绍下 Nginx 的负载均衡算法 SWRR 转发策略及特点: SWRR 算法全称是Smooth Weighted Round-Robin Balancing,顾名思义该算法相比于其它加权轮询(WRR)算法多一个smooth(平滑)的特性。 下面我们就一个简单的列子来描述下该算法: 假设有3台机器A、B、C权重分别为5、1、1,其中数组s代表机器列表、n代表机器数量,每个机器的cw初始化为0、ew初始化为机器权重、tw代表本轮选择中所有机器的ew之和、best表示本轮被选中的机器。简单的描述就是每次选择机器列表中cw值最大的机器,被选中机器的cw将会减去tw,从而降低下次被选中的机会,简单的伪代码描述如下: best = NULL;tw = 0;for(i = random() % n; i != i || falg; i = (i + 1) % n) {flag = 0;s[i].cw += s[i].ew;tw += s[i].ew;if (best == NULL || s[i].cw > best->cw) { best = &s[i];}}best->cw -= tw;return best;请求编号 选择前的权重值 被选中的server 选择后的权重值0 {5,1,1} A {-2,1,1}1 {3,2,2} A {-4,2,2}2 {1,3,3} B {1,-4,3}3 {6,-3,4} A {-1,-3,4}4 {4,-2,5} C {4,-2,-2}5 {9,-1,-1} A {2,-1,-1}6 {7,0,0} A {0,0,0} ...

July 12, 2019 · 2 min · jiezi

借助URLOS快速安装nextcloud网盘

简介nextcloud是一个免费专业的私有云存储网盘开源项目,可以让你简单快速地在个人/公司电脑、服务器等设备上架设一套属于自己或团队专属的云同步网盘,从而实现跨平台跨设备文件同步、共享。 今天我们介绍一种更快速的安装方法,那就是通过URLOS一键安装nextcloud网盘。urlos是什么? URLOS是一个云主机管理软件,基于Docker容器技术打包和运行应用,包含负载均衡和故障转移等高级功能,可自动识别机器和云应用的故障并将云应用转移至可用的机器上,单机故障并不影响业务开展。 你可以使用以下命令安装URLOS: curl -LO www.urlos.com/iu && sh iu在此不讨论URLOS的使用方法,感兴趣的朋友请自行搜索,我们直接来看URLOS如何快速安装nextcloud网盘: 安装流程1.登录URLOS系统后台,在应用市场中搜索“nextcloud”,找到之后,直接点击安装按钮 2.填写服务名称、选择运行节点、服务端口、选择智能部署 3.填写域名:www.aaa.com(这里填写自己的域名) 4.设置数据库选择自动添加并部署数据库,填写数据库密码;数据库名和数据库用户名跟前面的服务名称一致,这里已经自动设置好; 记下数据库密码、数据库名和数据库用户名,下面要用到; 然后点击“提交”按钮,等待部署完成; 5. nextcloud网盘安装向导

July 11, 2019 · 1 min · jiezi

阿里云环境中TLSSSL握手失败的场景分析

TLS/SSL握手是一个相对复杂的过程,在阿里云环境中结合产品,安全等特性,可能会让TLS/SSL握手过程的不定性更多。本文来总结下各种握手失败的场景。 一次TLS/SSL握手的过程本文不详细介绍TLS/SSL基础知识,相关介绍可以参考文章。下面3张图描述了3种TLS/SSL握手的全过程。 服务器验证的完全握手 (Full Handshake with Mutual Authentication)这种是互联网大部分HTTPS流量使用的验证模式。证书在服务器上,客户端通过证书来验证服务器是否可靠。 双向验证的完全握手 (Full Handshake with Server Authentication) 这种是对客户端安全性有要求的验证模式。除了客户端要验证服务器外,服务器对客户端也需要进行验证,所以需要双向验证。和上面的步骤相比,多了客户端向服务器传输证书的过程。 简单握手 (Abbreviated Handshake) 完全握手需要2个RTT并交互很多消息,在会话复用的场景下,可以让握手简化到1个RTT完成。过程如下: 常规TLS/SSL握手失败TLS/SSL版本不匹配自从TLS 1.2版本在2008年发布以来,绝大部分HTTPS流量都跑在TLS 1.2上。服务器处于安全性考虑通常也只支持较高版本TLS,比如TLS1.0及以上。但是仍然有一些版本比较旧的操作系统和浏览器存在,如果这些客户端用低版本TLS/SSL向服务器发起握手,会因为服务器不支持而直接失败。 比如淘宝网只支持TLS 1.0及以上版本,用openssl发起SSL 3版本的握手,就会出现handshake failure。 # openssl s_client -connect www.taobao.com:443 -ssl3 -msgCONNECTED(00000003)>>> ??? [length 0005] 16 03 00 00 8f>>> SSL 3.0 Handshake [length 008f], ClientHello 01 00 00 8b 03 00 2a a0 d3 c5 10 b0 0a c0 0b ea fc e7 49 8f d1 66 cd 2a 51 c1 ab f4 ab b7 63 e1 a7 3e e0 d7 14 9b 00 00 64 c0 14 c0 0a 00 39 00 38 00 37 00 36 00 88 00 87 00 86 00 85 c0 0f c0 05 00 35 00 84 c0 13 c0 09 00 33 00 32 00 31 00 30 00 9a 00 99 00 98 00 97 00 45 00 44 00 43 00 42 c0 0e c0 04 00 2f 00 96 00 41 c0 12 c0 08 00 16 00 13 00 10 00 0d c0 0d c0 03 00 0a 00 07 c0 11 c0 07 c0 0c c0 02 00 05 00 04 00 ff 01 00<<< ??? [length 0005] 15 03 00 00 02<<< SSL 3.0 Alert [length 0002], fatal handshake_failure 02 28140191222585232:error:14094410:SSL routines:ssl3_read_bytes:sslv3 alert handshake failure:s3_pkt.c:1493:SSL alert number 40140191222585232:error:1409E0E5:SSL routines:ssl3_write_bytes:ssl handshake failure:s3_pkt.c:659:---no peer certificate available---No client certificate CA names sentTLS/SSL cipher suite不匹配在握手的前两个ClientHello和ServerHello包中有一个重要的任务就是协商cipher。客户端在ClientHello中会带上所有支持的cipher suite, 服务器在收到ClientHello中的cipher suite后,会和自己支持的cipher suite一一匹配,如果没有可以匹配的就会握手失败。 ...

July 10, 2019 · 3 min · jiezi

三丰云网站

三丰云这个网站,网络质量很好,从来没有出现过任何问题,管理方便与微信直接关联,更方便,还有永久免费服务器。

July 9, 2019 · 1 min · jiezi

带你了解伪造地址和反射点造成的DDOS怎么处理

在现阶段的移动互联网环境中,除了僵尸网络能够在网络中造成不同形式的攻击外,伪造地址与反射点在网络中发起的攻击也是不容忽视的。如在DDoS攻击中,出现的这两种现象的给DDOS处理和防护带来了诸多困难。这篇主要分享伪造地址和反射点造成的DDOS怎么处理? 我们先讲下伪造地址攻击,伪造地址对攻击溯源追查起来变得更加闲难,因此攻击者承担的风险小,导致他们更加肆无忌惮。而且伪造地址可以发动更大规模的DDoS攻击。其中主要包括DNS反射式DDoS攻击,它能够使原始的攻击流量放大很多倍,其威胁的程度更大。最终使得DDOS防护变得更为困难,使用源地址过滤的方式不能抵抗攻击。因此有人提出了路由过滤的缓解方法 ,在网络入口处添加路由器,然后对数据包进行过滤。其中还有单播反向路径转发也属于一种缓解地址伪造的技术,路由器会对进入的数据包检查源地址和端口是否存在路由表中。如果存在就认为该数据包是通过最优路径到达该路由器,可以正常转发,否则丢弃也属于分布式过滤方法。反射式DDoS攻击,主要是DNS反射攻击,在互联网中有大量的DNS服务器可以作为反射点,而且通过伪造地址隐藏攻击源以及反射攻击的放大作用,因此也是最具破坏力的攻击方式之一。类似的攻击主要有ACK、DNS、SNMP、NTP等类型。针对反射点攻击的有效治理方法是提高DNS服务器的安全性,做到定期检查。检查内容:限制允许访问地址范围,防止被滥用;采用RRL,Knot DNS和NSD将其作为标准选项;用户端设备不应该在广域网接口监听DNS数据包,包括网络和广播地址等。墨者安全觉得想要有效的避免DDOS攻击,首先要解决潜在的威胁手段,比如僵尸网络,地址伪造以及反射性攻击等。以上属于个人观点,不喜勿喷,可以互相交流。

July 5, 2019 · 1 min · jiezi

服务器租用挑选服务商时应该注意些什么NE1

互联网时代不断前行,拥有自己网站的用户开始逐步的淘汰了性能差的vps主机了,转而租用或者购买属于自己一个人的服务器来搭建网站平台。以下为大家介绍一下服务器租用挑选服务商时应该注意些什么?一、找机房,只选对的,低价意味高风险,贵得值也是关键。很多客户在选择机房的时候,一问价格就直接否认,最后找了个便宜的,但是问题接二连三的出现,为此后悔不及。在市场中,我们知道有这样一个规律,贵的东西有贵的价值,便宜的也有便宜的原因,因此,深入的去了解比一刀切更实际;二、数据中心的基础设施是考察的重点,很多人去看机房,只是看了下规模大小就直接决定,其实看机房的重点是考察基础设施,比如电力保障,空调系统,温度湿度系统,防尘设备等。机房的环境直接影响服务器的运作和寿命,这是不可忽视的一个问题;三、重服务,重技术,是后期的关键。谁也不敢保证服务器一年到头一点问题都没有。但是企业在托管的时候却很容易忽视这点,这对企业造成的问题实例也不再少数。四、售后服务。一般优质的服务商都会向用户提供优质的售后服务,比如7*24小时持续供电,专业的技术人员等等。一个优质的售后服务,能人我们在租用的时候更加省心,更加放心。服务器的安全性取决于服务器自身的品质外,还和服务器的售后服务水平息息相关。服务器代理商一般都缺乏相应的专业技术,一旦服务器出现问题,例如网络设置重置、IP地址篡改等常见但又有一定技术性的问题,代理商很难自行处理。售后电话服务由于客服时间的限制,让代理商们很难对客户保证一个较高的服务水平。此种情况下,售后服务与售后服务能力供需不对等,容易让客户有低下的用户体验感。我在速联等您加客服qq3307827780代理商们在无法解决问题的情况下,会第一时间找到服务器厂家进行处理。杭州速联信息科技有限公司服务器为客户及代理商们提供7*24小时在线技术支持服务,我们的故障处理机制保证在24小时之内将处理结果反馈给客户,提供完善的售后服务。 杭州速联信息科技有限公司欢迎您来撩!我在速联等您加客服qq3307827780

July 3, 2019 · 1 min · jiezi

据消息透漏最终幻想14的NA服务器遇上DDOS

大家都知道游戏行业一直是DDoS攻击的重头目标。昨天下午据消息透漏最终幻想14的NA服务器遭遇DDoS攻击。Square Enix的官方表示从2019年6月28日下午12:24(太平洋标准时间) 有玩家可能会遇到的以下问题:1、与NA数据中心断开连接,错误代码是一些比较常见的,6001,2002,5006和90002代码;2、难以登录到NA数据中心;3、难以访问,发送,以及从NA数据中心接收数据。此次事件受影响的服务主要是:FINAL FANTASY XIV ,主要影响北美服务器。最终幻想官方表示现在还不清楚是谁造成了DDOS攻击,也不清楚攻击的方式。团队正在研究解决问题并采取相对应的对策。 DDoS分布式拒绝服务,黑客试图通过使用大量恶意请求来拥塞用户的网络带宽来达到拒绝服务的目的;有的是通过占用服务器的连接资源池来达到拒绝服务的目的;有的通过占用服务器的SSL会话资源来达到拒绝服务的目的;还有的是用过占用服务器的应用处理资源,极大的消耗服务器处理性能从而达到拒绝服务的目的。多年来,DDOS攻击一直是整个行业最头疼的问题。全国每天会被DDOS攻击的游戏公司数量也是极其可观的。对于游戏行业来说,DDoS攻击情况比较复杂,攻击流量大、类型多样、变化快,攻击人员更专业,攻击周期更长,墨者安全建议选用良好的机房设施,BGP优化线路。使其防护更稳定,时效性更快,这样可以将损失降到最低。

June 29, 2019 · 1 min · jiezi

大家可能对DDoS存在的几个误区

相信大家常听到DDoS攻击,但是对它的认知大部分人的应该是来源于新闻媒体报道。当然通过这种的普及方式,我们认识到DDoS的危害性,但同时可能对它也会陷入误区。如,新闻媒体关注的是针对一些国际的知名企业和各国政府间的攻击事件,这样就会让很多人认为中小企业网站是不会被DDoS攻击的。而且DDOS针对不同行业的危害性是不一样的。下面我就分享下大家可能对DDOS存在的几个误区? 1、DDoS攻击都来自PC组成的僵尸网络,虽然常识是DDOS攻击由僵尸网络发起的,但是由于技术的进步,僵尸网络由高性能的服务器组成,在处理性能和带宽方面快速提升了。而且随着物联网的崛起,僵尸网络再次由移动设备组成。这样更有利于进行DDOS攻击。2、DDoS攻击都是消耗网络带宽资源的攻击,经常我们在新闻报道中见到表示DDOS攻击时,都会用攻击流量达到了多少G的语句来描述攻击的严重程度,这种有攻击流量的带宽做为攻击严重程度的描述,使大家误认为DDOS攻击时消耗网络带宽资源的攻击。但事实上,DDOS除了消耗带宽资源,也会消耗系统资源和应用资源的攻击方式。而且对于相同类型的攻击,流量越大危害也就越大。比如SYN洪水攻击和UDP洪水攻击在相同的攻击流量下,前者比后者的危害大。针对不同的攻击方法造成的危害和影响也不同。比如SYN洪水攻击,很多人认为是消耗网络带宽资源的攻击,实际上是耗尽系统连接表的资源。3、DDoS攻击都是洪水攻击,其实在说到DDOS攻击的时候,很多人通常会认为DDOS攻击都是洪水攻击,比如SYN Flood、UDP Flood等。正常洪水攻击是DDOS攻击方式中占比例较大的一部分,但除了洪水攻击还有一些慢速攻击, 它们会缓慢地一点点的发送请求并长期占用目标资源。4、小网站或者个人是不会遭遇攻击,如果有这样的想法,那您肯定是想错了,墨者安全我经常遇见一些用户,说他的网站刚建起来就被攻击了,怎么解决等等,一些非盈利性质的网站自然是没有影响,但是对于一些营利性质的网站就需要去解决攻击问题,还有一些个人博客等等,这种刚开始的都是小流量的站,依然碰到了攻击事件,那这种该怎么解释他为什么会受到攻击呢?所以网站的是否营利不会影响攻击行为的本质,因此做为企业的领导人是不应该忽视这个问题的。5、只有黑客才能发起DDoS,技术的发展必然会促进分工.当前大部分黑客都专注于特定领域。有些擅长发现漏洞,有些擅于开发工具.有些负责人侵过程.有些专门处理账户信息。在DDoS攻击中,他们有的利用僵尸网络.有的控制高性能服务器,形成攻击能力后对外提供租用服务。而最终的租用者很可能只是不具备任何专业知识的普通人。他们只要输入攻击目标的地址就可以完成整个攻击过程。发起DDoS攻击的可能是竞争对手,或者是一些对服务行文不满意的恶意报复行为的人。6、防火墙和入侵检测/防御系统能够缓解DDoS攻击,防火墙是最常用的安全产品,但传统的防火墙是通过高强度的检测来进行防护的,主要部署在网络入口位置,虽然可以保护网络内部的所有资源,但是也成为了DDOS攻击的目标,入侵检测/防御系统属于应用最广泛的攻击检测/防护工具.但在面临DDoS攻击是,入侵检测/防御系统通常也不能完全满足要求。它们一般是对于特征规则的情况下进行应用层攻击的检测,但目前DDqS攻击大部分模拟正常的用户数据请求进行攻击。因此防火墙和入侵检测/防御系统在有效缓解DDOS攻击的问题上存在着性能问题。7、系统优化和增加带宽能够有效的缓解DDOS攻击,系统优化主要是对被攻击系统的核心参数进行调整,比如增加TCP连接表的数量或者是建立连接超时时间等,对于小规模的DDOS攻击可以起到缓解作用,但是遇见大流量攻击,就完全没有任何作用。增加带宽也是一样的,而且最终解决不了根本的问题,只能面临小流量的缓解,大的完全是不起作用。而且不断的增加也会无限制增加的投入。8、DDoS的云端清洗服务和本地缓解设备可以相互替代,DDOS属于多种攻击的统称,不同的攻击有不同的解决方法。通常情况下云端清洗主要是通过特定的技术手段,对访问请求进行过滤分析,清洗,然后回源的方式来缓解DDOS攻击,而本地基础设施设备可以处理较小的流量攻击,需要组合高防IP,云清洗等多种方式进行有效缓解。 所以建议用户如果被攻击需要根据自身的业务选择合适的防护方法。如果是高危的行业,如游戏、支付、金融、商城网站、APP等行业,可以提前做好最基础的防护措施,避免遇见攻击后被丢入黑洞,导致业务停止,给企业造成比较大的损失。

June 28, 2019 · 1 min · jiezi

使用NGINX作为HTTPS正向代理服务器

NGINX主要设计作为反向代理服务器,但随着NGINX的发展,它同样能作为正向代理的选项之一。正向代理本身并不复杂,而如何代理加密的HTTPS流量是正向代理需要解决的主要问题。本文将介绍利用NGINX来正向代理HTTPS流量两种方案,及其使用场景和主要问题。 HTTP/HTTPS正向代理的分类简单介绍下正向代理的分类作为理解下文的背景知识: 按客户端有无感知的分类普通代理:在客户端需要在浏览器中或者系统环境变量手动设置代理的地址和端口。如squid,在客户端指定squid服务器IP和端口3128。透明代理:客户端不需要做任何代理设置,“代理”这个角色对于客户端是透明的。如企业网络链路中的Web Gateway设备。按代理是否解密HTTPS的分类隧道代理 :也就是透传代理。代理服务器只是在TCP协议上透传HTTPS流量,对于其代理的流量的具体内容不解密不感知。客户端和其访问的目的服务器做直接TLS/SSL交互。本文中讨论的NGINX代理方式属于这种模式。中间人(MITM, Man-in-the-Middle)代理:代理服务器解密HTTPS流量,对客户端利用自签名证书完成TLS/SSL握手,对目的服务器端完成正常TLS交互。在客户端-代理-服务器的链路中建立两段TLS/SSL会话。如Charles,简单原理描述可以参考文章。注:这种情况客户端在TLS握手阶段实际上是拿到的代理服务器自己的自签名证书,证书链的验证默认不成功,需要在客户端信任代理自签证书的Root CA证书。所以过程中是客户端有感的。如果要做成无感的透明代理,需要向客户端推送自建的Root CA证书,在企业内部环境下是可实现的。为什么正向代理处理HTTPS流量需要特殊处理?作为反向代理时,代理服务器通常终结 (terminate) HTTPS加密流量,再转发给后端实例。HTTPS流量的加解密和认证过程发生在客户端和反向代理服务器之间。 而作为正向代理在处理客户端发过来的流量时,HTTP加密封装在了TLS/SSL中,代理服务器无法看到客户端请求URL中想要访问的域名,如下图。所以代理HTTPS流量,相比于HTTP,需要做一些特殊处理。 NGINX的解决方案根据前文中的分类方式,NGINX解决HTTPS代理的方式都属于透传(隧道)模式,即不解密不感知上层流量。具体的方式有如下7层和4层的两类解决方案。 HTTP CONNECT隧道 (7层解决方案)历史背景早在1998年,也就是TLS还没有正式诞生的SSL时代,主导SSL协议的Netscape公司就提出了关于利用web代理来tunneling SSL流量的INTERNET-DRAFT。其核心思想就是利用HTTP CONNECT请求在客户端和代理之间建立一个HTTP CONNECT Tunnel,在CONNECT请求中需要指定客户端需要访问的目的主机和端口。Draft中的原图如下: 整个过程可以参考HTTP权威指南中的图: 客户端给代理服务器发送HTTP CONNECT请求。代理服务器利用HTTP CONNECT请求中的主机和端口与目的服务器建立TCP连接。代理服务器给客户端返回HTTP 200响应。客户端和代理服务器建立起HTTP CONNECT隧道,HTTPS流量到达代理服务器后,直接通过TCP透传给远端目的服务器。代理服务器的角色是透传HTTPS流量,并不需要解密HTTPS。 NGINX ngx_http_proxy_connect_module模块NGINX作为反向代理服务器,官方一直没有支持HTTP CONNECT方法。但是基于NGINX的模块化、可扩展性好的特性,阿里的@chobits提供了ngx_http_proxy_connect_module模块,来支持HTTP CONNECT方法,从而让NGINX可以扩展为正向代理。 环境搭建以CentOS 7的环境为例。 1) 安装对于新安装的环境,参考正常的安装步骤和安装这个模块的步骤(https://github.com/chobits/ngx_http_proxy_connect_module)),把对应版本的patch打上之后,在configure的时候加上参数--add-module=/path/to/ngx_http_proxy_connect_module,示例如下: ./configure \--user=www \--group=www \--prefix=/usr/local/nginx \--with-http_ssl_module \--with-http_stub_status_module \--with-http_realip_module \--with-threads \--add-module=/root/src/ngx_http_proxy_connect_module对于已经安装编译安装完的环境,需要加入以上模块,步骤如下: # 停止NGINX服务# systemctl stop nginx# 备份原执行文件# cp /usr/local/nginx/sbin/nginx /usr/local/nginx/sbin/nginx.bak# 在源代码路径重新编译# cd /usr/local/src/nginx-1.16.0./configure \--user=www \--group=www \--prefix=/usr/local/nginx \--with-http_ssl_module \--with-http_stub_status_module \--with-http_realip_module \--with-threads \--add-module=/root/src/ngx_http_proxy_connect_module# make# 不要make install# 将新生成的可执行文件拷贝覆盖原来的nginx执行文件# cp objs/nginx /usr/local/nginx/sbin/nginx# /usr/bin/nginx -Vnginx version: nginx/1.16.0built by gcc 4.8.5 20150623 (Red Hat 4.8.5-36) (GCC)built with OpenSSL 1.0.2k-fips 26 Jan 2017TLS SNI support enabledconfigure arguments: --user=www --group=www --prefix=/usr/local/nginx --with-http_ssl_module --with-http_stub_status_module --with-http_realip_module --with-threads --add-module=/root/src/ngx_http_proxy_connect_module2) nginx.conf文件配置 ...

June 24, 2019 · 5 min · jiezi

借助-Cloud-Toolkit-快速创建-Dubbo-工程

Cloud Toolkit 是一个 IDE 插件,帮助开发者更高效地开发、测试、诊断并部署应用。在最新版的插件中,提供了快速创建 Dubbo 工程的功能,下面就来快速体验下吧。 Dubbo 采用全 Spring 配置方式,透明化接入应用,对应用没有任何 API 侵入,只需用 Spring 加载 Dubbo 的配置即可,Dubbo 基于 Spring 的 Schema 扩展 进行加载。如果不想使用 Spring 配置,可以通过 API 的方式 进行调用。 功能预览 功能入口打开 IntelliJ IDEA,进入菜单:File - New - Project... 第一步:选择 JAVA SDK 版本 第二步:填写应用基本信息 包括选择 Dubbo 版本、Spring Boot 版本等。 第三步:确定创建 如下图所示,就完成了一个完整的 Dubbo 工程的创建了,此工程的结构和Apache Dubbo 官方样例工程完全一致。参考 Apache Dubbo 官方样例工程:https://dubbo.apache.org/zh-cn/docs/user/quick-start.html 立即点击下载 官网 https://toolkit.aliyun.com 亮点1:本地应用一键部署 Deploy to ECS开发者本地编写的应用程序,在图形化界面上进行配置,即可持续便利的部署到云端的 ECS 服务器上;在 Eclipse 中完成编码后,无须在 Maven 、Git 以及其他运维脚本和工具的之间切换,借助 Cloud Toolkit for Eclipse 插件,在 IDE 的图形界面上选择一个或若干个 ECS 实例,即可将应用程序部署至 ECS 指定目录Deploy to EDAS针对阿里云 EDAS 产品的开发者,我们也在插件上打通了本地应用程序和云端部署,在 Eclipse 中完成编码后,将 IDE 内的项目工程,关联上 EDAS 的应用,即可实现快速部署。Deploy to CS Kubernetes针对阿里云 容器服务 Kubernetes 产品的开发者,我们也在插件上打通了本地应用程序和云端Kubernetes部署,在 Eclipse 中完成编码后,将 IDE 内的项目工程,关联上 容器服务 Kubernetes 的部署,即可实现快速部署。亮点2:内置终端 Terminal ...

June 20, 2019 · 1 min · jiezi

揭秘阿里云背后神秘而富有能量的一群人

作为某创业公司CTO兼CTO兼CFO,带领众子弟行走于云端计算,累计犒赏已达757157.09银两,江湖人称紫龙,就是众多阿里云大使中低调内敛的一位。其话不多,一个典型的技术男,但又热心钻研传播推广,不到一年,便在众多云大使中脱颖而出,位居江湖重要地位。 最美云大使张小白,全职云大使,云计算0基础做起,每天坚持推广,风雨无阻5小时,为用户答疑解惑,已从一名云计算小白一跃成为北方大区云大使第一人,累计收入达755406.2元。 就是这样的一群人,神秘而富有能量,目前云大使成员已遍布大江南北,累计使者已达数十万余人。 什么是阿里云云大使? 阿里云大使是阿里云生态战略合作伙伴,致力于帮助中国中小企业完成数字化转型和信息化升级,推动全民普惠上云以社会化营销的能力驱动数字中国。2019年5月全新升级,新增云气、等级、权益,掌门、宗师、盟主正虚席以待,原有佣金模式再度解锁新姿势,奖励高达66.6%,更有代金券、促销工具、专业培训、专享云气值、优先内测权等,全方位360度助你做一名666的云大使。加入云大使,领取任务后达标即可领取8000元,季度任务可叠加,更多奖励、更多佣金等你来拿。 与此同时,若您在众多云大使中脱颖而出,位居江湖重要地位,阿里云将授予你云大使官方徽章,为你创建云栖社区公众号,也可为你开通阿里云直播平台,云栖大会将会有你一席之地、云大使峰会你将会崭露头角,享更多人气,拥更多粉丝,做IT界的网红技术大咖!不管你是云计算零基础,还是云计算从业者,不管你是程序员小哥哥,还是工资白领小姐姐,只要你想轻松月入过万,一台电脑、一部手机、一份热爱推广的心就够了。 如何加入云大使? 免费加入云大使:https://promotion.aliyun.com/ntms/yunparter/index.html 阿里云618大促活动成为您推广的第一个项目吧! 在618这个年中的大幅度优惠促销日,怎样才能推广更多的客户获得更多奖励呢?小编特为各位大佬奉献出推广大法: 丨活动阵地: https://www.aliyun.com/acts/hi618/index丨购买攻略: https://yq.aliyun.com/articles/705629丨关键词语:47%真实返佣、额外奖励、爆款、拼团、满返、6.18万无门槛代金券丨活动时间:06.17-06.30 专属额外激励:618期间(6.17-6.30)云大使推广任意首购订单加码额外激励,最高新增1200元返佣,真实返佣高达47%;推广3000元及以上订单可获1400元返佣、推广5000元及以上订单可获2000元返佣、推广10000元及以上订单可获2700元返佣;具体如下图: 618期间(6.17-6.30)云大使推广任意首购订单加码额外激励,最高新增1200元返佣,真实返佣高达47%;推广3000元及以上订单可获1400元返佣、推广5000元及以上订单可获2000元返佣、推广10000元及以上订单可获2700元返佣; PS:①额外激励限坛主及以上等级云大使参与②额外激励奖励于订单可提取前系统自动补发至您的推广订单中等级查询入口:https://promotion.aliyun.com/ntms/yunparter/personal-center.html 云大使推广工具:1.2000元通用代金券推广页面:新用户购买云产品使用 云大使关联新客利器点击链接推广你的专属代金券页面:https://promotion.aliyun.com/ntms/yunparter/personal-center.html 2.云主机9折码推广工具:新用户购买云主机时使用可以代金券叠加使用9折码需要在移动端领取,使用时不做任何限制PC移动均可使用,可在工具1的链接中扫码分享至移动端,客户在移动端领取即可 3.自定义链接工具:将想推广的链接输入并生成,客户在你分享的页面登录即成为你的关联客户,首购后你将获得最高66%的返佣奖励点击链接生成你的专属推广页面:https://promotion.aliyun.com/ntms/yunparter/personal-center.html#/month-task 一.爆款云产品拼团低至2.4折丨爆款云主机:1核1G1M仅190元/年【618期间返佣30元】丨网络增强型:2核8G5M仅1195元/年【618期间返佣400元】 丨网络增强型:2核8G5M仅3585元/3年【618期间返佣1400元】 二.新客首笔满返6000元新用户购买全站4折以上云产品,首次购买订单满2000元,立享满返,多买多返,最高返6000元;满返(客户获得)与返佣奖励(大使获得)叠加 三.云上故事集赞赢6.18万无门槛代金券1.书写你的云上故事集赞最多者可获6.18万无门槛代金券奖励2.云大使书写故事分享内容文章(自带usercode),文章内自带购买专区,可直接转化潜在客户3.点击进入主会场撰写你的故事吧:https://www.aliyun.com/acts/hi618/index 阅读原文本文为云栖社区原创内容,未经允许不得转载。

June 19, 2019 · 1 min · jiezi

云上快速搭建Serverless-AI实验室

Serverless Kubernetes和ACK虚拟节点都已基于ECI提供GPU容器实例功能,让用户在云上低成本快速搭建serverless AI实验室,用户无需维护服务器和GPU基础运行环境,极大降低AI平台运维的负担,显著提升整体计算效率。 如何使用GPU容器实例在pod的annotation中指定所需GPU的类型(P4/P100/V100等),同时在resource.limits中指定GPU的个数即可创建GPU容器实例。每个pod独占GPU,暂不支持vGPU,GPU实例的收费与ECS GPU类型收费一致,不产生额外费用,目前ECI提供多种规格的GPU类型。(请参考https://help.aliyun.com/document_detail/114581.html) 示例1. 创建Serverless Kubernetes集群选择深圳区域,可用区D。 2. 创建GPU容器实例我们使用tensorflow模型对如下图片进行识别: 使用模版创建pod,其中选择P100 GPU规格。在pod中的脚本会下载上述图片文件,并根据模型进行识别计算。 apiVersion: v1kind: Podmetadata: name: tensorflow annotations: k8s.aliyun.com/eci-gpu-type : "P100"spec: containers: - image: registry-vpc.cn-shenzhen.aliyuncs.com/ack-serverless/tensorflow name: tensorflow command: - "sh" - "-c" - "python models/tutorials/image/imagenet/classify_image.py" resources: limits: nvidia.com/gpu: "1" restartPolicy: OnFailure部署后pod会处于pending状态: 等待几十秒后pod状态变成Running,待计算完成后会变成Terminated状态。 从pod的日志我们可以看到pod能够识别P100 GPU硬件,而且可以正确识别图片为Panda。 总结通过以上示例可以看出,从环境搭建到计算结束,整个过程用户无需购买和管理服务器,无需安装GPU运行环境,serverless的方式可以让用户更加关注在AI模型构建,而不是底层基础设施的管理和维护。 本文作者:贤维原文链接 本文为云栖社区原创内容,未经允许不得转载。

June 18, 2019 · 1 min · jiezi

2019阿里云618大促主会场全攻略

2019阿里云618大促活动已经于6月16日正式开启,从已开放的活动页面来看,整场大促活动由爆款拼团、满额最高返6000、上云接力赛分享集赞赢6.18万大奖三大活动组成。 在618这个年中的大幅度优惠促销日,怎样才能花最少的钱配置最特惠的云服务?云栖社区小编特为各位用户奉献出省钱大法如下: 丨活动阵地: [](https://yq.aliyun.com/go/arti...://www.aliyun.com/acts/hi618/index)https://www.aliyun.com/acts/hi618/index?utm_content=g_1000062626[](https://yq.aliyun.com/go/arti...://www.aliyun.com/acts/hi618/index) 丨关键词:爆款、拼团、满返、分享集赞赢6.18万大奖 一、爆款产品拼团购该活动面向阿里云官网已实名认证的注册会员用户。活动时间将贯穿整个大促活动,从2019年6月16日开始至2019年6月30日。 活动期间,用户通过本活动页面购买指定云产品,可享受相应的优惠折扣(以页面展示为准);购买方式包括直接购买和拼团购买两种。 1)直接购买:用户在活动页面选择相应云产品、点击直接购买并支付成功;或用户选择拼团购买方式购买,但未能在7日内完成拼团任务的,将自动转换为直接购买方式。2)拼团购买:用户选择拼团购买方式下单购买并完成支付后,在7日内拉到1位新用户完成同款产品的购买,即视为拼团成功。拼团成功的用户(包括开团者与参团者),均可在直接购买价格(实际付现金额)的基础上,再享受8折优惠。 如果您是一位开团者,在大促页面选择您要购买的云产品,会先以直接购买价格完成支付,支付成功后,方可发起拼团。如在7日内拼团成功的,原实际付现支付金额的20%将在5个工作日内以现金形式返还至开团者绑定的支付宝账号。开团者的身份限制以当时页面提示为准。 参团者须为从未购买过云产品的阿里云新用户,且应通过开团者的分享链接,在开团后7日内在页面内任选1款云产品购买,参团者在购买时将直接按拼团价格(即直接购买价格的80%)进行结算。 注意哦,是从开团者的分享链接进入,可以任选云产品购买哦! 同一用户对同类产品仅可享受1次拼团(包括开团&参团)购买机会,举例:活动页面弹性计算ECS产品最多仅一款可以拼团价格购买。同一用户就单类产品可享受的活动优惠仅限1单1件。 下面我们将分享这次爆款拼团产品,给大家参考: 二、满额最高返6000元活动期间,新用户在阿里云官网新购、升级预付费云产品,首笔订单(新用户首次购买,包括购物车一次性下单、套餐购买)有效消费金额满2000元,即可获得对应金额的阿里云云产品代金券。具体如下:• 首笔订单有效消费金额2000-4999元,每满1000返100;• 首笔订单有效消费金额5000-9999元,每满1000返150;• 首笔订单有效消费金额10000元及以上,每满5000返1000,最高封顶6000元。 下面我们将分享这次爆款产品,给大家参考: 三、上云接力赛分享集赞赢6.18万大奖1.活动对象:阿里云官网注册会员用户 2.活动时间:2019年6月16日至2019年6月30日。 3.活动内容 1、活动期间,阿里云官网注册用户可在登录状态下参与“上云接力赛”活动的故事创建、故事分享和故事点赞。具体如下: ①故事创建:用户可在阿里云618主会场的“上云接力赛”板块点击“书写故事”按钮,进入并完成故事的创建。同一用户活动期间可创建多个故事。 ②故事分享:用户可使用活动页面的分享功能,分享传播自己或其他用户已创建的故事。同一用户活动期间可分享多个故事,不限作者。 ③故事点赞:同一用户就同一故事仅可点赞一次,但同一用户活动期间可为多个故事点赞。 2、阿里云618主会场的“上云接力赛”板块排行榜会根据点赞数进行动态降序排序。活动结束之后3个工作日内,阿里云将在官网进行公布排名、奖项及抽奖结果。 3、阿里云将根据活动结束时的故事点赞排行榜的排名情况,给予排名前一百故事的作者以相应的代金券奖励,具体如下: ①排名第一的故事,作者可获得6.18万元无门槛云产品通用代金券; ②排名第二至第五的故事,作者每人可获得6180元的无门槛云产品通用代金券; ③排名第六至第三十的故事,作者每人可获得618元的无门槛云产品通用代金券; ④排名第三十一至第一百的故事,作者每人可获得200元的无门槛云产品通用代金券。 4、阿里云将在所有参与点赞和参与分享的用户中,各随机抽取100位幸运用户,每人可获得100元的无门槛云产品通用代金券。 5、用户参与本次活动所获得的代金券,将于2019年7月5日前发放至相应的阿里云账号。 6、代金券自领取之日起30日内有效,用户应在有效期内使用,过期自动作废。代金券仅限用户用于本账户下的新购、升级预付费云产品使用,不得转让或出售,或以其他方式换取利益。 7、本次活动鼓励云大使参与故事创建和分享,由此带来的有效推广业绩可为参与活动的云大使获得相应的云气值。 8、如用户在活动中存在隐瞒、虚构、作弊、欺诈或通过其他非正常手段规避活动规则、获取不当利益的行为,例如:作弊领取、恶意套现、网络攻击、抄袭版权、虚假交易等,阿里云有权收回相关权益、取消用户的活动参与资格,撤销违规交易和奖励,必要时追究违规用户的法律责任。 9、活动名称仅为方便用户理解参考使用,不具有效力,实际活动内容以具体活动规则为准。 上云撰写模版: “XXX APP的上云故事” · 我是谁? 我们是XXX,是汇集了XXX的社区电商 · 云故事 我们的业务发展到了百万用户,这时候如何能更精细地运营用户,并且洞察不同用户群体的需求、孵化商业模式。我们是个创业团队,自己搭建在人力和成本上都太不现实了,这是我们被“逼上云端”的背景。 我们开始购买的事阿里云大数据计算服务,用于快速处理平台上的数据和分析。美甲这个业务,需要紧跟季节、流行的热度,我们找到了阿里云公众趋势分析这个产品,能够帮助我们根据全网的舆情,实时跟进潮流趋势。 · 云寄语 对我们来说,这朵云不仅是多“便宜”的云,还是一朵“聪明”的云、“时尚”的云。随着我们业务发展起来,我们还计划着采买更多能够支持我们商业模式优化的产品 · 使用阿里云的产品 ECS故事举例: 百芯智造:跟着阿里云,布局全世界房讯通:房产估价背后的混合云服务哈哈零售:数据够准,才敢托付权大师:让企业注册成本降低了40%认识医生:为了600毫秒的反应速度校聘云:人力行业的数据安全守夜人怡水科技:艺术生也不惧的上云路 具体玩法如下: 点击进入主会场撰写你的故事吧:[](https://yq.aliyun.com/go/arti...://www.aliyun.com/acts/hi618/index)https://www.aliyun.com/acts/hi618/index?utm_content=g_1000062626 原文链接本文为云栖社区原创内容,未经允许不得转载。

June 17, 2019 · 1 min · jiezi

精彩直播预告互联网大佬紫龙教你如何在618采购你的第一台云服务器

直播主题:如何在618采购你的第一台云服务器直播时间:6月13日(本周四)下午17:00-18:30 直播嘉宾:紫龙,资深云大使 面向对象:有上云需求的用户 直播内容:常见上云场景解析;产品选择(根据不同业务场景选择不同产品搭配);ECS选购攻略 等 *【观看直播赢福利】福利1:预约直播即可参与抽取30个阿里云公仔,超萌超可爱!福利2:预约直播并当天观看直播参与互动,即可参与抽取Kindle大奖! 直播地址:https://yq.aliyun.com/live/1135 原文链接本文为云栖社区原创内容,未经允许不得转载。

June 12, 2019 · 1 min · jiezi

高性能服务器架构思路不仅是思路

在服务器端程序开发领域,性能问题一直是备受关注的重点。业界有大量的框架、组件、类库都是以性能为卖点而广为人知。然而,服务器端程序在性能问题上应该有何种基本思路,这个却很少被这些项目的文档提及。本文正式希望介绍服务器端解决性能问题的基本策略和经典实践,并分为几个部分来说明: 缓存策略的概念和实例2.缓存策略的难点:不同特点的缓存数据的清理机制 3.分布策略的概念和实例 4.分布策略的难点:共享数据安全性与代码复杂度的平衡 缓存缓存策略的概念我们提到服务器端性能问题的时候,往往会混淆不清。因为当我们访问一个服务器时,出现服务卡住不能得到数据,就会认为是“性能问题”。但是实际上这个性能问题可能是有不同的原因,表现出来都是针对客户请求的延迟很长甚至中断。我们来看看这些原因有哪些:第一个是所谓并发数不足,也就是同时请求的客户过多,导致超过容纳能力的客户被拒绝服务,这种情况往往会因为服务器内存耗尽而导致的;第二个是处理延迟过长,也就是有一些客户的请求处理时间已经超过用户可以忍受的长度,这种情况常常表现为CPU占用满额100%。 我们在服务器开发的时候,最常用到的有下面这几种硬件:CPU、内存、磁盘、网卡。其中CPU是代表计算机处理时间的,硬盘的空间一般很大,主要是读写磁盘会带来比较大的处理延迟,而内存、网卡则是受存储、带宽的容量限制的。所以当我们的服务器出现性能问题的时候,就是这几个硬件某一个甚至几个都出现负荷占满的情况。这四个硬件的资源一般可以抽象成两类:一类是时间资源,比如CPU和磁盘读写;一类是空间资源,比如内存和网卡带宽。所以当我们的服务器出现性能问题,有一个最基本的思路,就是——时间空间转换。我们可以举几个例子来说明这个问题。 当我们访问一个WEB的网站的时候,输入的URL地址会被服务器变成对磁盘上某个文件的读取。如果有大量的用户访问这个网站,每次的请求都会造成对磁盘的读操作,可能会让磁盘不堪重负,导致无法即时读取到文件内容。但是如果我们写的程序,会把读取过一次的文件内容,长时间的保存在内存中,当有另外一个对同样文件的读取时,就直接从内存中把数据返回给客户端,就无需去让磁盘读取了。由于用户访问的文件往往很集中,所以大量的请求可能都能从内存中找到保存的副本,这样就能大大提高服务器能承载的访问量了。这种做法,就是用内存的空间,换取了磁盘的读写时间,属于用空间换时间的策略。 举另外一个例子:我们写一个网络游戏的服务器端程序,通过读写数据库来提供玩家资料存档。如果有大量玩家进入这个服务器,必定有很多玩家的数据资料变化,比如升级、获得武器等等,这些通过读写数据库来实现的操作,可能会让数据库进程负荷过重,导致玩家无法即时完成游戏操作。我们会发现游戏中的读操作,大部分都是针是对一些静态数据的,比如游戏中的关卡数据、武器道具的具体信息;而很多写操作,实际上是会覆盖的,比如我的经验值,可能每打一个怪都会增加几十点,但是最后记录的只是最终的一个经验值,而不会记录下打怪的每个过程。所以我们也可以使用时空转换的策略来提供性能:我们可以用内存,把那些游戏中的静态数据,都一次性读取并保存起来,这样每次读这些数据,都和数据库无关了;而玩家的资料数据,则不是每次变化都去写数据库,而是先在内存中保持一个玩家数据的副本,所有的写操作都先去写内存中的结构,然后定期再由服务器主动写回到数据库中,这样可以把多次的写数据库操作变成一次写操作,也能节省很多写数据库的消耗。这种做法也是用空间换时间的策略。 最后说说用时间换空间的例子:假设我们要开发一个企业通讯录的数据存储系统,客户要求我们能保存下通讯录的每次新增、修改、删除操作,也就是这个数据的所有变更历史,以便可以让数据回退到任何一个过去的时间点。那么我们最简单的做法,就是这个数据在任何变化的时候,都拷贝一份副本。但是这样会非常的浪费磁盘空间,因为这个数据本身变化的部分可能只有很小一部分,但是要拷贝的副本可能很大。这种情况下,我们就可以在每次数据变化的时候,都记下一条记录,内容就是数据变化的情况:插入了一条内容是某某的联系方法、删除了一条某某的联系方法……,这样我们记录的数据,仅仅就是变化的部分,而不需要拷贝很多份副本。当我们需要恢复到任何一个时间点的时候,只需要按这些记录依次对数据修改一遍,直到指定的时间点的记录即可。这个恢复的时间可能会有点长,但是却可以大大节省存储空间。这就是用CPU的时间来换磁盘的存储空间的策略。我们现在常见的MySQL InnoDB日志型数据表,以及SVN源代码存储,都是使用这种策略的。 另外,我们的Web服务器,在发送HTML文件内容的时候,往往也会先用ZIP压缩,然后发送给浏览器,浏览器收到后要先解压,然后才能显示,这个也是用服务器和客户端的CPU时间,来换取网络带宽的空间。 在我们的计算机体系中,缓存的思路几乎无处不在,比如我们的CPU里面就有1级缓存、2级缓存,他们就是为了用这些快速的存储空间,换取对内存这种相对比较慢的存储空间的等待时间。我们的显示卡里面也带有大容量的缓存,他们是用来存储显示图形的运算结果的。 缓存的本质,除了让“已经处理过的数据,不需要重复处理”以外,还有“以快速的数据存储读写,代替较慢速的存储读写”的策略。我们在选择缓存策略进行时空转换的时候,必须明确我们要转换的时间和空间是否合理,是否能达到效果。比如早期有一些人会把WEB文件缓存在分布式磁盘上(例如NFS),但是由于通过网络访问磁盘本身就是一个比较慢的操作,而且还会占用可能就不充裕的网络带宽空间,导致性能可能变得更慢。 在设计缓存机制的时候,我们还容易碰到另外一个风险,就是对缓存数据的编程处理问题。如果我们要缓存的数据,并不是完全无需处理直接读写的,而是需要读入内存后,以某种语言的结构体或者对象来处理的,这就需要涉及到“序列化”和“反序列化”的问题。如果我们采用直接拷贝内存的方式来缓存数据,当我们的这些数据需要跨进程、甚至跨语言访问的时候,会出现那些指针、ID、句柄数据的失效。因为在另外一个进程空间里,这些“标记型”的数据都是不存在的。因此我们需要更深入的对数据缓存的方法,我们可能会使用所谓深拷贝的方案,也就是跟着那些指针去找出目标内存的数据,一并拷贝。一些更现代的做法,则是使用所谓序列化方案来解决这个问题,也就是用一些明确定义了的“拷贝方法”来定义一个结构体,然后用户就能明确的知道这个数据会被拷贝,直接取消了指针之类的内存地址数据的存在。比如著名的Protocol Buffer就能很方便的进行内存、磁盘、网络位置的缓存;现在我们常见的JSON,也被一些系统用来作为缓存的数据格式。 但是我们需要注意的是,缓存的数据和我们程序真正要操作的数据,往往是需要进行一些拷贝和运算的,这就是序列化和反序列化的过程,这个过程很快,也有可能很慢。所以我们在选择数据缓存结构的时候,必须要注意其转换时间,否则你缓存的效果可能被这些数据拷贝、转换消耗去很多,严重的甚至比不缓存更差。一般来说,缓存的数据越解决使用时的内存结构,其转换速度就越快,在这点上,Protocol Buffer采用TLV编码,就比不上直接memcpy的一个C结构体,但是比编码成纯文本的XML或者JSON要来的更快。因为编解码的过程往往要进行复杂的查表映射,列表结构等操作。 缓存策略的难点虽然使用缓存思想似乎是一个很简单的事情,但是缓存机制却有一个核心的难点,就是——缓存清理。我们所说的缓存,都是保存一些数据,但是这些数据往往是会变化的,我们要针对这些变化,清理掉保存的“脏”数据,却可能不是那么容易。 首先我们来看看最简单的缓存数据——静态数据。这种数据往往在程序的运行时是不会变化的,比如Web服务器内存中缓存的HTML文件数据,就是这种。事实上,所有的不是由外部用户上传的数据,都属于这种“运行时静态数据”。一般来说,我们对这种数据,可以采用两种建立缓存的方法:一是程序一启动,就一股脑把所有的静态数据从文件或者数据库读入内存;二就是程序启动的时候并不加载静态数据,而是等有用户访问相关数据的时候,才去加载,这也就是所谓lazy load的做法。第一种方法编程比较简单,程序的内存启动后就稳定了,不太容易出现内存漏洞(如果加载的缓存太多,程序在启动后立刻会因内存不足而退出,比较容易发现问题);第二种方法程序启动很快,但要对缓存占用的空间有所限制或者规划,否则如果要缓存的数据太多,可能会耗尽内存,导致在线服务中断。 一般来说,静态数据是不会“脏”的,因为没有用户会去写缓存中的数据。但是在实际工作中,我们的在线服务往往会需要“立刻”变更一些缓存数据。比如在门户网站上发布了一条新闻,我们会希望立刻让所有访问的用户都看到。按最简单的做法,我们一般只要重启一下服务器进程,内存中的缓存就会消失了。对于静态缓存的变化频率非常低的业务,这样是可以的,但是如果是新闻网站,就不能每隔几分钟就重启一下WEB服务器进程,这样会影响大量在线用户的访问。常见的解决这类问题有两种处理策略: 第一种是使用控制命令。简单来说,就是在服务器进程上,开通一个实时的命令端口,我们可以通过网络数据包(如UDP包),或者Linux系统信号(如kill SIGUSR2进程号)之类的手段,发送一个命令消息给服务器进程,让进程开始清理缓存。这种清理可能执行的是最简单的“全部清理”,也有的可以细致一点的,让命令消息中带有“想清理的数据ID”这样的信息,比如我们发送给WEB服务器的清理消息网络包中会带一个字符串URL,表示要清理哪一个HTML文件的缓存。这种做法的好处是清理的操作很精准,可以明确的控制清理的时间和数据。但是缺点就是比较繁琐,手工去编写发送这种命令很烦人,所以一般我们会把清理缓存命令的工作,编写到上传静态数据的工具当中,比如结合到网站的内容发布系统中,一旦编辑提交了一篇新的新闻,发布系统的程序就自动的发送一个清理消息给WEB服务器。 第二种是使用字段判断逻辑。也就是服务器进程,会在每次读取缓存前,根据一些特征数据,快速的判断内存中的缓存和源数据内容,是否有不一致(是否脏)的地方,如果有不一致的地方,就自动清理这条数据的缓存。这种做法会消耗一部分CPU,但是就不需要人工去处理清理缓存的事情,自动化程度很高。现在我们的浏览器和WEB服务器之间,就有用这种机制:检查文件MD5;或者检查文件最后更新时间。具体的做法,就是每次浏览器发起对WEB服务器的请求时,除了发送URL给服务器外,还会发送一个缓存了此URL对应的文件内容的MD5校验串、或者是此文件在服务器上的“最后更新时间”(这个校验串和“最后更新时间”是第一次获的文件时一并从服务器获得的);服务器收到之后,就会把MD5校验串或者最后更新时间,和磁盘上的目标文件进行对比,如果是一致的,说明这个文件没有被修改过(缓存不是“脏”的),可以直接使用缓存。否则就会读取目标文件返回新的内容给浏览器。这种做法对于服务器性能是有一定消耗的,所以如果往往我们还会搭配其他的缓存清理机制来用,比如我们会在设置一个“超时检查”的机制:就是对于所有的缓存清理检查,我们都简单的看看缓存存在的时间是否“超时”了,如果超过了,才进行下一步的检查,这样就不用每次请求都去算MD5或者看最后更新时间了。但是这样就存在“超时”时间内缓存变脏的可能性。 上面说了运行时静态的缓存清理,现在说说运行时变化的缓存数据。在服务器程序运行期间,如果用户和服务器之间的交互,导致了缓存的数据产生了变化,就是所谓“运行时变化缓存”。比如我们玩网络游戏,登录之后的角色数据就会从数据库里读出来,进入服务器的缓存(可能是堆内存或者memcached、共享内存),在我们不断进行游戏操作的时候,对应的角色数据就会产生修改的操作,这种缓存数据就是“运行时变化的缓存”。这种运行时变化的数据,有读和写两个方面的清理问题:由于缓存的数据会变化,如果另外一个进程从数据库读你的角色数据,就会发现和当前游戏里的数据不一致;如果服务器进程突然结束了,你在游戏里升级,或者捡道具的数据可能会从内存缓存中消失,导致你白忙活了半天,这就是没有回写(缓存写操作的清理)导致的问题。这种情况在电子商务领域也很常见,最典型的就是火车票网上购买的系统,火车票数据缓存在内存必须有合适的清理机制,否则让两个买了同一张票就麻烦了,但如果不缓存,大量用户同时抢票,服务器也应对不过来。因此在运行时变化的数据缓存,应该有一些特别的缓存清理策略。 在实际运行业务中,运行变化的数据往往是根据使用用户的增多而增多的,因此首先要考虑的问题,就是缓存空间不够的可能性。我们不太可能把全部数据都放到缓存的空间里,也不可能清理缓存的时候就全部数据一起清理,所以我们一般要对数据进行分割,这种分割的策略常见的有两种:一种是按重要级来分割,一种是按使用部分分割。 先举例说说“按重要级分割”,在网络游戏中,同样是角色的数据,有些数据的变化可能会每次修改都立刻回写到数据库(清理写缓存),其他一些数据的变化会延迟一段时间,甚至有些数据直到角色退出游戏才回写,如玩家的等级变化(升级了),武器装备的获得和消耗,这些玩家非常看重的数据,基本上会立刻回写,这些就是所谓最重要的缓存数据。而玩家的经验值变化、当前HP、MP的变化,就会延迟一段时间才写,因为就算丢失了缓存,玩家也不会太过关注。最后有些比如玩家在房间(地区)里的X/Y坐标,对话聊天的记录,可能会退出时回写,甚至不回写。这个例子说的是“写缓存”的清理,下面说说“读缓存”的按重要级分割清理。 假如我们写一个网店系统,里面容纳了很多产品,这些产品有一些会被用户频繁检索到,比较热销,而另外一些商品则没那么热销。热销的商品的余额、销量、评价都会比较频繁的变化,而滞销的商品则变化很少。所以我们在设计的时候,就应该按照不同商品的访问频繁程度,来决定缓存哪些商品的数据。我们在设计缓存的结构时,就应该构建一个可以统计缓存读写次数的指标,如果有些数据的读写频率过低,或者空闲(没有人读、写缓存)时间超长,缓存应该主动清理掉这些数据,以便其他新的数据能进入缓存。这种策略也叫做“冷热交换”策略。实现“冷热交换”的策略时,关键是要定义一个合理的冷热统计算法。一些固定的指标和算法,往往并不能很好的应对不同硬件、不同网络情况下的变化,所以现在人们普遍会用一些动态的算法,如Redis就采用了5种,他们是: 1.根据过期时间,清理最长时间没用过的 2.根据过期时间,清理即将过期的 3.根据过期时间,任意清理一个 4.无论是否过期,随机清理 5.无论是否过期,根据LRU原则清理:所谓LRU,就是Least Recently Used,最近最久未使用过。这个原则的思想是:如果一个数据在最近一段时间没有被访问到,那么在将来他被访问的可能性也很小。LRU是在操作系统中很常见的一种原则,比如内存的页面置换算法(也包括FIFO,LFU等),对于LRU的实现,还是非常有技巧的,但是本文就不详细去说明如何实现,留待大家上网搜索“LRU”关键字学习。 数据缓存的清理策略其实远不止上面所说的这些,要用好缓存这个武器,就要仔细研究需要缓存的数据特征,他们的读写分布,数据之中的差别。然后最大化的利用业务领域的知识,来设计最合理的缓存清理策略。这个世界上不存在万能的优化缓存清理策略,只存在针对业务领域最优化的策略,这需要我们程序员深入理解业务领域,去发现数据背后的规律。 分布分布策略的概念任何的服务器的性能都是有极限的,面对海量的互联网访问需求,是不可能单靠一台服务器或者一个CPU来承担的。所以我们一般都会在运行时架构设计之初,就考虑如何能利用多个CPU、多台服务器来分担负载,这就是所谓分布的策略。分布式的服务器概念很简单,但是实现起来却比较复杂。因为我们写的程序,往往都是以一个CPU,一块内存为基础来设计的,所以要让多个程序同时运行,并且协调运作,这需要更多的底层工作。 首先出现能支持分布式概念的技术是多进程。在DOS时代,计算机在一个时间内只能运行一个程序,如果你想一边写程序,同时一边听mp3,都是不可能的。但是,在WIN95操作系统下,你就可以同时开多个窗口,背后就是同时在运行多个程序。在Unix和后来的Linux操作系统里面,都普遍支持了多进程的技术。所谓的多进程,就是操作系统可以同时运行我们编写的多个程序,每个程序运行的时候,都好像自己独占着CPU和内存一样。在计算机只有一个CPU的时候,实际上计算机会分时复用的运行多个进程,CPU在多个进程之间切换。但是如果这个计算机有多个CPU或者多个CPU核,则会真正的有几个进程同时运行。所以进程就好像一个操作系统提供的运行时“程序盒子”,可以用来在运行时,容纳任何我们想运行的程序。当我们掌握了操作系统的多进程技术后,我们就可以把服务器上的运行任务,分为多个部分,然后分别写到不同的程序里,利用上多CPU或者多核,甚至是多个服务器的CPU一起来承担负载。 这种划分多个进程的架构,一般会有两种策略:一种是按功能来划分,比如负责网络处理的一个进程,负责数据库处理的一个进程,负责计算某个业务逻辑的一个进程。另外一种策略是每个进程都是同样的功能,只是分担不同的运算任务而已。使用第一种策略的系统,运行的时候,直接根据操作系统提供的诊断工具,就能直观的监测到每个功能模块的性能消耗,因为操作系统提供进程盒子的同时,也能提供对进程的全方位的监测,比如CPU占用、内存消耗、磁盘和网络I/O等等。但是这种策略的运维部署会稍微复杂一点,因为任何一个进程没有启动,或者和其他进程的通信地址没配置好,都可能导致整个系统无法运作;而第二种分布策略,由于每个进程都是一样的,这样的安装部署就非常简单,性能不够就多找几个机器,多启动几个进程就完成了,这就是所谓的平行扩展。 现在比较复杂的分布式系统,会结合这两种策略,也就是说系统既按一些功能划分出不同的具体功能进程,而这些进程又是可以平行扩展的。当然这样的系统在开发和运维上的复杂度,都是比单独使用“按功能划分”和“平行划分”要更高的。由于要管理大量的进程,传统的依靠配置文件来配置整个集群的做法,会显得越来越不实用:这些运行中的进程,可能和其他很多进程产生通信关系,当其中一个进程变更通信地址时,势必影响所有其他进程的配置。所以我们需要集中的管理所有进程的通信地址,当有变化的时候,只需要修改一个地方。在大量进程构建的集群中,我们还会碰到容灾和扩容的问题:当集群中某个服务器出现故障,可能会有一些进程消失;而当我们需要增加集群的承载能力时,我们又需要增加新的服务器以及进程。这些工作在长期运行的服务器系统中,会是比较常见的任务,如果整个分布系统有一个运行中的中心进程,能自动化的监测所有的进程状态,一旦有进程加入或者退出集群,都能即时的修改所有其他进程的配置,这就形成了一套动态的多进程管理系统。开源的ZooKeeper给我们提供了一个可以充当这种动态集群中心的实现方案。由于ZooKeeper本身是可以平行扩展的,所以它自己也是具备一定容灾能力的。现在越来越多的分布式系统都开始使用以ZooKeeper为集群中心的动态进程管理策略了。 在调用多进程服务的策略上,我们也会有一定的策略选择,其中最著名的策略有三个:一个是动态负载均衡策略;一个是读写分离策略;一个是一致性哈希策略。动态负载均衡策略,一般会搜集多个进程的服务状态,然后挑选一个负载最轻的进程来分发服务,这种策略对于比较同质化的进程是比较合适的。读写分离策略则是关注对持久化数据的性能,比如对数据库的操作,我们会提供一批进程专门用于提供读数据的服务,而另外一个(或多个)进程用于写数据的服务,这些写数据的进程都会每次写多份拷贝到“读服务进程”的数据区(可能就是单独的数据库),这样在对外提供服务的时候,就可以提供更多的硬件资源。一致性哈希策略是针对任何一个任务,看看这个任务所涉及读写的数据,是属于哪一片的,是否有某种可以缓存的特征,然后按这个数据的ID或者特征值,进行“一致性哈希”的计算,分担给对应的处理进程。这种进程调用策略,能非常的利用上进程内的缓存(如果存在),比如我们的一个在线游戏,由100个进程承担服务,那么我们就可以把游戏玩家的ID,作为一致性哈希的数据ID,作为进程调用的KEY,如果目标服务进程有缓存游戏玩家的数据,那么所有这个玩家的操作请求,都会被转到这个目标服务进程上,缓存的命中率大大提高。而使用“一致性哈希”,而不是其他哈希算法,或者取模算法,主要是考虑到,如果服务进程有一部分因故障消失,剩下的服务进程的缓存依然可以有效,而不会整个集群所有进程的缓存都失效。具体有兴趣的读者可以搜索“一致性哈希”一探究竟。 以多进程利用大量的服务器,以及服务器上的多个CPU核心,是一个非常有效的手段。但是使用多进程带来的额外的编程复杂度的问题。一般来说我们认为最好是每个CPU核心一个进程,这样能最好的利用硬件。如果同时运行的进程过多,操作系统会消耗很多CPU时间在不同进程的切换过程上。但是,我们早期所获得的很多API都是阻塞的,比如文件I/O,网络读写,数据库操作等。如果我们只用有限的进程来执行带这些阻塞操作的程序,那么CPU会大量被浪费,因为阻塞的API会让有限的这些进程停着等待结果。那么,如果我们希望能处理更多的任务,就必须要启动更多的进程,以便充分利用那些阻塞的时间,但是由于进程是操作系统提供的“盒子”,这个盒子比较大,切换耗费的时间也比较多,所以大量并行的进程反而会无谓的消耗服务器资源。加上进程之间的内存一般是隔离的,进程间如果要交换一些数据,往往需要使用一些操作系统提供的工具,比如网络socket,这些都会额外消耗服务器性能。因此,我们需要一种切换代价更少,通信方式更便捷,编程方法更简单的并行技术,这个时候,多线程技术出现了。 多线程的特点是切换代价少,可以同时访问内存。我们可以在编程的时候,任意让某个函数放入新的线程去执行,这个函数的参数可以是任何的变量或指针。如果我们希望和这些运行时的线程通信,只要读、写这些指针指向的变量即可。在需要大量阻塞操作的时候,我们可以启动大量的线程,这样就能较好的利用CPU的空闲时间;线程的切换代价比进程低得多,所以我们能利用的CPU也会多很多。线程是一个比进程更小的“程序盒子”,他可以放入某一个函数调用,而不是一个完整的程序。一般来说,如果多个线程只是在一个进程里面运行,那其实是没有利用到多核CPU的并行好处的,仅仅是利用了单个空闲的CPU核心。但是,在JAVA和C#这类带虚拟机的语言中,多线程的实现底层,会根据具体的操作系统的任务调度单位(比如进程),尽量让线程也成为操作系统可以调度的单位,从而利用上多个CPU核心。比如Linux2.6之后,提供了NPTL的内核线程模型,JVM就提供了JAVA线程到NPTL内核线程的映射,从而利用上多核CPU。而Windows系统中,据说本身线程就是系统的最小调度单位,所以多线程也是利用上多核CPU的。所以我们在使用JAVAC#编程的时候,多线程往往已经同时具备了多进程利用多核CPU、以及切换开销低的两个好处。 早期的一些网络聊天室服务,结合了多线程和多进程使用的例子。一开始程序会启动多个广播聊天的进程,每个进程都代表一个房间;每个用户连接到聊天室,就为他启动一个线程,这个线程会阻塞的读取用户的输入流。这种模型在使用阻塞API的环境下,非常简单,但也非常有效。 当我们在广泛使用多线程的时候,我们发现,尽管多线程有很多优点,但是依然会有明显的两个缺点:一个内存占用比较大且不太可控;第二个是多个线程对于用一个数据使用时,需要考虑复杂的“锁”问题。由于多线程是基于对一个函数调用的并行运行,这个函数里面可能会调用很多个子函数,每调用一层子函数,就会要在栈上占用新的内存,大量线程同时在运行的时候,就会同时存在大量的栈,这些栈加在一起,可能会形成很大的内存占用。并且,我们编写服务器端程序,往往希望资源占用尽量可控,而不是动态变化太大,因为你不知道什么时候会因为内存用完而当机,在多线程的程序中,由于程序运行的内容导致栈的伸缩幅度可能很大,有可能超出我们预期的内存占用,导致服务的故障。而对于内存的“锁”问题,一直是多线程中复杂的课题,很多多线程工具库,都推出了大量的“无锁”容器,或者“线程安全”的容器,并且还大量设计了很多协调线程运作的类库。但是这些复杂的工具,无疑都是证明了多线程对于内存使用上的问题。 由于多线程还是有一定的缺点,所以很多程序员想到了一个釜底抽薪的方法:使用多线程往往是因为阻塞式API的存在,比如一个read()操作会一直停止当前线程,那么我们能不能让这些操作变成不阻塞呢?——selector/epoll就是Linux退出的非阻塞式API。如果我们使用了非阻塞的操作函数,那么我们也无需用多线程来并发的等待阻塞结果。我们只需要用一个线程,循环的检查操作的状态,如果有结果就处理,无结果就继续循环。这种程序的结果往往会有一个大的死循环,称为主循环。在主循环体内,程序员可以安排每个操作事件、每个逻辑状态的处理逻辑。这样CPU既无需在多线程间切换,也无需处理复杂的并行数据锁的问题——因为只有一个线程在运行。这种就是被称为“并发”的方案。 实际上计算机底层早就有使用并发的策略,我们知道计算机对于外部设备(比如磁盘、网卡、显卡、声卡、键盘、鼠标),都使用了一种叫“中断”的技术,早期的电脑使用者可能还被要求配置IRQ号。这个中断技术的特点,就是CPU不会阻塞的一直停在等待外部设备数据的状态,而是外部数据准备好后,给CPU发一个“中断信号”,让CPU转去处理这些数据。非阻塞的编程实际上也是类似这种行为,CPU不会一直阻塞的等待某些I/O的API调用,而是先处理其他逻辑,然后每次主循环去主动检查一下这些I/O操作的状态。 多线程和异步的例子,最著名就是Web服务器领域的Apache和Nginx的模型。Apache是多进程/多线程模型的,它会在启动的时候启动一批进程,作为进程池,当用户请求到来的时候,从进程池中分配处理进程给具体的用户请求,这样可以节省多进程/线程的创建和销毁开销,但是如果同时有大量的请求过来,还是需要消耗比较高的进程/线程切换。而Nginx则是采用epoll技术,这种非阻塞的做法,可以让一个进程同时处理大量的并发请求,而无需反复切换。对于大量的用户访问场景下,apache会存在大量的进程,而nginx则可以仅用有限的进程(比如按CPU核心数来启动),这样就会比apache节省了不少“进程切换”的消耗,所以其并发性能会更好。 在现代服务器端软件中,nginx这种模型的运维管理会更简单,性能消耗也会稍微更小一点,所以成为最流行的进程架构。但是这种好处,会付出一些另外的代价:非阻塞代码在编程的复杂度变大。 分布式编程复杂度以前我们的代码,从上往下执行,每一行都会占用一定的CPU时间,这些代码的直接顺序,也是和编写的顺序基本一致,任何一行代码,都是唯一时刻的执行任务。当我们在编写分布式程序的时候,我们的代码将不再好像那些单进程、单线程的程序一样简单。我们要把同时运行的不同代码,在同一段代码中编写。就好像我们要把整个交响乐团的每个乐器的乐谱,全部写到一张纸上。为了解决这种编程的复杂度,业界发展出了多种编码形式。 在多进程的编码模型上,fork()函数可以说一个非常典型的代表。在一段代码中,fork()调用之后的部分,可能会被新的进程中执行。要区分当前代码的所在进程,要靠fork()的返回值变量。这种做法,等于把多个进程的代码都合并到一块,然后通过某些变量作为标志来划分。这样的写法,对于不同进程代码大部份相同的“同质进程”来说,还是比较方便的,最怕就是有大量的不同逻辑要用不同的进程来处理,这种情况下,我们就只能自己通过规范fork()附近的代码,来控制混乱的局面。比较典型的是把fork()附近的代码弄成一个类似分发器(dispatcher)的形式,把不同功能的代码放到不同的函数中,以fork之前的标记变量来决定如何调用。 ...

June 12, 2019 · 1 min · jiezi

即插即用基于阿里云Ganos快速构建云上开源GIS方案

对于轻量级GIS应用,选择具备时空能力的云上数据库再搭配开源GIS软件,能够快速构建稳定、廉价、实用的GIS解决方案。Ganos是阿里云自研时空基础设施(PaaS层)的核心引擎,该引擎整合了云上异构计算并行加速、OSS大规模存储等基础设施能力,上层与RDS PostgresSQL数据库、POLARDB for PG/Oracle云原生数据库、HBase大数据等融合,为云计算基础产品提供了免费但专业级的时空数据存储、查询与分析计算能力。本文主要介绍如何将Ganos作为数据源与GeoServer、uDig、QGIS等最常用的开源GIS软件对接,为基于开源GIS应用方案选型提供支撑。 支持常用各大开源GIS软件因Ganos设计上充分兼容了PostGIS接口,因此理论上可以无缝对接支持PostGIS的各类软件生态。 选取部分常用开源GIS软件说明如下表所示: 开源GIS软件软件定位用途Ganos作用QGIS基于C++的桌面GIS数据的可视化、管理、编辑、分析以及印刷地图的制作,功能全面兼容postgis形式的数据源GeoserverGIS服务器软件发布地图数据,允许用户对特征数据进行更新、删除、插入操作,方便共享空间地理信息兼容postgis形式数据源uDig基于Java的桌面GIS桌面GIS及开发框架,对互联网GIS、网络地图服务器和网络功能服务器有特别的加强兼容postgis形式的数据源OpenJump基于Java的桌面 GIS内置了地图编辑、可视化,GIS空间分析等操作,并可以通过插件方式进行功能的定制或拓展兼容postgis形式的数据源MapNik基于Python/C++ 地图渲染引擎数据形式的地图通过一个样式表的定义渲染成位图格式提供 WMS等服务兼容postgis形式的数据源以上主要集中在GIS最为常用的几何对象(矢量)部分,需要注意的是,Ganos在除了兼容PostGIS能力外,其他栅格、DEM、点云、网络、轨迹等高级时空特性也能与这些软件打通。如有这方面的需求,可以直接通过文末联系方式获得支持。 简单连接配置,即插即用以下以QGIS、GeoServer、OpenJump、uDig为例,展示以阿里云PostgresSQL Ganos或POLARDB Ganos为数据源的对接与应用,其他基于PostGIS数据源驱动的开源3S软件等均类似,不再一一展开。首先,需要通过阿里云主页购买RDS PostgresSQL、POLARDB for PG或POLARDB for Oracle实例(见文末链接,其中POLARDB for PG/Oracle目前可免费申请公测),并通过SQL插入或shp2pgsql工具导入矢量数据。数据导入后,可以通过控制台自带的DMS工具查看所导入的数据: 接下来,可以基于Ganos数据源,采用开源GIS软件来执行各类操作。 (1)QGIS连接Ganos,可浏览、查看、编辑、分析Ganos中的空间数据。 (2)GeoServer连接Ganos,可以将矢量数据发布为WMS,WFS等服务,实现地理空间数据的快速共享应用。 (3)OpenJump连接Ganos ,可浏览、查看、编辑、分析Ganos中的空间数据。 (4)uDig连接Ganos ,可浏览、查看、编辑、分析Ganos中的空间数据。 不一样的底座,更强大能力通过兼容PostGIS接口,Ganos具备了几乎即插即用、快速生态兼容的能力,且所有兼容PostGIS的代码都无需改动。同时,Ganos通过与阿里云基础设施融合,提供比自建PG+PostGIS更高系统稳定性和可靠性、更强数据处理能力和更大数据处理规模,尤其在时空轨迹数据处理能力上,要比原生PostGIS提高50-100性能。后续Ganos将遵循OGC规范,适配更多数据种类,广泛支持包括开源和商业不同3S平台,逐步沉淀基础时空云计算能力到云计算基础平台,赋能ISV厂商,推动时空云计算作为数字化转型的基础引擎普惠到更多客户。 如何获取Ganos时空引擎Ganos已无缝嵌入于阿里云以下数据库产品中,您无需为时空数据管理支付额外费用,了解更多相关信息请戳链接: RDS PostgreSQL with Ganos产品入口:https://www.aliyun.com/product/rds/postgresqlPOLARDB for PG/Oracle with Ganos产品入口(可申请免费公测):https://www.aliyun.com/product/POLARDBHBase with Ganos产品入口:https://www.aliyun.com/product/hbase 本文作者:ganos阅读原文 本文为云栖社区原创内容,未经允许不得转载。

June 11, 2019 · 1 min · jiezi

如何利用边缘计算实现低延时高质量的互动课堂体验

据《2019中国在线教育行业市场前瞻分析报告》显示:未来几年,在线教育用户规模将保持15%左右的速度继续增长,到2024年预计突破4亿人,总体市场规模将突破4500亿元。 相比于传统线下,在线教育优势十分明显,它不受地域的限制,学生可利用互联网时代的碎片化时间学习,老师不用亲临现场授课,节省多方成本,同时也解决了传统优质教育资源分布不均的难题。同时,学生可以自主选择老师,同时结合大数据、人工智能、VR、AR等技术,还可实现教学风格、授课内容、学生需求的高度匹配。而相对于录播形式,在线互动课堂教学期间,师生间更可进行实时、有效的互动沟通,及时答疑,最大幅度还原学生线下学习的模式,学生的学习效果能得到有效提升。 在线互动课堂授课模式已经成为各大传统线下教育机构与在线教育创业公司的主要阵地。那么平台面临会哪些技术挑战?在这其中边缘计算又将发挥什么作用?平台又如何利用云厂商的能力,实现全面的教育在线化、数字化发展?本文将一一为您解答。 在线互动课堂的技术挑战在线互动课堂场景具有大带宽、长链路传输、广覆盖的业务特点,同时因为教学的实时性和互动性,对于网络的低延时和抗抖动能力也有较高的要求。 假设一个位于上海的老师在给遍布全国各地的学生讲课,一旦中间网络发生抖动,就会出现卡顿、音画不同步、互动延迟等问题,学生提的问题老师没有及时回答,学生的积极性也会下降,授课效果必然会大打折扣。在这背后,在线互动课堂平台主要面临以下几个技术挑战: 第一,网络延时是互动课堂的核心影响因素之一,该业务场景对网络丢包敏感,网络丢包可能直接导致用户掉线、视频卡顿、推流失败等。 第二,学生遍布各地,基于就近接入原则,平台需要在全国各主要城市部署接入服务器,理论上城市覆盖数越多,接入效果越好,用户体验提升越明显,但是这会面临高昂的成本。 第三,在暑期等业务高峰期,流量大幅增长,而传统IDC机房建设周期为3-6个月,无法及时响应平台在服务器资源、带宽资源以及专线资源方面的快速扩容需求,同时大量的资源建设在业务高峰度过之后会面临闲置,急需利用云的弹性能力来解决难题。 边缘计算为在线互动课堂带来的价值大带宽、广覆盖、强互动、低延时,在线互动课堂与边缘计算的应用场景天然契合。 首先,边缘计算可以在更靠近终端的网络边缘上提供服务,全域覆盖的节点资源,仿佛打造了一张覆盖全国的高质量、低成本的实时视频转发网络。在K12在线辅导业务场景中,空间距离的缩短可以减少复杂的长链路传输网络中,各种路由转发和网络设备处理的延时和传输时间,同时可以更好的避免网络抖动带来的掉线和卡顿问题,在互动课堂业务场景中整体低时延、强互动体验提升明显。 同时,视频类大流量业务的处理放到边缘完成,在大型公开课、名师讲堂直播等场景下会产生高并发访问,通过分布式的架构分散中心处理的压力,也能够有效避免网络拥塞,同时降低将数据传回源站的带宽成本。 之前假设的上海老师给全国学生授课的场景中,上海的老师授课媒体流会推到就近的边缘节点,在边缘节点直接进行转码,转码后的媒体流会分发到CDN边缘节点,当有用户访问时直接就近返回内容。 对于常见的跨国授课来说,阿里云边缘计算也能通过国际高速通道将海外的授课媒体流转发回国内的云中心,再通过边缘云智能选路系统以及遍布全国的边缘转发网络,将授课内容实时、高质量的呈现在学生面前。 数据显示,阿里云边缘计算可以大幅度提升传输可靠性,端到端延时降低200-300毫秒,一对一在线课程平均完课率从97%提升至99.5%,直接为平台带来业务收益。 更低成本、更灵活地启动边缘计算应用拓课云是在线教育行业音视频技术服务提供商,技术总监陈勇冀先生表示:除了实现全球高效的传输网络之外,阿里云边缘计算也为拓课云解决了灵活部署、节约成本、高效运维等问题。 他在云栖大会现场讲到:“在接入阿里云边缘节点服务(ENS)后,首先,我们能非常灵活的部署,根据当前的需求来动态的增加服务器使用的数量,启动的速度在分钟级别。后续还能根据大数据做提前预测,做到完全无人值守;其次,如果我们要把流的传输质量做到足够好,除了采用WebRTC和自研的抗丢包算法外,还有一个办法就是把服务器部署在家门口,如果按照传统方法走,我们与不同运营商去沟通,开机房、测试、接入等流程比较复杂,ENS很好的解决了这个问题,为我们省去了很多繁琐的工作;最后,这也为我们节约了很多运维成本,同时在边缘节点上部署足够多的运算能力,在机器和带宽上也得到足够的成本降低。” “边缘计算应该注重为客户提供平台能力,我们覆盖全国主流地区和运营商,并且将底层复杂的边缘设施形态封装起来,标准化地开放底层的计算/存储/网络基础能力,以及分布式所需的分发、调度、安全等能力,让客户能非常方便地搭建自己的边缘分布式业务架构,进行轻量化的运维,同时十分灵活地按需进行资源动态扩缩容。那些专业的、繁琐的、耗心力的事情交给阿里云来做,客户只需要专注于业务本身,这就是我们做边缘计算的思路。”阿里云高级技术专家王广芳表示。 不久以前,阿里云宣布全面升级ENS2.0,实现一键部署、一键升级、一键扩缩容、报警自动响应,上下游互动保障运营体系的稳健性。同时,在付费模式上做到更加灵活弹性,做到真正的轻资产运营,客户可以快速部署、按需付费、先用后付。 云、边、端一站式互动课堂解决方案在线互动课堂业务场景中,不仅需要就近的网络覆盖和实时数据传输能力,还需要视频流的处理以及视频推流、播放等端上的应用,为了让客户能够更便捷、更迅速地接入服务,阿里云提供了面向在线教育行业的一站式互动课堂解决方案。 阿里云视频云基于音视频通信RTC的覆盖全球的实时音视频传输网络,同时整合LMQ、智能存储等产品,并集成了RTC SDK、推流 SDK、播放器 SDK,实现实时音视频通话、互动直播、白板教学、实时聊天、网盘存储、文档浏览等全面的功能全面,提供高质量、一体化互动课堂解决方案。 该方案可全面覆盖在线教育业务场景,有效保障在丢包、抖动网络下的1V1、小班课互动教学体验,并通过优质直播平台,覆盖全国大班课直播,为客户提供高品质、一站式、稳定安全的互动教学体验。同时通过人工智能对1V1授课进行客观评价并对内容进行风险控制。 技术赋能,在线教育场景未来发展伴随国民教育意识的不断增强,在线教育的市场需求将不断扩大。而技术革新也会为这个看似传统的行业注入新鲜的血液。 5G时代的来临势必会助燃这个产业发展,其带来的是一场视频传输的革命,高质量视频通话使在线互动变得更加触手可及,能最大限度的还原线下教学的真实感,同时更高清晰度的互动课堂中,教师可以对学生起到更好的观察和督促作用,使学习效率和效果双重提升。 如今,人工智能已经开始赋能在线教育行业,比如通过人脸识别技术识别分析学生的微表情,及时反馈课堂表现和学习状态。再比如利用大数据和个性化推荐算法更精准地为学生匹配教学风格和知识点、利用人工智能技术为为学生批改作业、答疑解惑等等,AI的融入,可以帮助教师提升教学效率。 在线教育借助互联网技术,已经突破了线下传统教育模式的瓶颈,实现跨地域、跨时空的教育资源共享。在未来,借助于云计算、边缘计算、实时音视频通信以及直播平台、人工智能等技术,不管学生在任何地点,只要有手机或电脑,在线教育平台就可以把最优秀的老师带来他的身边。 本文作者:樰篱 原文链接 本文为云栖社区原创内容,未经允许不得转载。

June 10, 2019 · 1 min · jiezi

大盘点-KubeCon-EU-2019-应用管理领域的新看点

摘要: KubeCon EU 2019 刚刚在巴塞罗那拉下帷幕,来自阿里巴巴经济体的讲师团,在大会上分享了互联网场景下规模化 Kubernetes 集群的各项落地经验和教训。所谓“独行速而众行远”,从不断发展壮大的社区中,我们看到越来越多的人拥抱开源,往标准演进,搭上了这趟开往云原生的高速列车。众所周知,云原生架构的中心项目是 Kubernetes,而 Kubernetes 则围绕着“应用”来展开。让应用部署得更好,让开发者更高效,才能给团队和组织带来切实的利益,才能让云原生技术变革发挥更大的作用。变革的势头既如洪水般吞没着老旧封闭的内部系统,又如春雨般孕育出更多的新开发者工具。在本次 KubeCon 中,就出现了许多有关应用管理与部署的新知识。这些知识中有哪些想法和思路值得借鉴,让我们少走弯路?在它们背后,又预示着什么样的技术演进方向? 在本文中,我们邀请到了阿里云容器平台技术专家、原 CoreOS 公司工程师、 K8s Operator 项目的核心作者之一邓洪超,为读者精选了此次会议“应用管理”领域的精华内容来一一进行分析与点评。 The Config ChangedKubernetes 上部署的应用一般会把配置存放到 ConfigMap 里,然后挂载到 Pod 文件系统中去。当 ConfigMap 发生更改时,只有 Pod 里挂载的文件会被自动更新。这种做法对某些会自动做热更新的应用(比如 nginx)来说是 OK 的。但是,对于大多数应用开发者来说,他们更倾向于认为更改配置要做一次新的灰度发布、跟 ConfigMap 相关联的容器应该做一次灰度升级。 灰度升级不仅简化了用户代码,增强了安全稳定性,更是体现了不可变基础架构的思想。应用一旦部署,就不再做变更。需要升级时,只要部署一个新版系统,验证 OK 后再摧毁旧版就好了;验证不通过时也容易回滚到旧版。正是基于这样的思路,来自 Pusher 的工程师们研发了 Wave,一款自动监听 Deployment 相关联的 ConfigMap/Secret 并随之改动而触发 Deployment 升级的工具。这款工具的独特之处在于它会自动搜索该 Deployment PodTemplate 里面的 ConfigMap/Secret,然后把里面所有数据计算一次 hash 放到 PodTemplate annotations 里面;当有变动时,会重新计算一次 hash 并更新 PodTemplate annotations,从而触发 Deployment 升级。无独有偶,开源社区里还有另一款工具 Reloader 也做了类似的功能——不同的是,Reloader 还能让用户自己选择填写监听哪几个 ConfigMap/Secret。 ...

June 3, 2019 · 2 min · jiezi

威胁快报新兴挖矿团伙借助shodan作恶非web应用安全再鸣警钟

近日,阿里云安全发现了一个使用未授权访问漏洞部署恶意Docker镜像进行挖矿的僵尸网络团伙。我们给这一团伙取名为Xulu,因为该团伙使用这个字符串作为挖矿时的用户名。 Xulu并不是第一个攻击Docker的恶意挖矿团伙,但它不同于其他僵尸网络。Xulu感染一台服务器后,并不对外进行大规模扫描,而是使用OSINT技术,即利用开源情报,动态地从shodan网站获得可能的“猎物”ip列表。 此外,Xulu僵尸网络将自己的服务器放在Tor洋葱网络中,这使得对幕后黑手的追溯变得更加困难。 会挖矿的恶意Docker镜像Docker容器是一个开源的应用容器引擎,可以让开发者打包他们的应用及依赖包到一个轻量级、可移植的容器中,从而在不同环境中可靠运行。 近年来随着微服务的流行,越来越多的企业在部署应用时使用容器,然而在这一过程中安全往往没有得到应有的重视,导致Docker容器在多起事件中成为网络攻击的靶子。 在本次Xulu僵尸网络事件中,我们注意到沦陷服务器上都被创建了镜像名为zoolu2/auto的恶意容器。 这些恶意容器中运行着如下进程 其中的挖矿进程很容易分辨: /toolbin/darwin -o us-east.cryptonight-hub.miningpoolhub.com:20580 -u xulu.autodeploy -p x --currency monero -i 0 -c conf.txt -r尽管miningpoolhub.com是公开矿池,但由于它不提供每个用户的历史收益数据,我们无从得知攻击者从恶意挖矿中总共赚了多少钱。 僵尸网络的传播和持久化Xulu僵尸网络进行自身的传播和持久化的过程中,使用了OSINT技术并借助了洋葱网络。 首先,该僵尸网络的控制服务器地址是http://wg6kw72fqds5n2q2x6qjejenrskg6i3dywe7xrcselhbeiikoxfrmnqd.onion。".onion"后缀表明这是一个必须通过洋葱匿名网络访问的“洋葱服务”(又名“隐藏服务”)。 该僵尸网络以/toolbin/shodaemon作为守护进程: 不难看出该脚本下载了http://wg6kw72fqds5n2q2x6qjejenrskg6i3dywe7xrcselhbeiikoxfrmnqd.onion/shodan.txt,与本地硬编码的/toolbin/hcode.txt文件内容一起存入search.txt 运行/toolbin/shodan,读取search.txt的列表并对shodan发送如上图所示的查询。 这些查询会返回互联网上一系列开放了Docker服务(2375端口)的主机ip。尽管这些主机并非每个都存在漏洞,但攻击者仍然通过使用shodan的信息,避免了大规模扫描的进行。 在获取了使用Docker服务的主机列表并去除重复ip后,已沦陷的主机会向表中ip发送docker run命令,其中未授权访问漏洞的Docker服务将被部署"zoolu2/auto"恶意镜像,从而完成蠕虫的传播。 此外,Xulu僵尸网络还会每30分钟下载并执行从http://wg6kw72fqds5n2q2x6qjejenrskg6i3dywe7xrcselhbeiikoxfrmnqd.onion/bnet1.txt下载的脚本,从而保持自身在受害主机上的活跃。 受害规模和安全建议在docker hub官网我们可以看到,前文提到的"zoolu2/auto"已被下载超过1万次: 并且僵尸网络作者似乎仍在积极开发变种: 为了避免您成为此种恶意入侵和挖矿事件的受害者,阿里云安全为您提供如下安全建议:不要将对内使用的服务(如Docker)开放在互联网上,应使用ACL或复杂密码等措施来保证仅有受到信任的用户才可以访问这些服务。因为基于洋葱网络的“隐藏服务”已被用于多个僵尸网络的传播,不常使用洋葱网络服务的用户可以使用如下命令对其进行屏蔽:echo -e "n0.0.0.0 .onion" >> /etc/hosts我们推荐您使用阿里云下一代防火墙,因为它在阻止、拦截此类需要外联的攻击时十分有效。用户将在AI技术的帮助下,免于恶意挖矿事件的困扰我们同样推荐阿里云安全管家服务。该服务的用户可以就碰到的问题随时咨询安全专家。安全专家还可以帮助用户进行安全加固、事件溯源、蠕虫清理等IOCcontrol server: http://wg6kw72fqds5n2q2x6qjejenrskg6i3dywe7xrcselhbeiikoxfrmnqd.onion url: http://wg6kw72fqds5n2q2x6qjejenrskg6i3dywe7xrcselhbeiikoxfrmnqd.onion/bnet1.txthttp://wg6kw72fqds5n2q2x6qjejenrskg6i3dywe7xrcselhbeiikoxfrmnqd.onion/shodan.txt pool:us-east.cryptonight-hub.miningpoolhub.com:20580 md5: c29dfe75862b6aed91bec4ffc7b20b9c Referencehttps://www.alibabacloud.com/blog/dockerkiller-threat-analysis-first-instance-of-batch-attack-and-exploitation-of-docker-services_593947https://www.docker.com/resources/what-container 本文作者:云安全专家阅读原文 本文为云栖社区原创内容,未经允许不得转载。

May 27, 2019 · 1 min · jiezi

IP应用加速技术详解如何提升动静混合站点的访问速率

全站加速(DCDN)-IPA是阿里云自主研发四层加速产品,它基于TCP/UDP的私有协议提供加速服务,包括解决跨运营商网络不稳定、单线源站、突发流量、网络拥塞等诸多因素导致的延迟高、服务不稳定的问题,提升传输性能和用户体验。 IP应用加速架构如下图所示,首先,全球用户就近接入边缘节点,通过阿里云的智能调度系统接入二级节点,中间采用传输协议优化和路由优化,选取最快、最优的路径。最后,二级节点到源站则选择相同运营商进行回源。 在架构中也会使用CDN一些比较成熟的组件,包括调度系统、管控平台、数据监控、IP地址库及日志采集等服务。 同时,在实际加速过程中,IP应用加速通过“就近接入、传输优化、智能路由”三大技术能力提供更极致的加速体验。其中就近接入与CDN加速原理一致,传统静态CDN的就近接入与缓存是实现加速的主要手段,将用户的访问就近解析到离用户最近的CDN节点,利用访问CDN节点上的缓存内容来实现加速的效果。但是对于动态加速来说,就近接入可以理解为一个就近上车的动作。传输优化在CDN场景中是一个基础的手段,包括单边加速和双边加速,传输优化可以为用户提供更稳定、高效的传输。而智能理由则是动态加速场景中是核心的技术。下面依次对这三个技术点进行解读。 就近接入下图是一个典型的CDN通过域名方式就近解析、就近接入的方式。在现有的CDN加速系统中,如果用户在CDN上注册一个域名,CDN会返回给用户一个CNAME地址,用户把CNAME地址加入到自己的DNS server之上,通过这样的方式,用户在请求的时候,就会递归查询到CDN的GLB上,GLB会根据用户的localDNS、IP、地理位置、运营商等信息,选择一个就近的CDN节点提供接入。这是通过DNS方式就近接入的典型例子,目前IP应用加速已经实现了标准了DNS-CNAME、HTTPS、HTTPDNS的接入。 在接入的过程中,就近接入想达到足够好的效果,IP地址库以及资源的优势是非常重要的。如果IP地址库不准,LocalDNS会被识别到错误的地方或者运营商,那访问就可能跨省跨运营商,达不到加速的目的。如果没有足够的资源覆盖,也很难做到稳定的调度,这样就近接入可能也难以达到理想效果。 传输优化TCP协议是典型的基于丢包或异常延迟来识别网络拥塞的传输协议,它的特征包括拥塞控制算法,如果发生了丢包,吞吐率会急剧下降,系统会认为它是拥塞,发送窗口减小(半),这是标准的TCP的行为。所以在客户端到源站之间一旦发生丢包,吞吐率会极大下降 如果在客户端和源站之间加入Proxy,问题就会缩小到局部,用户和服务器不会感受到发送数据的显著变化。同时,在长RTT的网络环境中,Proxy会使长链路分割成短链路,每个数据包的确认也会变得更短,拥塞窗口的恢复会变得更快,对于提升整体吞吐率也有帮助。 除了TCP Proxy外,在内部协议优化上也进行大量实践。比如通过改进拥塞控制,区分随机丢包还是拥塞丢包来使用更优的重传策略,来提升传输效率;使用多种传输协议,私有协议、多路传输技术以及冗余的传输手段,达到更高的传输速率和可靠性;另外内部传输也采用了更好的异常感知的技术,能够快速加速网络传输过程中的异常并在网络层面切换,实现对上层业务的透明。 下图是在持续丢包的场景下的测试数据,阿里云自研的TCP传输协议比现在最新的bbr算法效果更优。 智能路由如果真的链路上出现了拥塞,这时就需要采用智能路由技术。它的本质是有效预测网络中的拥塞,并且实时切换。另外备份的策略有次优的路线选择,以此保障对上层业务的影响最低。 实际上智能路由算法中,需要考虑的问题非常多。比如要考虑链路的质量、节点的复杂、相关服务器的能力、节点水位、负载均衡、成本等问题,比如在转发的过程中,需要根据现实情况来判断用DGP或多线路进行接入,来满足同运营商回源。在负载均衡方面,还要考虑地域、运营商、源站的优先级等策略。在实际网络质量的评估过程中,我们会用到多层次、多维度实施网络探测,避免源站探测风暴。同时,也要考虑在突发流量汇聚情况下如何实现过载保护。在众多约束条件下,选取最短最优路径有相当大的技术挑战。 IP应用加速-全栈加速从客户端到源站,IP应用加速目前实现了七层、四层、三层各层级的加速,其中七层加速是传统CDN、DCDN的加速产品,针对http(s)的加速,对于一些私有协议,可以使用四层加速。对于IP协议,可以使用IP隧道加速。这其中每一层都是独立组网,实现独立转发。如果本层某些特殊业务,本层不能很好支持,可以考虑在实施过程中考虑把相关加速服务通过转交给下层,利用下层技术能力实现更好的技术服务。 比如,在一个大文件上传的场景中,客户端到服务器端文件上传假设使用http,如果网络有波动或异常,可能会导致成功率较低。而在过程中,如果利用下沉到四层加速,利用多径传输,即可有效降低网络异常对于传输成功率的影响。 IP应用加速的功能访问控制:通过支持白名单、黑名单,对用户到边缘节点之间提供访问控制能力。透明切换:当数据包转发回源站的过程中,可能会出现转发不成功、网络异常、服务器异常等情况,透明切换可以实现内部链路切换无感知。分区回源:不同边缘服务器可以根据源站域名的分区解析的结果,回到最优的源站,适用于多源站情况下的使用。负载均衡:通过适配源站和路径内部的负载均衡,处理汇聚点的相关问题。 除了以上功能,IP应用加速也会陆续上线UDP加速、升级安全防护策略同时提供SDK接入方式。详细的产品信息,可以登录阿里云官网全站加速产品详情页以及IP应用加速文档进行了解。 相关阅读IP应用加速产品发布会直播回顾:https://yq.aliyun.com/live/1074IP应用加速详情:https://promotion.aliyun.com/ntms/dcdnipa.html参与聚能聊话题,赢取礼品:https://yq.aliyun.com/roundtable/497735阿里云全站加速DCDN全面支持WebSocket协议https://yq.aliyun.com/articles/686839 本文作者:樰篱阅读原文 本文为云栖社区原创内容,未经允许不得转载。

May 23, 2019 · 1 min · jiezi

Node搭建一个静态资源服务器

使用 Node 的内置模块,创建一个可以访问目录的静态资源服务器,支持fs文件读取,资源压缩与缓存等。一、创建 HTTP Server 服务器Node 的 http 模块提供 HTTP 服务器和客户端接口,通过 require('http')使用。 先创建一个简单的 http server。配置参数如下: // server/config.jsmodule.exports = { root: process.cwd(), host: '127.0.0.1', port: '8877'}process.cwd()方法返回 Node.js 进程的当前工作目录,和 Linus 命令pwd功能一样, Node 服务器每次收到 HTTP 请求后都会调用 http.createServer() 这个回调函数,每次收一条请求,都会先解析请求头作为新的 request 的一部分,然后用新的 request 和 respond 对象触发回调函数。以下创建一个简单的 http 服务,先默认响应的 status 为 200: // server/http.jsconst http = require('http')const path = require('path')const config = require('./config')const server = http.createServer((request, response) => { let filePath = path.join(config.root, request.url) response.statusCode = 200 response.setHeader('content-type', 'text/html') response.write(`<html><body><h1>Hello World! </h1><p>${filePath}</p></body></html>`) response.end()})server.listen(config.port, config.host, () => { const addr = `http://${config.host}:${config.port}` console.info(`server started at ${addr}`)})客户端请求静态资源的地址可以通过request.url获得,然后使用 path 模块拼接资源的路径。 ...

May 18, 2019 · 5 min · jiezi

处理网络超时问题的最佳实践

对于云上的用户来说,业务日志里面报超时问题处理起来往往比价棘手,因为1) 问题点可能在云基础设施层,也有可能在业务软件层,需要排查的范围非常广;2) 这类问题往往是不可复现问题,抓到现场比较难。在本文里就分析下如何来分辨和排查这类问题的根本原因。 业务超时 != 网络丢包由于业务的形态不同,软件实现语言和框架的不同,业务日志中打印出的信息可能是各不相同,比如如下关键字: "SocketTimeOut", "Read timed out", "Request timeout" 等从形式看都属于网络超时这一类,但是需要明确一个概念:这类问题是发生的原因是请求超过了设定的timeout时间,这个设置有可能来自客户端,服务器端或者网络中间节点,这是直接原因。网络丢包可能会导致超时,但是并不是充分条件。总结业务超时和网络丢包的关系如下: 网络丢包可能造成业务超时,但是业务超时的原因不一定是丢包。明确了这个因果关系后,我们再来看怎么分析业务超时。如果武断地将业务超时等同于网络抖动丢包,那这个排查分析过程就完全错过了业务软件层本身的原因,很容易进入困局。 本文会从云基础设施层和业务软件层对业务超时做分析,总体来讲基础设置层面的丢包原因相对容易排查,阿里云有完善的底层监控,根据业务日志报错的对应时间段,从监控数据中可以确定是否有基础设施网络问题。而业务层的超时通常是软件层面的设置,和软件实现及业务形态都有关系,这种往往是更加难以排查的。 网络丢包为什么导致业务超时网络抖动可能造成业务超时,其主要原因是网络抖动会带来不同程度的延迟。本文以互联网大部分应用以来的TCP为对象来介绍,一个丢包对数据传输的完整性其实是没有影响的,因为TCP协议本身已经有精密的设计来处理丢包,乱序等异常情况。并且所有重传的处理都在内核TCP协议栈中完成,操作系统用户空间的进程对这个处理实际上是不感知的。丢包唯一的副作用的就是会增加延迟,如果这段延迟的时间足够长,达到了应用进程设置的某个Timeout时间,那么在业务应用侧表现出来的就是业务超时。 丢包出现时会不会发生超时,取决于应用进程的Timeout设置。比如数据传输中的只丢了一个TCP数据包,引发200 ms后的超时重传: 如果应用设置的Timeout为100 ms,TCP协议栈没有机会重传,应用就认为超时并关闭连接;如果应用设置的Timeout为500 ms,则TCP协议栈会完成重传,这个处理过程对应用进程透明。应用唯一的感知就是处理这次报文交互比基线处理时长多了200 ms,对于时间敏感度不是非常高的应用来说这个影响非常小。延迟到底有多大?在设置应用进程Timeout时间时有没有可以参考的定量值呢?虽然TCP中的RTT/RTO都是动态变化的,但TCP丢包的产生的影响可以做一定的定量总结。 对丢包产生的延迟主要有如下两类: TCP建连超时。如果网络抖动不幸丢掉了TCP的第一个建连SYN报文,对与不太老的内核版本来说,客户端会在1秒(Draft RFC 2988bis-02中定义)后重传SYN报文再次发起建连。1秒对于内网环境来说非常大,对于阿里云一个区域的机房来说,正常的RTT都是小个位数毫秒级别,1秒内如果没有丢包足够完成百个数据报的交互。TCP中间数据包丢包。TCP协议处理中间的数据丢包有快速重传和超时重传两种机制。快速重传通常比较快,和RTT相关,没有定量的值。超时重传 (RTO, Retrasmission Timeout) 也和RTT相关,但是Linux中定义的RTO的最小值为,TCP_RTO_MIN = 200ms。所以在RTT比较小的网络环境下,即使RTT小于1ms,TCP超时重传的RTO最小值也只能是200ms。这类丢包带来的延迟相对小。除了丢包,另外一类比较常见的延迟是TCP Delayed ACK带来的延迟。这个和协议设计相关,和丢包其实没有关系,在这里一并总结如延迟定量部分。在交互式数据流+Nagle算法的场景下比较容易触发。Linux中定义的Delayed ACK的最小值TCP_DELACK_MIN是40 ms。 所以总结下来有如下几个定量时间可以供参考: 40 ms, 在交互数据流中TCP Delayed ACK + Nagle算法开启的场景,最小delay值。200 ms,在RTT比较小的正常网络环境中,TCP数据包丢包,超时重传的最小值。1 s,较新内核版本TCP建立的第一个SYN包丢包时的重传时间,RFC2988bis中定义的initial RTO value TCP_TIMEOUT_INIT。3 s, 较老内核版本TCP建立的第一个SYN包丢包时的重传时间,RFC 1122中定义的initial RTO value TCP_TIMEOUT_INIT。云基础设施网络丢包基础设施网络丢包的原因可能有多种,主要总结如下3类: 云基础设施网络抖动 网络链路,物理网络设备,ECS/RDS等所在的宿主机虚拟化网络都有可能出现软硬件问题。云基础设施已经做了完备的冗余,来保证出现问题时能快速隔离,切换和恢复。 现象: 因为有网络冗余设备并可以快速恢复,这类问题通常表现为某单一时间点网络抖动,通常为秒级。抖动的具体现象是在那个时段新建连接失败,已建立的连接中断,在业务上可能表现为超时。影响面: 网络设备下通常挂很多主机,通常影响面比较大,比如同时影响多个ECS到RDS的连接。 云产品的限速丢包 很多网络云产品在售卖的时候有规格和带宽选项,比如ECS, SLB, NAT网关等。当云产品的流量或者连接数超过规格或者带宽限制时,也会出现丢包。这种丢包并非云厂商的故障,而是实际业务流量规模和选择云产品规格时的偏差所带来。这种问题通常从云产品提供的监控中就能分辨出来。 现象: 当流量或者连接数超过规格时,出现流量或者连接丢弃。问题可能间断并持续地出现,网络流量高峰期出现的概率更大。影响面: 通常只影响单一实例。但对于NAT网关做SNAT的场景,可能影响SNAT后的多个实例。 运营商网络问题在走公网的场景中,客户端和服务器之间的报文交互往往要经过多个AS (autonomous system)。若运营商中间链路出现问题往往会导致端到端丢包。 ...

May 14, 2019 · 1 min · jiezi

Apache-Cassandra-在-Facebook-的应用

摘要: 在 Instagram (Instagram是Facebook公司旗下一款免费提供在线图片及视频分享的社交应用软件,于2010年10月发布。)上,我们拥有世界上最大的 Apache Cassandra 数据库部署。谁说 Facebook 弃用 Cassandra?相反 Facebook 拥有全世界最大的单个 Cassandra 集群部署,而且他们对 Cassandra 做了很多性能优化,包括 Cassandra on RocksDB 以提升 Cassandra 的响应时间。 在 Instagram (Instagram是Facebook公司旗下一款免费提供在线图片及视频分享的社交应用软件,于2010年10月发布。)上,我们拥有世界上最大的 Apache Cassandra 数据库部署。我们在 2012 年开始使用 Cassandra 取代 Redis ,在生产环境中支撑欺诈检测,Feed 和 Direct inbox 等产品。起初我们在 AWS 环境中运行了 Cassandra 集群,但是当 Instagram 架构发生变化时,我们将 Cassandra 集群迁移到Facebook 的基础架构中。我们对 Cassandra 的可靠性和可用性有了非常好的体验,但是在读取数据延迟方面我们觉得他需要改进。 去年 Instagram 的 Cassandra 团队开始着手这个项目,以显着减少 Cassandra 的读取延迟,我们称之为 Rocksandra。 在这篇文章中,我将描述该项目的动机,我们克服的挑战以及内部和公共云环境中的性能指标。 动机在 Instagram 上,我们大量使用 Apache Cassandra 作为通用键值存储服务。Instagram 的大多数 Cassandra 请求都是在线的,因此为了向数亿 Instagram 用户提供可靠且响应迅速的用户体验,我们有很高的 SLA 要求。 ...

May 9, 2019 · 2 min · jiezi

阿里云Kubernetes服务上使用Tekton完成应用发布初体验

Tekton 是一个功能强大且灵活的 Kubernetes 原生开源框架,用于创建持续集成和交付(CI/CD)系统。通过抽象底层实现细节,用户可以跨多云平台和本地系统进行构建、测试和部署。 本文是基于阿里云Kubernetes服务部署Tekton Pipeline,并使用它完成源码拉取、应用打包、镜像推送和应用部署的实践过程。 Tekton Pipeline中有5类对象,核心理念是通过定义yaml定义构建过程.构建任务的状态存放在status字段中。 其中5类对象分别是:PipelineResouce、Task、TaskRun、Pipeline、PipelineRun。 Task是单个任务的构建过程,需要通过定义TaskRun任务去运行Task。 Pipeline包含多个Task,并在此基础上定义input和output,input和output以PipelineResource作为交付。 PipelineResource是可用于input和output的对象集合。 同样地,需要定义PipelineRun才会运行Pipeline。 1. 在阿里云Kubernetes集群中部署Tekton Pipelinekubectl apply --filename https://storage.googleapis.com/tekton-releases/latest/release.yaml查看Tekton Pipelines组件是否运行正常: $ kubectl -n tekton-pipelines get poNAME READY STATUS RESTARTS AGEtekton-pipelines-controller-6bcd7ff5d6-vzmrh 1/1 Running 0 25htekton-pipelines-webhook-6856cf9c47-l6nj6 1/1 Running 0 25h2. 创建Git Resource, Registry Resource编辑 git-pipeline-resource.yaml : apiVersion: tekton.dev/v1alpha1kind: PipelineResourcemetadata: name: git-pipeline-resourcespec: type: git params: - name: revision value: tekton - name: url value: https://code.aliyun.com/haoshuwei/jenkins-demo.gitgit repo的分支名称为 tekton 。 编辑 registry-pipeline-resource.yaml : apiVersion: tekton.dev/v1alpha1kind: PipelineResourcemetadata: name: registry-pipeline-resourcespec: type: image params: - name: url value: registry.cn-hangzhou.aliyuncs.com/haoshuwei/tekton-demo容器镜像仓库地址为 registry.cn-hangzhou.aliyuncs.com/haoshuwei/tekton-demo, 标签为 latest ...

May 7, 2019 · 4 min · jiezi

高并发必看的文章

高并发服务器模型 https://www.cnblogs.com/rainb... https://www.cnblogs.com/rainb... 处理高并发的思路 https://blog.csdn.net/sinat_3... 网站架构演化 https://blog.csdn.net/ClareQi... 推荐书籍:大型网站技术架构----李智慧 redis数据的持久化存储 https://blog.csdn.net/wzqzhq/... nginx负载均衡策略 https://www.jb51.net/article/...

April 30, 2019 · 1 min · jiezi