关于数据存储:如何选择-Web-的数据存储方式看我就够了

1. 前言为了最大限度地保障同一浏览器同一域名下各个网页的用户对立,Web JS SDK 须要及时地将用户标识存入到 Cookie; 为了最大限度地缩小敞开页面导致的数据失落,Web JS SDK 将采集的数据存入到 localStorage 里进行批量发送,敞开页面未发送完的数据下次关上页面再次发送; 为了最大限度地保障可视化全埋点和网页热力求窗口关上的正确性,Web JS SDK 将相干的标识存入到 sessionStorage 里。 由此可见,存储数据是 Web JS SDK 的外围性能,上面逐个给大家介绍这三种存储形式。 2. 存储形式2.1. CookieCookie 实际上是一小段的文本信息(key-value 格局)。客户端向服务端发动申请,如果服务端须要记录该用户的状态,就应用 response 向客户端浏览器颁发一个 Cookie。如图 2-1 所示: 图 2-1 服务端应用 response 向客户端浏览器颁发一个 Cookie 客户端浏览器会把 Cookie 保存起来,当浏览器再次申请该网站时,浏览器把申请的网址连同 Cookie 一起提交给服务端。服务端查看该 Cookie,以此来识别用户状态。如图 2-2 所示: 图 2-2 浏览器把 Cookie 提交给服务端 Web JS SDK 中应用 Cookie 性能次要是用来存储前端变量。每当同一台设施通过浏览器申请集成 Web JS SDK 的页面时,就会读取曾经保留的 Cookie 值。 2.2. localStoragelocalStorage 用于长久化的本地存储,没有过期工夫。除非被动删除数据,否则数据是永远不会过期的。 ...

October 15, 2021 · 5 min · jiezi

关于数据存储:OceanBase时序数据库CeresDB正式商用-为用户提供安全可靠的数据存储管理服务

简介: OceanBase实现OLAP和OLTP双重能力并行后,向数据管理畛域多模方向迈出第一步。 近日,在数据库OceanBase3.0峰会上,OceanBase CEO杨冰发表首个时序数据库产品CeresDB正式商用。该数据库将为用户提供安全可靠的数据查问和存储管理服务,解决监控运维、物联网等场景中,工夫序列数据的高吞吐、横向扩大等难题。 这是OceanBase实现OLAP和OLTP双重能力并行后,向数据管理畛域多模方向迈出的第一步。 时序数据库全称为工夫序列数据库,次要用于治理和存储工夫序列数据(反映事物随工夫变动而变动的过程),其中物联网、工业物联网、监控运维等是时序数据常见的利用场景。而时序数据库可能解决这些物联网设施数据的高吞吐、高频次的写入存储需要。 此次公布的OceanBase 时序数据库(CeresDB),是基于 OceanBase 分布式存储引擎底座的时序数据库产品,用来治理和存储工夫序列数据,提供高性能读写、低成本存储、丰盛的多维查问和剖析能力等性能。无效解决海量规模时序数据的存储老本高,读写效率低的问题,同时具备程度扩大和异地容灾的能力,实用于物联网 IoT、运维监控、金融剖析等行业场景。 此外,CeresDB 在时序数据上采纳业界当先的时序压缩算法,做到了对实时数据靠近10倍的压缩率(无损压缩),并通过设计创新性的多层存储计划,别离实现了纯内存、非易失内存、磁盘以及近程存储的多级存储架构,为客户提供灵便的、高度可伸缩的部署架构计划。 “时序数据库CeresDB具备有限程度扩大和异地容灾的能力” OceanBase CEO杨冰示意,“将来,咱们将朝着时序HTAP交融以及schema less的方向继续演进,并提供更加丰盛的行业专属算子和算法能力,并联结生态搭档提供对应的行业解决方案,帮忙企业打造具备极致性能和丰盛多样的行业时序数据管理解决方案。” 据悉,OceanBase是蚂蚁自主研发的分布式数据库,经验过阿里超大规模业务场景、支付宝金融级场景以及双11等战斗的历练,并于2017年开始对外输入。目前该产品已在多家机构落地利用,包含中国工商银行、山东挪动、福建挪动、数字江西、中国石化、中华财险、人保衰弱、浙商证券、天津银行、西安银行、常熟农商行、东莞银行等。 11年倒退,OceanBase曾经成为世界领先的数据库产品。2019年和2020年间断刷新事务处理工作(TPC-C)基准测试世界纪录。 原文链接本文为阿里云原创内容,未经容许不得转载。

June 29, 2021 · 1 min · jiezi

关于数据存储:COSBrowser文件编辑-随时随地在线编辑

本文介绍如何通过 COSBrowser 文件在线编辑性能更不便的应用云上存储的数据。 痛点剖析日常工作和生存中,咱们须要把记录的文档、编写的文案、音视频文件保留治理好,又放心设施损坏、文件失落或是更换设施后没有备份,几年前咱们会将文件存入 U 盘,现在上云轻而易举,咱们会把文件上传至云端保留。 尽管曾经解决了很多问题,咱们的文件得以在云上备份,但仍然有不不便的时候。 1. 文档更新 有些文档须要更新,这时候要从网盘下载下来,本地批改完之后将新的文件上传笼罩。若是没有同步性能,还得每次批改完手动上传--麻烦。 2. 版本治理 经验过写毕业论文的咱们都晓得版本治理的痛,咱们认为的最终版.doc 通过导师的点评最终都会变成最终版_1.doc、最终版_1.1.doc 等,有些时候版本治理没有做好,想回退时却不晓得从何做起--苦楚。 当初,COSBrowser 能够给你另一种抉择,无需下载,随时随地,云端文件在线编辑,让你做到"save once,run anywhere"。 性能介绍COSBrowser文件在线编辑反对 txt、html、css、js、ts、c、c++、md 等等超20种常见语言类型;反对 UTF-8、GBK 等罕用编码格局的关上与转换;主动版本治理。性能入口首先抉择存储桶,进入文件列表页,而后有以下两种形式进入编辑(PC 和 web 入口雷同)。 1)双击文件所在行的非按钮区域; 2)右键文件-编辑; 性能操作如下: 历史版本治理 COSBrowser-PC 端历史版本存在本地硬盘,能够间接关上查看。 COSBrowser-web 版历史版本存在远端,须要下载查看。 入门玩法在线更新文档 记录本人的日常工作总结、记录工作中遇到的问题、知识点、踩过的坑,通过不定期的更新,一方面能够欠缺成本人的知识库,当前遇到问题能够拿进去翻阅;另一方面搭配 COSBrowser 分享性能,能够将积淀的文档拿进去与身边共事分享。 举个例子,将平时工作中遇到的问题或是解决问题的过程记录下来,定期回顾。 能够不断更新,写完之后 Ctrl+s 键保留--难受,无论什么时候从 COSBrowser 关上,都是最新批改的版本。 进阶操作构建动态网站或博客 应用 COSBrowser 编辑器模式疾速构建动态网站或博客,目前只反对网页版。 新建一个存储桶,为了做动态网站用,拜访权限抉择私有读公有写;进入存储桶内,从上方菜单栏进入编辑器模式;在文件列表页或间接在编辑器模式中右键新建index.html;编辑 index.html 内容,Ctrl+s 键保留;从右上角开启动态网站;拜访动态网站节点即可查看成果;增加少许布局和适量 css 款式,一个动态网站就初步造成了;PS:为了贴合开发者习惯,编辑器模式中的文件列表以目录树模式展现。 欢送体验COSBrowser 客户端COSBrowser 网页版结语COSBrowser 文件编辑虽远不如 sublime text、vscode 等编辑器那么业余,但罕用文档格局的反对也会带来一丝便当;不用放心云端批改会造成凌乱,编辑历史会在本地/远端留存;当初应用 web 技术配合 COSBrowser 能够更快更不便地构建起动态网站。 ...

June 25, 2021 · 1 min · jiezi

关于数据存储:物联网海量时序数据存储有哪些挑战

简介: 随着 IoT 技术的疾速倒退,物联网设施产生的数据呈爆炸式增长,数据的总量(Volume)、数据类型越来越多(Variety)、访问速度要求越来越快(Velocity)、对数据价值(Value)的开掘越来越器重。物联网产生的数据通常都具备工夫序列特色,时序数据库是以后针对物联网 IoT、工业互联网 IIoT、利用性能监控 APM 场景等垂直畛域定制的数据库解决方案,本文次要剖析物联网场景海量时序数据存储与解决的关键技术挑战及解决方案。 作者 | 林青起源 | 阿里技术公众号 随着 IoT 技术的疾速倒退,物联网设施产生的数据呈爆炸式增长,数据的总量(Volume)、数据类型越来越多(Variety)、访问速度要求越来越快(Velocity)、对数据价值(Value)的开掘越来越器重。物联网产生的数据通常都具备工夫序列特色,时序数据库是以后针对物联网 IoT、工业互联网 IIoT、利用性能监控 APM 场景等垂直畛域定制的数据库解决方案,本文次要剖析物联网场景海量时序数据存储与解决的关键技术挑战及解决方案。 一 时序数据存储挑战1 典型时序利用场景随着 5G/IoT 技术的倒退,数据呈爆炸式增长,其中物联网 (IoT) 与利用性能监控 (APM) 等是时序数据最典型的应用领域,覆盖物联网、车联网、智能家居、工业互联网、利用性能监控等常见的利用场景,海量的设施继续产生运行时指标数据,对数据的读写、存储管理都提出了很大的挑战。 2 时序数据的特色在典型的物联网、APM 时序数据场景里,数据的产生、拜访都有比拟显著的法则,有很多独特的特色,相比以后互联网典型的利用特色有比拟大的区别。 数据按工夫程序产生,肯定带有工夫戳,海量的物联网设施或者被监控到应用程序,按固定的周期或特定条件触发,继续一直的产生新的时序数据。数据是绝对结构化的,一个设施或利用,产生的指标个别以数值类型(绝大部分)、字符类型为主,并且在运行过程中,指标的数量绝对固定,只有模型变更、业务降级时才会新增/缩小/变更指标。写多读少,极少有更新操作,无需事务能力反对,在互联网利用场景里,数据写入后,往往会被屡次拜访,比方典型的社交、电商场景都是如此;而在物联网、APM 场景,数据产生存储后,往往在须要做数据经营剖析、监控报表、问题排查时才会去读取拜访。按时间段批量拜访数据,用户次要关注同一个或同一类类设施在一段时间内的拜访趋势,比方某个智能空调在过来1小时的平均温度,某个集群所有实例总的拜访 QPS 等,须要反对对间断的时间段数据进行罕用的计算,比方求和、计数、最大值、最小值、平均值等其余数学函数计算。近期数据的拜访远高于历史数据,拜访法则显著,历史数据的价值随工夫一直升高,为节省成本,通常只须要保留最近一段时间如三个月、半年的数据,须要反对高效的数据 TTL 机制,能主动批量删除历史数据,最小化对失常写入的影响。数据存储量大,冷热特色显著,因而对存储老本要求比拟高,须要有针对性的存储解决方案。联合时序的特色,要满足大规模时序数据存储需要,至多面临如下的几个外围挑战: 高并发的写入吞吐:在一些大规模的利用性能监控、物联网场景,海量的设施继续产生时序数据,例如某省域电网用电测量数据,9000万的电表设施,原来每个月采集一次,后续业务降级后15分钟采集一次,每秒的时序数据点数达到数百万甚至千万工夫点,须要数十到上百台机器的集群规模来撑持全量的业务写入;时序数据存储须要解决大规模集群的横向扩大,高性能安稳写入的需要。高效的时序数据查问剖析:在典型的监控场景,通常须要对长周期的数据进行查问剖析,比方针对某些指标最近1天、3天、7天、1个月的趋势剖析、报表等;而在物联网场景,有一类比拟典型的断面查问需要,例如查问某个省指定工夫所有电表的用电量量明细数据,查问某个品牌空调的某个工夫的均匀运行温度;这些查问都须要扫描大量的集群数据能力拿到后果,同时查问的后果集也可能十分大;时序数据存储须要反对多维工夫线检索、并具备流式解决、预计算等能力,能力满足大规模 APM、IoT 业务场景的典型查问需要,并且针对时序大查问要最小化对写入的影响。低成本的时序数据存储:某典型的车联网场景,仅20000辆车每小时就产生近百GB的车辆指标数据,如果要保留一年的运行数据就须要PB级的数据存储规模;因为数据规模微小,对存储的低成本要求很高,另外时序数据的冷热特色显著。时序数据存储须要充分利用好时序数据量大、冷热拜访特色显著、做好计算、存储资源的解耦,通过低成本存储介质、压缩编码、冷热拆散、高效 TTL、Servereless 等技术将数据存储老本升高到极致。简略便捷的生态协同:在物联网、工业互联网等场景,时序数据通常有进一步做经营剖析解决的需要,在很多状况下时序数据只是业务数据的一部分,须要与其余类型的数据组合来实现查问剖析;时序数据存储须要能与生态 BI 剖析工具、大数据处理、流式剖析零碎等做好对接,与周边生态造成协同来发明业务价值。 为了应答海量时序数据的存储与解决的挑战,从2014年开始,陆续有针对时序数据存储设计的数据库诞生,并且时序数据库的增长趋势继续当先,时序数据库联合时序数据的特色,尝试解决时序数据存储在高写入吞吐、横向扩大、低成本存储、数据批量过期、高效检索、简略拜访与时序数据计算等方面面临的挑战。 3 业界时序数据库倒退时序数据库通过近些年的倒退,大抵经验了几个阶段: 第一阶段,以解决监控类业务需要为主,采纳工夫程序组织数据,不便对数据按工夫周期存储及检索,解决关系型数据库存储时序数据的局部痛点,典型的代表包含 RDDTool、Wishper(Graphite)等,这类零碎解决的数据模型比拟繁多,单机容量受限,并且通常内嵌于监控告警解决方案。第二阶段,随同大数据和Hadoop生态的倒退,时序数据量开始迅速增长,业务对于时序数据存储解决扩展性方面提出更高的要求。基于通用可扩大的分布式存储专门构建的工夫序列数据库开始呈现,典型的代表包含 OpenTSDB(底层应用 HBase)、KairosDB(底层应用 Cassandra)等,利用底层分布式存储可扩大的劣势,在 KV 模型上构建定制的时序模型,反对海量时序的倒排检索与存储能力。这类数据库的数据存储实质依然是通用的 KV 存储,在时序数据的检索、存储压缩效率上都无奈做到极致,在时序数据的解决反对上也绝对较弱。第三阶段,随着 Docker、Kubernetes、微服务、IoT 等技术的倒退,工夫序列数据成为增长最快的数据类型之一,针对时序数据高性能、低成本的存储需要日益旺盛,针对时序数据定制存储的数据库开始呈现,典型的以InfluxDB 为代表,InfluxDB 的 TSM 存储引擎针对时序数据定制,反对海量工夫线的检索能力,同时针对时序数据进行压缩升高存储老本,并反对大量面向时序的窗口计算函数,InfluxDB 目前也是 DB Engine Rank 排名第一的时序数据库。InfluxDB 仅开源了单机版本,高可用集群版仅在企业版和云服务的版本里提供。第四阶段,随着云计算的高速倒退,云上时序数据库服务逐渐诞生,阿里云早在2017年就推出了 TSDB 云服务,随后 Amazon、Azure 推出 Amazon TimeStream、Azure Timeseires Insight 服务,InfluxData 也逐渐往云上转型,推出 InfluxDB 云服务;时序数据库云服务能够与云上其余的基础设施造成更好的协同,云数据库已是不可逆的发展趋势。二 Lindorm TSDB 背地的技术思考1 Lindorm 云原生多模数据库为了迎接 5g/IoT 时代的数据存储挑战,阿里云推出云原生多模数据库 Lindorm ,致力于解决海量多类型低成本存储与解决问题,让海量数据存得起、看得见。 ...

May 17, 2021 · 2 min · jiezi

关于数据存储:数据湖已成为海量数据存储与分析的重要承载方式

简介: 在云计算和大数据时代,基于数据发展生产、经营、决策成为常态,依据Gartner报道,2019年数据基建方面的洽购费用飙升到660亿美元,占据基础架构类软件费用的24%。数据的存储及利用体系是企业生态运行的中枢神经,数据湖曾经成为海量数据存储与剖析的重要承载形式。 在汹涌而至的信息化浪潮下,大数据技术不断更新迭代,数据管理工具失去飞速发展,相干概念也随之而生。数据湖(Data Lake)概念自2011年被推出后,其概念定位、架构设计和相干技术都失去了飞速发展和泛滥实际,数据湖也从繁多数据存储池概念演进为撑持高效、平安、稳固企业级数据利用的下一代根底数据平台。 此次公布的《数据湖利用实际白皮书》涵盖了数据湖的定义与架构、数据湖外围组件与计划介绍、数据湖构建计划、利用实际等内容,心愿为用户提供新的洞察。 通过浏览本书,包含开发者、IT运维人员、企业数字化管理者等能够全面理解阿里云基于云原生技术的企业级数据湖解决方案和相干产品,也能清晰传统数据仓库和数据湖的差别。  在云计算和大数据时代,基于数据发展生产、经营、决策成为常态,依据Gartner报道,2019年数据基建方面的洽购费用飙升到660亿美元,占据基础架构类软件费用的24%。数据的存储及利用体系是企业生态运行的中枢神经,数据湖曾经成为海量数据存储与剖析的重要承载形式。 市场调研机构Research and Markets公布的报告显示,2020年,寰球数据湖市场的价值为37.4亿美元,预计到2026年将达到176亿美元,在2021年至2026年的预测期间的复合年增长率为29.9%。 云原生时代的到来,引领数据湖进入了“云湖共生”新的阶段。在此背景下,阿里云推出基于云原生技术的企业级数据湖解决方案,该计划采纳了存储计算拆散架构,存储层基于阿里云对象存储OSS构建,并与阿里云数据湖剖析(Data Lake Analytics 简称 DLA)、数据湖构建(Data Lake Formation简称 DLF)、E-MapReduce(简称EMR)、DataWorks(简称DW)等计算引擎无缝对接,且兼容丰盛的开源计算引擎生态。 十年形迹十年心,联合先进的数据迷信与机器学习技术,数据湖还能为企业提供预测剖析,帮忙企业构建、优化训练模型等。心愿这本白皮书能够为企业和组织的数字化转型实际提供指引,为相干畛域的业务决策者与实践者提供面向行业利用场景的重要参考。 原文链接本文为阿里云原创内容,未经容许不得转载。

March 26, 2021 · 1 min · jiezi

关于数据存储:在线公开课-在数据爆炸的当下教你设计一个能实现9个9数据可靠性的存储系统

据 IDC 公布的《数据时代 2025》白皮书预测:在 2025 年,寰球数据量将达到前所未有的 163ZB。随着网络倒退速度越来越快,数据的产生量正在呈指数级回升,企业面临的数据压力也在一直减少,数据可靠性差、存储的容量和性能有余等数据问题层出不穷。如何在管制老本的状况下将数据可靠性最大化?有什么工具能解决存储的容量和性能有余的问题呢?基于此,在 9 月 9 日,京东智联云和英特尔联结举办了「高牢靠存储系统的设计实际」线上公开课,来自京东智联云云产品研发部资深架构师崔灿,和来自英特尔中国区资深存储架构师宫兴斌,别离介绍了京东的高牢靠存储系统的设计与英特尔傲腾如何助力京东智联云缓解数据压力的。以下内容整顿自两位老师的分享。 维持数据高牢靠面临的挑战与应答数据可靠性,是数据存储系统底线个别的存在,不同于数据可用性的可修复,数据一旦失去可靠性便代表着数据的永久性失落,且无奈以任何模式找回。所以放弃数据系统的高可靠性也是各大企业正在钻研的课题。然而要维持数据高可靠性也面临着很多挑战,对此崔灿老师示意,次要挑战有两个,其中首当其冲的就是正本问题,蕴含数据正本数量的管制,即保障需要的状况下,容忍故障的正本数量管制,以及正本数据损坏率。而导致正本数据损坏的起因次要有三个: 硬件故障导致数据损坏,即磁盘、磁头和网络传输等问题导致的损坏;程序 Bug,即数据的写入和存储程序 bug 导致数据谬误或者失落;运维操作,即用户或者运维人员的操作失误,导致数据被误删。除了正本问题之外,磁盘的故障是不可避免的。此时,就须要能及时地检测出故障并且用其余的失常副原本修复受损的正本数据,然而磁盘的理论故障工夫和被检测进去的工夫是存在时间差的。当时间差过长时,就可能会呈现正本数据全副损坏,数据齐全失落的状况。所以缩短时间差也是保证数据可靠性必不可少的路径。这些问题该如何解决呢?先说正本问题,在此之前先引入一个概念—冗余,冗余常见的模式分为两种: 第一种是复制,如 RAID、三正本、EC 等其本质都是复制,它和咱们在线的业务零碎是绑定在一起的,其特点为复制的数据能够实现在线实时的进行写入和读取;第二种是备份,它是和生产的零碎是隔离的,与复制不同的是备份会把所有的操作、所有的数据全副记录下来,在数据恢复时能够复原到任何一个工夫点的状态。通过备份的模式能够缩小因为操作失误带来的损失。不过备份也存在一个问题,就是其读取和复原速度都特地慢,动辄就好几个小时,工夫老本较高。所以在面对正本问题时,能够依据状况进行多正本的复制或者备份来缩小因为运维操作、硬件故障等正本问题导致的可靠性升高的状况。当然,通过备份和多正本形式能解决的问题还是无限的,所以升高探测和修复故障的工夫,是维持高牢靠的另外一种形式。在检测时间的升高方面,个别有两个措施: 通过 CRC 的校验来检测数据是否故障:数据从客户端,到网络和磁盘,都可能是蕴含同一个 CRC 的,所以在网络或者磁盘呈现故障时,就能通过 CRC 就能疾速的去发现这个故障。定期的对数据做校验:包含本地数据或者是多个正本之间数据的一致性校验。除此之外还须要对数据进行正确性的抽查,因为数据存在磁盘上,忽然坏掉的概率是绝对比拟低的,然而新写入的数据,呈现故障的概率是比拟高的,通过抽查能够防止新写入数据的故障。检测之后就波及到修复,修复个别波及到两个方面: 疾速复原,次要针对在零碎上的故障,这就须要更多的磁盘和带宽去修复它。软删除,针对一些运维或者其他人的误操作以及咱们零碎之间的 bug 导致的数据故障,通过软删除机制来找回数据,当遇到数据误删操作时,零碎会把数据放在回收站,须要的时候能够间接进行数据拉回。如上所说的都是理论知识,从实践上来看,减少可靠性其实是非常简单的一件事件。进步冗余、用大磁盘和高带宽进行磁盘修复、买更好的磁盘缩小磁盘故障率,都能减少可靠性,然而这些都有老本,自觉的通过购买晋升可靠性,会导致可靠性的老本不可控,那么如何去找到这个平衡点呢?这就是接下来要和大家探讨的事件。 京东高牢靠存储系统设计解析 1、分类存储数据,定制化高牢靠计划面对如何找到平衡点这个问题,崔灿示意外围办法是针对不同的数据类型,不同的业务类型去为它定制正当的一个可靠性的计划,通过这样来达到可靠性和老本的均衡,先来说数据的分类: 一般来说,可靠性都具备一个特点,即数据更新的越频繁,保障可靠性,须要花的代价就越大,所以京东会将数据进行分类,如上图所示第一类是低频更新的数据,如对象存储的数据,这些数据个别具备数量大,更新少的特点。 第二类数据是一些绝对更新比拟频繁的数据,如云硬盘的热数据。这些数据量绝对少,且对性能的要求比拟高,所以针对这些数据,老本曾经不是最外围的点了。 第三类数据是元数据,元数据的特点是十分重要,然而个别它的量相对来说比拟小,所以此时须要尽最大的可能性保障它可靠性,而不去管老本。在对元数据时,会用一些类多正本、备份以及上述所说的一些机制来保障可靠性。 2、对不同数据的存储架构设计以及优化措施 针对不同的数据京东的解决逻辑,如图能够看到京东智联云存储的架构,整体是分成三层,最上层为 Blob 存储,来存储京东的绝大部分数据,也是老本产生最多的中央,其所有数据都是三正本或者是 EC 的模式。在两头的为元数据的存储,数量少然而十分重要。在这两类数据之上,就是业务数据,目前京东智联云的存储业务有对象存储、文件存储,块存储等。下文会重点介绍 Blob 存储,也是京东智联云解决可靠性问题的外围。Blob 存储的设计指标,首先是在反对超大的容量的同时,放弃超低的老本。其次是反对高可用和高牢靠。它有几个设计要点,第一,应用 AppendOnly 零碎,不存在批改,数据存在即可判断正确;第二,由后端抉择写入地位,保障复制组不会有提早大的正本;第三,做大的集群规模。 接下来从数据的复制和检测修复这两方面介绍京东智联云的优化策略。先看数据的复制,整个零碎的数据复制采纳三正本的模式,是在管制老本的状况下,能满足可靠性的最低要求,且在数据写入时,设置两正本写入即胜利。因为在一个大的集群中,局部结点会遇到重启,或者是保护之类的状况,会导致它的写入失败。在复制组的抉择上,会抉择大小在 50 到 100GB 的复制组,范畴的制订的下限是取决于修复工夫,其上限是取决于集群做大的策略。在下限制订上,一个 100 个 GB 的复制组,如果是以 60MB 的速度修复,大略半个小时就能修复完了,而过大的复制组会导致修复工夫变长,影响业务。复制组的上限如何计算呢,以理论为例,单盘大略 20T 一个集群,如果是 16000 块盘,就是一个常见的 320P 的物理空间,100P 逻辑空间的一个集群,如果整个集群中有 5% 的盘提供修复,相当于 800 块盘提供修复,每一个正本的修复须要两个盘撑持,通过这个计算能并行修复的正本的数量。个别并行修复的正本数量,应该和单机正本和单盘的正本数量是统一的,这也是达到一个最高的修复,依据这个算法,针对京东智联云一个有 20T 的盘,100P 的集群的零碎,它的复制组应该是在 50G。再说修复工夫优化,京东智联云做了三个措施,首先,也是最重要的,即让零碎能容忍两个正本故障,怎么做到的呢?首先其写入是靠服务端来抉择,通过这样的形式保障所有的复制组基本上都是三正本且不会有 delay,而规范的写入是做不到这些的。并且在写入的地位的抉择上,会思考到三个正本之间的提早,能够躲避有 delay 的复制组,保障两正本数据的周期很短。其次,京东智联云用到了 60MB 的 IO 来做修复,让参加修复的磁盘能够占用大量 IO,使其在能够容忍局部盘慢的状况,保障整体速度,并在数据读取和写入方面进行了优化。最初在整个零碎的设计中,通过拆分复制组的治理,将治理放到一系列的 Allotter 的服务里,能够实现复制组的数量能够不受限的往上减少。上文全面介绍了多机的复制修复,接下来简略说下针对单机修复的措施,次要有三点:第一,DataNode 外部 CRC 校验,当实践上数据和 CRC 实践上不统一时,意味着磁盘上呈现了一些故障;第二,例行后盾一致性校验,疾速发现数据损坏和导致数据损坏的 Bug;第三,业务上的统一的校验,如 Block 的数据和 Block 元数据之间的一致性的校验。以上就是京东智联云在 Blob 零碎中做的一些扭转、优化措施,这也是京东智联云高牢靠存储系统的外围局部,接下来简略的解说下 Meta 可靠性计划和云硬盘的可靠性计划。 ...

October 10, 2020 · 1 min · jiezi

关于数据存储:企业云盘高效办公

Yotta企业云盘数据存储的新体验。 在网络设施不断完善的推动下,各行各业的企业对高效办公的需要变得更加迫切。 例如,在兼顾便利性和安全性的同时,如何无效地利用扩散的文件和材料来实现高效的集中式存储和治理合作,这就是如何在企业外部实现无纸化办公并迎接新时代的挑战。 平安的区块链存储环境:应用程序和存储在整个过程中都通过加密,以确保用户数据的私密性和安全性。 同时,该零碎基于“零信赖”准则进行设计,以确保即便购买了后端管理员之类的所有人,用户数据依然放弃平安。 无效整合零散信息资源:对立存储和治理零散终端的存储数据,并提供残缺的文件搜寻性能。 应用涣散耦合的目录构造和组织构造,以防止不必要的单位/组织占用空间。 不便易用的体验:提供Web,PC,ios,Android和其余拜访办法,以适应各种办公场景。 反对在线文件预览和编辑,以确保您能够随时随地查看文件或搜寻文档的历史版本,还能够通过内部链接共享文档。 低成本,高度牢靠的服务能力:应用扩散的区块链存储办法能够提供高度牢靠和可扩大的服务。 同时,自主研发的加密反复数据删除技术可将存储空间占用缩小5-10倍,开释反复占用的空间,升高企业的存储老本。 Yotta Enterprise Cloud Disk企业文件合作和治理收据的云存储提供企业级数据存储,治理和业务合作解决方案,以帮忙企业实现有限文件存储,集中管理,高效共享和平安合作,不便的挪动办公以及大型改良工作 效率。

August 27, 2020 · 1 min · jiezi

618-Tech-Talk400存储容量增长背后的成长之路

云妹导读: 2020 年的京东 618 大促期间,京东智联云对象存储容量新增同比增长400%,流量同比上涨200%,对象存储服务稳定,完美完成了大促重保任务,为此次京东 618 大促累计下单金额超2692亿元的新纪录提供了坚实的保障。“我的系统现在运行的挺好的,迁移到云上需要花费一定的人力还会带来一定的风险,我为什么要迁移到云上面呢?” 这是京东在推动集团各个业务“上云”时总会被问到的一个问题。相信,这也是很多企业在选择业务迁移“上云”时不断问自己的一个问题。 经过17年的发展,京东618不断跨上一个个新的台阶,而海量用户的浏览和海量订单的产生和交付,对后端的支撑系统提出了极高的要求。京东智联云作为作为支撑京东618的重要技术中台,要面临数百亿访问流量、每秒数百万次的高并发请求,以及数十亿的实时消息推送,保证全天核心服务不降级、无重大事故,这一切都对京东智联云带来了极大的挑战。 对象存储作为京东智联云重要的产品之一,在这次618中也起到了及其重要的作用。作为在线服务,京东智联云对象存储不仅为视频、直播等重要数据等存储和下载提供服务支持,同时也为离线计算平台提供存储支持,可以说是京东618大促的核心依赖,对象存储的稳定性极大的影响了顾客618“买买买”的体验,必须保证万无一失。 01 资源弹性伸缩弹性伸缩的核心需求是在资源池里面有足够的资源来满足业务的增长,在传统IDC时代,客户都会规划好业务的最大增量,留下足够的buffer资源来应对它,三倍的业务增长至少需要预留200%的buffer。 云上的对象存储是一个多租户系统,弹性伸缩本质上做的事情就是把多个用户的buffer统一的管理起来,然后按需分配给需要的客户。 在传统的IDC时代,京东视频存储在内部的分布式存储系统中,每次大促都需要提前两个多月开始备战。 下面是一个使用传统IDC时代618前夕准备的Checklist: 但在使用对象存储之后,基于对象存储弹性扩展到特性,整个备战过程变得非常简单: 02 成本降低很多企业在把本地到存储迁移到云上之后,都会感叹一件事情,在排除运维相关的人力成本之外,使用云还是比自己维护一套存储系统成本更低。接下来我们来看看为什么使用云上对象存储时客户的成本会降低? 架构优化提高资源利用率 首先,在使用云对象存储系统之前,很多用户使用类似Ceph之类的系统来存储自己的数据,这类系统有一个问题就是,如果整体使用率超过了80%可能会导致部分的写入失败或者写入性能降低,在实际维护的过程中,需要维护较低的水位线。 云对象存储系统基于自研存储系统,在整体使用率接近95%的时候还能保证写入的可用性和性能。 更合理的机型降低物理存储成本 在传统的IDC时代,业务自己维护自己的存储系统,由于本身存储需求相对不大,存储成本在整体成本中占比较小,一般不大会有太大的动力去优化存储的成本,以下几个情况会非常常见: 使用低密度服务器,由于存储规模不足,为了保证可靠性,必须使用更多的节点,这样每个节点的存储量就会很低使用老旧的服务器,同样由于规模的原因,很长时间都没有扩容的需求,也就无需采购新的服务器,导致整体物理成本偏高由于规模的原因,没有动力去使用新技术/新硬件和私有的存储不同,对象存储是一个快速发展的,大规模的存储系统,5%的成本降低就能带来非常可观的收益,因此我们做了很多工作来降低成本。比如采用更合理的存储机类型,根据客户自己业务的特点,定制更合理的机型。 较低的闲置率 在使用云对象存储系统之前,为了应对一些日常的促销等,私有的存储系统必须要维持足够的Buffer,要应对一倍的流量突增必须维护一倍的Buffer,这决定了整个集群的空闲率超过50%。 云上的对象存储是一个多租户的系统,多个租户会共用一个资源池子,由于多个租户涉及到不同的行业,业务高峰冲突的概率较小,对象存储系统不需要为每个用户留足够的Buffer,假设最多10%的业务在同一时间流量业务增长一倍,对象存储系统只需要维护10%的buffer就可以满足需求,较大的降低了闲置率。 IO资源复用 IO资源更细的划分的话,会包括存储/IOPS/带宽三个维度,每块磁盘的存储/IOPS/带宽都是相对确定的,但是单个业务很难说同时把三种资源全部用掉。 对象存储是一个多租户的系统,通过后台的调度,把不同类型的业务的混合的调度到磁盘上,保证这三个维度的IO资源能尽量的被使用。 京东有一个大数据分析的系统,本身只有数百TB的数据,但是在峰值会产生数百Gb的读写带宽,在迁移到对象存储之前,需要大量的机器来抗着数百Gb的峰值带宽,导致存储资源被大量浪费。在迁移到对象存储后,由于对象存储上有大量的相对较冷的数据,通过合理的调度,大数据分析系统复用了这些数据所对应的带宽,节省了大量的成本。 运维成本降低 存储系统本身是一个很复杂的系统,需要专业的运维人员来维护,而使用云对象存储之后,运维人员主要精力集中在业务上,可以极大的降低运维的人力 03 高可用性保证尽管在过去两年多里面,京东零售和京东智联云有过多次成功的合作经验,但是在商场视频把本地数据删除使用云作为唯一的数据之前,还是有一定的担心,对象存储现在是足够高可用么?对象存储在未来一直是高可用的么?接下来让我们一起来探讨下对象存储在可用性保障上走的一些工作。 对象存储架构图 整体来说,对象存储包括业务层(绿色部分),数据存储(黄色部分),元数据存储(蓝色部分)三个部分组成,其中业务层是多节点无状态服务,保证高可用。 数据存储和元数据存储都是有状态服务,其中数据存储存储对象数据的切片,元数据存储存储对象名字到数据切片ID之间的映射。 对象存储高可用核心思路如下: 基于Raft构建高可用的数据存储和元数据存储集群,部署上都跨多个AZ部署基于多个高可用数据/元数据集群构建更高可用的Data/Meta服务,集群级别故障对用户影响可控数据和元数据能写入到任何一个可用的物理集群,保证写永远可用数据/元数据都不会修改,确保数据只要存在就能读到正确的数据,提高读读可用性多个集群做蓝绿部署,降低程序/人工操作的影响范围下面我们一一来揭秘对象存储在各种异常情况下是如何保证高可用性。 Q 硬件故障 1、如果磁盘/机器/交换机故障怎么办 2、如果机房停电怎么办 A 对象存储的数据和元数据都是三副本存储,并且三副本放在三个不同的机房,确保以下: 1、如果有单节点(磁盘/机器/交换机/机房)故障,不会有任何影响 2、如果有两个节点故障,可能会导致部分复制组不可写入,对象存储会通过多集群的机制来解决这个问题,写入会写到其他的可用的集群,不影响客户端写入 3、如果有超过三个节点故障,可能会导致部分数据暂时不可访问,不影响用户写入 Q 网络故障 1、对象的数据是放在多个机房,如果机房之间的光纤被挖断了怎么办 2、如果某个机房和其他机房之间的网络断了,形成了孤岛怎么办 3、对象存储提供公网访问,如果部分公网IP被攻击/封禁怎么办 A 1、对象存储数据和元数据都分布在三个机房,如果有一个机房不可访问,其他两个机房可用形成多数派依旧可以提供服务 2、对于单机房和其他节点失联,形成数据孤岛的情况 已经写入的数据在孤岛机房内部有副本,可以读取孤岛内部写入 i. 数据会写入到WriteCache中,保证写入成功 ii. 元数据会写入到孤岛内部Backup Meta集群中,元数据最终需要和孤岛外部元数据合并3、公网故障,通过域名解析把流量导到其他区域,走内网访问 ...

June 23, 2020 · 1 min · jiezi