关于大数据:星环科技数据安全与流通新产品原创合规体系方法论加速数据安全落地

随着数据经济的疾速倒退,企业数字化根本实现了统一化、资产化、业务化阶段。目前,咱们行将进入数据因素化时代,与生产因素相似,数据因素是促成数字经济疾速倒退的重要生产资料。顺应时代脉搏,星环科技在 2022 年秋季新品发布会上全新公布了两款数据安全相干产品:数据安全治理平台 Transwarp Defensor 和保障数据流通平安的数据因素流通平台Transwarp Navier,以及星环科技原创的数据安全合规体系方法论 SYTAX,从技术产品到落地实际两个维度来更好地帮忙企业解决数据因素的平安与流通问题。 数据安全与流通需要一劳永逸,亟待建设体系化的平安防护能力 近几年,随着欧盟 GDPR 以中国相干法律法规的出台,各国都在推动数据安全的落地,需要的暴发也带动了数据安全技术的飞速发展,各个厂商的数据平台和数据库也都加大了数据安全技术的研发。另外,面向数据资产和业务层的平安技术也蓬勃发展起来,比方数据分类分级、个人信息去标识化等技术。 数据安全和数据流通关系好比矛与盾,流通意味着更多的数据通道信道裸露,为平安保障带来更大的挑战。为了解决这个问题,科学家们提出了一个新思路,就是隐衷计算技术(Privacy-Preserving Computing)。隐衷计算实质上是在不泄露数据的前提下,对密态的数据做计算,从而保证数据可用不可见。这里设计有两项关键技术,一个是所有计算都要在密文上操作;另一个是计算模式须要发生变化,原来的计算是同一个计算模型作用在汇集在一起的数据上,而当初的计算模式是把代码、模型拆离开,并下发到数据所在的不同中央并独立计算,最初将后果最终会集。 数据流通最后的模式次要以数据包的模式进行交互,咱们称之为 1.0 时代,这种形式容易导致用户隐衷泄露以及应用方二次滥用。因而,咱们很快迈入 2.0 阶段,进入API 时代,单方企业之间,通过 API 接口方式交互数据,这时候又会呈现另外一个问题,数据一旦进来,就永恒进来了,会有被屡次流传危险,同样无奈满足以后法律法规的要求。随着数据安全技术的疾速倒退,咱们很快进入了 3.0 时代,将数据的流动构建在平安合规和与隐衷计算的根底之上,采纳隐衷计算技术保证数据不挪动,而让算法、模型和协定挪动,以此来保障数据安全。 面对数据安全合规和流通数据因素的要求,企业的技术决策者须要为数字化业务做好下一步的架构布局,星环科技技术 VP 刘汪根认为:“应该在基础设施层减少两大内容:一块是数据安全治理域,让整个数字化基础设施具备数据安全合规能力,帮忙管理者及时发现数据危险并改良;第二块是数据流通域,为企业的业务提供更多的数据因素,帮忙管理者解决数据供应链的合规应用问题,从而更快实现数据的业务价值变现”。此次星环科技公布的数据安全治理平台 Defensor 和数据因素流通平台 Navier,可能无效的帮忙企业客户来解决数据因素时代面临的平安合规、数据流通问题。 星环科技在产品的各层级上都欠缺了平安技术,从而能够给用户提供体系化的数据安全防护能力。在基础设施层,星环科技提供基于容器的云原生操作系统 TCOS,它不仅可能提供容器隔离和镜像扫描,还新增了破绽检测以及面向业务的微隔离平安技术,从而能够为用户开拓一个独立的数据与计算环境,内部的服务未经受权无奈进入,缩小数据对外裸露危险。 在数据平台层,星环科技大数据根底平台 TDH 在新版本上做了大量的平安加固,一个是引入了微隔离平安技术,第二个是数据库反对行列级权限管制、动静脱敏等新能力,优化了数据通明加密并反对了用国密的算法,第三是加强了数据审计能力。 在数据资产层的平安防护上,星环科技正式公布新产品 - 数据安全治理平台 Defensor,它能够帮忙企业构建整个的数据安全治理域;另外一个新产品数据流通平台 Navier,蕴含隐衷计算平台 Sophon PC 以及数据交易门户,提供包含联邦学习、差分隐衷等技术能力,以及数据公布和数据合约等业务能力。 Transwarp Defensor ,以数据为核心的数据安全治理平台 Transwarp Defensor 是星环科技自主研发的数据安全治理平台,联合星环科技大数据平台的平安能力,能够帮忙企业建设以数据为核心的数据安全防护。Defensor 可能帮忙企业理解外部数据敏感信息的资产地图,发现潜在危险,并监控企业重要数据的合规应用;同时,也能对企业敏感数据进行分类分级,通过数据脱敏、水印等形式对数据进行事前事后的爱护,避免数据泄露或可能在数据泄露后做到能够溯源追踪。 Transwarp Defensor 的六大外围能力 第一、敏感数据辨认与分类分级,能帮忙企业梳理敏感资产,并绘制分类分级资产地图;第二、提供数据脱敏和水印等能力,让敏感数据能够脱敏后服务业务并追踪溯源;第三、能辨认敏感数据操作并进行监测,可能辨认流动中的敏感数据并触发对应的管理策略;第四、大数据平台和数据库的操作审计,防止违规操作带来的数据安全危险;第五、个人信息去标识化能力,落实《个保法》的相干要求;第六、基于分类分级后果的数据安全防护策略,可能反对业务层灵便的数据合规需要。须要补充的是, Defensor 在 2021 年通过了中国信息通信院的数据脱敏工具根底能力专项评测,也证实了产品的性能的齐备性和成熟度。 数据因素流通平台 Transwarp Navier,让数据发明价值 数据流动起来会产生价值,尤其是多方数据资源汇总后可能产生更好的交融成果和价值发明。因此,企业技术决策者需建设数据合规与数据交易平台,以实现数据的平安合规流通,并且保证数据可用不可见,从而施展数据因素价值。针对上述需要,星环科技推出数据因素流通平台 Transwarp Navier,其蕴含了两个星环科技子产品:星环科技数据交易门户 Datamall 和星环科技隐衷计算平台 Sophon PC。 ...

May 10, 2022 · 1 min · jiezi

关于大数据:写文章-点击打开星环科技的主页-星环科技多模型大数据基础平台TDH90十种数据模型组合拳-打通大数据业务全场景

星环科技大数据根底平台Transwarp Data Hub(TDH)从2013年开始公布2.0版本至今,每年都会公布一个大版本,通过屡次迭代和技术升级,到2021年TDH8.0公布,TDH已成为一个企业级大数据根底平台,基于其当先的多模型技术架构,8种异构存储引擎反对10种数据模型,被广泛应用在离线数据批处理、高并发的在线数据服务、数据集市、数据仓库、数据湖、实时数据处理等各类大数据业务场景。 此外,通过星环科技的一直自主研发,TDH成为一款国产化自主可控的大数据根底平台,能够代替Oracle、IBM DB2、Teradata等传统支流数据库在剖析型场景中的利用及代替Elastic Search在分布式搜寻场景中的利用,并在政府、金融、能源、制造业等十多个行业内落地。同时TDH实现了与支流信创生态厂商的适配互认工作,满足信创验收要求,帮忙企业打造更全面、更便捷、更智能、更平安地国产化数字底座,减速企业数字化转型。 近日,星环科技正式推出TDH9.0,基于多模型对立架构对多模型解决能力进一步增强,新增文档存储引擎的同时实现了各模型引擎性能的数倍晋升,对立大数据存储底座晋升5倍数据碎片承载能力,强化了存储规模与可靠性,同时新增平台智能运维模块,欠缺的智能运维体系帮忙用户更轻松地运维大数据平台。此外,基于容器平安网络晋升了数据拜访的安全性,联合本身根底平安组件以及大数据开发工具,为用户数据全生命周期提供平安防护。TDH9.0从整体上进一步晋升了平台综合性能、可靠性、易用性以及安全性,为企业数字化转型构建了对立、高性能、高牢靠的新型数字底座。 多模型对立架构 易开发、易运维、高性能TDH9.0外围仍然是对立架构的多模型解决能力,基于多模型对立技术架构提供对立的接口层,对立的计算引擎层,对立的分布式存储管理层和对立的资源调度层。 对立接口层:基于对立的SQL编译器Transwarp Quark能够实现对立接口解决不同的业务和不同数据模型,只须要简略的SQL语句即可实现各种复合跨模型数据查问,无需拜访不同接口即可操作不同的数据模型。对于场景切换、数据库切换而造成接口、开发语言切换的问题就不存在了,开发和迁徙老本大大降低。 对立计算引擎层:基于分布式计算引擎Transwarp Nucleon能够依据不同的存储引擎主动匹配高性能算法,不仅能够反对批处理、流解决等不同类型计算工作,还反对不同模型数据的流转与关联,不便用户在一个SQL中应用不同模型的数据,升高开发难度,晋升开发效率。 对立的分布式存储管理零碎:为不同存储引擎提供公共的存储管理服务,保障数据一致性,实现数据对立治理运维和高可用。以后TDH分布式数据管理系统接入了9款存储引擎,反对10种数据模型的存储。用户不须要为不同模型建设独自的存储系统,而是通过对立的存储管理,升高了运维治理老本,也防止了数据孤岛。同时分布式数据管理系统的插件个性,也不便后续业务的灵便扩大,能够依据须要接入其余存储引擎,例如TDH9.0依据文档解决的新需要,新接入了文档存储引擎DocStore。 对立的资源调度层:TCOS是星环科技自主研发的云原生操作系统,提供对立的资源调度框架,通过容器化编排,可能对立调度计算、存储、网络等各根底资源。TCOS还反对灵便、按需的异构硬件(X86,ARM混合部署)、异构操作系统的程度扩大,反对独自扩大计算或存储资源的程度扩大,防止因业务数据增长带来的资源缓和而需进行繁琐的扩容、迁徙等工作。同时,也提供了相比虚拟机损耗更低的资源隔离能力,使不同租户、不同利用,资源隔离互不影响。 在开源大数据计划中,为了实现不同业务需要,通常须要部署多个不同的产品,比方为了做数仓须要Hive,为了做准确查问须要Hbase,为了做搜寻业务须要ES等等。这些不同的产品首先在接口标准就不统一,Hive应用HiveQL,ES应用Restful API,Spark尽管API和SQL都反对然而规范也和Hive、ES不一样。用户须要学习适配多个产品的不同接口,开发成本高。同样的,这些产品也应用了各自独立的计算引擎和存储,数据存储在各自的生态中难以互通,若须要把数据从一个产品导入到另一个产品中,须要通过文本离线导入导出,ETL流转效率低,同时也难以保证数据的准确性、一致性和实效性。数据往往在离线流转过程中,可能因为编码或浮点数精度问题,导致数据不统一,最终影响业务准确性。各自独立的计算引擎若部署在同一节点上,也可能会引起计算资源竞争问题。 相比之下,TDH多模型对立架构,把多种数据模型的接口层、计算引擎层和分布式存储管理通通形象了进去,防止了多个接口标准不对立,防止了计算资源的抢占,防止了存储不对立。一个SQL就能够实现不同数据模型的操作和查问,模型转化流转以及跨模型关联剖析,解决了不同模型数据之间的组合应用问题。与开源传统计划架构相比,TDH对立架构的多模型架构具备复杂度低、开发成本低、运维成本低、数据处理效率低等长处。 以一个具体的跨模型联结剖析利用场景来介绍下多模型对立架构的劣势。 例如,当须要钻研30岁人群生产习惯和爱好时,能够将该人群生产的商品评估作为一个参考。那为了取得该人群对某商品的评估数据,咱们须要进行三次检索,并须要应用到图数据库中的人群关系型数据,关系型数据库中的人群生产记录数据,以及搜索引擎中生产商品评估数据。 第一步,定位30岁的人群。首先连贯到图数据库中,应用图数据库查询语言Cyper,找出30岁人群一度关系的人群ID汇合。 第二步,获取该人群的生产记录。拿到了30岁人群ID后,须要再连贯到关系型数据库中,应用SQL查询语言,用第一步获取的人群ID作为过滤条件,获取该人群生产商品ID,找出这些人群生产了哪些商品。 第三步,获取蕴含特定关键词的商品评估。用户须要连到搜索引擎,编写RESTful API申请,应用前两步获取的人群ID和生产商品ID,检索商品评估。 为了实现这个业务,用户须要搭建3个独立的数据库,并在利用适配3种数据库的连贯形式和查询语言,同时还要求开发人员同时理解这3种数据库的开发技术,整个流程非常复杂,技术要求十分高。 此外,因为是3个独立的零碎,数据和可能存在不统一,比如说生产记录更新到了关系型数据库,然而相应的评估没有更新到搜索引擎中,导致剖析语句的后果不精确。 而基于星环的多模型对立技术架构,用户只需用一句SQL就能同时拜访这3种存储模型进行联结剖析,代替了之前3段代码。一句SQL里,同时对图数据人群关系表,关系型数据生产记录表,全文数据商品评估表,3个表进行了跨模型关联,一次操作实现了之前三次操作能力实现的业务,大大简化了开发复杂度,简化用户操作。同时数据也仍保留在原存储引擎中,也不必对数据进行导入导出或者转换,不会存在数据不统一或数据冗余存储的问题。 多模型能力降级 更多、更快、更强TDH9.0在原多模型能力根底上新增文档数据库,实现9种存储引擎反对10种数据模型,同时对存储引擎进行降级,提供更高的性能和更强的性能,帮忙企业用户满足更多以及要求更高的业务场景。 关系型剖析引擎Inceptor关系型剖析引擎Inceptor进一步晋升了SQL兼容性,加强了SQL-2016规范反对度,改良了Hive语法兼容,帮忙用户更不便地做利用迁徙和对接;同时SQL编译器也进行了表达式,遍历算法,优化,在简单SQL场景,最高可晋升10倍编译性能。 此外,TDH 9.0兼容了分布式剖析型数据库ArgoDB,来更好地撑持关系型剖析场景。在这次公布的ArgoDB5.0版本中,对计算引擎、存储引擎、可靠性都做了重要降级,性能上相比于Inceptor晋升了10倍数据扫描性能,10倍在线剖析性能,实时数据入库,更是反对每秒每节点,百万的吞吐,大大加强了在关系型剖析场景的性能。相比TDH Inceptor,ArgoDB不仅在数据仓库、湖仓集一体、联邦计算等老场景上具备更强的性能,同时还反对了实时数仓、高性能数据集市、AETP混合简单、隐衷计算等多个拓展场景。 图数据库StellarDB图数据库StellarDB,图数据库能够用于常识图谱、常识推理、社区划分、子图剖析等利用场景。StellarDB在TDH9.0迎来了4.0版本,除了易用性、安全性、开放性等全面降级以外,性能也取得了大幅晋升。批量导入性能是开源产品的2倍,查问场景中六跳查问是开源的50倍,算法实现上,罕用的pagerank算法和强连通子图算法性能都是开源的6倍。StellarDB通过性能的增强和性能的一直晋升,帮忙帮忙企业用户更快、更高效地开掘海量数据互联价值。 搜索引擎ScopeScope是一款兼容开源生态的搜寻产品,反对TDH对立SQL查问的同时,兼容ES生态,保障ES平滑迁徙。相比开源产品,Scope基于Raft协定保障数据一致性,反对跨数据中心多活部署,能够构建两地三核心灾备计划,可靠性与容灾能力更强。日志存储解决方案中,因为数据量宏大,企业用户个别对搜寻产品的存储容量较为看重。Scope单实例存储容量达到了100TB,是开源的5倍,等同规模下 Scope存储密度更高,能够帮忙企业用户节约硬件老本,同时性能上,Scope相比开源也晋升了30%剖析性能和2倍检索性能,能更高效的剖析检索海量日志数据。 时空数据库Spacture时空数据模型次要是以天文经纬坐标与工夫信息等数据为主,Spacture反对原生的时空数据类型和矢量数据,能够无效反映挪动对象的静止过程。相比于开源时空数据库,Spacture的人造分布式架构,能够撑持横向线性扩大,比开源具备更强的时空剖析能力。同时Spacture也兼容国家行业标准,和开源商业支流GIS软件,不便用户迁徙对接。 时序数据库Timelyre时序数据库Timelyre在TDH9.0降级到了2.2版本。时序数据在制造业IoT设施等场景中经常出现,用于监控设施或环境的一些指标,如温度、电量、工作状态等。因为设施量宏大,指标数据生成频繁,因而时序数据实时吞吐量宏大,历史存储需要容量较高。为了应答这类场景,Timelyre针对时序数据特色,改良压缩算法,进一步升高了20%~50%存储空间占用,晋升2倍写入性能。同时相比于开源时序产品,Timelyre基于TDH多模型架构下的分布式扩大能力,让Timelyre具备了更多设施标签存储能力,以及基于TDH对立SQL剖析能力,让Timelyre具备了简单关联查问能力。 键值数据库KeyByteKeybyte键值数据库反对高性能分布式缓存和高性能分布式锁两种场景。 高性能缓存是内存键值引擎较为罕用的场景之一。开源键值存储引擎基于集群主备的分布式计划,一致性和稳定性都无奈保障,容易影响线上业务的性能。 Keybyte键值数据库基于单机KV内存存储引擎实现了分布式强一致性的KV存储能力,同时还反对内存用量限度和丰盛的过期淘汰算法,保障了服务的可靠性和稳定性。同时还兼容了TDH对立SQL引擎的简单剖析能力,利用场景更丰盛。 文档数据库DocStore文档数据库DocStore是TDH9.0全新推出的存储引擎,反对半结构化数据XML/JSON、非结构化数据图片/PDF/小文件的同时也反对结构化数据存储。 相比于其余存储引擎,文档数据库DocStore更关注于文档数据的高性能检索。反对海量文档数据的存储的同时,检索上通过反对多种索引技术来减速文档数据的检索性能,目前能够撑持百万级高并发、毫秒级提早的数据检索能力。 对立大数据存储底座降级大容量、高性能、稳固牢靠TDH9.0对大数据存储底座进行了重大降级,对立分布式数据管理系统TDDMS和分布式文件系统TDFS提供更稳固的小文件治理能力和拜访性能,晋升了存储可靠性,保障数据安全不失落。基于星环分布式交易型数据库KunDB提供元数据服务,提供更高性能、更加牢靠的元数据处理服务。星环科技分布式数据管理系统TDDMS在TDH9.0降级到了2.0版本,在存储上优化了对数据碎片文件的解决能力,晋升了5倍数据碎片的承载能力,在等同硬件和数据分布条件下,能够存储管理5倍的表对象。同时TDDMS2.0改良了数据修复能力,能够更及时得主动实现数据故障迁徙与正本修复,晋升了数据安全性与服务可用性。 另一个较大的更新是TDDMS2.0反对了多模型数据主动同步的能力,不同存储模型的数据能够基于对立的日志零碎binlog,实现数据在不同存储模型间的主动转换。例如,实时数据写入到关系型剖析引擎时,能够通过TDDMS同时主动同步一份正本到图数据库和时序数据库中,不便用户间接进行图剖析和时序剖析,大大加强了业务实效性,升高了开发复杂度。星环科技分布式文件系统TDFS次要负责兼容开源Hadoop生态体系的文件存储能力。开源体系中,次要应用HDFS作为分布式文件存储系统,然而开源HDFS在架构上存在肯定瓶颈。开源HDFS的须要将文件元数据存储在NameNode节点内存中,因为单节点内存有下限,因而无奈治理大集群海量文件,也无奈解决大量小文件的存储。 星环科技分布式文件系统TDFS基于开源HDFS架构,在保留了存储节点DataNode的架构下,改写了元数据存储模块,应用了星环自研的Name Manager和Block Manager作为代替。相较于HDFS,TDFS元数据基于Raft协定进行分布式一致性治理,兼容Hadoop生态的同时,容错性更强,不存在单点瓶颈。因为解决了海量小文件治理问题,TDFS除了反对分布式文件系统以外,还反对对象存储,反对文件存储和对象存储两种模式并行运行。 在4节点测试环境中,TDFS反对10亿以上文件数稳固运行,远超开源HDFS 5倍文件数治理能力,元数据QPS比开源快1.7倍,能撑持更高吞吐的业务场景。同时TDFS比开源HDFS重启速度快16倍,在一些运维场景下能更快的复原服务。在TDH9.0中,元数据服务基于星环科技分布式交易型数据库KunDB作为底层存储,在元数据并发拜访场景下,相比于TxSQL,KunDB TPS最高晋升3.6倍,QPS最高晋升4.4倍。元数据服务的降级能够综合晋升TDH大数据平台底座根底,保障更强的一致性、更高的性能、更牢靠的元数据存储能力。 智能运维,平安无忧运维方面,TDH始终致力于晋升产品运维易用性,升高运维难度和老本。TDH9.0推出了智能运维模块,联合了大数据技术特色与业务最佳实际,通过对TDH平台上大数据服务特色指标的收集,基于智能运维规定库匹配判断,提供集群改善运维倡议,保障集群长期高效稳固运行。 例如,在数仓数集场景下,个别须要对关系型数据进行分桶存储,不合理的分桶会影响集群的稳定性和解决性能,智能运维模块能够通过收集集群中表的分桶大小来帮忙用户判断以后的分桶是否正当,提前给出分桶改良倡议,防止后续因分桶问题的进一步好转导致集群不稳固。相似的,智能运维模块还会依据集群历史存储用量剖析,提供预警式扩容打算倡议,通过剖析集群计算资源使用率,提供资源配置优化改良倡议。 智能运维模块蕴含100多个智能运维规定,开箱即可用,帮忙用户更轻松地运维大数据平台。数据安全是近期比拟炽热的话题,也是用户比拟关注的问题。TDH9.0降级了网络安全策略,应用了Overlay容器平安网络。通过网络虚拟化的形式,隔离物理网络,用拜访权限管制的形式治理集群网络和内部网络的间接拜访,防止了未受权的内部拜访以及外部数据的透露,升高了用户治理难度,进步了集群网络可用性、安全性和可靠性。除了容器网络隔离以外,TDH联合本身根底平安组件以及大数据开发工具TDS,保障用户在数据开发过程中,取得全生命周期的数据安全防护,从数据采集、传输、存储,到解决、流通、销毁,每一步都提供了全面的数据安全技术保障,如加密、脱敏、权限、审计等性能一应俱全,在欠缺的大数据平台平安体系下,能够不便用户建设起数据安全环境与操作流程,保障数据安全。 TDH社区版让大数据分析触手可及星环科技始终致力于大数据技术的翻新以及大数据技术人员的造就。TDH通过9年的迭代,曾经获得了肯定技术的积攒和行业教训,此次星环科技新推出TDH社区版,为企业用户、高校师生、科研机构以及其余业余开发人员提供更轻量、更简略、更易用的数据分析开发环境。社区版提供星环最具竞争力和最成熟的Inceptor组件、Waterdrop等自研开发工具以及Hadoop 3.0和星环科技的精选组件服务等,为用户构建批处理数据仓库、数据湖等提供平台反对。TDH社区版同时具备轻量资源即可高效部署,简略易用,便捷运维,以及性能优异等长处。 为满足多人群需要,TDH社区版分为订阅版和免费版。其中订阅版面向企业级用户,无节点容量限度,能够提供更高级别的技术支持、业务规模反对和业务场景反对;免费版面向科研机构、高校教师、开发者、集体爱好者,收费提供4节点、10TB容量反对,可进行百亿级别的数据处理,利用于学习、教学、科研等场景。自诞生以来,TDH助力数千家企业打造了对立的、高性能大数据平台,为企业建设数据湖、数据仓库、数据中台等提供平台撑持,为企业数字化转型助力。星环科技将继续自主研发与技术创新,强化大数据平台对立多模型解决能力、高性能、易用性、可靠性、和安全性,为外围根底软件国产化,为企业构建数字底座,为大数据社区与人才培养提供当先的技术力量,施展大数据技术更大的价值。

May 10, 2022 · 1 min · jiezi

关于大数据:星环科技TDH社区版让大数据分析触手可及

日前,星环科技正式推出了企业级一站式大数据根底平台TDH社区版,社区版极大水平的升高了用户接触应用大数据技术的应用门槛以及应用老本,致力于为企业用户、高校师生、科研机构以及其余业余开发人员提供更轻量、更简略、更易用的数据分析开发环境。 随着寰球数字化的高速倒退,大数据的治理与剖析对于企业业务翻新化发展至关重要。一些企业正在面临技术人员有余,组件繁多,架构简单,集群资源要求高,开发和运维艰难,门槛较低等诸多问题。并且,像开源大数据平台CDH不再提供收费的社区版,系统维护、组件性能的更新也都不再予以反对。上述这些因素让大家平时接触应用大数据技术的老本和门槛都进步了很多。 星环科技始终致力于大数据技术的翻新以及大数据技术人员的造就,Transwarp Data Hub是星环自主研发的一款企业级一站式大数据根底平台,采纳业内翻新的技术架构帮忙企业构建对立的数据资源库,实现全链路数据疾速接入,跨部门灵便调用数据的业务场景,彻底突破了不同部门间的数据隔膜。平台面向开发人员提供从数据到价值全链路的开发工具,所有的数据存储、数据分析、数据挖掘等性能都能够在平台中实现。 为了升高应用大数据技术的门槛与难度,遍及大数据技术,赋能更多企业用户使其更具备竞争力,让更多的高校师生、科研机构,开发者等都能学习和应用大数据技术,星环科技推出了集易装置、易使用,易治理,易运维,更轻量于一体的大数据根底平台——TDH社区版。 为了满足更多用户的需要,TDH社区版此次将分为订阅和收费两种模式。企业用户能够通过订阅的形式,低成本获取咱们的社区版。咱们将为用户提供高规模的数据量、节点、以及更高级别的技术支持。同时,咱们也为高校师生、科研机构、开发者提供收费的社区版,将提供4节点10TB的数据容量反对,能够实现上百亿条数据的治理剖析,充沛利用于学习、教学、科研等场景,收费的社区版齐全能够满足需要。当然,如果后续心愿用在要害用处,免费版反对平滑降级为订阅版。 依靠星环科技最成熟技术 最滞销产品打造自2013年TDH公布以来,通过一直的打磨与翻新,TDH曾经领有大量的实战经验,客户也遍布各行各业。为了让大数据技术失去更宽泛的应用与利用从而发明更高的价值,咱们将这九年中获取到的成功经验以及最具代表性最成熟的组件一起放进了TDH社区版中,并提供Hadoop3.0的精选组件,更好地为用户构建批处理数据仓库,数据湖等提供平台反对。 轻量资源 部署简略TDH社区版大幅度降低了零碎组件的资源占用,最低配置仅需4核8GB就能够联网进行装置应用,用户能够自行抉择组件与配套的服务。基于web的图形化服务也为用户带来了更直观的装置部署,治理与监控。用户仅需简略几个步骤就能够在平台上实现装置、配置、降级等一系列的工作,相比业内其余平台,装置部署步骤升高40%,部署工夫升高70%,老手用户也可疾速进行零碎装置部署。 简略易用 疾速上手TDH社区版与商业版一样装备了对立的SQL编译器,能够全面反对规范SQL语法,兼容SQL 92 99规范及2003 OLAP外围扩大,用户能够更疾速、更灵便地调用数据。通过对立的数据拜访接口,开发人员无需再思考底层数据库、平台的SQL语法以及学习新的编程语言,只需简略扭转SQL语句,就能够轻松实现各类简单跨模型查问,不仅大幅度的晋升了效率,更能够轻松、高效的实现高阶数据分析需要。极大水平的晋升了平台的易用性、开发效率以及运行效率。并且,咱们将为使用者提供全方位反对,提供学习指南,即便零教训使用者也能够做到疾速上手。 全面监控 便捷运维TDH社区版在升高用户接触大数据技术的门槛与老本的同时,也极大地升高了用户运维治理的难度,实现轻松、便捷、高效、智能的运维。对立的可视化系统监控平台,能够对系统负载,平台运行状况等指标进行对立治理与监控。并且提供的一站式综合智能运维组件反对多方面的集群监控、预警、剖析,充沛赋予了使用者解决问题的能力,对于潜在的重大问题,平台预置的告警告诉设置可能及时预警、告警,实现事先预警、事中告警、预先剖析的全阶段运维成果。 更强性能 满足高阶要求目前,要害核心技术自主可控已成为国家次要策略之一。社区版装备了星环极具竞争力、非常滞销的自研关系型剖析引擎Inceptor等组件作为社区版的外围,帮忙用户无效解决大数据处理和剖析的各种技术难题。Inceptor提供PB级海量数据的高性能剖析服务,是寰球首个通过剖析决策零碎国内基准测试TPC-DS及官网审计的产品。基于TPCDS 1TB的数据规模,等同配置下(4X10cores)TDH(Inceptor)简单场景查问性能是CDP(Hive on Tez)的7~25倍。Inceptor能够帮忙用户进行批处理、关联剖析、聚合计算等一系列的性能,帮忙用户疾速开发数据湖、数据仓库等利用。 高质量社区 丰盛服务星环科技从新打造了星环社区论坛,为用户提供更高质量的学习、分享、交换环境。社区为用户筹备了丰盛的产品文档、解决方案等技术材料,用户能够按需进行抉择学习和查看。咱们还提供技术问答、反对等服务,同时欢送用户退出论坛与一群气味相投的爱好者一起发问交换以及分享应用教训,咱们会在社区中跟踪解决并及时回复。同时咱们也会定期组织线上、线下的meetup、技术交换等丰盛的社区活动,为用户提供良好的开发合作环境。 继续迭代 满足更多业务场景 超高性能的剖析引擎,丰盛的组件反对,都让社区版TDH变得更具多样性。社区版领有超过12个TDH外围组件以及多个平台服务,在将来咱们打算新增更多功能,例如轻量版更易上手应用的StellarDB星环分布式图数据库,Hyperbase星环实时NoSQL宽表数据库,TimeLyre时序数据库等,满足更多的业务场景需要。同时,咱们也将面向开发人员提供从数据到价值全链路的开发工具,让用户更便捷、更高效地开掘数据价值。 如果您对其余的产品性能感兴趣,咱们也欢送大家拜访星环的社区进行留言反馈,大家能够提出本人想要接入以及感兴趣的组件,咱们会采集您的需要来对新产品新性能进行迭代翻新,进行性能上的加强,性能上的丰盛。将来,星环科技将与您一起独特打造这款集易使用、易治理、易运维、更轻量于一体的大数据根底平台。

May 10, 2022 · 1 min · jiezi

关于大数据:星环科技打造自主可控的高性能数据库开启国产化升级新篇章

星环科技自成立以来,始终致力于国产化数据库的自主研发,打造了自主可控的高性能分布式剖析型数据库ArgoDB和分布式交易型数据库KunDB。交易型数据库KunDB具备较强的SQL兼容性,同时具备高可用、高并发、在线扩缩容、数据强一致性等能力,实用于操作型业务、高并发业务等场景。多模型数据库ArgoDB具备残缺的SQL兼容性,同时具备高扩大、高牢靠、多模型、存算解耦等能力,一站式满足数据仓库、实时数据仓库、数据集市、OLAP、联邦计算等场景。 通过一直的打磨和对业务场景一直的落地实际,ArgoDB和KunDB已成为具备齐全自主知识产权的成熟的国产数据库,可能为更多的客户提供高性能、高牢靠、成熟的数据库产品服务,帮忙用户应答智能数据时代海量数据的剖析与摸索。 近日,星环科技正式公布了ArgoDB5.0和KunDB3.0,并将其联合打造了一体化实时AETP技术(剖析增强型交易库),在一个数据库系统里同时撑持交易与剖析混合型业务场景,助力数据库国产化降级 ArgoDB5.0:存算引擎双降级,打造高性能湖仓集一体化多模型数据库 Transwarp ArgoDB 是星环科技自主研发的面向数据分析型业务场景的国产化分布式多模数据库,可能一站式代替Hadoop+MPP混合架构,提供多模剖析、实时数据处理、存算解耦、混合负载、数据联邦、异构服务器混合部署等先进技术能力,一站式满足数据仓库、实时数据仓库、数据集市、OLAP、联邦计算等各种需要。2019年8月,ArgoDB成为寰球第四个通过TPC-DS基准测试并通过TPC官网审计的数据库产品。 ArgoDB5.0打造了新一代向量化计算引擎和多模型存储引擎,整体剖析性能大幅度晋升。ArgoDB5.0进一步增强了多模型数据的反对能力和解决能力,通过一个数据库就能够满足更多数据模型解决和不同模态数据关联。同时,ArgoDB5.0引入DP-SQL能力,实现对数据的隐衷爱护,满足数据公布、流通、脱敏、查问、交易等场景下的数据安全要求。在数据资产平安保障上,5.0版本继续加强了数据容灾备份能力,通过细粒度、高并发、高效率的容灾备份能力,进一步晋升数据安全保障能力。此外,ArgoDB 5.0进一步增强数据湖和数据仓库/数据集市等业务面的技术革新,加强湖仓集交融能力,通过对立拜访接口、对立存储、对立元数据管理等能力,真正意义上为用户提供湖仓集一体化的场景解决方案。 新一代向量化计算引擎和多模存储引擎,剖析性能是同类数据库产品的2~10倍 ArgoDB 5.0在原高效的计算引擎之上,将计算算子全向量化native改写,使得高并发简单剖析在百毫秒内反馈后果,将优化器中引入数据的动静采样,全面反对多种join的重写。同时联合业务场景,优化场景化能力,重点在湖仓一体的SQL治理上进行了优化,并且新增隐衷计算能力和数据动静脱敏能力,加强数据联邦场景中SQL语句算子下推能力等。 在存储引擎方面,ArgoDB 5.0持续深耕分布式存储框架与列式存储引擎的优化,在升高业务资源耗费的同时晋升多模型能力和业务性能。绝对于上一代批量扫描性能晋升了10倍以上,同时升高业务SQL资源(IO等)的应用,晋升零碎稳定性和业务效率。对于实时数仓场景,数据提早管制在毫秒级,并且反对高并发剖析。在大集群场景下,反对百万级别的表和百万级别的元信息管理,稳定性进一步晋升。 基于存算双引擎的降级,ArgoDB 5.0在性能上有大幅度的晋升,尤其是OLAP剖析场景下的性能晋升,无论是单表查问还是多表关联场景,ArgoDB都具备有显著的性能劣势,整体上是同类数据库产品的2-10倍,帮忙用户更快、更稳固地应答复杂多变的业务需要。 多模数据交融剖析,更高效地满足”一库多用“场景 随着业务数据量一直增长的同时,数据结构也变得越来越灵活多样,数据不再局限于规整的结构化数据,半结构化、非结构化数据在数据域解决中的占比逐年回升,因而对不同模态的数据进行智能化数据处理的需要越来越迫切。 多模型数据库ArgoDB继3.2版本新增反对大对象数据类型Blob和Clob,用来存储、查问和解决图片、电子文档、音频、视频等非结构化数据后,ArgoDB 5.0新增对半结构化的JSON/JSONB/XML数据类型的反对,满足了更多数据模型解决场景和更多简单业务需要。 同时,ArgoDB 5.0进一步增强了对多模态数据的解决能力,在优化器上进一步深耕,对不同模态数据基于代价/规定等主动判断抉择正当高效模型,拆分、散发计算工作,让数据处理更加快捷和高效。 在架构上,ArgoDB基于存算解耦,实现了多模数据库的“四个对立”: 对立的SQL编译引擎,反对SQL 99/2003 规范语法,兼容TD,Oracle,DB2等多种方言,对不同模式的数据提供对立接口,将多个操作拜访入口变为一个入口,将多种数据库语言变为一种语言,升高开发和迁徙老本,简化用户操作。对立的计算引擎,将多套计算引擎变为一套引擎,将多份计算资源变为一份资源,提供高性能的剖析计算和执行效率,满足跨模型数据简单关联剖析场景。对立的存储管理零碎,同时反对剖析型行列混合存储、反对具备搜寻性能的文本存储等多模异构存储,并保证数据的强一致性,数据只需一次入库,即可通过异构存储的拜访能力撑持多样化简单剖析场景,升高运维老本,将扩散存储管理变为对立存储管理,极大简化零碎架构,缩小开发运维老本。对立的星环云原生操作系统,反对 ARM+X86的混合架构,用户能够利旧硬件,大幅降低成本。ArgoDB5.0通过对立的元数据管理、对立的事务管理和齐备的多模优化器撑持了对不同模态数据的对立读取调度,实现多模态交融,满足更多“一库多用“场景。 创新型数据差分隐衷,强化数据安全 数据处理与数据安全是不可分割的,如何对集体数据的无效爱护是在数据处理、数据公开、数据公布中不可绕开的一个话题。隐衷爱护是基于差分隐衷的密码学办法,在统计数据库查问时,旨在保证数据查问的同时,最大水平缩小辨认个体数据的机会。 ArgoDB 5.0版本联合数据隐衷平安的业务诉求,引入DP-SQL能力,实现对数据的隐衷爱护,满足数据公布、流通、脱敏、查问、交易等场景下的数据安全要求。在交互式场景下,数据管理者能够按需对查问申请数据汇合增加必要的烦扰(即:噪声)后反馈给用户;在非交互式场景下,数据管理者能够按需针对所有可能的查问,在满足肯定条件下一次性公布相干查问数据(即增加噪声后的“污染版”数据)。 ArgoDB5.0将隐衷计算与数据库技术相结合,反对简单剖析SQL主动优化,易于开发人员应用。同时将加密协议联合SQL优化技术,相较于python级别实现执行效率更优,反对更大数据量的隐衷计算。 突破数据壁垒,加强湖仓集交融 随着数据与业务的并行倒退,对数据的交融剖析解决逐步成为数据库技术发展趋势。当数据仓库与数据湖数据集市协同解决时,带来的是数据孤岛的突破,以及数据计算边界的拓宽。 ArgoDB 5.0版本进一步增强数据湖和数据仓库/数据集市等业务面的技术革新。在同一平台中,防止数据挪动,将原始的、加工荡涤的、模型化的数据,独特存储于一体化的“湖仓集”中,既能面向业务实现高并发、精准化、高性能的历史数据、实时数据的查问服务,又能承载剖析报表、批处理、数据挖掘等剖析型数据集市业务,真正意义上为用户提供湖仓集一体化的场景解决方案。 通过ArgoDB打造的湖仓集一体化计划,用户能够基于对立拜访接口最大水平上升高数据湖、数据仓库、数据集市业务过程中业务接口的调整,升高用户开发成本,进步数据处理效率。对立的元数据管理能够在精准的ACL管制下,实现按需展现湖仓集内的相干元数据的对立查问,进步数据管理效率。对立存储管理,对使用者屏蔽不同数据源的数据存储,升高业务数据管理难度。此外,基于ArgoDB打造的湖仓集一体化计划能够无缝连接AI技术,帮忙业务开掘更多数据价值。 KunDB3.0:高度兼容Oracle语法和PL/SQL, 实现OLTP数据库国产化降级 Transwarp KunDB是星环科技基于分布式技术自主研发的国产化的交易型数据库,提供残缺的关系型数据库的能力,高度兼容SQL,保障事务ACID。KunDB具备业内当先的事务处理性能,SQL兼容性以及最新的分布式查问优化技术,反对简单查问且性能是MySQL的10倍以上,充沛满足高并发、大数据量的交易型业务场景,可能实现MySQL,Oracle等传统支流数据库的国产化代替。独特的混合部署技术支持支流国产化CPU等自主可控的硬件平台和OS部署,满足国产化部署需要。此外,KunDB提供全链路高可用、一致性备份复原等容灾能力,以及齐备的平安治理、资源管理能力,能够为不同业务场景保驾护航。 KunDB3.0高度兼容Oracle对象与语法,基于翻新的过程语言编译技术,残缺反对Oracle PL/SQL语法,大大降低企业国产化迁徙老本。通过丰盛查问优化规定和算子进一步加强查问优化器,并联合全新的向量化执行引擎使得剖析性能在TPCH基准测试中较MySQL最高优化80倍。在事务处理能力方面,相较于KunDB2.0采纳的全局事务管理器GTM计划,KunDB3.0采纳基于TSO的全新分布式强统一事务处理框架,进一步晋升分布式事务处理能力,事务处理下限达300万TPS,较GTM计划晋升5倍以上。同时KunDB3.0也对存储层性能和分布式架构做了继续优化,单机TPCC晋升了1倍,分布式TPCC晋升了60%。在容灾能力方面,KunDB3.0优化了跨机房容灾架构,反对全链路高可用、一致性备份复原等能力,故障时可复原过来任意工夫点,充沛保障数据安全。此外,KunDB3.0采纳了基于剖析引擎加强分布式事务处理引擎技术(ATEP),大幅提高了KunDB的数据分析能力,通过一个零碎就能够同时提供高性能AP和TP服务能力,满足交易与剖析混合型业务场景。 高度兼容Oracle对象与语法,残缺反对Oracle PL/SQL KunDB3.0 对Oracle语法各个方面高度兼容,成为业内当先的具备撑持Oracle业务迁徙能力的国产数据库。KunDB3.0高度兼容Oracle语法与PL/SQL,反对VARCHAR2、NVARCHAR2等全副类型,在PL/SQL语法上,反对管制语句、汇合、动静SQL、子程序、预约义包、错误处理等全副PL/SQL语法,解决了Oracle业务迁徙到国产化数据库的外围痛点,为其它兼容性欠缺提供了根底。在Oracle数据库对象、DML、函数、零碎视图、内置包、驱动等方面,做到了罕用性能的兼容,满足大部分业务的迁徙需要,极大升高了企业业务迁徙老本。 KunDB3.0采纳翻新的过程语言编译技术及两头优化语言TIR,残缺反对Oracle PL/SQL语法,并在4类技术场景实现翻新和性能晋升。 为了反对多个数据库方言,传统解释器形式导致反复工作量会很大。KunDB3.0通过对立的两头优化语言TIR,表白任意的过程式语义及SQL语义,反对multi pass编译与LLVM IR组合,低偶合、低成本的扩大不同数据库PL/SQL语法体系传统技术将PL/SQL翻译成函数执行形式,没有控制流代码优化空间。KunDB3.0通过转译LLVM,将PL/SQL转为底层语法,能够与llvm的 multi pass优化联合,减少代码优化规定,从而优化存储过程的执行传统翻译成函数执行的形式,无奈进一步实现编译执行。KunDB3.0引入对立表达式解决引擎技术,SQL与PL/SQL可复用编译优化,实现形式上比Oracle更加简洁,同时节俭了开发成本传统的异样解决无奈实现零开销。KunDB3.0参考LLVM的landing pad技术,实现零开销的异样解决零碎。全新的查问优化器和向量化执行引擎,简单剖析性能晋升10倍 KunDB从2.0到3.0的迭代中,为了更加敌对的反对跨分片的简单查问剖析,晋升AP能力,KunDB基于火山模型从新设计了查问优化器,面向分布式存储丰盛了查问优化的规定,包含了分片下推、子查问去关联化等十多种查问优化规定,相应的扩大和优化了block hash join、Index Lookup Join等二十多个算子,TPCH 子查问性能相比于KunDB2.0均有大幅度晋升,最高晋升了近20倍。 KunDB3.0应用了全新的向量化执行引擎,在内存中应用列存储的形式对数据进行转换存储后再进行计算,相比于内存行式数据管理,在内存资源占用、剖析函数实现、表达式求值性能、压缩反对上都更加具备劣势。另一方面,执行引擎基于多协程技术,采纳了基于流水线的并行处理框架,反对并行的数据扫描、算子间数据交换、算子计算、后果集返回等全链路过程,对于数据可分拆执行的场景,性能有大幅晋升。同样的数据规模下以TPCH测试为参考,KunDB剖析性能较MysQL有大幅度晋升,22个Query最高性能晋升可达到MySQL的近80倍。 基于TSO的全新分布式强统一事务处理,集群事务处理能力晋升1倍 在分布式事务处理上,KunDB3.0应用基于全局工夫戳的事务处理框架来代替2.0的全局事务管理器GTM计划。分布式层引入了TSO服务器调配工夫戳,采纳XA协定和工夫戳优化2PC保障分布式原子性写,分布式事务开销升高50%。基于事务提交工夫戳可做到正本全局一致性读,实现保障事务的读写拆散。存储层可基于以后工夫戳和数据工夫戳做全局一致性读判断,不依赖全局快照,性能更高,加重中心化危险。KunDB3.0集群的事务处理下限晋升了6倍,达到300万TPS,齐全满足头部互联网业务场景的性能需求。 此外,KunDB3.0也对存储层性能和分布式架构做了继续优化。存储层采纳了面向内存的数据存储与治理、无锁内存索引技术、乐观与乐观联合的并发控制技术、并行查问技术,实现了存储层性能靠近1倍的晋升。联合分布式层在通信链路优化为基于MySQL协定的通信,放弃了高开销的grpc通信;元数据存储的革新为高吞吐的关系型存储,以及缩小组件、治理组件精简为一个全局服务,优化了分布式层的开销。在4分片的拓扑下,TPCC性能较2.0晋升了60%。 跨机房容灾架构,任意工夫点全局一致性复原 在容灾方面,KunDB优化了跨机房容灾架构,反对全链路高可用和全局一致性复原。计算引擎齐全无状态,扩大便捷,可实现多节点部署;存储引擎反对主备/Paxos复制,反对故障时主备切换;元数据服务也都是基于多数派协定反对故障时主动选主,理论部署时防止了单节点部署的危险。通过跨机房的正本数据强同步,保障了机房级故障时,复原点指标RPO=0。 ...

May 10, 2022 · 1 min · jiezi

关于大数据:星环科技Sophon-31发布模型运管隐私计算边缘计算知识全流程实现从数据到智能的全链路构建

Sophon作为星环科技自主研发的一站式智能剖析工具平台,此次推出3.1版本,该版本可实现从计算智能、感知智能到认知智能的数据全链路智能剖析。Sophon的3.1新版个性更优异,可笼罩多模态数据的交融剖析、保障隐衷的平安高效剖析等场景。 Sophon作为数据因素的智能底座,笼罩数据分析建模全流程,提供剖析即服务的能力、数百种分布式机器学习算法、边缘计算能力,并领有多模态数据集成、交融和常识推理、数据因素流通的隐衷计算。 计算智能:数据迷信平台Sophon BaseSophon Base数据迷信平台为解决企业级用户的AI模型治理经营(MLOps)难题以及AI可信和隐衷爱护问题,此次3.1版本推出了MLOps中的两项重磅性能:对立AI模型仓库和可解释人工智能(XAI)模块;同时,基于Base优良的分布式计算能力,推出了全新的隐衷计算平台Sophon PC。 MLOps的六个对立 目前模型治理与经营面临着模型利用场景简单、规模化治理难度大、部署形式难以对立、模型配置老本高、生产环境危险低等诸多痛点。Sophon Base在3.1新版本中新增AI模型仓库性能,帮忙用户在平台上实现AI模型的六个对立,别离为:对立纳管、对立运维、对立利用、对立监控、对立评估、对立解释,从而实现模型接入、模型经营治理至继续训练的流程化治理。 此外,Sophon Base 3.1还反对离线数据批量预测、数据偏移指标监控、自定义预警规定以及审批流程,可利用于客户营销、风险管理、智能投顾、智能决策、收益评估等多个畛域,帮忙用户实现模型的治理集中化、统一化、流程化、自动化、资产化,显著晋升治理经营效率。 MLOps下的可解释问题 对于AI的信赖水平也是AI技术难以被大面积应用的次要问题之一。在企业模型利用场景愈发丰盛多样的背景下,往往须要通过简单的模型来实现大型数据集的高精度预测。然而,这些简单模型大部分属于黑盒模型,是不通明的、非直观的、难以被人们了解的。这就造成了准确性和可解释性之间的缓和关系。另一方面,因为监管或政策要求的存在,模型可解释性可大大加强用户对AI模型的信赖。在保障合规的同时,模型解释还能推动优化模型,为迭代提供参考。 针对上述问题,星环科技推出了Sophon XAI,其采纳可解释人工智能应用Kernel SHAP算法,利用训练样本集随机采样的特征值代替指标样本的特征值,应用加权线性回归近似 SHAP值。Sophon XAI反对数据可视化;简略易用,无需编写任意代码;采纳基于预先的模型解释,在线预测实现后,若对其中局部数据的预测后果存疑,可应用模型解释性能了解和验证AI模型的输入,并辅助评估模型危险及鲁棒性。基于以上个性,模型可解释的典型利用场景包含——信贷风控、药物开发、医疗诊断等,可利用于解决“数据孤岛”景象,助力内外数据交融及智能业务合作,晋升业务品质。 隐衷计算内核的平安流通平台 数据安全流通共享方面,Sophon 3.1版本将原有的联邦学习平台Sophon FL全新降级为Sophon PC隐衷计算平台,反对多方平安计算、联邦学习和可信的执行环境。全新的Sophon PC隐衷计算平台在性能和性能上均进行了大幅降级:性能方面,反对亿级数据隐衷求交和联邦学习建模,计算与传输性能大幅优化;性能方面,新增隐匿查问、联邦特色筛选、数据品质评估、基于差分隐衷的数据探查等性能,并新增多种联邦学习算法和通信协议,可反对多种私有云部署对接。详情请关注平安流通专题。 为不便用户装置与应用,Sophon 3.1重磅推出轻量化社区版。 感知智能:边缘计算平台Sophon Edge随着规范模型市场的日趋成熟,更高精度的模型诉求和长尾场景的疾速建模成为企业数智化转型的第二战场。寻找一款可能满足“业务疾速迭代” 和“新场景落地”的需要的端到端的模型生产落地利用平台成为了许多企业的事不宜迟。针对此,星环科技推出星环边缘计算平台,一个笼罩全流程:数据->模型->利用->闭环的边缘智能平台。 感知智能由物联智能和视觉智能两局部形成,将物理世界信号映射到数字世界。星环边缘计算平台负责“感知智能 ”场景,其中工业级边缘计算平台负责“物联智能”场景,一站式CV模型生产利用平台视觉“智能场景”场景。新版边缘计算平台提供了笼罩工业物联网、边缘计算、云边一体业务中两大新个性: 全流程个性:提供数据到模型再到利用的全流程构建、公布能力高效率个性:在数据到模型和利用流程之上的全流程疏导式和低代码式操作能力基于这两大个性,平台可实现多业务零碎的模型对立治理、动静运维与长稳迭代,助力客提高效率、资源共享、模型迭代。除此,Sophon Edge提供厚实的技术底座,可在工业级边缘计算、图像、流媒体等畛域一站式地撑持丰盛的下层利用。 认知智能:常识图谱平台Sophon KG基于常识图谱和自然语言解决,帮忙机器实现了解、解释和推理的能力,是认知智能的底层撑持。其中,常识图谱用图模型来形容常识和建模万物关系的语义网络,展示实体间的简单关系。基于常识图谱可能深入分析,并开掘潜在特色,推断潜在关系,辅助业务决策。 星环常识图谱软件(Sophon KG)是一款笼罩常识全生命周期,集常识的建模、抽取、交融、存储、计算、推理以及利用为一体的常识图谱产品。平台反对低代码图谱构建、智能化常识抽取、多模态常识存储与交融、多模式常识计算和推理以及多维度的图谱剖析。除了具备上述的链路齐备性,平台还从业务场景登程,积淀了几个场景的图数据模型、规定模型和算法模型,能够帮忙客户疾速解决同场景下的业务问题。 新版Sophon KG具备更全面新个性: 新增文本处理模块,反对实体标注、语义关系标注、单文本分类、多文本分类、情感分类这五种文本标注工作;预置金融场景的实体抽取和语义关系抽取模型,反对基于模型的预标注,并反对手动批改标注后果;实体标注和语义关系标注工作反对一键入图,也反对点边表导出;所有自然语言标注工作在审核实现之后均可导出为模型训练数据格式,可作为后续模型训练的输出;社区聚类等算法反对边权重配置。除上述新个性,Sophon KG新版减少了新利用场景:保险智能问答和另类金融数据图谱剖析。以保险智能问答为例,客户面对的次要痛点为: 人工客服难以把握全副本公司保险产品细节,在没有知识库的状况下难以做到进行高效查问,服务效率低下;同时保险营销团队较难把握市面上全副的保险产品,在面对客户时可能难以查找其余公司公开产品信息并进行比照,较难突出自身产品劣势。针对上述痛点,Sophon KG反对将产品、类型、条款等非结构化关系网数据通过图谱构建、常识抽取、实体交融、关系推理等技术,构建成一个业余知识库;并通过自然语言解决技术,了解发问实在用意,联合常识图谱、QA问答对等能力,提供一个面向外部员工、保险代理人疾速触达内外保险条款细节的保险常识百科。

May 10, 2022 · 1 min · jiezi

关于大数据:TDC-30-从数据分析到数据流通数据云拓展新场景

星环科技数据云平台 Transwarp Data Cloud 是基于云原生技术交融星环科技全系产品构建的对立PaaS 平台,围绕数据的集成、存储、治理、建模、剖析、开掘和流通等场景,实现了数据、模型和利用的全生命周期治理,助力企业构建明日数字化平台。星环科技数据云平台 2018 年公布1.0 版本,是国内最早推出数据云产品和解决方案的企业,截至目前 TDC 曾经为政府、银行、基金、能源等多个行业提供残缺的数字化建设解决方案。 数据云 TDC 典型落地案例包含:为江苏农信建设的大数据 DAAS 利用平台,晋升了江苏农信数据输入服务能力;为上海大数据中心建设了上海市数据共享替换平台,为一网通办、政府大屏、政务决策等政务利用提供撑持,无效晋升政府部门办事效率;为中化中化信息大数据平台建设提供了一站式的大数据解决方案,充沛整合和治理企业各个系统全生命周期数据,疾速开掘数据背地的价值,综合晋升企业治理和经营能力。截至目前,星环科技数据云平台 TDC 曾经在数十家大型企业落地,笼罩多个行业。 迈入 2022 年当前,整个市场进入到了一个“万物数连”的时代,企业对数据利用的要求又晋升到了一个全新的高度。例如,企业对数据的即时剖析、按需剖析、即时部署变得更加的强烈;此外,随着数据的宽泛流动,企业为了治理好这些数据,其数据基础设施也必须要横跨边缘端、公有云、私有云和混合云等环境;更加要害的是,数据还须要实现凋谢共享、数据交易和流动必须更加便捷,由此能力让数据在企业的数字化变动中起到更加重要的作用。 也正是洞察到这些变动,星环科技又一次引领市场提出了“交融数据云”(Unified Data Cloud)的全新理念,它是指在按数据域组织的分布式数据云的技术架构根底上进行兼顾治理、协同经营、服务交融以造成可协同统一,自由组合,灵便部署的一种新型数据分析模式。 对此星环科技创始人、CEO孙元浩强调,与“数据云”强调资源的弹性调度和对立管控不同,“交融数据云”更强调数据的流通和凋谢共享,其价值次要体现在三个维度:第一个“业务系统化”,是指可能促成数据的疾速流动,让数据在数据平台上以平安可信的形式流动到适合的中央、流到须要的人;第二个是“剖析平民化”,是指企业能够通过轻量化地构建统计分析和决策智能利用,赋能业务并实现业务的智能化;第三个是“数据畛域化”,是指企业能够交融多种数据畛域,通过联邦剖析、多模型数据平台把数据的关联价值倒退进去。 而作为“交融数据云”的底座,TDC 在星环科技秋季新品公布周上正式公布了 3.0 版本, 新版本也迎来了令人期待的三大外围能力: 第一,反对星环科技全系产品新版本,同时 PaaS 能力继续加强:TDC 上架了星环科技大数据根底平台 TDH、分布式剖析性数据库 ArgoDB、分布式交易型数据库 KunDB、大数据开发工具 TDS、智能剖析工具 Sophon 等产品的最新版本,同时 TDC 也增强了对各个云产品的 PaaS 撑持能力,包含资源预检、资源预留、主动弹性伸缩、组件拓扑、数据开发入口、高可用、组件和数据共享、平安审计、业务监控等相干能力,从而使得咱们的客户更不便地利用星环科技的产品构建湖仓一体、数据湖、数据中台、数据迷信等数字化场景。 第二,新增联邦云治理性能:随着业务倒退和连续性要求,很多企业会应用多种基础设施,包含物理机,公有云和私有云,如何在异构基础设施上构建对立的 PaaS 或者数据平台,成为了大家越来越迫切的需要。TDC 3.0 通过自研的联邦云技术,能够实现异构基础设施的对立治理、多集群对立治理、多个跨集群租户对立治理和跨多个租户利用的对立治理,能够帮忙企业在混合云/多云的基础设施上构建对立的 PaaS 平台,通过联邦租户将多个 TDC 集群的租户对立治理,利用可在联邦租户内跨集群部署,满足企业容灾和高可用场景。 第三,平安降级,新增隐衷计算区:在过来的一年,星环科技在大数据安全畛域也开始继续发力,新增了数据安全产品线。TDC 3.0 也新增了微隔离安全区技术,通过自研的平安接入区技术和网络安全区技术,通过自研的平安接入区技术和网络安全区技术,能够实现流量加密以及灵便的集群南北向和东西向流量访问控制。同时 TDC 联合隐衷计算平台 Sophon PC、数据安全治理平台 Defensor、大数据平台平安审计软件Audit、数据交易门户 Datamall 等产品,并联合微隔离安全区技术,在 TDC 上打造了隐衷计算区,提供了联邦学习套件和可信计算套件。基于隐衷计算区,TDC 通过大数据存储计算技术、联邦学习、隐衷爱护技术和平安防护技术等多技术的交融,在大数据流通非法、合规、平安的总体框架下,建设了数据流通交易平台,可满足政务、金融、工业等各行业数据流通、共享与交易的需要,实现数据安全可信地流通和计算, 为数据供需双方提供平安、合规的数据交易交付环境,促成跨机构之间的数据交易和数据流通,最大化施展数据因素价值。 ...

May 10, 2022 · 1 min · jiezi

关于大数据:TDS标签平台API平台数据共享平台助力数据运营平台建设

企业数字化转型过程中每个阶段都会遇到诸多问题和挑战,在信息系统搭建上,晚期烟囱式架构建设导致数据无奈互联互通,造成数据孤岛,实现互联互通后又面临无奈治理数据资产、施展数据资产价值等问题。现阶段,随着业务复杂度的减少和信息技术的演进,数据和剖析成外围业务性能,又将面临短少高效、便捷以及多样化的数据获取渠道,导致下层数据分析利用无奈顺利和高效的发展。 针对上述痛点和挑战,星环科技在 2019 年推出了大数据开发工具 Transwarp Data Studio (以下简称 TDS)。TDS 是一套为企业提供一站式数据资产全链路管理的服务平台,TDS 包含数据数据开发、数据治理和数据经营套件 3 大应用场景套件和 9 个组件。近日,在星环科技 2022 秋季新品公布周上,TDS 隆重推出 2.3 版本,三大套件都有全新降级,其中数据开发套件减少了 SQL 审核功能模块;数据治理套件减少了智能对标性能;数据经营套件增强了大数据分析与服务能力,新交融了三个大数据分析与服务相干组件,包含数据商城 Foresight、标签平台 Starviewer 和数据服务平台 Midgard。 数据开发套件,助力企业实现数据统一化 数据开发套件蕴含:大数据整合工具 Transpoter、数据库在线开发与协同工具 SQLbook 和任务调度软件 Workflow ,该套件作为星环科技大数据根底平台 Transwarp Data Hub 的生态开发利用工具,针对数据开发场景,提供数据集成、SQL开发和任务调度的能力,帮忙企业将数据归集到数据湖仓,实现数据统一化的过程。在 TDS 2.3 新版本中,数据开发套件除了对已有模块进行性能,性能和稳定性增强外,针对数据开发场景的标准管控需要,减少了SQL审核功能模块。 随着企业大数据开发和利用场景开始进入“深水区”,大家开始关注针对数据开发和利用过程的管控能力,用以解决诸如 SQL剖析过程中的数据安全问题、数据开发过程中的SQL布局和优化问题等。 针对上述需要场景,TDS 提供了基于 TDH 大数据根底平台的 SQL 审核性能,通过在 TDS 中应用自研的 DSL 语言自定义和治理 SQL 审核规定库,并在 TDH 的编译层和优化层对不合乎审核规定的 SQL 进行事先阻断,针对所有面向 TDH 的 SQL 申请进行审核和管控,标准 SQL开发过程、进步 SQL 执行效率以及爱护数据安全。 数据开发套件外围劣势在于: 以强制手段,对立 SQL 剖析和开发标准,提效数据开发和爱护数据安全;自研 DSL 语言,能够反对依据理论需要状况自定义审核规定;对立数据权限、数据库审计以及数据库内SQL调度,升高数据库管控老本。数据治理套件,实现数据资产化数据治理套件,针对企业过来信息系统烟囱式的构建形式以及数据开发和治理过程不标准的问题,提供数据治理能力,帮忙企业进行数据资产盘点、数据规范对立和解决数据品质问题,实现数据资产化的过程; ...

May 10, 2022 · 1 min · jiezi

关于大数据:星环科技StellarDB40正式发布性能数倍提升万亿级图数据库挖掘海量数据互联价值

Transwarp StellarDB是星环科技自主研发的分布式图数据库,兼容openCypher查询语言,提供海量图数据的存储和剖析能力,反对原生图存储构造,反对万亿边PB级数据存储。同时,StellarDB具备毫秒级点边查问能力,10+层的深度链路剖析能力,提供近30种的图剖析算法,具备数据2D和3D展现能力。星环科技StellarDB在金融、政府和社交网络等畛域利用,并且在某地电信关系图谱场景实现了9700亿边规模的存储和稳固运行,真正意义上将万亿级图数据库能力利用落地。 近日,星环科技分布式图数据库正式公布StellarDB 4.0,在数据导入、多跳查问和图算法性能方面实现了数倍降级,同时在易用性、安全性、运维治理、和开放性等方面全面降级,帮忙企业用户更快、更高效地开掘海量数据互联价值。 全新的分布式架构,数据加载、查问和算法性能数倍晋升随着互联网时代的疾速倒退,企业数据出现爆发式的增长,数据之间的关联愈发简单,这些给图数据库的性能带来很大的挑战,数据存储、查问和计算能力成为掂量数据库性能的要害能力。StellarDB 4.0对分布式存储和计算架构进行降级,数据加载、查问和算法性能晋升数倍,达到行业领先水平。 在雷同的测试环境中,在十亿级边规模数据集Twitter-2010下,StellarDB数据加载速度是开源图数据库Neo4j的2倍。 StellarDB4.0在多跳查问方面具备优异的性能体现,当门路长度设为6跳时,StellarDB查问响应速度是Tigergraph的2-4倍,在Twitter-2010数据集上,其余两款图数据库产品在半小时内未返回后果。 在图算法性能方面,StellarDB4.0具备很大性能晋升,在罕用的四种图算法PageRank、弱连通子图、强连通子图和LPA算法方面,StellarDB具备显著的性能劣势。 在PageRank方面,StellarDB性能是TigerGraph的2-3倍,是Neo4j的3-6倍,能够帮忙用户更加疾速高效的实现计算网络中点的相关性。例如在网页排名场景中,StellarDB能够帮忙用户更加疾速高效的实现网页排名。 在强连通子图方面,StellarDB性能是TigerGraph的6-7倍,是Neo4j的3-6倍,能够帮忙用户更加疾速高效的遍历有向图中每个点和每条边。例如在社交网络中的社区发现,洗钱环节的账户闭环查问跟踪等场景,StellarDB通过全局遍历,疾速倒退某社区人员或有洗钱嫌疑账户的关联关系剖析。 在LPA方面,StellarDB体现出更加优异的性能,在千万级边Graph500数据集下,靠近TigerGraph的4倍,是Neo4j的8倍以上,而在十亿级边Twitter-2010数据集下,只有StellarDB在秒级响应,其余图数据库产品在30min内均无响应后果。该算法能够帮忙用户实现从已标记的节点标签信息来预测未标记的节点标签信息。 StellarDB优异的性能将满足用户PB级数据量存储,K跳街坊查问和算法疾速响应需要,带给用户极致的应用体验,帮忙用户更快、更高效地开掘数据价值。 更多算法、更多数据类型,易用性多重晋升易用性是企业图数据库选型的重要指标,关系到用户用图数据库解决业务问题的效率和老本。星环科技StellarDB反对openCypher查询语言,简洁易懂,即可实现简单场景的查问工作,并且在openCypher根底上进行了扩大,引入数据导入,图算法,建模等语法,以更好地进步用户应用效率。 StellarDB4.0反对更多的数据类型,反对Array、Decimal高精度数据类型。同时反对类SQL语言定义图schema,让图建模和图导入更加便捷。在图算法方面,StellarDB4.0实现更多的算法反对涵盖核心调度类、社区发现类、类似度类等近30种常见的图算法以满足不同的业务场景需要。 此外,StellarDB反对2D和3D的图可视化展现,利用可视化技术帮忙用户疾速获取数据基于关联性的深度洞察,并且提供可视化的数据导入、集群监控、图查问工作和图计算工作监控等性能。 数据加密和脱敏反对,保障数据安全随着《网络安全法》《数据安全法》《个人信息保护法》相继颁布并施行,数据安全成为企业越来越关注的问题。星环科技StellarDB反对面向图的权限治理以及反对治理平台角色认证,以保障图数据的平安。StellarDB4.0面向图的权限治理进一步精细化,不仅反对图(Graph)级别的权限设置(增、删、改、查及图治理),还反对标签(Label)和属性(Property)级别的权限设置,以实现更加精细化的权限管制。同时,在数据加密方面,StellarDB4.0反对数据动态加密,其反对SM4分组加密算法,具备加密效率高,加密速度快等个性,让数据管理更平安。 StellarDB4.0新增数据脱敏能力对某些敏感信息进行数据的脱敏解决,避免隐衷数据在未经脱敏的状况下从企业流出,满足肯定场景下的监管合规要求。丰盛的内置脱敏算法能够无效的升高脱敏的复杂度和危险,实现敏感隐衷数据的牢靠爱护。 StellarDB4.0可视化页面反对HTTPS平安传输,保障页面传输数据的平安。此外,还反对平安认证,反对对接已有身份认证零碎,能够实现用户及权限的迁徙。 企业级数据库性能,进步运维管理效率数据库系统作为IT业务零碎的外围,对整个业务零碎的连续性和数据完整性起着至关重要的作用。StellarDB反对权限认证、备份复原、集群监控、日志审计、资源管控等企业级数据库性能。例如,StellarDB提供零碎级别的高可用性,元信息服务采纳多节点HA形式提供高可用服务。StellarDB数据服务应用Raft协定,能够提供秒级正本切换服务。 StellarDB 4.0在原有反对数据全量备份复原的根底上,新增增量数据的备份和复原,帮忙企业进步数据备份效率,满足企业提供不同场景的备份需要。同时StellarDB 4.0新增正本迁徙性能,在磁盘异构等问题导致局部节点数据磁盘负载不平衡的状况下,实现分区正本的跨节点迁徙,以保证系统稳定性。 此外,为了进步正本故障问题解决效率,StellarDB 4.0新增故障正本修复性能,通过简略的openCypher语句即可删除受损分区正本并重建分区的新正本,使所有分区复原到衰弱状态,保障系统可靠性。 更弱小的兼容能力,撑持更多理论业务场景图数据库的兼容性是企业理论零碎建设中必须思考的重要因素。星环科技StellarDB兼容星环大数据一体机Txdata、申威等国产服务器,并可运行于TCOS星环云操作系统、中标麒麟、河汉麒麟等国产操作系统环境中。 同时,星环科技StellarDB提供丰盛的接口,反对Python SDK、JDBC SDK与RESTful API与第三方零碎进行对接,openCypher能够帮忙用户实现大部分的图查问操作和根本图算法。 在数据接入方面,StellarDB反对事务型数据库、与HDFS、Hive等大数据平台导入数据,并且反对Text、ORC、CSV、Parquet等文件格式。在4.0版本中StellarDB新增通过Kafka、Flink、Spark Streaming等形式接入流式数据源,从而加强图的实时更新和实时查问能力,联合全量和增量数据导入能力,满足更多简单的业务场景。 目前,星环科技分布式图数据库Transwarp StellarDB在人员社交网络摸索、金融风险流传剖析等场景施展着重大的作用,广泛应用于金融、政府和社交网络等畛域。将来,星环科技将持续在图技术畛域深耕,为企业提供查问速度更快、剖析能力更强、稳定性更高的图数据库产品。同时,作为国内当先的企业级大数据根底软件公司,星环科技是国内同时具备图数据库、常识图谱平台、图开掘利用开发能力的企业,其全栈自研的图技术能力能够助力企业疾速开掘图数据价值,推动业务高效高质量倒退。 典型案例国内某Top证券公司应用开源图数据库Neo4j构建了企业图谱平台,但随着数据量的一直减少以及治理要求的一直进步,原先批数据处理依赖手工导入的形式操作繁琐,给企业带来很大的治理和老本压力。该过程还须要中断数据库服务,影响数据库业务的失常运行。此外,原零碎的数据更新速度,深度关系查问性能以及保护治理等方面也无奈满足该证券公司要求。 星环科技StellarDB与Neo4j的Cypher语法高度兼容,疾速实现了多个业务的平滑迁徙和上线。内置的ETL工具间接从事务数据库中抽取数据,防止数据手工导入导出的麻烦,相应的ETL组件实现对加工工作的协调调度,整个过程不中断服务,无效保障业务连续性。 同时,StellarDB反对标签级数据秒级删除,极大晋升企业每天数据更新效率。StellarDB可视化数据建模性能帮忙数据分析师疾速、便捷地进行企业关联关系、股权浸透剖析,在3亿数据量下的12度以内的最上层实控公司和母公司的控股企业查问工夫缩短为原先的1/3。 与原先用户治理保护依赖手工的形式相比,星环科技StellarDB数据库治理反对多种认证形式,数据库层反对Kerberos和LDAP,web层反对CAS和OAuth2, 疾速实现了与团体零碎的对立对接认证,企业能够依据用户部门工号对立配置权限和认证。目前该证券公司已和星环科技单干实现对公企业图谱平台建设,后续将进一步拓展反洗钱图谱,反欺诈图谱等多图利用。

May 10, 2022 · 1 min · jiezi

关于大数据:郑州商品交易所数智一体化助力交易所数字化转型

近日,星环科技在线上举办了2022年秋季新品公布周,带来数字底座、数字化转型、国产代替、数据安全与流通四大专题,60余场演讲。来自金融、能源、交通、政务、高校、运营商等多个畛域的客户、合作伙伴现身说法,分享数字化转型成功经验。郑州商品交易所科技监管负责人杨和国联合本身在金融科技领域的摸索和教训,带来了《数智一体化助力交易所数字化转型》主题演讲。 近年来国家高度重视大数据、人工智能等技术的钻研利用,也明确了国家大数据策略,把大数据作为基础性策略资源。作为证监会体系下的交易所,郑州商品交易所(以下简称郑商所)正在推动数字资源的开发利用,以及转型降级。 同时,证监会从2017年开始也相继公布了多个对于大数据与人工智能技术的利用建设计划或者布局。在银行畛域,人民银行也印发了多个金融科技利用路线以及倒退布局,尤其是在证监会2018年提出监管科技总体建设计划后,也明确了五大根底数据分析能力以及32个监管业务剖析场景。2021年9月,追随国家的“十四五”战略规划,证监会也提出了证券期货业科技倒退“十四五”布局,次要提出加强自主创新能力与科技监管程度,逐渐打造金融科技倒退生态,助力中国经济从高速增长转向高智能倒退。 星环科技大数据根底平台TDH助力郑商所数字化转型之路纵观金融行业的发展趋势,国外的交易所曾经从繁多的资产交易中心变成了寰球倒退核心,从外围业务到内部服务都逐渐进行了数字化转型。而国内的期货交易所目前正处在大数据利用监管开发的初期,也建设了多个利用场景。总体来看,郑商所在金融科技倒退方面,不仅继续发展金融科技的钻研建设,也通过科技赋能和深挖数据价值,防备金融风险,服务实体经济,进一步加强市场监管能力和市场服务水平,正推动着交易所高质量倒退。 郑商所设立了金融科技策略定位以及倒退指标,从策略定位上提出了加强科技对业务的倒退撑持能力,促成业务与科技的深度交融,最终推动交易所的数字化转型。推动交易所的数字化转型,要实现科技监管能力、市场服务能力以及业务经营效率三个方面的晋升。 从2017年开始,郑商所在大数据、人工智能等技术上始终在进行摸索和钻研:2018年做了大数据平台的POC,最终抉择了国内具备自主产权的星环科技大数据根底平台TDH,并在2018年实现了传统数仓的迁徙,构建了局部大数据利用;2018年到2020年,开发了多个基于大数据平台的利用,取得了证监会以及人民银行的相干奖项;2021年,提出金融科技倒退布局,增强数据中台建设,打造整体的大数据平台。 郑商所传统的数据仓库架构是一个简略的模型,时效性和存储空间都很差,尤其是存储空间扩容老本也十分高,2018年在应用星环科技TDH从新打造了新的数据平台后,从数据接入到利用场景进行全流程的调整,实现了多元异构的架构,也齐全代替了传统数仓的架构。在应用星环科技产品的四、五年中,郑商所也发现了TDH的一些产品长处,比方重视审计方面,尤其是业务的平滑迁徙,能够根本不须要太多开发量、工作量就把之前Oracle的一些代码进行迁徙。而且还具备机器学习的平台,反对多语言,也为数据分析提供了很多帮忙。 后续,郑商所还将继续晋升数据经营服务能力,造成生态化的数据平台。 搭建AI预测模型,晋升智能决策程度除此之外,郑商所还在AI方面与星环科技独特摸索了三个具备代表性的我的项目,别离是风控措施辅助决策、异样交易辨认以及套期保值额度审批。 期货市场次要连贯的是实体经济与金融市场,无效补救现货市场的有余,对于稳固和促成市场经济倒退起到了重要作用。在交易所的制度与政策中,保证金、涨跌停板、手续费这些措施是市场风控调节的重要伎俩,也是外围伎俩。如何调整保证金、涨跌费、手续费,如何无效地起到市场危险的调控?这给郑商所带了很大的难题。 基于此,郑商所与星环科技进行了深度单干,摸索利用历史数据、历史案例辅助风控调节的伎俩,这其中使用了大量的交易流水数据和历史参数,以及机器学习引擎和规定引擎两个引擎。其中规定引擎偏专家教训,能够联合调节各种风控操作的历史教训,进行一些调整规定;机器学习引擎就是利用之前调整的成果剖析,造成加权的预测序列,同时联合TDH的TensorFlow框架进行搭建,从预测后果、可视化图表、自动化报告上造成了闭环。最终实现了在政策出台前,评估风控政策、风控措施对期货市场的潜在影响,辅助交易规则措施的制订,使得政策更加审慎、正当、无效。 第二个案例是异样交易辨认。近年来期货市场的交易量逐步放大,参加的人盘根错节,国内外也引入了境外交易者,尤其是程序化交易,它的行为特色很难捕获,因为交易量和订单量十分的宏大,如何辨认某一客户的交易行为是否异样的或者是具备侵略性的行为将变得非常重要。为此,郑商所跟星环科技也做了这方面的钻研,利用星环科技大数据根底平台TDH和智能剖析工具Sophon搭建了逆向强化学习模型,联合客户的成交、订单、盈利等交易特色,反向预测市场潜在交易行为危险,通过危险构建客户的模型,实现在精准施策上更加智能和迷信。 第三个利用场景是套期保值的额度审批。在套期保值额度审批中最要害的一环是如何给客户批复套保额度,套保额度就相似于信用卡的审批额,给客户批多少额度也将决定这个客户后续的经营状况。传统的审批模式是工作人员收到提交资料后进行大量历史剖析和历史回归,去看给客户拟审批额度是否正当迷信,工作效率会非常低。通过摸索利用历史数据进行模仿剖析,主动生成举荐额度,套保人员能够依据理论须要,针对不同种类、不同的个别月、邻近月套保别离配置计算规定,生成报告。这样一来,会员提交3分钟内就会生成额度举荐,大幅晋升了套保额度的审批效率。 以后期货市场金融科技仍处于初期摸索阶段,也存在金融科技数据积淀和治理的有余。随着金融翻新步调的放慢,证监会也增强了科技监管的要求,要求行业要放慢推动数字化转型,郑商所将持续深入金融科技钻研,增强科技翻新与数据利用,晋升监管效率与服务水平。 下一步郑商所将聚焦四个方面进行布局:一是推动大数据服务翻新,就是赋予业务疾速翻新和低成本试错能力,推动大数据服务的翻新。第二是升高信息化建设与运维老本,加大云计算投入,实现对立的治理和共享,极大升高信息化运维老本。第三是继续健全数据治理体系,对立数据存储与解决平台,降级优化大数据平台架构,进步数据分析能力以及合规监管能力。第四是促成交易所数据生态倒退,将从数据利用,AI模型等多个方面互相的交融,造成建设闭环,促成交易所的生态倒退。

May 10, 2022 · 1 min · jiezi

关于大数据:开源项目丨-Taier-11-版本正式发布新增功能一览为快

2022 年 5 月 8 日,Taier 1.1 版本正式公布! 本次版本更新对 Flink 的反对降级到 Flink1.12,反对多种流类型工作,新版本的应用文档已在社区中推送,大家能够随时下载查阅。 github 地址: https://github.com/DTStack/Taier gitee 地址: https://gitee.com/dtstack_dev... Taier 1.1 版本介绍 Taier 是一个分布式可视化的 DAG 任务调度零碎,是数栈数据中台整体架构的重要枢纽,负责调度日常宏大的任务量。 它旨在升高 ETL 开发成本,进步大数据平台稳定性,让大数据开发人员能够在 Taier 间接进行业务逻辑的开发,而不必关怀工作盘根错节的依赖关系与底层的大数据平台的架构实现,将工作的重心更多地聚焦在业务之中。 Taier1.0 版本于 2022 年 2 月公布,在 1.0 版本公布的第二天,1.1 版本的迭代就已提上日程,并于昨日正式公布。 本次版本更新,着重解决了 Taier 的适配性问题:对 Flink 的反对降级到 1.12;Taier 中的 Spark SQL 和 Flink SQL 两个组件也实现了反对用户在工作中自定义函数,显著让 Taier 的延展性有了更好的施展;新增了许多例如 Hive SQL 类型工作、实时工作运维等弱小性能。 这次版本更新对 Taier 的固有劣势进行了坚固,同时也强化并改善了用户体验,进一步精细化晋升产品性能。 Taier 1.1 性能详解 01 对 Flink 版本反对降级到 1.12 Taier 作为一个分布式可视化的 DAG 任务调度零碎,采纳 ChunJun 作为分布式数据同步工具。1.1 版本将 Flink 版本升级到 1.12 ,反对 ChunJun 1.12 版本中新增的 transformer 算子等以及所有 Flink 原生语法及 Function ...

May 10, 2022 · 1 min · jiezi

关于大数据:canal部署及源码分析

canal配置与部署阐明canal源码剖析https://github.com/alibaba/canal 版本:1.1.5打包:mvn clean package -DskipTests=true -Denv=release模块阐明模块阐明adminadmin控制器模块common提供了一些公共的工具类和接口deployer部署模块,对应canal-deployer.tar.gz,是canal的启动模块servercanal外围服务端instance每个server有多个instanceparser解析binlog,依赖于dbsync、driversinkparser和store链接器,用于数据过滤、散发store数据存储模块meta增量订阅和生产信息管理器

May 10, 2022 · 1 min · jiezi

关于大数据:ChunJun支持异构数据源DDL转换与自动执行-丨DTMO-02期回顾内含课程回放课件

导读: 4月26日晚,ChunJun我的项目核心成员、袋鼠云数栈大数据引擎开发专家渡劫为大家带来分享《ChunJun反对异构数据源DDL转换与主动执行》,咱们将直播精髓局部做了整顿,带大家再次回顾内容,加深技术细节的理解。 你能看到 ▫ 数据还原介绍 ▫ DDL主动转换架构设计 ▫ Calcite解析DDL实战 直播课件获取: 关注公众号“数栈研习社”,后盾私信“ChunJun01”取得直播课件 直播视频回看: 点击“浏览原文”,观看精彩视频 https://www.bilibili.com/vide... 演讲 / 渡劫 整顿 / 花夏 数据还原介绍 ChunJun实时同步反对mysql oracle postgresql sqlserver等数据源实时同步,然而同步之后的数据是以日志模式输入,数据还原在此基础上做到源数据的变动在指标表也产生对应变动,蕴含DML以及DDL的操作都会在指标表中执行对应的操作,保障源表和指标表schema统一 数据统一。 目前ChunJun数据还原曾经反对mysql到rdb类型数据源的数据还原,仅限于反对DML的还原,DDL的主动执行下一版本反对。 实时还原减少了两个次要模块: 源表和指标表的映射(database table column信息的映射)与内部交互,实现DDL状态更新,DML数据从新下发 为了实现逻辑解耦,咱们减少了2个flatMap 算子实现上述操作: NameMappingFlatMap 依据映射关系对数据信息进行对应替换RestorationFlatMap 对数据进行解决,对数据进行阻塞下发以及DDL状态监听flatMap 算子介绍 接下来为大家介绍两个算子 01 NameMappingFlatMap 实时还原默认source端schema table column 是和sink端统一的,然而在大多数状况下source和sink的映射并不是完全一致的,因而须要NameMappingFlatMap算子对source的schema table column进行替换。NameMapping反对 schema table column的映射,其映射关系如下图所示: 图中映射关系代表源表schema为ChunJun_source下的source1这个表对应对应于指标端ChunJun_sink下的sink1,其中字段映射为 源表的C1字段对应指标id字段,C2字段对应指标name字段 在创立flink同步工作的时候,会判断脚本里是否配置了nameMapping的配置,如果没有配置则不会存在NameMappingFlatMap算子。 02 RestorationFlatMap 在数据还原中肯定会波及到DDL,然而目前sink端只反对DML的执行,因而在源表产生DDL之后的DML数据不能间接发给sink端执行,须要等到sink端对应的DDL执行完之后,DML能力从新下发。 因而RestorationFlatMap设计次要是为了解决 数据的下发 何时下发问题,何时下发就是上游sink的DDL执行完,然而这个sink端ddl的执行不是ChunJun实现的,ChunJun是无奈得悉实现工夫的。因而RestorationFlatMap会和内部交互 获取这个DDL执行状态 从而判断DML数据何时下发。 结构设计 RestorationFlatMap外部会对每个表保护一个汇合,DML&DDL数据都会存入此汇合。汇合会在非阻塞和阻塞状态间进行切换,同时外部会有两个组件别离为workerManager 以及 Monitor组件: WorkerManager:监听非阻塞汇合数据,如果是DML下发,如果是DDL则将队列置为阻塞状态Monitor:将ddl存储到内部数据源 以及监听阻塞队列的ddl执行状况,进行阻塞到非阻塞的扭转 store 监听阻塞状态队列的第一个ddl数据,将其存储到内部表 fetcher 监听内部表DDL数据的状态 如果为已执行,则将此表对应的汇合阻塞状态改为非阻塞 ...

May 7, 2022 · 1 min · jiezi

关于大数据:Alluxio-28版本重磅发布3大提升抢先打开数据新世界

Alluxio导读近日,寰球独创的开源数据编排软件开发商Alluxio发表正式公布数据编排平台2.8版本,新版本立刻可用。 2.8版本加强了对AWS S3 REST API的接口反对;减少了数据安全性能,对须要满足合规性和监管要求的敏感利用数据实现加密;晋升了异构存储系统之间的主动数据迁徙性能,用户无需手动迁徙或拷贝数据。 Alluxio 2.8新版本进步了S3 API的兼容性,使得在大型数据平台上部署和治理Alluxio更简便。 此外,新版本还减少了一项重要的企业级平安性能,反对数据在服务器端加密,进一步加强了数据安全和治理。 对于应用不同服务商、跨云或跨区域存储数据的企业而言,数据迁徙往往成为重大挑战。新版本不仅晋升了异构存储系统之间数据迁徙性能,也加强了基于策略的数据管理的易用性和高可用性。 听听专家们怎么说 Alluxio 2.8版本新降级 Alluxio 2.8版本(社区版和企业版)优化了对S3 RESTful API的反对,减少了元数据标签性能。通过S3 API,应用程序能够与Alluxio间接交互,无需通过定制化的驱动,也不须要任何额定的配置。应用S3 API后,数据驱动型利用、终端用户和管理员能够疾速地无缝部署Alluxio。元数据标签是新增的性能,使得元数据操作能够通过S3对象和bucket标签的API来实现。 Alluxio 2.8企业版现反对数据加密。在Alluxio中治理数据,能够实现静止数据加密(Encryption at rest),这是企业版平安性能的重大更新。该新性能和SSL独特反对服务器端加密,确保数据安全。 目前,Alluxio为其治理的数据提供多个加密区,确保满足平安方面的要求。应用此项性能,Alluxio worker上存储的数据始终处于加密状态,并且在发送到客户端之前,在服务器端进行解密。 Alluxio 2.8企业版对于基于策略的数据管理性能进行了晋升,这个性能可能实现异构存储系统之间的数据拜访和挪动,从而进步了性能,节俭了老本。Alluxio通过预约义策略管理不同存储系统中的数据寄存。企业能够灵便地抉择最适宜其需要的存储,无需进行简单的手动数据迁徙。 下载Alluxio 2.8 开源社区版和 Alluxio 企业版可在此收费下载:https://www.alluxio.io/download/资源要理解无关 S3 API 的更多信息,请查看 S3 API 拜访的技术文档:https://docs.alluxio.io/os/us...无关 Alluxio 的介绍,请拜访https://www.alluxio.io.

May 6, 2022 · 1 min · jiezi

关于大数据:用户行为分析模型实践二-漏斗分析模型

作者:vivo 互联网大数据团队- Wu Yonggang在《用户行为分析模型实际(一)—— 路径分析模型》中,讲述了基于平台化查问中查问工夫短、须要可视化的要求,并联合现有的存储计算资源以及具体需要,咱们在实现中将门路数据进行枚举后分为两次进行合并。 本次带来的是系列文章的第2篇,本文具体介绍漏斗模型的概念及基本原理,并论述了其在平台外部的具体实现。针对实际应用过程的问题,摸索基于 ClickHouse漏斗模型实际计划。 一、背景需要漏斗剖析是掂量转化成果、进行转化剖析的重要工具,是一种常见的流程式的数据分析办法。它可能帮忙你清晰地理解转化状况,从多角度分析比照,定位散失起因,晋升转化体现。他次要立足于三大需要场景: 定位用户散失具体起因。检测某个专题流动成果。针对不同版本,转化率状况比照。二、概述2.1 概念介绍漏斗模型次要用于剖析一个多步骤过程中每一步的转化与散失状况。其中有几个概念要理解: 其中漏斗模型分为两种:无序漏斗和有序漏斗。 定义如下: 无序漏斗:在漏斗的周期内,不限定漏斗多个步骤之间事件产生的程序。 【计算规定】:假如一个漏斗中蕴含了 A、B、C 3个步骤,A步骤产生的工夫能够在B步骤之前,也能够在B的前面。用户的行为程序为A、B、C的组合都算胜利的漏斗转化。即便漏斗步骤之间交叉一些其余事件步骤,仍然视作该用户实现一次胜利的漏斗转化。有序漏斗:在漏斗的周期内,严格限定漏斗每个步骤之间的产生程序。 【计算规定】:假如一个漏斗中蕴含了 A、B、C 3个步骤,A步骤产生的工夫必须在B步骤之前,用户的行为程序必须为A->B->C 。 和无序漏斗一样,漏斗步骤之间交叉一些其余事件步骤,仍然视作该用户实现一次胜利的漏斗转化。 三、 用漏斗进行的数据分析理解了下面的对于漏斗模型的基本概念,咱们看一下如何创立一个漏斗。 3.1 选一个漏斗类型漏斗模型的类型个别分为有序漏斗和无序漏斗,它们的概念已在2.1做了具体的介绍。咱们这里以无序漏斗为例,创立漏斗模型。 3.2 增加漏斗步骤漏斗步骤就是漏斗剖析的外围局部,步骤间统计数据的比照,就是咱们剖析步骤间数据的转化和散失的要害指标。 比方咱们以一个“下载利用领红包”的流动为例。预设的用户的行为门路是:用户首先进入【红包首页】,发现最新的红包流动“下载利用,支付红包”,点击进入【红包流动页】,依据提醒跳转到【利用下载页】,抉择本人感兴趣的利用下载,实现后,进入【提现页面】支付流动处分。从下面形容的场景中,咱们能够提取出以下要害的四步。 图3.1 “下载利用领红包”流动步骤 3.3 确定漏斗的工夫区间和周期这里多了一个工夫区间的概念,与前文介绍的周期容易混同。一般来说,此类数据的数仓表是依照工夫分区的。所以抉择工夫区间,实质就是抉择要计算的数据范畴。 周期是指一个漏斗从第一步流转到最初一步的工夫限度,即是用来界定怎么才是一个残缺的漏斗。在本例中,咱们依照天为周期进行解决,抉择工夫区间为“2021-05-27”、“2021-05-28”、“2021-05-29”。 3.4 漏斗数据的展现根据咱们设计的漏斗模型(具体模型设计,下文会提及),能够计算出下表的数据: 表3.1 “下载利用领红包”流动分步数据 以表3.1中2021-05-27日的数据为例,触达第一步“红包首页”的用户数量为150,000,在同一天内同时触发第一步“红包首页”和第二步“红包流动页”的人数为11,700。其余数据的含意以此类推。 将表3.1中的数据每步依照日期加起来,就失去2021-05-27至2021-05-29日数据的漏斗图(图3.2)。 从中能够直观的反馈出用户在“红包首页”、“红包流动页”、“利用下载页”、“提现页”四步中每一步的人数和转化率。 比方,触达“红包首页”页面的人数为400,000,通过”红包首页“,触达”红包流动页“页面的人数为30,000。则这两个阶段的转化率为:30,000÷400,000=7.5%。 通过对各个阶段人数和转化率的比对,就能比拟直观的发现咱们这个 “下载利用领红包”的流动用户散失的环节所在,并以此排查起因和优化各个环节。 图 3.2 “下载利用领红包”流动漏斗图 四、整体功能设计及漏斗分析模型的实现4.1 性能整体架构设计 图 4.1 漏斗剖析整体架构设计 整体工程次要分为配置、计算、存储三阶段。 (1)配置 此阶段次要是工程端的后盾服务实现。用户在前端依照本身需要设置漏斗类型、漏斗步骤、筛选条件、工夫区间和周期等配置。后盾服务收到配置申请后,根据漏斗类型抉择不同工作组装器进行工作的组装。 其中,漏斗类型是无序漏斗应用的Hive SQL 工作组装器,而更加简单的有序漏斗能够应用 Spark工作组装器。组装后生成的工作蕴含了漏斗模型的计算逻辑,比方 Hive SQL或者 Spark 工作。 (2)计算 平台依据接管到的工作的类型,抉择Hive或者 Spark引擎进行剖析计算。计算结果同步到 MySQL 或者ClickHouse集群。 ...

May 6, 2022 · 4 min · jiezi

关于大数据:极课大数据训练营2021最新完结无密

极课大数据训练营2021最新完结无密download:网盘链接手把手教使用python实现人脸识别 什么是人脸识别人脸识别,是基于人的脸部特色信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并主动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部识别的一系列相干技术,通常也叫做人像识别、面部识别。 目前的人脸识别技术已经非常成熟了,还发展成3D人脸识别。而且现在各大厂商也都提供了人脸识别的API接口供咱们调用,可能说几行代码就可能实现人脸识别。然而人脸识别的根本还是基于图像处理。在Python中最弱小的图像处理库就是OpenCV。 OpenCV简介OpenCV是一个基于BSD许可(开源)发行的跨平台计算机视觉库,可能运行在Linux、Windows、Android和Mac OS操作系统上。OpenCV可用于开发实时的图像处理、计算机视觉以及模式识别程序。它轻量级而且高效——由一系列 C 函数和大量 C++ 类形成,同时提供了Python、Ruby、MATLAB等语言的接口,实现了图像处理和计算机视觉方面的很多通用算法。 OpenCV基本使用安装pip install opencv-python # 基础库pip install opencv-contrib-python # 扩大库pip install opencv-python-headless复制代码读取图片读取和浮现图片是最基本的操作了,OpenCV当中使用imread和imshow实现该操作 import cv2 as cv 读取图片,路径不能含有中文名,否则图片读取不进去image = cv.imread('1111.jpg') 浮现图片cv.imshow('image', image) 等待键盘输入,单位是毫秒,0示意有限等待cv.waitKey(0) 因为最终调用的是C++对象,所以使用完要开释内存cv.destroyAllWindows()复制代码 将图片转为灰度图OpenCV中数百中对于不同色彩控件之间转换的方法。目前最罕用的有三种:灰度、BGR、HSV。 灰度色彩空间是通过去除黑白信息来讲图片转换成灰阶,灰度图会大量缩小图像处理中的色彩处理,对人脸识别很无效。BGR每个像素都由一个三元数组来示意,别离代码蓝、绿、红三种色彩。python中还有一个库PIL,读取的图片通道是RGB,其实是一样的,只是色彩次序不一样HSV,H是色调,S是饱和度,V是光明的程度将图片转换为灰度图import cv2 as cv 读取图片,路径不能含有中文名,否则图片读取不进去image = cv.imread('1111.jpg') cv2读取图片的通道是BGR,PIL读取图片的通道是RGBcode抉择COLOR_BGR2GRAY,就是BGR to GRAYgray_image = cv.cvtColor(image, code=cv.COLOR_BGR2GRAY) 浮现图片cv.imshow('image', gray_image) 等待键盘输入,单位是毫秒,0示意有限等待cv.waitKey(0) 因为最终调用的是C++对象,所以使用完要开释内存cv.destroyAllWindows()复制代码 绘制矩形image = cv.imread('1111.jpg')x, y, w, h = 50, 50, 80, 80 绘制矩形cv.rectangle(image, (x, y, x+w, y+h), color=(0, 255, 0), thickness=2) ...

May 5, 2022 · 2 min · jiezi

关于大数据:Kafka-Series-3-CLI-Command-Line-Interface

Using MacOS (Kafka installed by Brew) as example 1. Start Zookeeper and KafkaMake sure zookeeper and Kafka are running before proceeding to next steps, otherwise you will get 'Broker may not be available' error.Open a terminal, run $ /usr/local/bin/zookeeper-server-start /usr/local/etc/zookeeper/zoo.cfgOpen another terminal, run $ /usr/local/bin/kafka-server-start /usr/local/etc/kafka/server.properties2. Topics1) Create new topic Default is one partition. If you want to modify, edit config/server.properties or config/kraft/server.properties to num.partitions=3. $ kafka-topics --bootstrap-server localhost:9092 --topic first_topic --create ...

May 3, 2022 · 3 min · jiezi

关于大数据:Kafka-Series-2-Kafka-Concepts-Introduction

Major Reference: https://www.conduktor.io/kafk... What is Kafka Topics Producers Consumers Brokers ZooKeeper

April 30, 2022 · 1 min · jiezi

关于大数据:Azkaban快速入门

先说一些废话因为之前本人工作中有用过Azkaban作为自动化任务调度工具,所以想参考本人之前的应用教训,总结一下对于Azkaban的应用,不便大家应用Azkaban疾速实现企业级自动化工作 如何抉择市面上的任务调度工具简略的工作Linux crontab是用来定期执行程序的命令简单的工作Oozie/Azkaban/Airflow/DolphinSchedulerAzkaban 是一个分布式工作流管理程序,解决Hadoop工作依赖性问题Oozie 相比 Azkaban 是一个重量级的任务调度零碎,性能全面,但配置应用也更简单 Airflow 应用python脚本 DolphinScheduler 应用可视化的形式操作,国产,所以当初比拟火Azkaban和Oozie之间的区别总体来说,ooize相比azkaban是一个重量级的任务调度零碎,性能全面,但配置应用也更简单,如果能够不在意某些性能的缺失,轻量级调度器azkaban是很不错的候选对象 性能 两者均能够调度linux、mapreduce、pig、spark、java等脚本工作流工作两者均能够定时执行工作流工作工作流定义 Azkaban应用Properties文件定义工作流Oozie应用XML文件定义工作流工作流传参 Azkaban反对间接传参,例如${input}Oozie反对参数和EL表达式,例如${fs:dirSize(myInputDir)}定时执行 Azkaban的定时执行工作是基于工夫的Oozie的定时执行工作基于工夫和输出数据,功能强大,然而带来配置的复杂度比拟高资源管理 Azkaban有较严格的权限管制,如用户对工作流进行读/写/执行等操作Oozie暂无严格的权限管制,多人合作就比拟麻烦了工作流执行 Azkaban有三种运行模式:solo server mode、 two server mode、multiple executor modeOozie作为工作流服务器运行,反对多用户和多工作流工作流治理 Azkaban反对浏览器以及ajax形式操作工作流Oozie反对命令行、HTTP REST、Java API、浏览器操作工作流依赖 Azkaban依赖于MySqlOozie依赖于hadoop什么是AzkabanAzkaban是由Linkedin公司推出的一个批量工作流任务调度器,次要用于在一个工作流内以一个特定的程序运行一组工作和流程,它的配置是通过简略的key:value对的形式,通过配置中的dependencies 来设置依赖关系。Azkaban应用job配置文件建设工作之间的依赖关系,并提供一个易于应用的web用户界面保护和跟踪你的工作流。 Azkaban的特点兼容任何版本的hadoop易于应用的Web用户界面简略的工作流的上传不便设置工作之间的关系调度工作流模块化和可插拔的插件机制认证/受权(权限的工作)可能杀死并重新启动工作流无关失败和胜利的电子邮件揭示架构AzkabanWebServerAzkabanWebServer是整个Azkaban工作流零碎的次要管理者,它用户登录认证、负责project治理、定时执行工作流、跟踪工作流执行进度等一系列工作 AzkabanExecutorServer负责具体的工作流的提交、执行,它们通过mysql数据库来协调工作的执行 关系型数据库(MySQL)存储大部分执行流状态,AzkabanWebServer和AzkabanExecutorServer都须要拜访数据库 部署模式Solo WebServer和ExecServer都启动在一个JVM中,就一个过程应用内置的H2数据库来存储元数据Two Server 一台机器模式:只有一台ExecutorServerWebServer和ExecutorServer是不同的独立的过程应用MySQL存储元数据Multiple Executor 从3.+ 开始,反对多个Executor多台机器模式:多个ExecutorServerWebServer和Executor能够不在一台机器上应用MySQL存储元数据应用多Executor模式的注意事项为确保所选的 Executor 可能精确的执行工作,咱们须在以下两种计划任选其一,举荐应用计划二 计划一:指定特定的 Executor(hadoop101)去执行工作 在MySQL中Azkaban数据库executors表中,查问hadoop101上的Executor的id在执行工作流程时退出useExecutor属性计划二:在Executor所在所有节点部署工作所需脚本和利用装置依赖包及其作用# 该包中就是所有的建表语句,次要是配置 MySQLazkaban-db-3.84.4.tar.gz # 执行服务器(Executor)配置azkaban-exec-server-3.84.4.tar.gz # 服务器(Web)配置azkaban-web-server-3.84.4.tar.gz 拜访端口号默认是8443,能够通过批改配置文件azkaban.properties的形式更改端口号 端口号应用规定:jetty.ssl.port > jetty.port 然而应用jetty.ssl.port的前提是jetty.use.ssl = true,这个配置示意开启ssl安全套接层,否则应用jetty.port端口 # 示例配置文件jetty.use.ssl=falsejetty.maxThreads=25jetty.ssl.port=8443jetty.port=8081jetty.keystore=keystorejetty.password=passwordjetty.keypassword=passwordjetty.truststore=keystorejetty.trustpassword=password根本应用次要性能Projects:最重要的局部,创立一个工程,所有flows将在工程中运行Scheduling: 显示定时工作Executing: 显示以后运行的工作History: 显示历史运行工作根本流程步骤首先须要阐明的是因为利用界面化操作,所以相干的文件间接在本地windows零碎里去编辑,创立,打包zip即可创立xxx.project工程文件 # 作用: # 示意采纳新的 Flow-API 形式解析 flow 文件# 内容: # 示意以后解析 flow 文件的 azkaban 版本为 2.0azkaban-flow-version: 2.0创立xxx.flow流程工作文件 ...

April 26, 2022 · 5 min · jiezi

关于大数据:Atlas快速入门

先说一些废话之前的公司在数据中台的我的项目上调研决定启用了Atlas作为咱们数据血统治理的工具,让我给大家写了一份Atlas疾速入门的文档,所以在这里我将这篇文档以一个纯老手视角的形式再一次优化,心愿可能帮忙大家更好的疾速上手应用Atlas。 什么是AtlasAtlas为组织提供了凋谢的元数据管理和治理性能,以建设其数据资产的目录,对这些资产进行分类和治理,并为数据科学家,分析师和数据治理团队提供围绕这些数据资产的合作性能。 而如果想要对这些数据做好治理,光用文字、文档等货色是不够的,必须用图,Atlas就是把元数据变成图的工具。 元数据管理应该具备的性能搜寻和发现:数据表、字段、标签、应用信息访问控制:访问控制组、用户、策略数据血统:管道执行、查问合规性:数据隐衷、合规性正文类型的分类数据管理:数据源配置、摄取配置、保留配置、数据革除策略AI 可解释性、再现性:特色定义、模型定义、训练运行执行、问题陈说数据操作:管道执行、解决的数据分区、数据统计数据品质:数据品质规定定义、规定执行后果、数据统计Atlas在我的项目中产生的作用数据血统治理在数仓中的重要性十分高,他们能够帮忙咱们十分疾速的查问到各种字段表之间的依赖关系在咱们晓得数据血统之后,如果产生一些突发状况,比方某两个表产生的指标呈现了问题,就晓得只须要从新跑这两个表就能够从新产出指标也就是说,哪里出了问题哪里重跑咱们的脚本文件即可,能够来说对咱们的数据治理提供了十分大的帮忙个性Atlas反对各种Hadoop和非Hadoop元数据类型提供了丰盛的REST API进行集成对数据血统的追溯达到了字段级别,这种技术还没有其实相似框架能够实现对权限也有很好的管制 什么是REST APIREST API是一组对于如何构建Web应用程序API的架构规定、规范或领导,REST API遵循API准则的架构格调REST是专门针对Web应用程序而设计的,其目标在于升高开发的复杂度,进步零碎的可伸缩性架构架构阐明阐明元数据的存储是hbase,检索应用的索引solr,数据起源次要是hive和hbase,数据和atlas之间的通信应用的是kafka 元数据存储:hbase,能够采集也能够导出 检索索引:solr数据起源:hive(重点),hbase(重点),sqoop,falcon,storm数据和atlas的通信通道:基于kafka的消息传递接口Admin UI:web界面操作Ranger Tag Based Policies:权限治理模块 Bussiness Type:业务分类 API:所有性能通过REST API向最终用户裸露,该API容许创立,更新和删除类型和实体 Graph Engine 图形引擎:应用Graph模型长久保留它治理的元数据对象 Type System 类型零碎:用户为他们想要治理的元数据对象定义模型,Type System 称为实体和类型实例,示意受治理的理论元数据对象 组件介绍采纳Hbase存储元数据采纳Solr实现索引Ingest/Export 采集导出组件,Type System类型零碎,Graph Engine图形引擎,独特形成Atlas的外围机制所有性能通过API向用户提供,也能够通过Kafka音讯零碎进行集成Atlas反对各种源获取元数据:Hive,Hbase,Sqoop,Storm还有优良的UI反对装置和依赖环境筹备jdk8、hadoop@2.7.2 zookeeper@3.4.10 kafka@0.11.0.2 hbase@1.3.1 solr@5.2.1 hive@1.2.1、mysql azkaban@2.5.0 atlas@0.84依赖集成Atlas集成内部Hbase,次要是通过批改以下配置文件来实现 进入/soft/atlas/conf/atlas-application.properties -> atlas.graph.storage.hostname = 集群主机名,批改atals存储数据主机进入/soft/atals/conf/hbase,增加hbase集群的配置文件到${Atlas_Home},示例命令ln -s /soft/hbase/conf/ /soft/atlas/conf/hbase/,相当于建设软连贯在/soft/atlas/conf/atlas-env.sh中增加HBASE_CONF_DIR,也就是Hbase配置文件门路export HBASE_CONF_DIR = /soft/atlas/conf/hbase/confAtlas集成内部Slor,参考视频大数据技术之atlas视频教程Atlas集成内部Kafka,参考视频大数据技术之atlas视频教程Atlas集成内部Hive,参考视频大数据技术之atlas视频教程Atlas批改 WEB UI 拜访端口之类的,参考视频大数据技术之atlas视频教程什么是ln -s命令ln命令是linux零碎中一个十分重要命令,英文全称是"link",即链接的意思,它的性能是为某一个文件在另外一个地位建设一个同步的链接 集群启动程序Hadoop -> Zookeeper -> Kafka -> Hbase -> Solr -> 重启Atlas服务 导入Hive元数据次要是通过执行.sh脚本文件来导入,后续能够引入Azkaban来做全流程执行job 生成数据编写Azkaban程序运行job import.jobods.jobdwd.jobdws.jobads.jobexport.job将上述6个文件压缩成一个指标job的文件,例如target-job.zip创立Azkaban工程并执行,后续就能够通过Atals动静查看各种血统依赖关系,次要是图形化的界面应用 Atlas 的 REST API 进行二次开发Atlas有丰盛的凋谢接口供大家应用以进行二次开发,对于咱们公司后续如果有十分重大的个性化需要我的项目的开发,可能提供很好的帮忙,这里是官网的api阐明文档地址 ...

April 26, 2022 · 1 min · jiezi

关于大数据:低代码让人人都是开发者高校人才有了努力的新方向

简介:诸葛斌传授凭借着他的开拓创新精力,他和他的学生不仅通过钉钉宜搭低代码平台开发了校园智慧党建零碎,还在省级翻新比赛中取得佳绩,更创立了国内第一家以宜搭低代码为主营业务的大学生守业公司。 诸葛斌传授凭借着他的开拓创新精力,他和他的学生不仅通过钉钉宜搭低代码平台开发了校园智慧党建零碎,还在省级翻新比赛中取得佳绩,更创立了国内第一家以宜搭低代码为主营业务的大学生守业公司。 随着中国信息技术飞速的倒退,云计算、AI、5G等翻新技术被更多地使用到教育伎俩改革、教育资源共享之中。钉钉宜搭提出的“低代码产学研单干打算”也将在数字经济时代,通过技术力量帮忙中国高校造就新一批翻新人才。 以后,数字经济正成为推动经济增长的主引擎。2016年至2020年,中国数字经济规模由22.6万亿元增至39.2万亿元,占 GDP比重由30.3%升至38.6% 。随着数字经济规模的继续扩充,组织数字化转型的需要远超从前,但目前我国在5G、人工智能、大数据、物联网等畛域仍有较大的数字化人才缺口。 人才是产业倒退的要害,高校是人才的摇篮。钉钉宜搭依靠产业前沿技术,助力高校发展教学改革,于2021年发动“低代码产学研单干打算”,从课程单干、教材单干、实训基地、低代码大赛、人才招聘五个方面推动新型数字化人才的培养。一年多以来,钉钉宜搭已赋能全国100多所高校的老师,并在哈尔滨工业大学、南京大学、吉林大学、浙江工商大学、浙江工业大学等多所高校开设低代码课程或成立实训基地,笼罩数万名学生。 作为钉钉宜搭“低代码产学研单干打算”的亲自参与者和理论受益者,浙江工商大学信息与电子工程学院诸葛斌传授分享了他在专业课程教学及学科实际过程中的领会与播种。从智慧党建零碎的开发,到低代码教材的编写,再到首家低代码守业公司的成立,诸葛斌正率领他的团队在以低代码为基石的新工科人才培养之路上一直摸索和践行。 校企联手协同育人 宜搭低代码教材横空出世2021年8月,诸葛斌率领研究生团队加入“阿里云师资培训 - 钉钉宜搭低代码开发”课程,在培训中,他第一次接触到了钉钉宜搭低代码开发。 在充沛理解了宜搭利用平台后,诸葛斌对其前景充斥了信念,“将来,低代码或将与Word、Excel、PPT一样,成为人人必备的技能。”将低代码作为钻研方向的想法因而诞生了,与此同时,开设低代码课程、率领学生们进行低代码开发的打算也应运而生。 2021年9月,诸葛斌率领不同学院学生组成的开发者团队,通过宜搭低代码开发平台进行多畛域的零碎开发,搭建了智慧党建零碎,实现了党建工作的数字化。现在,智慧党建零碎曾经部署在浙江工商大学信息与电子工程学院的党建组织架构中,通过后续的欠缺,将扩大到智慧学院和智慧校园的建设中。 诸葛斌回顾,在最后接触低代码开发时,同学们因为对概念了解含糊而遇到了各种各样的问题。来自宜搭的培训专家不仅屡次到现场授课,还急躁解答同学们的各种问题并提供领导意见,“这让同学们有趣味做上来,也有信念做上来。” 零碎的开发过程是同学们把握低代码编程技术的最佳门路。在通过实践学习和实践经验的积攒后,诸葛斌率领团队将知识点与利用案例相结合,与宜搭的培训团队一起编写了国内首本宜搭低代码开发教材《钉钉低代码开发零根底入门》,这部图书预计于2022年4月出版。诸葛斌示意,通过学习本教材,“即便没有任何编程根底的人,也能应用宜搭平台。” 在人才培养和翻新守业方面,诸葛斌激励学生自主开发低代码利用零碎,参加各种翻新创业项目,撰写软著和发表科技论文,并通过实际挖掘翻新守业的思路,做到真正的学以致用。 值得一提的是,2021年12月,诸葛斌及其学生团队独特创立了国内首家以宜搭低代码为主营业务的大学生守业公司——杭州毅宇科技有限责任公司,目前,该公司曾经成为钉钉产品计划服务商。 开设低代码开发课程 摸索数字化人才培养意识到低代码对造就当代大学生数字化思维的重要意义后,诸葛斌开始了低代码开发课程的摸索。 2021年10月,诸葛斌负责的《宜搭低代码开发入门与实战》取得浙江工商大学校级精品课程立项,作为信电学院的业余选修课,对进步各业余学生的计算机综合能力和数字化思维能力具备重要作用。 此外,诸葛斌也在踊跃尝试翻转课堂教学模式,采纳线下互相学习和线上自主学习混合教学模式造就学生。《钉钉低代码开发零根底入门》教材的配套教学视频也公布到了中国大学生MOOC平台、网易云课堂平台,号召更多师生退出低代码学习的行列。 依靠已有的课程建设,2021年12月,诸葛斌组织了信电学院外部的毕业实训,邀请钉钉宜搭高级认证讲师欣鑫发展低代码技术讲座。 通过为期五天的培训,同学们根本把握自主开发低代码利用的能力,进步本身数字化程度,高效解决日常生活、学习中的数字化需要。同时,参加培训的三十名同学均取得阿里巴巴低代码开发师高级、中级认证证书。 产学单干协同育人 造就高质量新工科人才诸葛斌把教育部产学单干协同育人我的项目比喻成一个筛子,因为它把全国对相干畛域感兴趣的老师筛选进去并汇集在一起,能够让高校老师与企业开展多维度单干,互相交流学习,实现独特成长。 “对于阿里一些很新的技术,咱们过来即便看到了也没有机会系统地去学习。当初,阿里把这些最新的技术在阿里云下面实现进去,让咱们第一工夫去理解,之后咱们又能把这些新的货色带回学校,让同学们也学起来,这样就能够让学生们以最快的速度把握最新的技术,紧跟时代的脚步。”诸葛斌示意。 谈到基于低代码等云原生技术的数字化产业人才培养,他认为,目前最尖端的IT技术都是在最火线的企业里倒退起来的,在高校新工科人才的造就过程中,须要企业将新技术、新理念及时反馈到高校,由高校针对新技术进行教学内容的制作,继而传授给学生。阿里云和钉钉宜搭的产学合作项目正是在遵循这样的准则和模式一步步推动着。 诸葛斌称,“这样一来,具备了新技术理论知识和实践经验的学生可能在待业时把新技术尽快地用起来。于企业而言,也是为他们奉献了人才。于社会而言,则是为数字技术的翻新提供弱小的能源。” 原文链接本文为阿里云原创内容,未经容许不得转载。

April 26, 2022 · 1 min · jiezi

关于大数据:天翼云加速推进云网融合-共赢算力时代

3月17日,以“智算创见 数实相融”为主题的2022浪潮信息生态搭档大会在线上举办。会议汇聚工程院、科学院、顶尖学术机构、出名科技公司等各界代表,独特探讨数实相融趋势下的智算翻新与实际。中国电信天翼云执行董事、总经理胡志强受邀缺席并发表了题为《推动云网交融 共赢算力时代》的主题演讲。 2022年2月,我国“东数西算”工程正式全面启动,该工程将有助于实现东西部数据资源集约化倒退。现在,算力成为以后最具生机和创新力的新型生产力,深刻影响着生产倒退方向和各行各业转型降级。胡志强示意:“算力在驱动社会和产业粗浅改革的同时,也产生了显著的经济价值。算力是数字经济时代的外围生产力,正减速向多样化、泛在化、智能麻利演进。” 算力时代,数据资源正在从集中的部署形式,往多级化的方向倒退,尤其是以边缘计算、端计算为代表的算力状态的呈现,与规模化算力造成互补之势,算力将以网络为核心交融资源供应。同时,智能麻利、随愿自治将成为智能社会算力设施的重要标签。 中国电信作为最早提出云网交融并付诸实践的运营商,基于本身的网络劣势与资源笼罩劣势,提前进行了“2+4+31+X+O”资源池布局,即在内蒙古、贵州两个低成本核心,以及京津冀、长三角、粤港澳、川陕渝四大区域核心建设核心云,满足大规模、集群化、低成本算力需要;在31省重点城市布局区域云,承接各省党政及重点行业的属地化业务上云需要;依照一城一池的规范推动边缘云300多个地市笼罩,同时按需提供客户现场级的麻利算力,承载就近接入、超低时延、数据本地化的近场级算力需要,笼罩千城万池;在“一带一路”沿线国家布局天翼云节点,将算力体系延长至海内。这一布局岂但符合“东数西算”布局,而且面对数字经济倒退时机先发劣势显著。 国家十四五布局提出了“数字中国”整体建设指标,也为IT产业指出了将来的倒退方向。云网交融是科技自立自强的外在要求,是倒退数字经济的松软撑持,是保护国家信息安全的无效保障,对于我国网络强国建设具备重要的战略意义。 本着科技翻新是第一生产力的准则,天翼云基于宽泛的资源笼罩,加大算力要害核心技术攻关,于2021年推出天翼云4.0,强化在分布式云基础设施、云网操作系统、分布式云产品能力三方面的能力建设。天翼云4.0具备分布式、自主可控、平安可信和凋谢单干的重要性能和个性,可向客户提供私有云、公有云、专属云、混合云、边缘云等全栈云服务。 为推动数字经济进一步倒退,云服务商须要与产业链上下游独特发力,构建算力共赢生态圈。为全面撑持和推动国家数字化转型策略,天翼云继续欠缺云网资源交融布局,携手合作伙伴打造生态单干能力底座,深度协同产业链上下游,独特推动产业数字化倒退。

April 25, 2022 · 1 min · jiezi

关于大数据:东吴证券X袋鼠云数据轻松可取毫秒级反应能力东吴证券做对了什么

“所有事件都能够用数字表白。” 这句话是1998年一部非典型金融影片《圆周率》的男主独白。影片中,蠢才数学家Max发现了一套数学模型在“操纵”着股票市场的沉浮稳定,并试图揭开这把财产钥匙的机密。最终,已经信奉的数字成了压垮他精力的重石,在泛滥的数字中,Max彻底凌乱迷失了。 影片没有聚焦过多交易逻辑,却揭示了金融的假相之一:长久的财产不会被头脑一热和好运气捕捉,而是藏在神秘、简单的数字间。但一旦数字失去主观和逻辑,则会造成更大的毁坏,就像已经的屠龙者,成为了恶龙。 这与当下的金融数字化窘境何其相似。人人都晓得数据重要,但如何利用数据却始终不得其法。这些年,金融行业的数字化水平一直加深,但随着数据越来越多,一种不衰弱的金融数据化乱象逐步浮现:一边是数字化高举高打,一边是数据的有效堆砌。甚至,有时候过于纷杂的数据,还会成为谬误决策的温室。 如何在数字化的迷雾中,找出正确的方向?让金融数据在业务中施展价值,这是东吴证券和袋鼠云携手为金融行业数字化构建点亮的一盏灯。 东吴证券股份有限公司成立于1993年,2011年12月12日在上交所上市,是一家领有全副证券类业务牌照的综合券商。近年来,东吴证券保持科技赋能,在区块链、云计算、大数据等畛域的技术研发获得不少成绩,如,“A5极速交易系统”先后荣获证券期货行业科技奖二等奖,以及央行颁布的金融科技倒退二等奖,“RAMS信息系统撑持平台”在央行颁布的金融科技倒退奖中荣获三等奖。 数字化“新手”东吴证券和袋鼠云是如何推动数据价值实现的呢?东吴证券经营核心总经理助理葛菊平以两个外围产品:数据共享服务EasyAPI和实时开发平台StreamWorks,带咱们理解东吴证券的数字化实战之路。 |01 数据对立,轻松实现业务麻利交付 传统的信息架构下,金融企业各业务之间数据互为孤岛,无奈互联和共享,这就造成同一个数据在不同业务部门须要反复“造轮子”。随着越来越多业务须要数据反对,重复性的数据建设给业务交付带来了极大压力。 为此,东吴证券和袋鼠云从业务数据繁杂的沉疴中登程,为金融行业带来了数字化建设的第一个业务解决方案:通过EasyAPI将数据对立治理,让各业务端口无需简单操作,即可轻松调用或接入。以事实场景来举例,此前搭建一个App,想要买通各部门的数据,会有一个横向买通的过程,耗时耗力。当初通过API,能够间接数据调用,让数据这一项所耗时间间接缩短为分秒间。 那么API的搭建会艰难吗?为了解决困难发明出新的艰难?袋鼠云的低代码开发能力,让这种滑稽问题没有了存在的可能性。 据葛菊平介绍,“袋鼠云低代码的开发能力,让咱们的API开发根本不必写代码,间接在架构上做API搭建。和袋鼠云单干初期,API刚上线,一个业务需要进来,几分钟内就做好了API,这让后续API在业务上的利用和推广更为顺利。” 袋鼠云数据共享服务EasyAPI产品架构图 目前EasyAPI曾经反对了东吴证券十几套零碎的数据应用需要,如东吴秀财App的资讯提供、PB业务的数据查问、RAMS零碎的数据监测等。 |02 实时数仓,演绎金融行业的“一寸光阴一寸金” 金融市场瞬息万变,滞后一秒都可能带来天差地别的后果。因为证券本身的业务特点以及内部监管“零容忍”等,让金融市场须要更实时的信息系统,来确保信息的准确度和及时性。例如,当客户进行了一个委托操作,但委托在通过交易所等流程后,会更新某些字段。按以往的模式,东吴证券会从渠道采集而后剖析得出数据,计算流程较长,两头存在几分钟的延时,这就可能造成采集回来的交易所后果数据和委托交易系统数据产生并不统一。 基于StreamWorks搭建的实时数仓,晋升了东吴证券原先实时数据采集和应用中的数据及时性、一致性和准确性问题,数据响应能达到毫秒级,更快地触达用户。以融资融券场景为例,此前,当客户产生大额资金还款操作时,没方法去实时反馈到零碎,那这笔钱就会闲置,这两头就会让金融机构产生机会成本损失。当实时数仓参加零碎后,零碎会及时辨认到客户有融资或者融券操作,金融机构会有更大的筹备空间,进行资金的调配,有利于做出更优的资金策略。 袋鼠云实时技术(流批一体)技术架构图 “天之道,损有馀而补有余”,这句话特地实用于当下的金融市场,放弃平衡是流通顺畅的要害。而金融机构在往年稳增长和防危险的大基调下,必须承当起这个“道”。但另一个客观事实摆在金融机构背后,没有足够强的先知能力,如何能做出正确的平衡决策?除非像是各种穿梭剧里的配角开了金手指。显然,这个可能性不存在,但有一个有限靠近这个可能性的答案,就是实时计算在风控场景的利用。 当你提前晓得了暴风雨,你就比他人多了建造方舟的工夫。那么,具体东吴证券是如何将实时数仓利用风控场景的?StreamWorks让东吴证券和交易所行情、客户委托实时同步,一旦股票价格因为客户交易产生异样变动,就会立即发动断定,并做及时的对策,理解客户志愿,从而更好应答交易所等部门的监管。相比此前交易一条线、委托一条线,轮询造成的时间差,StreamWorks会让异样操作等重大问题被及时发现,升高违规操作等对客户或机构造成的负面影响。 葛菊平说:“API和实时数仓最终是为了数据更好流通,为业务提供价值,进步各业务板块的协同。从而更好地服务客户,晋升客户的投资体验。将来,东吴证券会全面进行数字化转型,让数字的价值赋能全业务,成为推动社会财产价值晋升的无力撑持。” “让咱们陷入困境的不是无知,而是看似正确的舛误论断”,这句呈现在《大空头》电影开始的马克吐温名言,至今对金融市场仍有警示作用。当空握数据,而不是虚浮让数据服务业务时,再多的数据也会导向蹩脚的后果。 本次袋鼠云和东吴证券的单干,让咱们看到金融数字化的正答从不简单:立足于解决问题,而不是追赶趋势,仰观市场、好高鹜远,为业务服务的数据化才更具价值。

April 22, 2022 · 1 min · jiezi

关于大数据:星环科技平滑迁移方案加速国产化替代助力大数据基础软件自主可控

核心技术是国之重器,减速推动外围畛域关键技术冲破,实现外围网络中的软硬件国产代替是国家长期策略。 “十四五”布局更是明确,聚力攻坚根底软件,减速分布式数据库/混合事务剖析解决数据库等产品研发推广。强化根底组件供应,大力发展云计算/大数据/人工智能/区块链等平台软件开发框架。 自主可控和国产化代替迫不及待。过来微软“黑屏闷”事件、美国“棱镜门”事件、中兴制裁事件曾经阐明了没有核心技术就会受制于人,往年俄乌事件产生后,200多家科技公司发表暂停在俄罗斯的所有业务,包含芯片、软件、云服务等断供,哪里还有“科技无国界”?要解脱被科技制裁的危险惟一前途就是自主研发、自主可控。 星环科技自2013年成立以来,就以自主研发为己任,不仅自主研发了大数据与云根底平台、分布式关系型数据库、数据开发与智能剖析工具的软件产品全系列产品,为企业数字化转型提供了真正的国产数字底座,以提供数据集成、存储、治理、建模、开掘、剖析和流通能力,能够推动数据规范化、资产化、业务化,推动业务数据化、智能化,而且产品能力更强更全,当先于国外,在基于容器的数据云技术、分布式技术、数据库技术、多模型数据的对立解决技术、SQL编译技术、大数据开发与智能剖析技术等6大类技术上领有31项具备先进性的核心技术,领有了一大批发明专利。加入并且通过了工信部自主代码扫描测试,完全符合信创验收规范,多个产品进入了国家软硬件技术图谱。 在自主研发翻新的同时,星环科技也在积极参与国家信创工作。星环科技作为信创工委会WG24大数据工作组的小组组长及副组长单位,牵头制订信创大数据行业标准及标准,并深度参加产品图谱编制、产业白皮书、案例集编撰等工作。 星环科技全系列产品代替国外进口产品 星环科技领有成熟的根底软件代替解决方案,齐全满足信创验收要求,获得了泛滥的成绩。 大数据根底平台TDH能够完满的代替CDH/HDP和CDP,晋升性能、性能、稳定性、易用性、扩展性、可靠性、平安、国产生态反对等能力,提供多种模型反对能力,性能的晋升能够达到5到100倍,原厂业余服务能力更强。 分布式交易型数据库KunDB能够在交易型OLTP的业务场景、高并发在线数据服务场景,代替Oracle/DB2,并且晋升存储计算能力、高可用能力、跨分区事务能力。 分布式剖析型数据库ArgoDB能够在批处理和OLAP、Ad hoc剖析等场景,代替Oracle/DB2/TD/SAP HANA,提供海量数据分析能力,晋升混合负载、实时数据分析等能力,软硬件综合性价比失去10到100倍的晋升。 分布式图数据库StellarDB能够在图查问、图剖析的场景代替Neo4j,晋升图数据存储检索能力,反对万亿顶点以上的图存储与毫秒级检索性能,提供近30种分布式图算法和10层以上深度链路剖析能力。 搜索引擎Scope能够在全文检索、日志剖析等场景代替ElasticSearch,晋升稳定性、性能、集群扩展性等能力。 智能剖析工具Sophon能够在可视化建模剖析场景代替SAS/SPSS,取得200+算子撑持,晋升性能和性能(将本增效)。 国产化代替的10大要害评估指标 星环科技的一体化代替计划领有举世无双的劣势 在性能上,星环科技根底软件产品多模架构,反对关系表、文本、时空天文、图数据、文档、时序等在内的10种数据模型;离线数据批处理、高并发的在线数据服务、数据集市、数据仓库、数据湖、图存储剖析、空间数据存储、实时数据处理、数据中台、数据治理等各类大数据业务场景一站解决。 在性能上,星环科技根底软件产品自研高性能分布式计算和存储引擎,整体性能是CDP 5~25倍。整体性价比是DB2 20倍,是TD 100倍。 在老本上,星环科技产品高度兼容CDH/HDP、TD、Oracle、DB2,兼容TD、Oracle、DB2的SQL和方言,提供成熟的迁徙工具,有大量低成本胜利迁徙案例。 在平安上,星环科技根底软件产品提供的容器隔离、灾备、访问控制、联邦学习、隐衷爱护、可信计算等技术保障网络层、加固层、治理层、流通层全方位数据安全。 在架构上,星环科技根底软件产品提供对立SQL引擎、对立计算引擎、对立分布式存储管理、对立资源调度,对立内联的架构高效搞定湖仓集一体、HTAP等简单场景,而不是拼凑组件成散装架构。 在开发上,星环科技根底软件产品提供对立SQL引擎,无需每个场景一套接口;残缺反对SQL2003规范,反对PLSQL存储过程,兼容Oracle、DB2、TD等方言。 在运维上,星环科技根底软件产品提供开箱即用的可视化运维监控、平安管控工具,容器技术带来极致的装置、降级、补丁体验。 在售后上,星环科技原厂有超过1100人的研发与反对团队,超过3万名星环科技认证的大数据工程师,专业性更强。 在国产化上,星环科技的软件产品自主研发,通过了工信部代码自主研发率扫描测试,满足信创验收要求。 在国产生态上,星环根底软件产品已实现与支流信创生态厂商的适配互认工作,适配长城飞腾、华为泰山、浪潮等服务器,鲲鹏、飞腾CPU,麒麟、统信等操作系统,并有官网认证,反对基于ARM与X86服务器服务器混合部署并有落地案例。 星环科技有在大数据平台、数据库产品、数据分析平台等畛域有大量胜利代替国外进口产品的案例。目前,星环科技的大数据根底软件系列产品已在十几个行业1000+用户利用落地。 大数据平台国产化代替平滑迁徙计划 (CDH/HDP/CDP->TDH) Cloudera(Cloudera 和Hortonworks 合并后)所有产品不再提供社区版,用户无奈获取新的性能。2021年1月31日开始,所有Cloudera软件都须要无效的订阅,且订阅费低廉(50个节点,一年订阅费50万美元)。此外,CDH 6和HDP 3将是CDH和HDP的最初企业版本,企业版用户无奈持续获取新的性能和性能晋升。至2022年3月份,CDH/HDP全副进行服务(EoS),用户没方法获取售后反对。 Transwarp Data Hub(TDH) 是星环科技自主研发的企业级一站式多模型大数据根底平台,基于其当先的多模型对立技术架构,8种异构存储引擎能够反对包含关系表、文本、时空天文、图数据、文档、时序等在内的10种数据模型。TDH可能存储 PB 级别的海量数据,同时可能提供高性能的查问搜寻、实时剖析、统计分析、预测性剖析等数据分析性能,被广泛应用在离线数据批处理、高并发的在线数据服务、数据集市、数据仓库、数据湖、图存储剖析、空间数据存储、实时数据处理等各类大数据业务场景,帮忙企业,更全面、更便捷、更智能、更平安地使用数据,减速企业数字化转型。 TDH根底存储与计算组件兼容CDH/HDP,能够实现平滑迁徙,大大降低企业迁徙成本低。 同时,星环科技提供业余的迁徙工具Transwarp Backup (TBAK),帮忙用户通过简略的三步即可实现数据与业务的一键迁徙,高效便捷。整个迁徙过程操作简略,配置灵便,通过3步即可实现所有的迁徙工作,同时用户能够对迁徙过程进行全流程实时监控,保障整个迁徙过程顺利进行。 第一步,基于TBAK提供可视化的界面进行CDH和TDH的集群配置。 第二步,创立CDH迁徙计划。TDH提供服务级和表级的迁徙策略,以及对源集群,灾备集群,调度策略等进行配置。在调度策略中用户能够依据理论状况进行配置,例如能够设置在业务空窗期的每天凌晨2点进行数据迁徙。同时,用户能够设置相应的告警策略,当迁徙产生问题时能够第一工夫收到告警信息并对问题进行排查和复原。 第三步,执行迁徙工作和后果查看。当集群配置实现后,所有的迁徙计划将在迁徙计划界面进行治理和操作。用户能够抉择相应的迁徙计划进行操作,例如立刻执行和设置执行策略。若点击执行迁徙工作,零碎会进入到主动迁徙状态,同时能够监测迁徙工作执行的整体状态信息,并且能够对每一步的执行状况进行实时监测。当迁徙产生故障时,零碎会收回执行故障的告警,不便用户对故障产生的阶段进行排查和故障复原。 此外,星环科技积攒了大量的迁徙胜利案例,经验丰富,能够保障整个迁徙过程安全可靠。 相比于迁徙到CDP或者国内封装的Hadoop商业版,用户迁徙到星环科技TDH后,TDH多模型对立架构提供对立SQL引擎、对立计算引擎、对立分布式存储管理、对立资源调度,对立内联架构高效搞定湖仓集一体、HTAP等简单场景,无需拼凑组件散装架构。同时在技术当先性、性能、易用性、稳定性、安全性等方面失去全面的晋升。此外,TDH由星环科技自主研发,通过工信部自主代码扫描测试,齐全自主可控,并且与已实现与支流信创生态厂商的适配互认工作,满足信创验收要求,帮忙各行业用户晋升大数据系统的国产化程度。 数据库国化产代替平滑迁徙计划 (Oracle/DB2/MySQL/Teradata/SAP HANA->TDH/ArgoDB/KunDB) 传统数据库如Oracle,DB2等存在老本高、扩容难、性能受限、运维难等问题给很多企业用户造成了困扰。 前段时间俄乌事件中,Oracle发表暂停在俄业务,其余泛滥科技公司也相继发表断供俄罗斯。这些事件再次给国人敲响了警钟,建设国产数据平台火烧眉毛。 星环科技大数据根底平台和数据库产品反对残缺的SQL规范语法,兼容Oracle、IBM DB2、Teradata方言,兼容Oracle和DB2等的存储过程,能够实现平台间的平滑迁徙。同时可能提供对立的架构,一站式帮忙用户解决所有业务场景,从降低成本、晋升效力、平台翻新、利用翻新等多个方面为用户带来收益。 星环科技建设了一整套从老牌数据库到星环产品的平滑迁徙方法论,大抵能够分为剖析与设计、迁徙施行和上线保障三个阶段。 第一阶段,剖析和设计。联合用户的现场状况和需要进行剖析,并对数据流转和整体架构设计。如将Oracle迁徙到星环科技TDH,TDH反对多种数据源接入,并对于不同的接入形式提供业余的组件工具。例如星环科技Transporter反对定时批量抽取,实时流计算引擎Slipstream反对实时数据接入,可用于实时数仓等场景。 第二阶段,迁徙施行。迁徙分为数据迁徙和业务两大部分。在数据迁徙方面,星环科技能够实现三种迁徙形式,1:1平移、依照大数据平台个性从新设计和迁徙种选重点进行优化,用户能够依据理论状况和本身需要进行抉择。在业务迁徙方面,星环科技平台可能提供残缺的配套产品和组件,同时又能残缺反对SQL规范,兼容像Oracle存储过程等特色,在保障业务的同时实现低成本、平滑迁徙。 第三阶段,上线保障。星环科技能够提供双轨试运行机制,定期进行两边的数据核查,察看平台的运行状况,进行前期的粗疏调优等相干工作,保障迁徙后可能顺利上线投产。 以金融行业为例,星环科技可替换的场景蕴含:危险管制、数据仓库、报表平台、ODS、数据集市、投资交易剖析回放、客户剖析和客户画像等等。例如风控的指标治理、实时预警、合规治理、数据维度始终是金融行业中券商最依赖于数据处理的局部,可联合市场危险、信用风险、反洗钱、投资人适当性治理等利用场景,星环科技可能在机器学习算法和危险模型上提供解决方案。其余例如投资交易、行情预测、业务经营等场景,星环科技都可能提供全面的撑持能力。 ...

April 22, 2022 · 1 min · jiezi

关于大数据:星环科技基础软件产品全面落地开花为企业数字化转型带来星动能

“十四五”期间,我国进入由工业经济向数字经济大踏步迈进的关键时期,经济社会数字化转型成为大势所趋,数据回升为新的生产因素,数据因素价值开释成为重要命题。而星环科技自主研发的大数据根底平台、数据云平台、分布式数据库等底层根底软件,作为生产因素的流通场合,从始至终为数据因素价值的开释奉献着技术力量。 此次2022年秋季新品发布会,星环科技带来了湖仓一体、数据中台、工业互联网、城市数字底座等前沿的行业解决方案和技术场景,并邀约了行业大咖分享业内的数字化转型胜利门路,为行业倒退建立起新的技术风向标。 异构统管、数据联邦星环科技公布湖仓一体2.0及批流一体的数据中台解决方案 星环湖仓一体 2.0 通过对立资源管控,对立分布式存储管理,反对10种存储模型,对立分布式计算引擎,对立数据接口,实现湖仓一体架构,可更好地满足企业业务剖析需要。在技术上具备存算解耦、弹性扩大、多租户、多计算引擎、分级资源管理等能力;性能上,兼具数仓的规范 SQL、ACID,数据湖的大规模异构数据存储等能力,对下,提供统多种数据接入模式,反对多云、混合云及跨云部署,对上,提供多种数据操作形式和接口,反对多种操作语言。 星环数据中台解决方案最大劣势之一,数据联邦与批流一体撑起的应用服务,基于星环翻新的联邦计算技术,可能实现对其余数据库或数据平台的对立治理数据开发、数据治理、数据利用全模块对立系统集成,打造残缺的企业级数据全生命周期交融与治理平台。 技术破局,智能交融 新一代AI底座Sophon 3.1为企业赋“智” Sophon Base数据迷信平台为解决企业级用户的AI模型治理经营难题、AI信赖及数据隐衷平安问题,此次3.1版本推出了三项重磅性能:对立的AI模型仓库、可解释人工智能(XAI)及隐衷计算(PC)。Sophon MLOps买通了AI的全生命周期,为企业的各类用户角色搭建了对立的AI合作平台。对于企业而言,MLOps规模化集成治理了多源异构的机器学习模型,并提供高效且保障隐衷平安的模型推理、监控预警及性能评估服务;对用户而言,能感触到操作上的快捷,AI利用与部署更是锦上添花。将来,MLOps将持续迭代更加丰盛的性能,赋能企业AI更快、更好地落地。为回馈用户,星环科技倾情上线了轻量的Sophon社区版,让数据的智能剖析触手可得。 随着规范模型市场的日趋成熟,更高精度的模型诉求和长尾场景的疾速建模成为企业数智化转型的第二战场。Sophon Edge 3.1 正是一款可能满足“业务疾速迭代” 和“新场景落地”的需要的端到端的模型生产落地利用平台。不论是视觉智能还是物联智能,Sophon Edge都能帮您实现从数据->模型->利用最终造成闭环的实时边缘智能。 常识图谱作为实现认知智能的利器,是企业积淀智慧和做出最佳决策的技术工具。此次Sophon KG 3.1的推出,突破了各模态数据间的壁垒,可实现结构化、非结构化数据的自动化构图。并行业用户提供了多样的智能问答知识库,可解放大量生产力,为常识抽取、构建和推理提供弱小的平台。 深耕产业,自主翻新 星环科技行业解决方案矩阵为转型带来“星”模式 传统工业互联网模式下的数据利用存在更新老本高、人工智能开掘有余等问题,在星环科技提供的智慧工业解决方案中,将以AIoT架构为根底,通过云边协同来实现数据流的闭环,实现从“教训+流程”到“数据+算法”的转变。 星环打造“一主核、三中枢、一枢纽”的城市数字底座,以大数据、AI等根底技术,云原生、自主可控为特点,充沛的数据经营教训为劣势,丰盛的生态单干为撑持,促成公共数据因素平安流通,助力政务服务和城市运行“两网”数字化转型,进步城市现代化治理效力。 数字化将成为智慧港口改革的新动力,基于星环智慧港口解决方案,一方面通过“港口+数字化”实现现有供应链效率降级,另一方面借助凋谢和共享的数字化平台发现新的经济增长点,带动商业模式和经营模式的变动,引领港口治理新模式。 基于星环科技一站式大数据人工智能产教交融计划,助力造就社会实用的大数据人工智能产业应用型人才。 星环科技公布“智慧服务、经营、治理”三位一体的信创环境下轨交线网指挥核心建设计划。通过集中管理造成一朵云格局,实现对立经营、对立监控、对立运维等治理性能,为轨交线网智慧核心夯实IaaS和PaaS能力、AI根底能力、数据治理能力,最终造成智慧服务、智慧经营和智慧治理。 星环依靠“云”、“数”、“智”三大外围引擎,以全面云化、规范对立、中台驱动、数据融通、自主可控为整体思路,面向医院大数据中心、区域医疗中台、云原生医疗云等场景提供了残缺的解决方案,助力医疗行业数字化转型。 技术赋能,多点生花 国产根底软件为企业数字化转型提供数据力和工具力 东亚银行作为国内银行资产规模前三的外资银行,借助本次数据中台目标布局,更好地满足数字化转型时代下银行业务倒退的须要,联合中台战略思想,建设合乎大数据时代更具创新性、灵活性的数据中台,即突破各零碎之间壁垒,整合公共流程,疾速响应客户的需要及个性化服务。 新网银行通过星环科技大数据及AI技术构建数据中台,为高效数据分析、疾速数据利用搭建提供撑持,建设数据保障体系,为业务翻新提供土壤,实现了智能化、个性化、数据化风控,以及多渠道、多场景全生命周期智能营销。 基金行业数字化转型进入全面智能化阶段,华夏基金基于大数据、AI等技术在数据能力、品质保障和数据服务买通的个性,构建了全新的智能经营模式和投研一体化平台,以科技作为新型外围驱动力,一直促成企业效率晋升、规模增长和业绩改善。 数字冰雹的工业制作数字孪生解决方案面向工业厂区治理部门,反对整合工业生产制作各零碎数据,深度交融5G、大数据、云计算、AI、交融通信等前沿技术利用笼罩生产治理、设施运维、智能管网监测、综合安防、便捷通行、能效治理、仓储物流等多业务畛域赋能用户业务利用,实现“智能感知、智能分派、智能处理、智能考评、智能改良”。 郑州地铁介绍了城市轨道交通行业的特点,总结数字化转型的了解意识,分享客流智能预测、弓网视频智能剖析等若干数字化转型翻新成绩,对数据交融赋能、可组装技术中台等企业级数字化转型提出瞻望。 特定行业大数据服务平台,基于星环产品的能力,联合行业畛域业务进行深度交融和定制开发,针对业务人员进行技术降维,更易于应用和上手学习,为行业畛域的资源摸索、经济倒退和科学研究等重大需要场景,提供了产、学、研、用于一体的人工智能与大数据平台,构建笼罩“数据获取-数据存储-数据处理-模型研发-利用研发”的数据全流程协同解决体系,为科研人员构建行业畛域特色专题数据产品、模型产品和利用产品提供工具撑持,从而加强产业竞争劣势,促成特定行业产业生态可继续倒退。 新时代数字化建设离不开大量的高水平人才,这须要企业和高校之间发展深度单干。南京大学软件学院和星环科技单干以来,从最后多数课程的单干,到成立校级联结钻研核心,并以此为依靠,在教学、教改以及科研等方面发展全方位的单干。 在人才链、翻新链和产业链协同倒退理念领导下,华东师范大学人才与产业数据云我的项目基于DLM模型,专一海量人才及产业大数据资源的常识开掘和提炼,翻新特色人才评估指标体系,构建人才及产业大数据分析算法模型容器,并面向多类型用户提供租户服务,实现钻研常识、数据空间、计算能力、算法模型的共享,同时保障租户数据的隔离与平安,回应人才和产业畛域的事实问题,服务科技翻新和产业倒退。

April 21, 2022 · 1 min · jiezi

关于大数据:国内唯一连续入选GartnerQuick-BI是如何做到的

简介:阿里云Quick BI凭借灵便的公共云部署,私有化独立部署能力、无缝对接各类云上数据库和自建数据库、可视化搭建剖析、高效数据处理能力与弱小数据计算能力,使得在2022年继续入选Gartner ABI魔力象限报告。 作者 | 馨心起源 | 阿里开发者公众号 阿里云Quick BI凭借灵便的公共云部署,私有化独立部署能力、无缝对接各类云上数据库和自建数据库、可视化搭建剖析、高效数据处理能力与弱小数据计算能力,使得在2022年继续入选Gartner ABI魔力象限报告。 自2020年, Quick BI首次入选Gartner ABI畛域魔力象限,突破国产BI在该畛域零入选的记录,尔后蝉联入榜,成为该畛域惟一间断三年入选的中国BI。 作为惟一入榜的国产BI,阿里云Quick BI是如何做到的? 在一直夯实BI的可视化体验和权限管控能力之外, Quick BI继续推动全场景数据生产能力,让数据在企业内最大限度的流转起来。概括性的说,BI是商业智能剖析工具,以数据作为燃料驱动商业的增长。 QuickBI在产品侧的外围流程包含系统管理、数据筹备、数据连贯、数据建模、数据分析、数据生产。 数据筹备:在剖析数据之前,反对对数据源的数据进行定时加工解决,数据筹备(轻量ETL)让会用Excel但不会写SQL代码的人员(比方业务人员、业务分析师)可能以低代码可视化的形式为BI剖析自助筹备数据;数据连贯:Quick BI反对无缝连贯所有阿里云上数据源及本地数据源,只有你有数据,无论什么模式都能够疾速导入;数据建模:利用第一步产生的数据源建设数据集。计算字段、缓存减速、自定义SQL等等,数据集是你在Quick BI数据分析、生产的惟一通行证;数据分析:除了报表外,还有电子表格、自助剖析、自助取数、智能小Q、表单填报等花色剖析模式,最初还可将这些数据整合到数据门户上,让你的老板惊叹你工作效率之高;数据生产:所有数据分析后果都能在挪动端、PC端、大屏主动适配,再配合邮件、钉钉推送,让你的共事每天及时看到重要数据分析后果。还有监控告警、嵌入集成等高级性能;系统管理:齐备的审计日志、权限治理、老手疏导、租户隔离等性能,让用户能更自若地享受到企业级治理的便捷。在往年的报告中,Gartner还提到了Quick BI的三大外围劣势:办公协同能力、业务集成剖析驱动决策、数据文化素养造就。 接下来就进一步剖析Quick BI的技术亮点。 Quick BI的技术亮点和性能齐备性 以下将从Quick BI的亮点和性能齐备性两个角度进行论述。 1 亮点劣势之Quick能力"Quick"是产品始终谋求的指标,近几年来Quick BI也始终致力于实现展示快、计算快,为使用者提供顺滑体验为指标。具体来说,在数据报表开发的过程中,大量级数据须要在肯定范畴的工夫内响应,即计算要快;面对报表的查看者,首屏关上和下拉加载的工夫须要在肯定范畴内实现,即展示要快。 Quick BI的计算引擎和渲染引擎以双引擎的形式为企业BI应用全力减速。 1、计算引擎:在直连模式的根底上,新增减速模式、抽取模式、智能缓存模式,用户可按找不同场景的不同需要,通过配置开关进行模式的抉择。在数据集开发和数据作品制作的过程中取得减速体验,能够无效晋升用户报表的数据查问速度,缩小用户的数据库查问压力。 2、渲染引擎:负责获得肉眼可见页面的内容,包含图像、图表等,并进行数据信息整顿,及计算网页的显示方式,而后输入并展示。因为BI场景的报表(仪表板、电子表格、门户等)内容相当简单,渲染引擎的减速能够十分间接的影响Quick BI报表的关上速度,优化用户的报表阅览体验。渲染引擎的减速动作无需进行任何配置,无声地服务整个剖析流程。 通过一系列外围能力的降级和特定场景的针对性优化,操作均匀FPS(每秒传输帧数)可达55左右,较简单报表下,首屏加载工夫管制在3秒以内(中等简略报表2秒内),联合Quick引擎,还能够反对10亿级数据量的报表3秒内展示。 2 亮点劣势之办公协同挪动端和办公协同能力是Quick BI的一大亮点,目前曾经提供了钉钉、企业微信、飞书的接入能力,客户只须要将相干配置信息配置到QuickBI,便能够实现与钉钉、企业微信、飞书的账号、登录、订阅、音讯推送等业务的买通。 Quick BI反对与支流IM/OA利用进行深成集成。客户可在Quick BI上进行简略的利用信息配置就能够针对不同平台在身份认证、用户治理、音讯推送等个性上实现对接。针对客户痛点场景,如登录鉴权、挪动端报表拜访、报表订阅、监控告警等方面做到了反对,并可能达到在各平台体验统一的成果。 Quick BI与钉钉生态深度集成,打造钉钉智能报表,反对企业数据分享、评论、批注等数据协同能力,助力三方企业的 OA 审批、人事等数据的剖析推送。 3 亮点劣势之凋谢集成Gartner报告指出,可视化之间的差别不再是辨别各个ABI产品的差别,更大的差异化来自于对于“集成”的反对。实质上,BI产品并不能独立存在,作为数据链路的最初一公里,企业往往须要将BI零碎与本人的系统集成买通,并通过嵌入能力将BI的报表,集成到客户自有的零碎中。因而,集成的能力是帮忙企业客户实现“turn insight to action ”的要害外围能力。 Quick BI撑持的客户基数越来越大,集成的场景就越来越丰盛。在阿里巴巴系统集成,如钉钉智能报表、阿里巴巴生意顾问的集成连贯;对外部客户集成诉求,既有为泛滥独立部署企业客户提供单租户治理,又有像睿本云的生态SaaS化服务集成。因而,须要形象出通用的凋谢集成能力,能力往上撑持丰盛的客户集成场景,晋升产品的商业化能力。 从上图能够看到,能力项上Quick BI次要通过登录认证、嵌入剖析、自定义扩大、流程集成、数据服务等几个方面,为客户提供系统集成的能力。 4 齐备性能之智能化摸索在Gartner ABI魔力象限的评比规范中,智能化是十分重要的一环。过来几年,Quick BI在智能化路线上做了很多摸索,当用户实现根本的数据源、数据集、仪表板与报表等性能配置后,智能化体系可能升高用户进行洞察发现的老本,助力用户作出商业决策。例如: ...

April 20, 2022 · 1 min · jiezi

关于大数据:深入浅出聊Taier大数据分布式可视化DAG任务调度系统

导读:上周,袋鼠云数栈全新技术开源布局——DTMO(DTstack Meetup Online)的第一场直播圆满完成。袋鼠云数栈大数据开发专家、Taier我的项目主导人偷天为大家带来了《Taier入门介绍》的分享,咱们将直播精髓局部做了整顿,带大家再次回顾内容,加深技术细节的理解。 你能看到▫ Taier倒退历程▫ Taier架构设计和性能详解▫ Taier具体利用和将来布局 点击链接,查看直播视频回放https://www.bilibili.com/vide... 欢送退出开源框架技术交换群(钉钉群:30537511) 开源我的项目技术交换ChunJunhttps://github.com/DTStack/ch...https://gitee.com/dtstack_dev... Taierhttps://github.com/DTStack/Taierhttps://gitee.com/dtstack_dev...MoleCulehttps://github.com/DTStack/mo...https://gitee.com/dtstack_dev... Taier倒退历程Taier是袋鼠云数栈大数据家族的开源我的项目之一 ,于2022年2月22日正式在github上开源,它是一个分布式可视化的DAG任务调度零碎,旨在升高ETL开发成本、进步大数据平台稳定性,让大数据开发人员能够在Taier间接进行业务逻辑的开发,而不必关怀工作盘根错节的依赖关系与底层的大数据平台的架构实现,将工作的重心更多地聚焦在业务之中。 2021年4月,数栈技术团队确定了以DAGScheduleX为主,复合多个我的项目工程的外围板块的开源打算;2021年9月,技术团队实现了我的项目雏形;2021年11月,咱们重构了DAGScheduleX的工程代码,并将之正式命名为Taier;2022年2月22日,通过一直的打磨和不懈的致力,Taier终于正式开源1.0版本。开源并不意味着我的项目的完结,恰好是我的项目的开始,将来Taier将继续自我迭代,踊跃汲取社区力量,一直优化,推出更优越的版本。 Taier的前世与雏形Taier最早之前在数栈内的雏形是过后负责数栈“承前启后”的根底组件DAGScheduleX。 它承上对接各个下层利用(离线开发、实时开发、算法开发、标签引擎、数据服务、数据品质、数据资产),启下兼容多集群多版本(Hadoop、CDH、TDH、HDP、MRS),实现工作实例的散布式调度运行。在作为数栈的根底组件服务过程中,DAGScheduleX累计为数百家企业提供了大数据任务调度能力,在后期为后续的更新整合积攒了大量的实战经验。 DAGScheduleX能够做到很多,但还远远不够。数栈边使用边迭代,慢慢地看见围绕着它开发更多功能,一体化解决问题的可能性。这时,Taier雏形曾经具备清晰的构想,作为一个任务调度零碎,Taier初步设计具备以下这些模块。v1.0的里程碑意义回头看,Taier的开发之路是由4组具备里程碑意义的数据铺成的:• Taier开发团队累计解决了70+个大大小小的 issue ;• 总共311次代码commit ;• 90w+代码批改行数• 初始的9位Contributor。道阻且长,咱们却曾经走了这么远。 架构设计和性能详解在架构设计与性能特点上,Taier整体架构是应用插件式的开发模式,在工作开发上面有调度模块和各项组件,也包含数栈开源家族的Chunjun等等。 Taier性能特点Taier的性能特点有上面几个比拟重要的方面:1.工作类型:Spark SQL、数据同步(流计算工作);2.控制台:包含队列治理、资源管理、多集群治理等;3.运维核心:比方工作治理、周期调度、补数据等;4.插件化开发:具体包含 taier-plugin、、DatasourceX、Chunjun等几个插件。 Taier性能特色随着不断更新欠缺,当初的Taier曾经具备以下的几种个性: 稳定性• 单点故障:去中心化的分布式模式• 高可用形式:Zookeeper• 过载解决∶分布式节点+两级存储策略+队列机制。每个节点都能够解决任务调度与提交;工作多时会优先缓存在内存队列,超出可配置的队列最大数量值后会全副落数据库;工作解决以队列形式生产,队列异步从数据库获取可执行实例• 实战测验:失去数百家企业客户生产环境实战测验 易用性• 反对大数据作业Spark、Flink的调度;• 反对泛滥的工作类型,目前反对Spark SQL、Chunjun• 可视化工作流配置︰反对封装工作流、反对单任务运行,不用封装工作流、反对拖拽模式绘制;• DAG监控界面:运维核心、反对集群资源查看,理解以后集群资源的残余状况、反对对调度队列中的工作批量进行、工作状态、工作类型、重试次数、工作运行机器、可视化变量等要害信息高深莫测;• 调度工夫配置:可视化配置;• 多集群连贯:反对一套调度零碎连贯多套Hadoop集群。 多版本引擎• 反对Spark 、Flink等引擎的多个版本共存,例如可同时反对Flink1.10、Flink1.12(后续开源)• Kerberos反对Spark、Flink• 丰盛,反对3种工夫基准,且能够灵便设置输入格局。 扩展性• 设计之处就思考分布式模式,目前反对整体Taier 程度扩容形式;调度能力也随集群线性增长。 Taier重要概念上面从原理和操作层面给大家进一步介绍Taier,还有一些具体概念的解释。 工作与实例不便起见,数栈在Taier中提出“工作”和“实例”两个概念,例如数据开发的数据同步这项工作称之为“工作”,而曾经提交并且配置了周期属性的任就称之为“实例”。 实例具体操作 在Taier中,实例有这几种构建的形式:1.基于Zookeeper选举Master节点参加Job 实例构建,T+1构建JobGraph JobGraph构建前check &clean DirtyData3.根据Task、TaskTask的数据(JobGraph)生成Job .JobJob实例数据4.Master节点管制实例数据的负载平衡长久化入数据库 构建结束后,实例解决的几种形式如下图所示: 其中:1.三种工作类型:周期工作、补数据工作、重跑工作,对立调度形式 Job 优先入队列(1),队列容量有余入DB (2)3.当队列容量空余时,异步线程从DB加载数据入队列(3)Job出队列后进行工作提交解决实现后,实例提交咱们也做了思考,具体设计:1.内存优先级队列,管制Job有序执行2.多线程并发提交(可配置) Job 执行超时判断(可配置)Job资源有余/失败重试进入提早队列(可配置)﹔防止长时间占用提交权 Taier 的实例状态大家次要应该关注标记进行的几个,具体有上面几种: ...

April 20, 2022 · 1 min · jiezi

关于大数据:星环科技创始人孙元浩数据连接一切开启融合数据云时代

4月19日,星环科技2022秋季新品公布周在线上隆重开启。开幕式中,星环科技CEO孙元浩做主题演讲,带大家走入“交融数据云时代“。 数据分析模式的历史变迁 星环科技成立的2013年,数据分析模式是以Data Hub数据枢纽的模式来进行; 2017年星环科技提出大数据3.0概念,辨别于使用离散工具的数据平台,大数据3.0时代的最显著特色为一站式数据平台,同时能够笼罩数据全生命周期的解决。星环科技的一站式平台把数据湖、数据仓库、数据集市一体化,提供一套数据工具集Transwap studio解决数据的各个阶段; 2018年星环科技提出数据云的概念,在这个阶段大数据技术和云、AI技术交融,具备对立的资源管理技术,利用容器化技术,对外弹性提供数据库作为服务,利用为数据而生,数据更重,利用较轻,星环科技数据云产品当先业界一代; 2020年,星环科技提出多模型数据平台,利用对立语言、计算、存储、资源重构大数据软件栈,在一个平台上反对十种数据模型,无效升高数据开发和运维的难度,极大晋升用户开发效率。随着多种数据模型交融在一起,拜访语言产生了革命性的变动,SQL语言拓展、延长到不同构造数据下面,可能用同样的语言拜访不同数据结构,对立的多模平台,能够撑持更多新利用的产生。 同年星环科技提出联邦数据云概念,针对多数据中心、跨国数据中心而言,在资源层、数据层、计算层、机器学习层联邦化。部署构造也从早年间的星型构造,倒退为雪花型。 进入2022年,咱们来到了交融数据云的时代。交融数据云是指在按数据域组织的分布式数据云的技术架构根底上进行兼顾治理、协同经营、服务交融以造成可协同统一,自由组合,灵便部署的一种新型数据分析模式。数据能够如血液个别,以平安、可信的形式即时流动到适合的中央,流给须要的人。 交融数据云时代的特色 交融数据云是以网格构造进行部署,它次要具备流动、凋谢、轻量、统管四大特点,即以数据的实时流动取代以往准实时和离线的批量解决;以数据的共享和凋谢激发数据作为生产力的最大价值;以轻量化的数据分析利用部署模式取代以往重复简短的开发过程;以横跨多种部署构造、IaaS层及物理资源的统管形式突破各数据平台及底层物理资源的治理壁垒。 流动:数据只有流动能力产生价值,数据流动的速度越快,产生的价值越大。交融数据云以数据被动流动的形式取代了以往数据被动被采集入湖的形式(只能做到准实时或离线剖析加工),将数据分析的效率大大晋升。数据的流动须要建设在平安可信的根底之上,再即时地流动到适合的中央,流给须要的人。 凋谢:作为生产因素的数据,只有凋谢和共享能力使得价值最大化。数据的交易和流通已成为推动生产力的重要因素。 轻量:剖析变得越来越轻量化,对于按需生成和随时部署的需要也在不断扩大。因而须要有对立的语言和利用开发方式,即时、按需地产生剖析利用。 统管:交融数据云须要横跨企业边缘端、公有云、私有云、混合云,同时笼罩传统数据库和古代数据平台架构。 对于企业而言,交融数据云可能横跨和统管不同的部署构造、IaaS层或物理资源,第一工夫调动底层资源承接下层的数据利用。 对于交融数据云而言,数据将被存储于多模型的数据库中,并且以网络结构的形式部署和流动。数据域可独立或两两组合成交融数据域,具备部署、模型、剖析、智能等多维属性,通过互联管控实现协同工作,数据流动。网格构造是数据流动的根底,代表了云边端等多种部署维度以及数据业务化过程中的价值转换维度所构建网格构造,数据在各数据域间的流动带动了数据价值的活跃度。企业能够依据云边端等数据资源环境、时序/对象/图片/文档/图数据等企业数据模型、湖仓集等存储构造建设三维平面的数据域,并造成企业级的网格构造,为数据的流通发明合规的门路和价值发明的前提根底。在交融数据云下的数据,可能在不同的数据平台间即时流动,数据流从低到高,为企业不断涌现数据价值,而从高到低,又为企业的剖析利用部署,提供了应需而生的响应速度。 数据连贯所有,星环科技以引领行业技术倒退和助力各行各业数字化转型为使命,冀望通过数据全生命周期的根底软件与服务,为企业搭建数字化转型的数字底座,保障数据的平安和顺畅流通;以自研技术和产品踊跃落地IT基础设施的国产化代替,满足用户多方面数据智能需要,助力各行各业企业数字化转型。 对开源或国外产品的代替 数据连贯所有,星环科技以引领行业技术倒退和助力各行各业数字化转型为使命,冀望通过数据全生命周期的根底软件与服务,为企业搭建数字化转型的数字底座,保障数据的平安和顺畅流通;以自研技术和产品踊跃落地IT基础设施的国产化代替,满足用户多方面数据智能需要,助力各行各业企业数字化转型。 星环科技的自主研发比例在大幅度晋升,性能更优,速度更快,性能更弱小,并且开始更多的代替国外产品。 大数据平台方面,星环科技早就实现了诸多代替CDH的案例,包含cloudera和Hortoworks合并后的Cloudera Data Platform和Cloudera Data cloud,星环科技的产品可能提供更多模型反对,提供对立接口和更好的SQL兼容性。 分布式数据库方面,星环科技产品能够兼容Oracle、Teratada、DB2,整合了Cypher语言,并用容器化技术实现更好的租户隔离,激进来讲性能晋升2-10倍。星环科技KunDB在OLAP场景、MySQL的利用场景中曾经可能取代MySQL和Oracle,ArgoDB取代Oracle、DB2和Teradata建设数据仓库,并在多个用户中残缺代替了Teradata。 图剖析方面,星环科技图数据库库StellarDB在中信证券等客户中,取代开源的或者商用版的Neo4j,StellarDB能够解决更大规模的图数据。 搜索引擎方面,齐全自研的Scope搜索引擎能够代替Elasticsearch,通过比拟,Scope集群规模能够达到几百个节点,远远大于Elasticsearch的几十个节点数量。 数据迷信方面,Sophon Base机器学习建模工具,能够取代SaaS、SPS等统计分析软件,Sophon Base次要特点是在MLops把整个机器学习流程进行优化了,从特色工程到模拟训练、模型上线、模型评估到改良,有一套残缺的工具集。星环科技提供了更多的分布式机器学习的算法和框架,也用更凋谢的态度,激励大家尝试应用星环的一系列技术软件。因而星环科技此次推出了轻量化的TDH社区版,收费供高校和科研机构不便地应用大数据技术。 更多产品内容,请登录星环科技官网 https://www.transwarp.cn/ 点击查看

April 20, 2022 · 1 min · jiezi

关于大数据:自主研发自主可控星环科技魔方底座全面升级

2021年,星环科技“魔方底座”在世界人工智能大会上公开亮相,展示了依据业务场景需要,进行技术计划重组的能力。4月19日,在2022秋季新品公布周上,星环科技全面降级数字底座,对旗下大数据与云根底平台、分布式关系型数据库、数据开发与智能剖析工具的全线产品进行降级,多款新产品集中亮相。 星环科技围绕数据的集成、存储、治理、建模、剖析、开掘和流通等全生命周期的根底软件及服务陆续退场,包含星环大数据根底平台TDH 9.0、星环数据云平台TDC 3.0,星环分布式剖析型数据库ArgoDB 5.0、分布式交易型数据库KunDB 3.0、星环分布式图数据库StellarDB 4.0,星环大数据开发工具TDS 2.3、星环智能剖析工具Transwarp Sophon 3.1等全系列产品相继亮相。 除此之外,星环科技新增了数据安全治理平台Transwarp Defensor,降级了联邦学习平台而推出的隐衷计算平台Transwarp Sophon PC,以及保障数据流通平安的星环数据因素流通平台Transwarp Navier,以及星环数据交易门户Transwarp Datamall等。 以数据连贯所有,在不确定性的环境下,目前惟一能够确定的就是企业的数字化转型。星环科技通过数据全生命周期的根底软件与服务,为组织搭建数字化转型的数字底座,满足用户多方面数据智能需要,助力各行各业企业数字化转型。 大数据与云根底平台:智能、平安、便捷、稳固 星环科技企业级一站式多模型大数据根底平台 Transwarp Data Hub(TDH)提供大数据存储、大数据分析、实时计算、综合搜寻、数据挖掘等根底能力,为企业建设数据湖、数据仓库、数据中台提供平台撑持,为企业数字化转型助力。 而新推出的星环TDH 9.0在四个方面进行晋升: 一是多模型能力再降级。基于多模型对立架构,TDH 9.0全新推出文档数据库DocStore ,提供XML/JSON等文档数据技术撑持。同时关系型剖析引擎Inceptor、图数据库StellarDB、搜索引擎Scope、键值数据库 Keybyte、时空数据库Spacture、时序数据库Timelyre等产品也迎来年度重磅降级,性能和性能全面晋升,基于对立架构提供的十种数据模型组合能够一站式帮忙企业买通大数据业务全场景。 二是大数据根底底座实现降级。对立分布式数据管理系统TDDMS和分布式文件系统TDFS提供更稳固的小文件治理能力和拜访性能,晋升了存储规模和可靠性,保障数据安全不失落,提供更巩固的大数据底座根底。同时元数据服务降级,基于星环分布式交易型数据库KunDB提供更高性能、更加稳固的元数据处理服务。 三是运维加强、平安加固。TDH 9.0新增智能运维模块,联合大数据技术特色与最佳实际,基于智能运维规定匹配库判断,提供集群改善运维倡议,帮忙用户更轻松地运维大数据平台。搭载新一代大数据安全套件与容器平安网络,进步了集群网络可用性、安全性和可靠性,为用户数据全生命周期提供平安防护。 四是社区版全新公布。新推出的企业级一站式大数据根底平台TDH社区版让大数据分析触手可及。社区版提供星环最具竞争力和最成熟的Inceptor组件、Waterdrop等自研开发工具以及Hadoop 3.0和星环科技的精选组件服务等,为用户构建批处理数据仓库、数据湖等提供平台反对。TDH社区版同时具备轻量资源即可高效部署,简略易用,便捷运维,以及优异性能等长处,大幅升高总领有老本,为用户提供更轻量、更简略、更易用的数据分析开发环境。 为满足满足多人群需要,TDH社区版分为订阅版和免费版。其中订阅版面向企业级用户,无节点容量限度,能够提供更高级别的技术支持、业务规模反对和业务场景反对;免费版面向科研机构、高校教师、开发者、集体爱好者,收费提供4节点、10TB容量反对,可进行百亿级别的数据处理,利用于学习、教学、科研等场景。 而在国内首推数据云概念,并首先实现大数据+云+人工智能三者胜利交融的星环科技数据云平台TDC,为企业数据安全和多云数据平台建设提供一站式服务。 新推出的TDC 3.0反对星环全系产品新版本,同时 PaaS 能力继续加强 ,能够更不便地利用星环的产品构建湖仓一体数据湖、数据中台、数据迷信等数字化场景。 TDC 3.0反对联邦云,实现了多集群对立治理和联邦租户。TDC联邦云是指将跨地区、跨数据中心异构基础设施部署的多个TDC集群,通过Galaxy多云治理服务模块造成对立的治理视图,进而实现跨地区、跨多个数据中心基础设施的对立的数据云平台(TDC联邦云)。 TDC联邦云外围能力及场景包含多云异构基础设施资源对立治理,反对多租户经营模式;跨数据中心或云的DevOps、微服务和数据库服务;反对星环分布式交易型数据库 KunDB 的跨数据中心部署和同城容灾;反对企业 IT 基础设施资源的对立运维和弹性伸缩;在企业公有基础设施资源有余时能疾速补充,以应答业务负载疾速变动对基础设施资源的需要。 TDC 3.0反对隐衷计算区,提供了联邦学习和可信计算套件,并联合自研的微隔离案区技术,一站式满足企业的联邦学习和数据沙箱场景。 隐衷计算区是TDC平台通过多租户模式提供的,为数据供需双方提供的多个私密、隔离、平安的数据交付环境。通过网络拜访、权限管制、全流程操作审计等平安保障,数据供需双方在隐衷计算区内进行数据交易的交付,满足政策合规、数据安全的要求。 分布式数据库:自主研发,疾速实现国产化代替 低廉、专有、厂商锁定、扩容慢······传统商用数据库的泛滥弊病始终为宽广用户所诟病。 面对传统数据库的一堆噪点,中国数据库市场正迎来一个全新的格局,国内云服务商、创新型企业引领倒退,数据库产品百花齐放的格局。 以星环科技为代表的创新型企业,正在借助云原生能力、分布式技术,联合本身技术研发实力和宽广合作伙伴与用户的一直实际,开始进入金融、政务等龙头市场,代替国外的数据库产品。 在泛滥的数据库中,分布式数据库因具备程度扩容、高可用等重要个性,能够解决高并发吞吐、海量数据存储、大表瓶颈等数据库难题,受到市场的青眼,助力企业减速实现业务数字化转型。 星环科技基于新一代的分布式技术,自主研发了高性能分布式剖析型数据库ArgoDB和分布式交易型数据库KunDB,并将其联合打造了一体化实时AETP技术,在一个数据库系统里同时撑持交易与剖析混合型业务场景,助力数据库国产化降级。 新公布的ArgoDB 5.0实现了存算引擎双降级,打造高性能湖仓集一体化多模型数据库。 星环ArgoDB 分布式剖析型数据库,能够代替Hadoop+MPP混合架构。反对规范SQL语法,提供多模剖析、实时数据处理、存算解耦、混合负载、数据联邦、异构服务器混合部署等先进技术能力。通过一个ArgoDB数据库,就能够满足数据仓库、实时数据仓库、数据集市、OLAP、AETP、联邦计算等各种需要。 ArgoDB5.0打造了新一代向量化计算引擎和多模型存储引擎,在性能上有大幅度的晋升,尤其是OLAP剖析场景下的性能晋升,无论是单表查问还是多表关联场景,ArgoDB都具备有显著的性能劣势,整体上是同类数据库产品的2-10倍,帮忙用户更快、更稳固地应答复杂多变的业务需要。 在多模能力方面,ArgoDB5.0新增对半结构化的JSON/JSONB/XML数据类型的反对,满足了更多数据模型解决场景和更多简单业务需要。同时,ArgoDB 5.0进一步增强了对多模态数据的解决能力,让数据处理更加快捷和高效。通过一个数据库就能够满足更多数据模型解决场景和更多简单业务需要。 同时,ArgoDB5.0引入DP-SQL能力,实现对数据的隐衷爱护,满足数据公布、流通、脱敏、查问、交易等场景下的数据安全要求。 在平安方面,ArgoDB还增强了数据备份性能,通过更细粒度、并行化和更加疾速等个性,进一步晋升数据安全保障能力。 此外,ArgoDB 5.0进一步增强数据湖和数据仓库/数据集市等业务面的技术革新,加强湖仓集交融能力,通过对立拜访接口、对立存储、对立元数据管理等能力,真正意义上为用户提供湖仓集一体化的场景解决方案。基于ArgoDB打造的湖仓集一体化计划能够无缝连接AI技术,帮忙业务开掘更多数据价值。 KunDB 3.0高度兼容Oracle语法和PL/SQL,实现OLTP数据库国产化降级。 ...

April 20, 2022 · 1 min · jiezi

关于大数据:数据安全与流通专题星环科技春季新品发布周

数据作为跟土地、劳动力、资本、技术一样的生产因素,随着数字化转型的深刻推动,位置愈发凸显。如何在保障数据安全的前提下,实现数据高效流通是开掘数据价值的要害。 星环科技致力于打造企业级大数据根底软件,围绕数据的集成、存储、治理、建模、剖析、开掘和流通等数据全生命周期提供根底软件与服务,构建明日数据世界。在数据安全与流通方面,星环科技具备一系列产品和解决方案助力数据因素平安流通,充沛实现数据价值开掘开释。 4月19日-23日,星环科技秋季新品公布周【数据安全与流通专题】精彩早晓得: 星环科技数据安全与流通策略暨新产品行将重磅公布 数据安全治理平台Transwarp Defensor、数据因素流通平台Transwarp Navier也将双双亮相 此外,还有银联智策&星环科技基于合规模式下数据合作解决方案、数据安全合规体系建设指南、金融行业数据安全与隐衷计算解决方案一系列干货内容。 【数据安全与流通专题】带你全面理解星环科技如何助力客户实现数据安全与流通,充分发挥数据资产价值。 扫描下方海报二维码预约报名,还有机会赢取好礼!

April 18, 2022 · 1 min · jiezi

关于大数据:大数据内容摘要

1、数据仓库始于20世纪80年代中期。由数据仓库之父 W.H Inmon在1991年出版的“Building the Data Warehouse”(《数据仓库》)一书中提出了精确而又宽泛被大家承受的定义。数仓是面向主题的、集成的、绝对稳固的、随工夫变动的用于反对管理决策的数据汇合。维度建模的一些基础知识,次要包含事实表、维度表、切片、钻取等事实表是指其中保留了大量业务度量数据的表,是数仓最外围的表。维度表是用户来剖析数据的窗口,比方工夫、地区、用户等。粒度是指数据仓库的数据单位中,保留数据的细化水平的级别。切片:从多维数组中选定一个二维子集,切出一个“立体” 。切块:从多维数组中选定一个三维子集,切出一个“立方体” 。旋转:扭转一个报告(页面)显示的维方向。依据维档次,扭转数据分析的粒度,就是钻取剖析,次要包含上钻(也叫上卷)和下钻。其实Excel中的数据透视就是各种上卷和下钻。

April 18, 2022 · 1 min · jiezi

关于大数据:国产化替代专题星环科技春季新品发布周

软件层面上实现自主可控对于集体、企业、国家的失常运行来说至关重要。在新技术涌现、国际争端一直的明天,根底软件畛域的国产代替是各行业的迫切需要,现阶段已成为中国根底软件倒退的一个重要节点。 根底软件的国产代替正在实现。厚雪长坡,值得期待。 4月19日-23日,星环科技2022秋季新品公布周【国产化代替专题】精彩预报: 节俭迁徙老本、实现平滑迁徙 为用户国产化代替提供无效反对 星环科技积极参与信息产业国产化过程,通过打造国产化自主可控数据平台,将外围关键技术牢牢把握在本人手中,解决关键技术的卡脖子难题。 随着根底软件国产化过程的放慢推动,星环科技已助力泛滥行业多个用户实现了数据分析场景中局部要害信息系统的国产代替。 在此次国产化代替专题上将亮相一系列星环科技一体化平滑迁徙计划,代替对象蕴含CDH、Oracle、DB2、ES、SAS等多家国外支流厂商产品。 重磅嘉宾分享自主研发图数据库的实践经验 Gartner预言到2025年图技术(graph technologies)将用于80%数据与剖析的翻新,远高于2021年的10%,图技术将会促成整个组织的疾速决策。 区别于传统的关系型数据库,图数据库以实体为点,点与点的关联关系为边,对数据进行存储。图数据库作为数据库明星成员,国产化代替浪潮显著,国产化利用场景与成绩显著。 在此次专题上电信科学技术第十研究所将带来《StellarDB助力畛域关系图谱构建—从碎片化到结构化,从关系行为到关系图谱》的主题演讲。金融行业是图数据库利用的先锋行业,中信证券将分享中信证券图谱平台国产代替的最佳实际案例。 根底软件国产化必不可少,搭建国产根底软件的壁垒,影响着将来国产根底软件的倒退之路以及世界对中国技术的认知。 星环科技邀您携手构建国产化大数据技术生态,造成行业自主研发大数据技术体系。 扫描下图二维码,报名公布周流动 多种形式赢取星环周边礼品

April 17, 2022 · 1 min · jiezi

关于大数据:阿里云发布中国云原生数据湖应用洞察白皮书

近日,阿里云公布《中国云原生数据湖利用洞察白皮书》。在数字经济的背景下,互联网行业及传统企业减速云化转型,中国整体云服务市场的规模逐年扩增,云成为新一代IT基础设施曾经成为不争的事实。其中,企业云化转型的深刻以及用云思维的转变,驱动了PaaS市场份额的增长,基于云的能力翻新已成为根底云倒退新的增长引擎。云特有的“池化、弹性、老本、麻利”等劣势让数据层与应用层的很多构想得以实现,拥抱云原生成为数据湖乃至大数据的必然选择。 白皮书外围摘要: 概念界定:数据湖是面向大数据场景的翻新解决方案,云原生是数据湖将来部署的必然状态,具备「建设对立数据资产、低成本应用根底资源、高性能计算体验降级和麻利翻新赋能」的外围价值。 市场现状:2020年云原生数据湖市场规模(含生态)达124亿,预计将来三年将以39.7%的复合增长率疾速扩张。 竞争格局:中国云原生数据湖还处于倒退的晚期,可能提供整体解决方案的独立厂商还较少,市场较为集中,竞争次要围绕头部云厂商开展。 利用现状:现阶段,云原生数据湖次要利用于泛互联网行业(40.7%)及传统行业的互联网场景(泛政务、金融、工业、医疗、汽车等),将来将向更多具备大数据和高价值属性的行业拓展。 选型倡议:企业在布局数字化转型时,面对多元且疾速迭代的业务需要,一方面需建设对立的数据底座,另一方面需关注DT能力的开放性、敏捷性和创新性。在选型云原生数据湖时,除外部能力评估外,还须要思考服务商的服务半径和倒退门路。 趋势瞻望:在云原生与大数据背景下,云原生数据湖成为企业智胜将来的新一代生产力工具,市场行将迎来暴发期。将来,云原生数据湖厂商需与开发者、ISV和SI共同努力,在企业级生产环境中一直摸索,生态共赢驱动云原生数据湖解决方案日臻完善。 链接:https://developer.aliyun.com/...

April 15, 2022 · 1 min · jiezi

关于大数据:智能化时代的数据集成技术革新

可治理,可调用,可计算,可变现的数据资源能力成为资产,信息系统的互联互通使得多源和多维度的数据集成需要微小,这就对数据处理和集成的工具提出了严苛的要求。 智能化时代,在“智慧城市”、“智慧治理”、“产品智能化”等的趋势下,企业大多面临如何实现高效数据推送,进步平台品质,以及保障数据安全的挑战。选对数据集成工具和平台,数据能力施展出做大的作用。 Apache SeaTunnel 作为下一代高性能、分布式、海量数据集成框架,致力于让数据同步更简略,更高效,放慢分布式数据处理能力在生产环境落地。 在 Apache SeaTunnel Meetup(2022 年 4 月 16日),Apache SeaTunnel 社区将邀请了 Apache SeaTunnel 的资深用户,分享 Apache SeaTunnel 在智能化生产环境中落地的最佳实际。此外,还会有贡献者现场进行 Apache SeaTunnel 的源码解析,让你对 Apache SeaTunnel 有一个更加全面而深刻的理解。 无论你是对 Apache SeaTunnel 抱有趣味的初学者,还是在日常的生产实践中遭逢了简单辣手的部署问题,都能够来到这里,与咱们的讲师近距离沟通,失去你想要的答案。 01 报 名 通 道Apache SeaTunnel Meetup | 4 月线上直播报名通道已开启,赶快预约吧! 工夫:2022-4-16 14:00-17:00 模式:线上直播 点击链接或扫码预约报名(收费):https://www.slidestalk.com/m/780 扫码预约报名 扫码进直播群 02 活 动 亮 点行业案例详解特色功能分析一线企业踩坑心得开源社区实战攻略行业技术专家面对面 Q&A惊喜礼品送不停03 活 动 议 程流动当天,将有来自孩子王、oppo 的工程师现场分享来自厂商的一线前沿实践经验,还有来自白鲸开源的高级工程师对 Apache SeaTunnel 的重要性能更新进行“硬核”解说,干货满满。 袁洪军 孩子王 大数据专家、OLAP 平台架构师 多年大数据平台研发治理教训,在数据资产、血统图谱、数据治理、OLAP 等畛域有着丰盛的钻研教训 演讲工夫:14:00-14:40 演讲题目:Apache SeaTunnel 在孩子王的利用实际 ...

April 8, 2022 · 1 min · jiezi

关于大数据:蝉联双奖前排围观思迈特软件又双叒叕获奖啦

喜讯1 近日,由广州市科学技术局领导,广州市科技翻新企业协会等单位主办的“2021年度广州‘独角兽’翻新企业发布会暨授牌流动”在广州大厦举办,会议现场公布了2021年广州独角兽翻新企业榜单。 本次榜单中共有139家企业入榜,思迈特软件凭借着良好的发展前景、过硬的产品实力和日益弱小的市场影响力,间断3年蝉联“2021广州将来独角兽翻新企业”名称。 据悉,“将来独角兽”翻新企业次要是开掘广州地区内创新性强、估值高、成长速度快的翻新企业。此次入围是行业对思迈特软件在大数据BI畛域增长速度以及发展潜力的认可,也代表了思迈特软件有着更强的创新力、增长力和示范性。 作为国产民族BI软件的领先者,思迈特软件也将在将来施展翻新引领示范作用,以此殊荣为激励,夯实本身实力,帮忙客户赋能业务翻新,同时为BI行业翻新建立起标杆模范作用。 喜讯2 近期,“2021·财联社投资峰会”在江苏无锡举办,由财联社携手数十名行业专家与百余家投资机构在会上公布了“2021中国新经济最具投资价值榜”。 思迈特软件凭借着卓越的创新能力和深厚的技术积攒,在数百家优良的企业中怀才不遇,再次荣获2021年度“新经济最具投资后劲独角兽企业”的殊荣。 该评比旨在甄选出在各个细分畛域高估值高成长性的企业,侧重于企业的成长性、创新性、策略前瞻性,间断两年获奖既是对思迈特软件深耕BI行业的一种激励,更是对思迈特软件在BI畛域过往问题的必定! 将来,思迈特软件也将秉持初心,进步企业运作效率,助力国内大数据行业倒退,在企业数字化转型降级中奉献更多的力量。 将来,思迈特软件也将秉持初心,进步企业运作效率,助力国内大数据行业倒退,在企业数字化转型降级中奉献更多的力量。

April 6, 2022 · 1 min · jiezi

关于大数据:拉钩教大数据高薪训练营2022最新版

拉钩教大数据高薪训练营2022最新版下崽ZY链接:https://pan.baidu.com/s/18vOi... 提取码:sfm2 --来自百度网盘超级会员V4的分享Java 8之后的那些新个性(一):局部变量var 在IDEA中2021年的一个考察中,程序员中使用Java的版本中,Java 8仍是支流。新的长期反对版Java 11,Java 17并未有Java 8流行。 我并不认为肯定得使用新版的Java,但咱们也要意识到Java 8是在2014年公布的,距今已经是8年之久了。而在这8年中,类似Kotlin,Swift,TypeScript语言都在不断的更新优化自己的语言个性。 这使得Java 8相比起来,在让代码更简洁斯文上越来越有所差距。好在,Java并未停止它前进的步调,从Java 8之后的许多个版本,在借鉴参考其它语言优良的个性的基础之上,Java发展出了新的能让代码更简洁的语法个性。 变量与常量在申明变量这个事件上,大家所熟知的Java变量申明形式是: //变量EntityRepository entityRepository = new EntityRepositoryJPA();//常量final String httpMethod = "post"复制代码Java变量申明的形式是类 + 名称的形式来进行申明 ,如果是常量,则以final关键字来申明。 咱们可能对比下其它语言的变量申明形式 Kotlin中是以var申明变量,val申明常量 //变量var entityRepository = EntityRepositoryJPA()//常量val httpMehod = "post"复制代码TypeScript是以let来申明变量,const来申明常量 //变量let entityRepository = new EntityRepositoryJPA()//常量const httpMethod = "post"复制代码Swift中是由var定义变量,let来定义常量 //变量var entityRepository = EntityRepositoryJPA()//常量let httpMethod = "post"复制代码从下面对比可能看出,相较于Java的类型 + 名称的定义形式,新的语言都偏好关键字 + 名称的模式。 类型主动判定事实上,古代编程语言,都非常喜爱最大限度的使用类型主动判定,也就是关键字 +名称这种模式。 类型推定的基本原则是:只需通过上下文能猜想到的,就不需要明确申明它的类型 因为,一个不言而喻的点是,这样的代码确实更简洁。 咱们如果用关键字 + 名称的写法来重写上述Java代码中的变量与常量定义,那咱们的代码就是是如此: //使用(关键字 + 名称)的模式重写//变量var entityRepository = new EntityRepositoryJPA();//常量var httpMethod = "post"复制代码依据类型主动判定的逻辑,编译器和咱们程序员,都会很不言而喻的猜想到,entityRepository的类型是EntityRepositoryJPA类的实例,而httpMethod则是一个String类型。 ...

April 5, 2022 · 1 min · jiezi

关于大数据:大数据洞察画像自动化实践

文|丁龙 网易云商高级零碎测试工程师 一、什么是消费者洞察?消费者洞察是在大数据的根底上,向上走一层,带着剖析洞察的思路去进行客户服务。当垂直行业深刻业务时,能够将数据进行更进一步的利用剖析,输入给企业更有价值的洞察报告,间接反映消费者现状,并且领导企业的决策。 这实质上也是在颠覆征询公司的服务模式,他们对企业的服务模式是一段时间输入一份报告,这里存在大量的数据采集和报告撰写的工夫。但当咱们积淀剖析形式,并且将数据看板化,就是在用 SaaS 的形式交付洞察征询的能力,能够让企业以更快的频率看到数据的变动,以更灵便的形式进行数据指标间的穿插剖析。 本品洞察画像: 基于品牌的 20 种价值观与大数据画像出现。 换品洞察: 基于某手机展现用户换机状况。 二、业务实现(一)总体架构 数据接入与存储:通过编写 Spark 利用,将该利用部署在网易猛犸数据平台,从 Hive 同步宽表、标签表数据至 MySQL 和 ClickHouse 该利用具体同步办法如下: 将标签分类、标签以及标签枚举数据写入 MySQL从 Hive 读取宽表数据,间接通过 insert 语句写入 ClickHouse 数据服务:用户画像: 次要针对不同行业的洞察算法,提供各种标签组合,生成可视化的洞察画像与数据,反映不同类型消费者的现状标签治理: 次要负责标签的层级治理和非凡标签的解决,并提供接口给内部进行标签列表的查问。标签分类、标签、标签枚举都存在 MySQL针对于业务目前架构,测试大数据洞察画像的算法及同步的大数据标签是否正确,保障用户画像合理性,成为了重中之重。 (二)数据流转 消费者洞察数据通过数据荡涤、剖析、积淀,获取到数据标签存储于 Hive 中,部署 spark 利用从 Hive 中失去宽表数据存储于 Clikchouse,标签表存储 MySQL,最终业务出现则从 Clikchouse 中宽表计算。 基于以上数据流转与业务应用得出整体测试思路: 基于 Clickhouse 数据源的宽表进行数据完整性与准确性校验业务画像出现的洞察算法测试三、目前现状数据量大: 同步数据后人工校验各类标签规定耗时较长,往往须要 1 天甚至更久的工夫 洞察算法过多: 圈选不同的组合条件下将产生不同的行业洞察算法,导致回归工作量大大增加 重复性工作量大: 数据更新频率快,半月/次,更新后同步需再次进行校验,重复性工作多,算法亦是如此 四、解决方案(一)数据校验自动化![]() 数据同步实现后,数据同步模块会通过接口触发 QA 的自动化标签校验机制。自动化校验平台以异步的形式对同步好的标签数据进行校验,如果呈现问题会触发报警告诉。 DataValidataController 提供给开发调用的 API 接口。ValidataImpl 实现数据完整性校验, 包含数据量级、标签量级、数据环比、标签搜寻;数据精确行校验, 包含数据数据唯一性、数据关联性。 ...

April 2, 2022 · 1 min · jiezi

关于大数据:交付铁三角的故事之兵戎相见

简介:大家好,交付铁三角带着全新的故事来啦!始终被利用交付难题所困扰的他们这次又遇到了新的难题,售前大佬的一句客户资源布局缘何让开发铁子暴怒,交付小锤的劝架为何以致本人的交付团队陷入这场漩涡之中,在客户现场惨遭客户对交付品质的质疑。在这场风波背地,又暗藏着怎么的破解之法,帮忙他们重归于好?快来点击下方文章理解吧! 作者:新钰 大家好,我是专一交付的王小锤,与开发老哥铁子还有售前大佬强哥组成的“交付铁三角”团队,咱们又来啦! 咱们 “交付铁三角” 服务于一家提供大数据分析服务的 ISV 企业。通过对客户提供的大数据,进行多维度智能化剖析,提供用户画像、潜客剖析、销量预测等信息,将数据价值最大化后给到客户,助力客户通过剖析论断达到最大的市场收益。近年来,出于对数据安全性以及平安合规等方面的思考,抉择私有化交付的客户越来越多,而他们的要求也变得复杂多变,无形中咱们被迫面临各类简单的交付环境,同时产品交付压力一劳永逸。 这不,始终被软件应用私有化交付问题困扰的咱们,近期又碰到了新的交付难题,为此还闹的不欢而散。 兵马未动之粮草筹备多少? 起因 故事是从那天强哥的埋怨开始继续发酵的,那天强哥一脸的丧气回到公司,拉着铁子就问能不能给他一份清单,让他带给客户。好让客户晓得要是用咱们的 SaaS 产品,须要买多少设施,筹备多大的硬盘?咱们的产品会占用多少内存空间?他埋怨道:“因为客户须要解决的数据量很大,所以最近对资源的应用状况变得分外敏感。客户心愿将每一寸资源都用在刀刃上,像是客户本身有 MySQL、Redis,或者曾经在应用一些云上资源,那么就心愿能将这些资源做到正当的利用与布局,或者客户本身有几台服务器,那么他们最不心愿,有些服务器配置的很满,有些却只应用了一小部分资源的状况产生。” 明天他去到客户现场,客户间接问他要筹备多少资源刚好够用,能不能给个清单。过后强哥一下子被问住了,忙说下次去的时候筹备好给到客户,让客户也好有个心理预期。 这时铁子一听就不乐意,没好气的对强哥说:“你怎么能乱许可客户呢?和你说过很屡次了,咱们怎么可能筹备的进去这样的清单,这种很难预估的,我只能说去试试!就算筹备进去了,也不会有多准的!”强哥一听也来了脾气:“客户要了好几次了,我不给的话,这单还要不要谈了?” 降级 听到这里我忙劝架,让铁子别冲动,这个事件试试,先拿一个进去,而后强哥叮咛客户先依照这个预估的资源状况的根底上往大些筹备就好了嘛。没想到,就是这句话,将咱们交付团队带到了一个个坑之中。 而为了感动客户,让客户感觉不须要花太多钱就能够部署好这个数据产品,铁子给到强哥的资源布局清单绝对激进些。直到那天,咱们遇到一个客户,真的依照强哥带去的清单做的筹备,竟没有多一丝资源冗余给到咱们。当咱们去部署的时候,发现基本不够部署咱们的产品包。因为资源有余导致无奈残缺运行,最终被迫在现场裁剪产品资源开销后重新部署,这个过程耗费了大量的工夫。 于是在客户现场,就看到咱们在重复部署,将环境部署到一半,铲掉,再去部署。过后客户就和咱们在一起,看到屏幕上重复呈现的 delete ,不住的点头。那时的咱们感觉太挫败了,起初客户看不下去了,婉言:“你们这个交付包是不是品质有问题啊?这么反反复复的到底还能不能跑起来?” 咱们连忙安抚客户,说释怀,不是交付包有问题,是咱们的环境有点简单须要略微费点工夫调试。而咱们心里晓得这些话是说给客户听的,就是客户那边资源没筹备足,咱们须要对当初的产品现场调试批改,而咱们却不能怪到客户头上。 激化 而不巧的是,咱们才交付好后回来没两天,客户一个电话过去,和咱们埋怨说这才用了多久,就宕机了。咱们登程前,就在猜是不是又是因为资源的问题,他们须要解决的数据量还是很大的,当初部署完留给业务运行解决的空间本就不是很多了。果然,当咱们飞过去排查后发现,的确资源有余须要扩容,然而扩容的话,须要将客户目前的业务中断。终于,这个行动导致客户的喜气值爆棚,婉言咱们的交付品质太差。 暴发 当然咱们也很冤屈,回去后一名交付同学在复盘会,间接将这些话透传给到开发团队,进一步导致了矛盾激化。 铁子立马出击说:“话不能这么说,原本就说了这个清单只是参考,咱们哪儿想到客户那么实诚,原原本本依照这个来筹备,一点冗余空间都没筹备。而且咱们人为一点点去进行的核算,曾经都占用咱们很多研发工夫了,你们还不领情。你们可晓得,运行时资源状况会动静扭转的,这让咱们怎么来评估,很难得好不好!你们倒是不写代码,谅解谅解咱们开发同学好不好,不要上来就甩锅。” 强哥听到咱们屋内吵起来,走了进来,我原以为他是来劝架的,没想到他进来后又进行了补刀。他说方才接到另一个客户电话,说依照他的清单筹备的资源,后果有些机器资源都没怎么用上,空置在那里了,间接节约他们的钱,体验很差,感觉咱们很不靠谱。 铁子听完咱们的个体吐槽,留下一句,说了不好布局你们不听,我有什么方法后推门而出,再也不理咱们了。 这曾经是咱们交付铁三角不晓得第几次争吵了,每次都是因为交付时呈现的这些问题而吵架,最终闹的不欢而散。 大战前夕不来场策略演练? 只管吵归吵,咱们的我的项目还是须要铁子出包,这天咱们还是依照平时那样,拿着交付包去到客户现场。达到客户现场后,咱们懵了,交付地点在大山深处的厂房不说,客户筹备的机器还非常老旧。咱们去装置的时候,始终在心里犯嘀咕。好在,只管客户的网络状况比较复杂,机器老旧,咱们的部署困难重重,但咱们还是顺利完成了部署。就在咱们筹备来到的时候,厂房忽然停电了。客户解释道:“咱们这边比拟偏僻,有时候会动不动跳下闸,没事,一会儿就复电了。” 当电力复原时,如你所猜想的那样,咱们的产品跑不起来了,须要重新启动几个组件。过后交付同学就说回去复盘的时候要提一下,你看,就停了下电,断电重启都实现不了。 复盘会上,铁子这样解释道:“每次出包前,咱们曾经进行了重复的验证,尽管这部分工作耗时耗力,但相对来说咱们曾经尽力了。只管这样咱们其实还是无奈保障交付包肯定可能容忍很多特定场景的,这个实现起来是很艰难的。 另外,线下交付场景中问题的解决大多与环境、配置无关,当由不同的交付人员解决时,每个人解决的环境、产品故障偏差点状解决。而当遇到新的问题时,须要从新开始排查,摸石头过河效率较低,那便是你们交付同学的问题了。因为你们并没有相干常识的积淀,并未提供给到咱们这些信息,为下次演练提供素材和参考,这样咱们只能凭咱们的教训对一些场景进行演练,有脱漏的场景太失常了,这才是问题的关键所在。 另外,故障排查数据量大,一个组件出问题排查起来的确很艰难,这个也是不争的事实。然而交付前咱们的确进行了充沛的模仿演练,曾经最大限度的来升高问题出错的概率了。” 听完铁子各打两大板的发言,这次抵触尽管没有激化。然而咱们对于铁子给出的说法并不称心,会议完结后交付的其他同学拿起电脑头也不回的走了。而我坐在会议室,看着铁子在不住的点头叹气。那一刻,我竟感触到了技术同学一瞬间的失望和惆怅。他在强忍着,只见铁子一手捂紧拳头一手不停的挠头,好似下了很大的信心。 兵马未动之粮草先行工夫人不知;鬼不觉的过来,直到有一天,铁子找到我和强哥,喊咱们一起吃个饭。吃饭的时候,咱们才晓得,预先铁子那个气啊,于是为了争口气,赌上公司研发一把手的尊严。拉着开发团队通宵剖析,发现外围矛盾点如下图所示,最终导致客户质疑咱们的交付品质。而这所有都源于资源评估这一步,如果把这个技术难点冲破了,咱们的矛盾便能够解决。一边怄气一边钻研的过程中,他想到了云原生利用交付平台 ADP(以下简称 ADP),上次访问阿莫理解应答软件应用交付难题的招式的时候,他如同提到过一下,于是他进入 ADP 平台,看到外面真的有资源布局能力,通过剖析钻研,发现能够很好的解决以后这个矛盾。 资源布局能力ADP 的资源布局性能可帮忙咱们,通过模仿部署能力疾速且高效的评估出适合的集群资源配置,如:CPU、内存、存储别离须要多少,还能够在部署失败后查看未胜利调度的 pod 数以及起因,进行调整,无效升高由人力评估效率低下、动静场景难以统计精确等起因所导致的一系列问题。 三步实现疾速资源布局 1、主动统计产品的理论部署开销。 2、对拟定的节点资源规格进行仿真调度试验,得出理论的部署成果。 3、查看调度失败的 Pod 状况,调整节点资源规格,秒级重试验证。 铁子说完这些后,看向强哥道:“你看,当前咱们产品适配革新好后,跑一份更靠谱些的资源容量清单给你,你拿给客户,就让客户依照这个筹备,还是有问题的话,你来找我,轻易你怎么凶我我都认,好不好?” 强哥听完边拍板边说道:“行,这可是你说的!一会儿你把今天我要去聊的客户,他的资源布局清单给到我,我今天带过来。” “好的” ,铁子边许可边扭头看向我,对我说道:“小锤,强哥前置把客户那边搞定,客户依照清单中的资源状况进行筹备。那当前你们交付团队再也不会呈现,在客户现场重复部署装置,部署了,铲掉,再部署,再铲掉,这样难堪的状况了!在信老哥一次好不好?” 我拍拍他的肩膀道:“ 好的老哥,再信你一回!” 不打无筹备之仗 对于交付同学提狐疑铁子他们出包前验证不短缺的事件。虽说铁子他们心里不服气,然而想了想,自身交付的场景就是各种各样的,的确很难做到八面玲珑,狐疑开发同学演练不充沛也的确是有情理的。于是开发团队的小伙伴集中起来,梳理了许多的演练场景,而后铁子又将这些场景在 ADP 平台中一一查看,发现 ADP 平台能够主动实现这些场景的线上集成一键演练,而且涵盖的演练场景比他们想到的还要多。 ...

April 2, 2022 · 1 min · jiezi

关于大数据:大数据时代下的App数据隐私安全

简介:随着信息技术疾速倒退,大数据为咱们带来信息共享、便捷生存的同时,还存在着数据安全问题,支流商业模式下APP面临新的挑战。工信部继续发展APP侵权整治流动,进行了了六批次集中抽检,查看了76万款APP,通报748款违规APP,下架了245款拒不整改的APP。阿里云挪动研发平台EMAS高度重视个人信息的爱护,对设施权限获取遵循最小化准则,为用户构筑隐衷爱护的松软防线。 App数据安全,支流商业模式下的新挑战近年来随着信息技术疾速倒退,大数据时代曾经降临。大数据为咱们带来信息共享、便捷生存的同时,还存在着数据安全问题。 目前不少公司依靠于推送等采集数据工具积淀用户原始数据,通过下层数据服务变现,其作为一种商业模式为App业务引入了微小的数据隐衷危险。例如在某推送服务提供的《开发者协定》中,服务商明确要求App开发者《隐衷政策》中须告知其App用户主体批准SDK提供者收集并应用其个人信息。其中可能包含: 1、设施信息,设施信息包含:设施标识符(IMEI、IDFA、Android ID、MAC、OAID、IMSI等相干信息) 2、利用信息(利用解体信息、告诉开关状态、软件列表等相干信息) 3、设施参数及零碎信息(设施类型、设施型号、操作系统及硬件相干信息) 4、网络信息,网络信息包含:IP地址,WiFi信息,基站信息等相干信息。 5、地理位置信息。 个人信息是现行法律重点保护的数据类型。 此外,目前在手机APP的应用过程中关上某个APP,能连带关上好几个别的App的状况层出不穷,这种主动操作引发用户对手机里信息被盗取的担心,事实上究其原因是App为了保障被用户持续应用,就要尽可能多的“刷存在感”,否则长此以往用户就会弃之不必,甚至卸载。如果App开发者抉择了采纳联结唤醒的机制或者其余相似机制来“保活”,这就可能导致大量的服务过程在后盾被唤醒、驻留,从而造成不同利用之间的穿插唤醒、关联启动的景象。 基于上述技术规范内容分析,App通过自启动、关联启动等形式唤醒后,如果存在通过权限等机制收集个人信息的行为,且并未在隐衷政策等规定中明确指出具体的目标的,其收集个人信息的频度则涉嫌超出了业务性能理论须要。而在我国的《App守法违规收集应用个人信息行为认定办法》第四条第3点指出,收集个人信息的频度等超出业务性能理论须要,可认定为“违反必要准则,收集与其提供的服务无关的个人信息”。 数据显示,近年来工信部继续发展APP侵权整治流动,发展了六批次集中抽检,查看了76万款APP,通报748款违规APP,下架了245款拒不整改的APP。在北方都市报发表于2020年11月27日的文章中点击查看能够看出目前存在的问题。 基于上述问题,为了保障App业务的隐衷合规平安,阿里云挪动研发平台EMAS近期上线了隐衷合规检测专项服务,对挪动App隐衷平安、集体数据收集和应用进行合规剖析。服务提供了全面的隐衷合规检测报告和专家建议,从确保模式合规(隐衷政策文本合规性)及本质合规(代码层合规性)的一致性,从个人信息收集、权限应用场景、隐衷政策等多个维度帮忙企业和开发者提前辨认App隐衷合规相干危险,躲避监管通报、利用下架等重大危险。 模式合规:从重常识重人力转为自动检测监管查看的一大重点是隐衷政策协定文本是否依照要求进行了申明。传统的隐衷政策由法务编写、查看,对法务专业知识要求较高,并且需专人跟踪监管动静和相干规章,对开发者来说投入比拟大。 EMAS模式合规检测基于现行法律法规、规范、部门规章和监管动静等,总结了若干检测点。同时。基于小样本学习、信息抽取、文本分类等AI技术,可对隐衷协定文本进行细粒度解析,能精准定位到包含不限于隐衷数据采集、存储、第三方SDK应用等描述性信息。 在此基础上,依靠于自建的合规常识图谱+智能合规剖析引擎,自动化、标准化产出模式合规监测点的检测后果,最大限度地升高人力和工夫老本。 目前,模式合规检测局部已有10余篇专利爱护。 本质合规:黑盒App的代码检测合规检测的另一个问题是,咱们如何判断理论运行的采集行为与隐衷政策申明统一。EMAS合规检测产品服务底层集成的隐衷合规检测引擎基于控制流、数据流、污点剖析、动静沙箱等动动态剖析技术,深度交融隐衷专家教训,提供了精确的代码层本质合规检测能力。 本质合规关注敏感权限调用、数据采集、数据传输、数据存储等APP理论数据应用行为,通过动态剖析和动态分析两种剖析引擎,基于形象语法树、控制流图、数据流图,刻画App代码管制链路和数据流转链路,联合真机预览及模仿点击的动态分析后果,产出具体的本质合规检测点检测后果,包含敏感数据泄露、超范围采集、弹窗打搅等。 原文链接本文为阿里云原创内容,未经容许不得转载。

April 1, 2022 · 1 min · jiezi

关于大数据:Tapdata-肖贝贝实时数据引擎系列六从-PostgreSQL-实时数据集成看增量数据缓存层的必要性

摘要:对于 PostgreSQL 的实时数据采集, 业界常常遇到了包含:对源库性能/存储影响较大, 采集性能受限, 工夫回退从新同步不反对, 数据类型较简单等等问题。Tapdata 在解决 PostgreSQL 增量复制问题过程中,取得了一些不错的教训和思考,本文将分享 Tapdata 自研的 TAP-CDC-CACHE,和其余几种市面常见的解决方案的劣势和个性。前言TAPDATA 的数据复制产品里, 提供了对于 PostgreSQL 的实时数据采集性能, 在客户落地应用时, 遇到了包含 对源库性能/存储影响较大, 采集性能受限, 工夫回退从新同步不反对, 数据类型较简单 等等问题, 在解决这些问题的过程中, 咱们逐步对增量事件应该具备一个缓存中间件有了清晰的意识, 并在之后的工夫里做了相应的实现 本文从咱们在解决 PostgreSQL 增量复制的问题登程, 在一步步寻找解决方案的过程中, 分享一下咱们最终解决方案的过程和对这个问题的一些思考PG 增量数据捕捉的几种常见计划万变不离其宗, PostgreSQL 捕捉增量事件的原理与 Mysql, MongoDB 等数据库相似, 其本质都是基于事务日志进行回放, 这种日志在 PG 里被称为 Write-Ahead Logging(WAL), 通过对 WAL 的解析, 能够失去数据库的逻辑事件变更, 上游的各种消费者能够在这个根底上实现数据复制, 流计算等等各种需要 在具体的实现上, 通常有以下三种技术选型基于复制槽的解码与查问针对开发者进行数据逻辑复制的需要, PostgreSQL 凋谢了对于 WAL 的订阅接口, 开发者须要创立一个名为复制槽的构造, 并指定其解码插件, 之后只须要轮询这个复制槽, 即可获取最新的以事务为最小粒度的数据变更 常见的解码器有 decoderbufs, wal2json, pgoutput 等等, TAPDATA 反对的插件, 其对应的数据库版本与特点如下: ...

March 29, 2022 · 3 min · jiezi

关于大数据:EMR-StarRocks-极速数据湖分析原理解析

简介:数据湖概念日益炽热,本文由阿里云开源大数据 OLAP 团队和 StarRocks 数据湖剖析团队独特为大家介绍“ StarRocks 极速数据湖剖析 ”背地的原理。 StarRocks 是一个弱小的数据分析系统,次要主旨是为用户提供极速、对立并且易用的数据分析能力,以帮忙用户通过更小的应用老本来更快的洞察数据的价值。通过精简的架构、高效的向量化引擎以及全新设计的基于老本的优化器(CBO),StarRocks 的剖析性能(尤其是多表 JOIN 查问)得以远超同类产品。 为了可能满足更多用户对于极速剖析数据的需要,同时让 StarRocks 弱小的剖析能力利用在更加宽泛的数据集上,阿里云开源大数据 OLAP 团队联结社区一起加强 StarRocks的数据湖剖析能力。使其不仅可能剖析存储在 StarRocks 本地的数据,还可能以同样杰出的体现剖析存储在 Apache Hive、Apache Iceberg 和 Apache Hudi 等开源数据湖或数据仓库的数据。 本文将重点介绍 StarRocks 极速数据湖剖析能力背地的技术底细,性能体现以及将来的布局。 一、整体架构 在数据湖剖析的场景中,StarRocks 次要负责数据的计算剖析,而数据湖则次要负责数据的存储、组织和保护。上图描述了由 StarRocks 和数据湖所形成的实现的技术栈。 StarRocks 的架构十分简洁,整个零碎的外围只有 FE(Frontend)、BE(Backend)两类过程,不依赖任何内部组件,不便部署与保护。其中 FE 次要负责解析查问语句(SQL),优化查问以及查问的调度,而 BE 则次要负责从数据湖中读取数据,并实现一系列的 Filter 和 Aggregate 等操作。 数据湖自身是一类技术概念的汇合,常见的数据湖通常蕴含 Table Format、File Format 和 Storage 三大模块。其中 Table Format 是数据湖的“UI”,其次要作用是组织结构化、半结构化,甚至是非结构化的数据,使其得以存储在像 HDFS 这样的分布式文件系统或者像 OSS 和 S3 这样的对象存储中,并且对外裸露表构造的相干语义。Table Format 蕴含两大流派,一种是将元数据组织成一系列文件,并同理论数据一起存储在分布式文件系统或对象存储中,例如 Apache Iceberg、Apache Hudi 和 Delta Lake 都属于这种形式;还有一种是应用定制的 metadata service 来独自寄存元数据,例如 StarRocks 本地表,Snowflake 和 Apache Hive 都是这种形式。 ...

March 29, 2022 · 8 min · jiezi

关于大数据:拉钩教大数据高薪训练营2022最新版完结

download:拉钩教大数据高薪训练营2022最新版完结复制下崽:https://www.zxit666.com/3834/一、v-show 和 v-if 的区别在 vue 中 v-show 和 v-if 都能够管制元素是否在页面中事实 v-show 的显示暗藏是操作元素css的 display 属性,所以应用 v-show 来暗藏元素的时候,元素的 dom 节点仍旧还在页面中;v-if 的显示暗藏则是将 dom 元素整个增加或删除 v-if 的切换有一个部分编译/卸载的过程,切换过程中适合地销毁和重建外部的事件监听和子组件;v-show 只是简略的操作css的 display 属性 v-if 是真正的条件渲染,它会确保在切换过程中条件块内的事件监听器和子组件适当地被销毁和重建。只有渲染条件为假时,并不做操作,直到为真才渲染 v-show 由 false 变为 true 的时候不会触发组件的生命周期,v-if 由 false 变为 true的时候,触发组件的 beforeCreate 、 create 、 beforeMount 、 mounted 生命周期钩子,由 true 变为 false 的时候触发组件的 beforeDestory 、destoryed 办法 在性能耗费方面 v-if 有更高的切换耗费; v-show 有更高的初始渲染耗费 二、v-show 和 v-if 应用场景v-if 与 v-show 都能管制 dom 元素在页面的显示和暗藏 v-if 相比 v-show 开销更大的(间接操作 dom 节点减少与删除),如果须要十分频繁地切换,则应用 v-show 较好,如果在运行时条件很少扭转,则应用 v-if 较好 ...

March 27, 2022 · 2 min · jiezi

关于大数据:eBay-基于-Apache-Kyuubi-构建统一-Serverless-Spark-网关的实践

本文来自 eBay 软件工程师、Apache Kyuubi PPMC Member王斐在Apache SeaTunnel & Kyuubi 联结 Meetup的分享,介绍了Apache Kyuubi(Incubating)的根本架构和应用场景,eBay基于本身的需要对Kyuubi所做的加强,以及如何基于Kyuubi构建Unified & Serverless Spark Gateway。Kyuubi是什么首先介绍一下Kyuubi。Kyuubi是一个分布式的Thrift JDBC/ODBC server,反对多租户和分布式等个性,能够满足企业内诸如ETL、BI报表等大数据场景的利用。我的项目由网易数帆发动,曾经进入Apache基金会孵化,目前的次要方向是依靠自身的架构设计,围绕各类支流计算引擎,打造一个Serverless SQL on Lakehouse服务,目前反对的引擎有Spark、Flink、Trino(也就是Presto)。我明天的主题是围绕Kyuubi和Spark, 对于其它计算引擎这里不再开展。 对于Spark,Kyuubi有HiveServer2的API,反对Spark多租户,而后以Serverless的形式运行。HiveServer2是一个经典的JDBC服务,Spark社区也有一个相似的服务叫做Spark Thrift Server。这里介绍一下Spark Thrift Server和Kyuubi的比照。 Spark Thrift Server能够了解为一个独立运行的Spark app,负责接管用户的SQL申请, SQL的编译以及执行都会在这个app外面去运行,当用户的规模达到肯定的级别,可能会有一个单点瓶颈。 对于Kyuubi,咱们能够看左边这张图,有一个红色的用户和一个蓝色的用户,他们别离有一个红色的Spark app和一个蓝色的Spark app,他们的SQL申请进来之后,SQL的编译和执行都是在对应的app之上进行的,就是说Kyuubi Server只进行一次SQL申请的直达,把SQL间接发送给背地的Spark app。 对于Spark Thrift Server来讲,它须要保留后果以及状态信息,是有状态的,所以不能反对HA和LB。而Kyuubi不保留后果,简直是一个无状态的服务,所以Kyuubi反对HA和LB,咱们能够减少Kyuubi Server的个数来满足企业的需要。所以说Kyuubi是一个更好的Spark SQL Gateway。 Kyuubi的架构分为两层,一层是Server层,一层是Engine层。Server层和Engine层都有一个服务发现层,Kyuubi Server层的服务发现层用于随机抉择一个Kyuubi Server,Kyuubi Server对于所有用户来共享的。Kyuubi Engine层的服务发现层对用户来说是不可见的,它是用于Kyuubi Server去抉择对应的用户的Spark Engine,当一条用户的申请进来之后,它会随机抉择一个Kyuubi Server,Kyuubi Server会去Engine的服务发现层抉择一个Engine,如果Engine不存在,它就会创立一个Spark Engine,这个Engine启动之后会向Engine的服务发现层去注册,而后Kyuubi Server和Engine之间的再进行一个Internal的连贯,所以说Kyuubi Server是所有用户共享,Kyuubi Engine是用户之间资源隔离。 Kyuubi反对一些Engine的共享级别,它是基于隔离和资源之间的均衡。在eBay咱们次要应用到了USER 和CONNECTION级别。首先对于CONNECTION级别,对于用户的每次连贯都会发明一个新的app,也就是一个Kyuubi Engine,实用于ETL场景,ETL的workload比拟高,须要一个独立的app去执行;对于USER级别,咱们能够看到这里有两个user,一个叫Tom,一个叫Jerry,Tom的两个client连贯Kyuubi Server,会连贯到同一个属于Tom的Kyuubi Engine,USER级别实用于ad-hoc场景,就是对于同一个用户所有的连贯都会到同一个Kyuubi Engine去执行,而对Jerry的所有申请都会到Jerry的Kyuubi Engine去执行。 对USER共享级别Kyuubi做了一些增强,引入了一个Engine POOL的概念,就像编程外面的线程池一样,咱们能够创立一个Engine的pool,pool外面有编号,比如说这里Tom创立了两个pool,叫做pool-a和pool-b,编号为pool-a-0,pool-a-1,如果说在客户端申请的时候间接指定这个pool的名字,Kyuubi server会从这个pool外面去随机抉择一台Engine执行;如果Tom在申请的时候不仅指定pool的名字,还指定了这个Engine在pool外面的索引,比如说这里指定pool-b-0,Kyuubi Server会从这个pool-b外面抉择编号为0的Engine去做计算。对应的参数为kyuubi.engine.share.level.subdomain. ...

March 25, 2022 · 2 min · jiezi

关于大数据:SeaTunnel-在-oppo-的特征平台实践-ETL-平台数据处理集成

明天的分享蕴含以下几点: 背景&需要 为什么是 SeaTunnel ETL 平台集成实际 作者简介 01业务背景和需要痛点 业务背景 推搜广场景下存在大量的数据同步和特色解决需要。举荐搜寻广告业务波及图中几个模块,以特色为根底的特色服务,下层反对了机器学习、召回引擎和预估引擎。召回引擎和预估引擎撑持着更下层的举荐引擎业务的召回、粗排、精排、重排,最终产出后果。这是推搜广的次要业务流程,其中有些细小差异,但大体类似。 对于举荐零碎,物料数据是举荐零碎要举荐的内容,包含视频、文章或商品等。举荐零碎的次要数据包含用户行为日志、服务端日志、物料数据、实时特色快照等数据,咱们首先会接入 kafka 中,分两个流,一是同步到hdfs作为离线数据反对离线用户画像、物品画像、离线行为特色等离线特色数据的计算;二是 Kafka 中的数据通过实时的Flink或 Storm 解决,进行特色正负样本拼接、日志拼接和特色计算等,生成实时用户画像、物料动静画像、用户序列特色、实时快照特色等实时流特色数据。实时和离线特色通过特色注册存储到 redis、mongodb、parker、cassandra 等存储中通过特色服务对接到下层利用。 当用户向举荐零碎发动一个申请时,首先触发举荐零碎召回。召回有多种类型,协同类召回是基于物物类似 itemcf,人人类似 usercf,人物矩阵合成等;向量化是把一个内容或者物品通过向量化embedding 的形式表达出来,再计算类似度;池子召回,是热点池和精品池或者经营池等进行举荐;模型召回是基于一些模型算法开掘进去的、对用户举荐的候选集数据,进入召回阶段。 召回阶段可能存在 5000 篇视频或文章,这些数据进入粗排。粗排是对召回的数据通过预估引擎进行一次粗粒度的物料筛选,筛选出 5000 中可能的1000 篇。预估引擎利用了机器学习的一些模型,进行预估和打分。打分后会进行排序。进入精排后会输出更多特色数据,包含穿插特色等,进行更细粒度的筛选、排序和打分,后面的 1000 篇可能会剩下 50 篇或更少。这个后果会进一步进行重排,重排有多重伎俩,像将一些内容必须插入到某个地位的调整,还包含同类文章数据按规定打散缩小同质化内容、晋升用户体验,也会对举荐内容做去反复等操作。实现重排后输入后果。 能够看到机器学习、召回引擎以及预估引擎都是以数据和特色为根底的,这些业务场景下有大量数据处理。数据处理次要是特色计算,而计算过程中也须要将产生的数据模型同步到对应存储中,这就是咱们业务场景中数据同步需要的起源。整套零碎反对了 10-20 个业务,整体数据同步的需要较大。 痛点和指标 业务多,工作碎片化。一些工作部署在调度零碎中,一些工作是以 Crontab 模式配置的,开发人员保护同步工作艰难,且没有上线前后的串联关系。数据同步和数据处理需求量大,人力无限,同步工作开发和部署零散,有 Spark、Flink 工作也有脚本,开发人员为了保护多个同步工作,同时还须要相熟打包、编译、上线流程,保护流程难以统一化。且数据同步工作和数据处理存在烟囱式开发的问题,难以通用化,耗费人力物力。 咱们须要让数据处理和同步工作标准化、对解决和同步工作进行对立治理,心愿能将数据处理和同步形象成工具化的产品,让数据处理和同步的能力通用化,可被复用。同时让数据处理和同步工具能够有普适性,可能产出一些低学习老本、高开发效率的工具达到缩小重复劳动、晋升效率的成果。 流程对立 为了解决痛点、达到目标,咱们首先进行了数据处理和同步工作开发部署流程的对立。这里以样本拼接为例,样本拼接是咱们业务中重要的一环,分为离线和近线。样本拼接次要指获得用户过后的一些特色快照数据,给予用户对这个举荐后果的一个正负反馈,如是否点击、是否曝光、是否下载,把这些数据作为样本输出到训练模型的样本中。咱们的样本拼接次要做正负样本。 离线样本拼接首先通过 Spark 实现样本拼接和特色抽取后,后果存储到 HDFS,对接离线模型训练实现离线解决。近线样本拼接通过Flink对实时日志流数据进行解决,实现样本拼接和特色抽取后放入 Kafka,最终对接增量训练模型后实现近线解决。这里的实现是两套代码,接口和 API 不完全相同,由不同人保护,保护老本高。两套零碎,别离存储的数据容易出问题,离线近线两套零碎数据容易呈现不统一问题,对最终模型训练和试验成果有肯定影响。 在此基础上,咱们对立了解决流程,实时(近线)和离线均用Flink解决数据,保护同一套引擎代码。通过 Flink 进行实时流样本拼接、特色抽取,失去的样本数据存储到 Iceberg 数据湖。Iceberg 对接离线和增量模型训练,进行数据处理。这套计划对立存储、缩小数据冗余,防止了特色不统一问题产生。应用一套计算和存储引擎,函数复用,晋升了效率。 构造对立 首先咱们做了样本结构化。咱们把输出到模型的前置特色数据基于不同类型做了合成。 图中第一局部是业务单元,业务单元次要指用户ID、物料 ID、工夫戳,这些是用户申请后的快照数据。第二部实时特色,是用户申请的那一时刻的状态,比方那一时刻对某个趣味的上下文的那个实时特色。此外还有一些离线特色。 合成前,业务单元呀、实时特色呀、离线特色都是对立通过引擎去输出,dump 到 Kafka,而后再去做特色的样本拼接和数据处理的。但离线特色这一部分的特色很多是动态的,不会频繁变更。如果每次都走流式计算这些离线特色,数据量会特地大。而且数据反复传输,可能一些数据在模型外面基本不会用到。咱们做合成后,实时特色实时地申请,离线特色进行填补,缩小了数据冗余,整个样本的数据也更结构化。 ...

March 25, 2022 · 2 min · jiezi

关于大数据:性能提升40阿里云神龙大数据加速引擎获TPCxBB世界排名第一

简介:神龙大数据减速引擎,针对大数据罕用组件,如Spark、Hadoop、Alluxio等,联合阿里云神龙架构的个性,进行软硬一体化优化,造成举世无双的性能劣势,最终,使简单SQL查问场景性能相比社区版spark晋升2-3倍,应用eRDMA减速Spark性能晋升30%。 近日,Benchmark Express-BigBench(简称TPCx-BB)颁布了最新的世界排名,阿里云自主研发的神龙大数据加速器荣获TPCx-BB@3000世界排名第一。 TPCx-BB测试分为性能与性价比两个维度。其中,在性能维度,在本次排名中,阿里云当先第二名高达41.6%,达到了2187.42 BBQpm,性价比当先第二名40%,升高到346.53 USD/BBQpm。 (TPCx-BB@3000性能维度排行) (TPCx-BB@3000性价比维度排行) TPCx-BB是由国内标准化测试权威组织(TPC)公布的基于零售业场景构建的端到端大数据测试基准,反对支流分布式大数据处理引擎,模仿了整个线上与线下业务流程,有30个查问语句,波及到描述性过程型查问、数据挖掘以及机器学习的算法。TPCx-BB的测试具备数据量大、特色简单、起源简单等特点,与实在业务场景较为靠近,对各行业的基础设施选型有着重要参考意义。 TPCx-BB的测试后果,能够全面精确的反映端到端的大数据系统的整体运行性能。测试涵盖了结构化、半结构化和非结构化数据,可能从客户理论场景角度更全面的评估大数据系统软硬件性能、性价比、服务和功耗等各个方面。 阿里云自研的神龙大数据减速引擎MRACC(ApasaraCompute MapReduce Accelerator),是这次荣登世界第一的杀手锏。神龙大数据减速引擎,针对大数据罕用组件,如Spark、Hadoop、Alluxio等,联合阿里云神龙架构的个性,进行软硬一体化优化,造成举世无双的性能劣势,最终,使简单SQL查问场景性能相比社区版spark晋升2-3倍,应用eRDMA减速Spark性能晋升30%。 具体来说,针对大数据工作重IO个性,MRACC在网络和存储方面联合云上的架构劣势进行软硬件减速,包含软件的SQL引擎优化,应用缓存、文件裁剪、索引等优化伎俩,并尝试将压缩等运算卸载到异构器件;还应用eRDMA进行网络减速,将shuffle阶段的数据交换运行在eRDMA网络,使得延时升高、CPU利用率大幅晋升。 MRACC与神龙云服务器的联合,给云上大数据带来了新的设想空间,给用户带来了更高的性能和性价比。 原文链接本文为阿里云原创内容,未经容许不得转载。

March 23, 2022 · 1 min · jiezi

关于大数据:行程码为什么知道你在哪儿

不久前行程码的解体,挡住了不少人的下班路,公司在那头,而你在门口。行程码在疫情防疫中具备重要作用,它能够对你已经的的停留地点进行定位。那么,行程码为什么晓得你在哪儿呢?如果手机关机、拿掉SIM卡还能晓得你在哪儿吗?行程码依靠大数据和云计算行程码最重要的性能:过来14天你去过哪里。大数据会依据你去过的地位主动判断你的集体代码是否存在危险。有些人会问,我关掉手机,取出SIM卡,手机里没有我的个人信息,大数据还能准确发现我的集体旅行轨迹吗?提到集体的旅行轨迹,那就要了解一项重要的信息技术:手机定位。那么定位会用到哪些形式呢?1.基站地位基站是电信运营商发送和接管信号的设施,手机在失常状况下会主动寻找最佳的信号接入基站,基站和手机之间能够进行定位换算,例如三角定位。2.移动电话的Wi-Fi无线接入地位每部不同的手机都有不同的地址,Wi-Fi路由器也有固定的Mac地址。当手机开启Wi-Fi性能,就像搜寻挪动信号一样,它自动识别并拜访信号最强的路由器。拜访后,手机的地位能够被锁定。3.卫星定位多用于导航信号,依附多颗卫星与手机信号的间隔和角度,综合判断手机的地位。综上所述:当手机齐全关机时,不能定位。手机开机,敞开SIM卡,能够定位。手机开机,开启SIM卡,能够定位。现在,市面上的智能手机广泛是“一体机”,电池无奈自行装配。要晓得,即便手机关机了,其基本功能仍然在失常工作,所以想要定位也是能够做到的。最初行程码是全国推广的软件,对我国的疫情防控起到了十分重要的作用。现在,在春暖花开之际,防疫也不能松散,咱们集体应该对本人的行程负责,不要瞒报,为防疫工作尽一份本人的任务。

March 23, 2022 · 1 min · jiezi

关于大数据:巨变来了金融大数据平台走向何方

作者:李静瑕 起源:轻金融在“数据为王”的时代,金融大数据被誉为“待开掘的金矿”,其价值曾经成为共识。 自从2014年大数据首次作为国家策略被写入政府工作报告,金融机构一直引入大数据平台、构建大数据体系。 现在大数据早已成为金融机构外围竞争力的要害一环,其中,数据中台、大数据平台曾经成为了金融机构全面数字化转型的要害,金融机构服务客户、翻新产品、外部治理等都越来越依赖“数字”。 值得关注的是,近几年数据中台衰亡,成为金融行业的话题之王,大数据平台被议论得绝对较少。随着云计算、AI等技术的衰亡与大数据的交融加深,大数据平台曾经站在了新的关口。 01 新 关 口大数据技术加人工智能等技术的利用,正在让银行的数据变成银行的高价值资产,推动科技赋能和场景利用翻新,进而推动外部IT零碎的重构和银行的组织架构改革。 “建立健全企业级大数据平台,充沛开释大数据作为基础性策略资源的外围价值。”央行印发的《金融科技(FinTech)倒退布局(2019-2021年)》曾提到。何为大数据平台? 依据2021年12月29日公布的《金融大数据平台总体要求》(下称《要求》)的定义,金融大数据平台是企业级、分布式、凋谢、对立的大数据平台,应包含数据接入、数据存储、数据处理、数据分析及数据服务相干组件。 而金融大数据平台的总体目标是帮忙金融机构更高效、更疾速地实现金融大数据利用的开发、部署和治理,从以交易为核心转向以数据为核心,以应答更多维、更大量、更实时的数据和互联网业务的挑战。 谈到大数据计算技术,不能绕开的就是开源大数据套件 Apache Hadoop。2008年Hadoop性能孵化残缺之后,Cloudera(商业化公司)推出了本人的Hadoop发行版CDH(Cloudera’s Distribution Including Apache Hadoop)。CDH同样开源,然而在稳定性、治理、部署、运维等方面对用户更为敌对,为Hadoop落地带来了帮忙。 到了2011年左右,Hadoop技术进入成熟期,再加上互联网金融衰亡数据量极速收缩,传统的数据系统曾经满足不了金融机构的需要,于是具备分布式特色的Hadoop零碎进入到这些机构的抉择清单。 而金融机构密集落地基于Hadoop的大数据平台,还要在两年之后。例如,农行在2013年开始建设自主可控的大数据平台,最终选定的就是MPP数据库+Hadoop混搭的架构;2014 年工行正式基于 Hadoop 技术建设了大数据平台。 2015年之后,挪动互联推动客户行为模式减速改革,金融机构进入到数字化转型新期间,不仅仅是解决越来越海量的数据,而是要应答客户行为模式变动对客户数据进行剖析,对客户进行精准营销等。此时很多机构将数据分析等性能切换到了Hadoop零碎上。 中国信通院2019年对测试的四五十款大数据平台的统计显示,其中基于CDH和HDP社区版二次研发的产品占70%以上。 以后大数据平台正站在新的关口。 一方面,Cloudera此前发表在2021年底和2022年3月完结CDH6和HDP3的服务反对,转而推出新的产品CDP。这就意味着,金融机构以往应用的CDH和HDP零碎面临全面的迁徙,急需新的代替解决方案。 另一方面,金融科技信创浪潮之下,金融机构大数据平台国产化是一个趋势性抉择。央行《金融科技倒退布局(2022-2025年)》要求,要放慢制订并组织施行金融业要害软硬信息基础设施平安布局,切实进步金融业要害软硬信息基础设施平安保障能力。 在这样的背景下,金融机构大数据平台该何去何从?就在这个新的关口,国内第三方金融科技厂商站了进去,凭借本身多年积攒的能力和教训,提供丰盛的金融机构大数据平台解决方案。 02 新 趋 势除了行业环境的变动,大数据平台技术也呈现出了一些新的趋势,使得金融机构对大数据平台提出了更高的要求和使命。 一是交融。大数据与云计算、AI等技术的交融,使得平台部署在云上曾经是一个大趋势。不过因为金融行业对私有云应用有危险平安的考量,目前更多是混合云架构为主。Cloudera的CDP就是一个混合云/多云的大数据平台。 另外是与AI的交融。如AI的智能算法等能够使用到大数据外面去,一方面大数据给AI提供数据上的撑持;另一方面,AI应用的一些惯例的算法能够反哺到大数据平台下面,去联合大数据的数据个性,能够给客户进行精准的产品举荐。 IDC中国公布2021H1大数据平台市场份额报告显示,整体市场规模达54.2亿元人民币,相比去年同期增速为43.5%,“市场增长的驱动力来源于数字化转型、人工智能的部署、行业云的建设以及新基建的政策驱动等”。 二是实时性。金融机构通过多年对大数据平台的布局,基础架构已缓缓成型,撑持其业务场景高效率成为新的需要。以后,随着大数据与云计算、AI等技术的深度交融,市场也有要害认为“大数据”正在慢步走向“快数据”时代。对于金融机构而言,就是晋升大数据的“实时性”。 例如,工行在2020年就开始建设大数据高时效类场景,即大数据平台外部除了批量计算之外,还须要实时计算、联机剖析、数据API 等平台,缩短数据端到端闭环工夫,造成联机高并发的拜访能力,晋升数据赋能业务的时效。 三是前瞻性。大数据平台撑持金融机构更加理解客户,也能够为客户提供服务做前瞻性布局。《要求》外面也提到,金融大数据平台具体性能技术能够划分为根本要求和加强要求。其中,加强要求是从技术的发展趋势和金融用户的前瞻性需要动手提出的。这意味着,金融机构须要从客户需要的上前瞻性地晋升大数据平台的构建。 最初则是安全性。无论是应用的大数据平台技术的自主可控平安,还是对数据自身的平安要求,都被提到了更高的高度。这对金融机构抉择或构建大数据平台单干提出了更高的要求。 随着第三方厂商的退出,让金融机构在技术自主可控的层面有了更多的抉择。国产化趋势给第三方服务商迎来策略机遇期。 网易数帆推出的无数数据开发及治理平台——一站式大数据管理及开发平台,蕴含大数据平台与数据中台两大外围局部,次要笼罩大数据开发,任务调度,数据品质,数据治理及数据服务。 大数据平台层本质上也是Hadoop发行版,相比社区版本集成了Spark最新版本且领有欠缺的权限管控以及审计能力,能够大幅提高业务离线ETL效率。此外,数帆针对Impala组件进行了大量的性能加强以及性能优化,保障了应用过程中的稳定性以及性能。 值得关注的是,国产化产品是否满足金融机构的需要?金融机构如何抉择大数据平台的新方向? 03 新 选 择要答复这个问题,就要先理清金融机构目前须要什么。 首先,金融科技自主可控、数据安全可控、老本管制、疾速的服务反馈是金融机构以后对大数据平台需要的关键词。金融以平安为主,其数据安全和业务连续性保障的技术要求通常高于其余行业。 例如,在管制老本上,某家金融机构本身IT技术实力较强,其集群十几个,节点数预计上百,现阶段数据平台有2-3百万软件单干的费用。另外应用CDH版本不再更新,须要专门造就一批团队负责保护,也会减少老本。 这就使得大数据平台的根底软件金融机构往往是抉择第三方厂商产品。面对这样的状况,金融机构或持续往CDP迁徙,或抉择国产化技术的大数据平台根底软件进行迁徙。 其次,无论抉择何种产品,金融机构会关注大数据平台产品的“遍及度”,即应用的底层平台是否是具备高遍及度的,例如Hadoop、Spark等。此外他们更心愿产品具备开源的性质。 “金融机构对大数据整套零碎的依赖性越来越显著。”网易数帆大数据根底技术平台负责人、资深架构师蒋鸿翔通知轻金融,大数据平台是建设在一个低成本的服务器的根底之上,能够有限分布式扩大的,所以其老本、扩展性以及稳定性都是金融机构很好的抉择。 除了产品自身,金融机构越来越重视第三方金融科技公司的实力以及产品的服务,弱小的技术撑持,全面的生态兼容、及时响应破绽修复、疾速更新迭代等都是供应商须要具备的能力。 当然,从目前的环境下来看,国产大数据平台曾经造成了如下劣势,自主可控,将控制权把握在企业本人手中;本地服务迅速响应、顺畅沟通;单干共创,深刻业务,定制化需要反对。 以网易数帆的无数数据开发及治理平台为例,即领有开源的底座,并且反对兼容CDH外围组件生态,且在此基础上依据技术发展趋势进行了局部组件降级以及扩大,反对金融机构的定制化需要,例如在一个规范产品的我的项目里,还能反对20%~30%的定制开发需要。 在与某证券公司共建大数据平台的过程中,网易数帆次要就数据管理、平安核心、数据规范、数据品质等几大子模块推动开发单干,同时会根据证券行业本身的非凡需要进行定制,如用户画像的加强、典型的交易日调度,即数据仅在交易日加工等,从而造成更合乎行业个性的平台解决方案。 网易数帆金融大数据解决方案架构 同时,网易数帆还配套一站式数据中台及丰盛数据产品。在大数据发行版底层组件的根底之上可供用户选择性提供一站式数据中台服务以及丰盛的数据产品,不便业务开箱即用。目前,网易数帆已服务多家金融行业客户,包含某国有银行金融科技子公司、华泰证券、西南证券、华夏理财、华福证券等,落地性失去充沛验证。 在大数据平台这个工夫关口上线符合以后金融机构需要的产品,次要也来源于网易数帆在大数据畛域深耕多年,积攒了欠缺的大数据研发生态体系以及丰盛的生产线运维教训。 在Hadoop还未问世之时,2006年网易就开始本人做分布式存储系统。2011-12年引入Hadoop体系,用来撑持邮箱、新闻等业务。到了2015年,为解决组件扩散不足对立治理的问题,网易开始着手开发大数据平台工具,做了相似CDH的平台整合。2018年在大数据蓬勃发展之时,网易数帆开发了数据中台,成为面向各个BU的通用工具。 到当初4年工夫,网易数帆也造成了一套数据中台的方法论。 大数据技术的研发须要的是弱小的科技人才队伍的撑持。网易数帆以后大数据平台和数据中台团队人数已达数百人,可能提供技术支持、客户运维、外围研发三位一体的服务保障。 自身技术过硬、产品兼容性强再加上服务的劣势,网易数帆的大数据平台产品曾经受到了多家金融机构的关注。 “很多金融客户,偏向于云计算私有化部署,所以数帆在金融行业大数据平台往云化部署的场景下略微来说会慢一些。在非金融行业,其实咱们曾经往云平台方向去转了。”面对将来大数据平台云化的趋势,蒋鸿翔如是示意。 依据statista的测算,2019年寰球Hadoop和大数据市场规模约在340亿美金左右,且5年复合年增长率高达28.5%。随着金融行业数字化转型的深度推动,金融机构对大数据依赖性越来越强,大数据平台的这块市场蛋糕还会越来越大。 ...

March 22, 2022 · 1 min · jiezi

关于大数据:懒癌患者基于-YCSB-构造-hudi-upsert-数据集上篇

实时小白一枚,在线求更加弱小和不便的工具需要对 hudi 进行 upsert 压测,简略的链路为 flink 生产 kafka 间接灌入 hudi 表,须要结构 10 亿条数据,可管制 insert 和 update 的配比 YCSB 调研引言:相熟 hudi 的搭档应该理解到,recordKey 相似于主键是 hudi 的一级公民,通过 recordKey 能够疾速定位到须要 update 的数据文件而不必重写所在分区下的所有数据文件。类比于 key-value 的存储,第一工夫想到了 HBase,就从 HBase 搭档理解到了压力测试工具:YCSBYahoo! Cloud Serving Benchmark : The goal of the YCSB project is to develop a framework and common set of workloads for evaluating the performance of different “key-value” and “cloud” serving stores 雅虎提供的客户端测试框架,用于评估不同的 key-value 存储和云服务的性能。依据配置文件,自动化结构数据对 db 进行 insert、update、delete、scan、read 压力测试。而本文重点关注结构数据局部 ...

March 22, 2022 · 3 min · jiezi

关于大数据:拉钩大数据高薪训练营2022无密

download:拉钩教育-大数据高薪训练营2022最新版备:https://www.sisuoit.com/2772.... Cocos 合成大西瓜游戏在4个月前,我已经也折腾过一两个礼拜的游戏开发,做的是“合成大西瓜”的游戏: 应用的脚本语言是Typescript,我发现Cocos的脚本构造和Unity的差不多一样,就比如说游戏对象的生命周期: 在Cocos脚本中 export default class Game extends cc.Component { start() {} update() {}}在Unity脚本中using System.Collections;using System.Collections.Generic;using UnityEngine;public class Game : MonoBehaviour{ void Start(){} void Update(){}}当然还有很多雷同的局部,游戏引擎应该都这样设计的吧。 什么是游戏脚本?脚本是什么?对于游戏引擎来说脚本到底干了些什么? 首先要明确一点,脚本对于任何一个游戏引擎来说都是必不可少的局部。 它的主要用途是响应玩家的输出,安顿游戏过程中就产生的事件,实例化图形成果,管制游戏对象的物理行为,还能够为角色自定义AI零碎等等。 Unity中的脚本概念Unity创立脚本Project 面板左上方的 Create 菜单新建脚本抉择 Assets > Create > C# Script 来新建脚本 Unity脚本文件分析using System.Collections;using System.Collections.Generic;using UnityEngine;public class Wall : MonoBehaviour{ // Start is called before the first frame update void Start() { } // Update is called once per frame void Update() { }}MonoBehaviour内置类派生类,用于创立可附加到游戏对象的新组件类型。Update(),解决游戏对象的帧更新。Start(),脚本初始化的地位。Unity中的PrefabsPrefabs中文翻译过去是预制件,它个别用于想在运行时实例化简单的游戏对象或游戏对象的汇合时应用,它十分不便,与应用代码从头开始创立游戏对象相比,有以下长处: ...

March 21, 2022 · 1 min · jiezi

关于大数据:一文读懂丨国产化大背景下企业如何稳固数据底座

国务院日前印发《“十四五”数字经济倒退布局》,强调要加强关键技术创新能力,建设平安可控的技术创新体系。 随着国产化趋势减速,信创产业倒退也开始从外围的芯片、操作系统、数据库等畛域笼罩到大数据平台等更宽泛的畛域。作为率先启动信创实际的行业,金融行业是其中较为典型的、最早将实现稳固翻新和自主可控纳入视线范畴的,甚至将其作为IT根底建设的重要指标。 同时在如风控、精准营销等典型业务场景中,随着数据量逐步宏大,金融机构对大数据平台的依赖性也日渐显著。因而,越来越多的金融机构会提出,须要自主可控的平台能力。 除了以上两点,还有几大理论面临的问题,在驱动金融甚至其余行业将大数据平台迁徙提上日程。 一是破绽修复的及时性,二是售后服务的撑持。首先,金融机构对软件平台的破绽异样敏感,会定期进行破绽扫描,并心愿及时失去修复。而国外软件平台的开发策略绝对固定,每年可能就发三个版本,修复破绽就会存在1-2个月的时间差,会对整个性能的迭代周期产生影响。其次,国外少数厂商的售后服务流程,广泛会有客服转接技术专家,再由技术专家评估得出解决方案的过程,响应绝对提早。 即便如此,实现国产化迁徙还有几个起因须要慎重考虑:首先,迁徙后,齐全国产化的底层平台与原有下层零碎可能无奈兼容,新平台无奈无缝对接本身业务。以数据库的迁徙为例,如果企业只是换Oracle自身,只需找到一个撑持Oracle等同性能的数据库。但Oracle下面还有很多产品是基于它开发,有着本身的生态。如果更换可能会导致上方的全面瘫痪。在大数据平台上同样如此,如果更换的数据平台不兼容,很多下层次要的产品可能也都无奈运行,难以保障服务的延续性。 其次,尽管金融机构大多具备很强的大数据技术能力与团队,但更多是集中在下层的数据资产、数据治理等方面工作,在底层平台的研发投入绝对较少。如要迁徙至新的数据平台,会面临很多不可控的因素,企业也会放心后续的保护问题。 一边是国产化需要,另一边是放弃业务稳定性、延续性,如何均衡这天平的两端? 一张图,马上懂!

March 21, 2022 · 1 min · jiezi

关于大数据:Apache-SeaTunnel-Incubating-210-发布内核重构全面支持-Flink

2021 年 12 月 9 日,SeaTunnel (原名 Waterdrop) 胜利退出 Apache 孵化器,进入孵化器后,SeaTunnel 社区破费了大量工夫来梳理整个我的项目的内部依赖以确保整个我的项目的合规性,终于在贡献者们四个月的致力下,社区于 2022 年 3 月 18 日正式公布了首个 Apache 版本,该版本一次性通过 Apache 孵化器严苛的 2 轮投票审查,最大水平地保障了 SeaTunnel 软件 License 的合规性。同时这意味着 2.1.0 版本,是通过 SeaTunnel 社区和 Apache 孵化器双重查看后公布的第一个 Apache 官网版本,企业和个人用户能够释怀平安应用。 2.1.0 下载地址: https://seatunnel.apache.org/... GitHub Release: https://github.com/apache/inc... Note: License 是一种具备法律性质的合同或领导,目标在于标准受著作权爱护的软件的应用或分布行为。软件许可是软件开发者与其用户之间的一份合约,用来保障在合乎许可范畴的状况下,用户将会受到爱护。这里十分倡议宽广用户及开发者在抉择开源软件前,首先关注该软件的 License 许可是否实用于本人的产品中,而 Apache License 是一种对商业非常敌对的 License。 01 本次公布版本阐明 新个性 1.对微内核插件化的架构内核局部进行了大量优化,内核以 Java 为主,并对命令行参数解析,插件加载等做了大量改良,同时插件扩大可依据用户(或贡献者)所善于的语言去做开发,极大水平地升高了插件开发门槛。 2.全面反对 Flink,但同时用户也可自由选择底层引擎,本次更新也为大家带来了大量的 Flink 插件,也欢送大家后续奉献相干插件。 3.提供本地开发极速启动环境反对(example),贡献者或用户能够在不更改任何代码的状况下疾速丝滑启动,不便本地疾速开发调试体验。对于须要自定义插件的贡献者或者用户来讲,这无疑是个令人激动的好消息。事实上,咱们在公布前的测试中,也有大量贡献者采纳这种形式疾速对插件进行测试。 4.提供 Docker 容器装置,用户能够极快地通过 Docker 部署装置应用 SeaTunnel,将来咱们也会围绕 Docker&K8s 做出大量迭代,欢送大家探讨交换。 ...

March 21, 2022 · 3 min · jiezi

关于大数据:纵向联邦学习场景下的逻辑回归LR

【摘要】 海量训练数据是人工智能技术在各个领域胜利利用的重要条件。例如,计算机视觉和商务经融举荐零碎中的 AI 算法都依附大规模标记良好的数据能力取得较好的推理成果。然而在医疗、银行以及一些政务畛域中,行业内对数据隐衷的爱护越来越强,造成可用数据重大匮乏的现状。针对上述问题,华为云可信智能计算服务( TICS)专为突破银行、政企等行业的数据壁垒,实现数据安全共享,设计了多方联邦学习计划。本篇博客次要介绍了华为云可信智能计算服务(TICS)采纳的纵向联邦逻辑回归(LR)计划。 一、什么是逻辑回归? 回归是形容自变量和因变量之间相互依赖关系的统计分析办法。线性回归作为一种常见的回归办法,罕用作线性模型(或线性关系)的拟合。 逻辑回归(logistic regression)尽管也称为回归,却不是一种模型拟合办法,而是一种简略的“二分类”算法。具备实现简略,算法高效等诸多长处。 图1.1 二维线性回归图1.2 三维线性回归 1.1 线性回归(linear regression) 图1.1、1.2别离示意二维和三维线性回归模型,图1.1的拟合间接(蓝线)可示意为 y=ax+b,所有数据点(红点)到直线的总欧式间隔最短,欧式间隔罕用作计算指标损失函数,进而求解模型;相似的,图1.2的所有数据点到二维立体的总欧式间隔最短。所以线性回归模型通常能够示意为: 其中示意模型系数。 1.2 逻辑回归(LR) LR是一种简略的有监督机器学习算法,对输出x,逻辑回归模型能够给出 y<0 or y>0 的概率,进而推断出样本为正样本还是负样本。 LR引入sigmoid函数来推断样本为正样本的概率,输出样本 x 为正样本的概率能够示意为:P(y|x) = g(y),其中 g() 为sigmoid函数, 曲线图如图1.3所示,输入区间为0~1: 图1.3 sigmoid曲线 对于已知模型 和样本 x,y=1的概率能够示意为: 所以sigmoid尤其实用于二分类问题,当 g(y) > 0.5 时,示意 P(y=1|x) > 0.5,将其判为正样本,对应 y>0 ;反之,当 g(y) < 0.5 时,示意 P(y=1|x) < 0.5,将其判为负样本,对应 y<0。 1.3 LR损失函数 LR采纳对数损失函数,对于训练集x∈S,损失函数能够示意为(参考https://zhuanlan.zhihu.com/p/... ): 梯度降落算法是LR模型的经典解法之一,模型迭代更新的表达式如下: 其中 ...

March 21, 2022 · 1 min · jiezi

关于大数据:Apache-DolphinSchedulerShenYuIncubating联合-Meetup暖春-3-月与你相约

云霞出海曙,梅柳渡江春。 2022 年的早春在疫情中显得分外生机勃勃,尽管接下来暖流仍有可能造访国内局部地区,但开源的世界,早已热闹非凡! 2022 年 3 月 26 日(星期六), Apache DolphinScheduler 和 Apache ShenYu(Incubating) 两大新生开源力量将携手,邀请来自 YY直播、自若、政采云等团队的实战型专家,更有 Apache ShenYu(Incubating)创始人 & PPMC  & Dromara 开源组织创始人,以及Apache ShenYu Committer 为企业大数据开发者、开源技术爱好者带来一场技术盛宴,无论是技术开发、业务场景实际,还是开源我的项目参加和倒退,在这里你都能和业内专家一起探讨。 基于 Apache 开源社区理念打造的 Apache Dolphin Scheduler 是寰球出名的 DataOps 畛域开源我的项目。作为一个分布式去中心化,易扩大的可视化 DAG 工作流任务调度平台,截至目前它已累计在 600 多家公司生产环境中作为企业的外围调度零碎,包含 IBM、腾讯、科大讯飞、美团、360、联通、顺丰等,笼罩金融、电信、批发、云计算、数据处理等宽泛畛域。贡献者超过 310 人,以开源社区的模式汇合寰球顶尖高科技公司的独特奉献,打造寰球极致简略易用、稳固可扩大的 DataOps平台。 Apache ShenYu(Incubating),一个高性能,多协定,易扩大,响应式的 API 网关,兼容各种支流框架体系,反对热插拔,用户能够定制化开发,满足用户各种场景的现状和将来需要,经验过大规模场景的锻炼。现已进入 Apache 基金会孵化阶段,成长速度飞快。 本次流动受疫情影响仍以线上直播的模式发展,流动现已凋谢收费报名,欢送扫描下图二维码,或点击浏览原文收费报名! 扫码观看直播 扫码入直播群 01 流动简介主题:Apache DolphinScheduler & Apache ShenYu(Incubating)联结 Meetup | 3 月 工夫:2022-3-26 14:00-18:00 模式:线上直播 02 流动议程 ...

March 17, 2022 · 2 min · jiezi

关于大数据:直播报名-Apache-DolphinSchedulerShenYu-联合-Meetup暖春-3-月与你相约

云霞出海曙,梅柳渡江春。 2022 年的早春在疫情中显得分外生机勃勃,尽管接下来暖流仍有可能造访国内局部地区,但开源的世界,早已热闹非凡! 2022 年 3 月 26 日(星期六), Apache DolphinScheduler 和 Apache ShenYu(Incubating) 两大新生开源力量将携手,邀请来自 YY直播、自若、政采云等团队的实战型专家,更有 Apache ShenYu 创始人 & PPMC  & Dromara 开源组织创始人,以及Apache ShenYu Committer 为企业大数据开发者、开源技术爱好者带来一场技术盛宴,无论是技术开发、业务场景实际,还是开源我的项目参加和倒退,在这里你都能和业内专家一起探讨。 基于 Apache 开源社区理念打造的 Apache Dolphin Scheduler 是寰球出名的 DataOps 畛域开源我的项目。作为一个分布式去中心化,易扩大的可视化 DAG 工作流任务调度平台,截至目前它已累计在 600 多家公司生产环境中作为企业的外围调度零碎,包含 IBM、腾讯、科大讯飞、美团、360、联通、顺丰等,笼罩金融、电信、批发、云计算、数据处理等宽泛畛域。贡献者超过 310 人,以开源社区的模式汇合寰球顶尖高科技公司的独特奉献,打造寰球极致简略易用、稳固可扩大的 DataOps平台。 Apache ShenYu(Incubating),一个高性能,多协定,易扩大,响应式的 API 网关,兼容各种支流框架体系,反对热插拔,用户能够定制化开发,满足用户各种场景的现状和将来需要,经验过大规模场景的锻炼。现已进入 Apache 基金会孵化阶段,成长速度飞快。 本次流动受疫情影响仍以线上直播的模式发展,流动现已凋谢收费报名,欢送扫描下图二维码,或点击浏览原文收费报名! 扫码观看直播 扫码入直播群 01 流动简介主题:Apache DolphinScheduler & Apache ShenYu 联结 Meetup | 3 月 工夫:2022-3-26 14:00-18:00 模式:线上直播 ...

March 17, 2022 · 2 min · jiezi

关于大数据:Tapdata-在疫线携手张家港市卫健委争分夺秒实时抗疫

“抗疫两年以来最艰难的期间,是漫长冬夜还是倒春寒?”——国家传染病医学中心主任张文宏 于3月14日凌晨“等到疫情完结了,我肯定要……”,常怀这样的期许,咱们一头扎进了新冠的第三个年头。还没等众人从“常态化抗疫”绝对稳固的形势中咂摸出几分岁月静好,就撞上了疫情的又一轮反扑。 3月以来,疫情再度陷入风行顶峰,全国范畴内的产生频次明显增加,感化人数快速增长,波及范畴不断扩大。疫情的突发性重复之下,如何在抗疫的非凡关键期,继续疾速落实“踊跃监测、精准防控、动静清零”,同时尽可能弱化其突发性与反复性对后疫情时代生产生存的进一步影响也就成了公众广泛关怀的问题。 一、一码失守,举步维艰严格管控,核酸检测成为自在出行的刚性需要“外防输出、内防反弹”的防疫压力一直增大,由“疫情焦虑”引发的全民精力衰弱隐患问题也开始频繁被提到案头。 从48小时降级到24小时,从一日一核酸倒退到一日屡次核酸,短期内剧增的核酸筛查工作压力导致的后果查问提早,遇上更缩紧的时限要求。回家、下班、机场车站……十分期间,随时都要做好因为核酸后果未能及时更新而导致出行受限的筹备。 (图源:新民周刊) 与衰弱码、行程码、核酸检测后果等信息高度绑定的“生存自在”与“负面情绪浓度”,对防疫治理的信息化水平提出了更高的要求。涉疫信息采集、响应与报送的实时性也就显得至关重要。 然而,医疗信息系统的非标准化,供应商能力的参差不齐,管理模式的差异化等等因素,让核酸检测等数据难以简略高效的流通起来。面对跨组织、跨零碎、跨区域的数据实时互通难题,以及为了应答该挑战所消耗的人力资源,如何进一步施展科技力量,开释人员压力,实现降本增效,也就成了各级防疫部门都在关注的问题。 二、科技抗疫,张家港在路上Tapdata 接力中,将实时数据的力量注入防疫一线长期深刻践行“智慧政务”,助推“智慧医疗”倒退的张家港市卫健委,在这个方向上做出了很多踊跃的尝试,其中就包含近期正在投入搭建的实时数据交换平台。为此,须要将辖区内各家医院的外围库数据实时同步至张家港市卫健委云核心数据库。 因为这一过程中的数据源笼罩MSSQL 、MySQL、 Oracle 等多种不同的系统结构,数据买通的难度较大,这就对技术选型的性能及其易用性,设下了比拟高的期待。 在充沛的调研和沟通后,张家港卫健委抉择 Tapdata 作为实时数据交换平台的外围组件。承受到工作后,Tapdata全力投入技术力量,利用平台的低代码开发能力,在1天工夫内疾速上线满足用户数据实时采集和同步的需要。不负重托,胜利助力张家港市卫健委实现: ① 智慧便民:核酸后果早晓得让数据多“跑路”,让大众少期待 疫情“遭遇战”局势进一步趋紧,继续涌入的核酸检测后果散落在各个不同的医院零碎之中,早一步将这些后果会集到卫健委的数据库上,就能早一步体现在大众的衰弱码之上。 Tapdata 反对异构数据实时采集和同步,可能反对以实时的形式从各个数据起源采集或同步最新的数据变动,并在毫秒内更新到指标数据库,所反对的数据连贯类型,笼罩了大部分商业和开源的数据库,同时包含关系型和非关系型数据库,可能最大水平地撑持起这一数据实时同步场景。 ② 疾速响应:疫情数据及时报10分钟实现数据开发,疾速生成各类报表 顶峰期间,不同采集点、不同医院、不同区域,每一时段都在高频率产生蕴含核酸检测后果、隔离人员治理、临检仓库等在内的多项信息。而作为防疫利器,涉疫信息外部及时共享以及“公开化、透明化”,也对相干数据响应、汇总以及上报的实时性提出了更高的要求——须要可能疾速捕获每一条要害数据新增,抢占防疫“黄金时间”,同时保障所传递信息的准确性。 Tapdata 基于 Pipeline 流式数据处理的实时数据流解决能力,可能应答基于单条数据记录的即时解决需要,包含数据库 CDC、音讯、IoT 事件等。 Tapdata 胜利助力张家港市卫健委,为各类涉疫信息报表提供实时的数据撑持,以响应各区域的上报、汇总需要——第一工夫向上向内同步,第一工夫对外公示,也让辖区人员、各业务部门可能疾速查问、调用所需数据。 疲乏不免,然心愿不灭,信念犹在——Tapdata 也将继续为抗疫一线输送数据力量,独特守望“必将到来的春天”——待到疫情完毕日,把臂看春花,闲坐唤饮茶……

March 17, 2022 · 1 min · jiezi

关于大数据:全量增量数据在HBase迁移的多种技巧实践

作者经验了屡次基于HBase实现全量与增量数据的迁徙测试,总结了在应用HBase进行数据迁徙的多种实际,本文针对全量与增量数据迁徙的场景不同,提供了1+2的技巧分享。 HBase全量与增量数据迁徙的办法1.背景 在HBase应用过程中,应用的HBase集群常常会因为某些起因须要数据迁徙。大多数状况下,能够用离线的形式进行迁徙,迁徙离线数据的形式就比拟容易了,将整个hbase的data存储目录进行搬迁就行,然而当集群数据量比拟多的时候,文件拷贝的工夫很长,对业务影响工夫也比拟长,往往在设计的工夫窗口无奈实现,本文给出一种迁徙思路,能够利用HBase本身的性能,对集群进行迁徙,缩小集群业务中断工夫 2.简介 大家都晓得HBase有snapshot快照的性能,利用快照能够记录某个工夫点表的数据将其保留快照,在须要的时候能够将表数据恢复到打快照工夫时的样子。咱们利用hbase的snapshot能够导出某个工夫点的全量数据。 因为理论的业务还在不停的写入表中,除了迁徙快照工夫点之前的全量数据,咱们还须要将快照工夫点后源源不断的增量数据也迁徙走,这里如果能采纳双写的形式,将数据写入两个集群就好了,然而事实的业务不会这样做,如果这样做还得保障双写的事务一致性。于是能够利用HBase的replication性能,replication性能自身就是保留了源集群的WAL日志记录,去回放写入到目标集群,这样一来用户业务端->原始集群->目标集群便是个串形的数据流,且由HBase来保证数据的正确性。 所以这个迁徙的办法就是利用snapshot迁徙全量数据,利用replication迁徙增量数据。 3.迁徙步骤 上图给出了迁徙的整个工夫线流程,次要有这么5个工夫点。 T0: 配置好老集群A集群到新集群B的Replication关系,Replication的数据由A集群同步到集群B,将表设置成同步,从此刻开始新写入A集群表的数据会保留在WAL日志中; T1: 生成该工夫点的全量数据,通过创立快照,以及导出快照数据的形式将该工夫点的数据导出到新集群B; T2: 新集群B将T1时刻的快照数据导入,此时新集群B中会由快照创立出表,此时老集群A集群上设置的Replication的关系会主动开始将T0时刻保留的WAL日志回放至新集群B的表中,开始增量数据同步。 T3: 因为从T0-T3之间的操作会破费一段时间,此时会积攒很多WAL日志文件,须要肯定的工夫来同步至新集群,这里须要去监控一下数据同步状况,等老集群WAL被逐步生产完,此时能够将老集群的写业务进行一下并筹备将读写业务全副切到新集群B。 T4: T3-T4之间应该是个很短的工夫,整个迁徙也只有这个工夫点会有肯定中断,此时是将业务齐全切到新集群B,至此迁徙实现。 4.操作波及的命令 一、设置集群A和集群B的peer关系 在源集群hbase shell中, 设定peer add_peer 'peer_name','ClusterB:2181:/hbase' 二、在集群A的表中设置replication属性 假如指标表名为Student,先获取Family=f 进入hbase shell中, alter 'Student',{NAME => 'f',REPLICATION_SCOPE => '1'} 三、给集群A的表创立快照 在hbase shell中 snapshot 'Student','Student_table_snapshot' 四、在A集群中导出快照 hbase org.apache.hadoop.hbase.snapshot.ExportSnapshot -snapshot Student_table_snapshot -copy-to /snapshot-backup/Student 五、将快照数据搁置到集群B的对应的目录下 下面命令会导出2个目录,一个是快照元数据,一个是原始数据 将元数据放到/hbase/.hbase-snapshot中,将原始数据放到/hbase/archive目录中 因为hbase的archive目录会有个定时清理,这里能够提前将集群B的master的hbase.master.cleaner.interval值设置大点,防止拷贝过程中产生碰巧产生了数据清理。 如果集群B中没有对应的目录,能够提前创立 **hdfs dfs -mkdir -p /hbase/.hbase-snapshothdfs dfs -mkdir -p /hbase/archive/data/default/** 挪动导出的snapshot文件到snapshot目录 **hdfs dfs -mv /snapshot-backup/Student/.hbase-snapshot/Student_table_snapshot /hbase/.hbase-snapshot/hdfs dfs -mv /snapshot-backup/Student/archive/data/default/Student /hbase/archive/data/default** ...

March 17, 2022 · 2 min · jiezi

关于大数据:杭州思科对-Apache-DolphinScheduler-Alert-模块的改造

杭州思科曾经将 Apache DolphinScheduler 引入公司自建的大数据平台。目前,杭州思科大数据工程师 李庆旺 负责 Alert 模块的革新已根本实现,以更欠缺的 Alert 模块适应理论业务中对简单告警的需要。 PROFILE 李庆旺杭州思科 大数据工程师,次要负责 Spark、调度零碎等大数据方向开发。 咱们在应用原有的调度平台解决大数据工作时,在操作上多有不便。比方一个对数据进行解决聚合剖析的工作,首先由多个前置 Spark 工作对不同数据源数据进行解决、剖析。最初的 Spark 工作对这期间解决的后果进行再次聚合、剖析,失去咱们想要的最终数据。但遗憾的是过后的调度平台无奈串行执行多个工作,须要估算工作解决工夫来设置多个工作的开始执行工夫。同时其中一个工作执行失败,须要手动进行后续工作。这种形式既不不便,也不优雅。 而 Apache DolphinScheduler 的外围性能——工作流定义能够将工作串联起来,完满符合咱们的需要。于是,咱们将 Apache DolphinScheduler 引入本人的大数据平台,而我次要负责 Alert 模块革新。目前咱们其余共事也在推动集成 K8s,心愿将来工作在 K8s 中执行。 明天分享的是 Alert 模块的革新。 01 Alert 模块的设计 DolphinScheduler Alert 模块的设计Apache DolphinScheduler 1.0 版本的 Alert 模式应用配置alert.properties的形式,通过配置邮箱、短信等实现告警,但这样的形式曾经不适用于以后的场景了。官网也进行过告警模块重构,详情设计思路参考官网文档: https://github.com/apache/dol... https://dolphinscheduler.apac... Apache DolphinScheduler 告警模块是一个独立启动的服务,外围之一是 AlertPluginManager 类。告警模块集成了很多插件,如钉钉、微信、飞书、邮件等,以独立的模式写在源码中,启动服务时会解析插件并将配置的参数格式化成JSON模式,前端通过JSON主动渲染出页面。AlertPluginManager 在启动时会缓存插件到内存中。AlertServer类会启动线程池,定时扫描DB。 当工作流配置了告诉策略,同时Worker 执行工作流完结,执行后果匹配告诉策略胜利后,DB插入告警数据后,线程池扫描 DB,调用AlertSender 类的send办法传入告警数据。告警数据绑定的是告警组,一个告警组对应了多个告警实例。AlertSender类遍历告警实例,通过AlertPluginManager类获取插件实例,调用实例的发送办法,最初更新后果。这是 Apache DolphinScheduler 的整个告警流程。 须要留神的是,Alert  server 启动的同时也启动了 RPC 服务,这是一种针对非凡类型工作,如 SQL 查问报表而设计的告警形式,能够让 Worker 通过 RPC 间接拜访 Alert  Server,利用 Alert 模块实现告警,这个数据不写入 DB。但从整体上来说,Apache DolphinScheduler 的告警模式还是以写 DB,异步交互的形式为主。 ...

March 16, 2022 · 1 min · jiezi

关于大数据:看直播赢红包Smartbi-V105新品系列直播问答指南解答你的6大疑惑

自从上周Smartbi V10.5正式公布,Smartbi便火出圈了,当新品直播第一期开播后,更是失去了麦粉们的统一好评与称誉。与此同时,小麦也陆陆续续收到了麦粉小伙伴提出的一些疑难,在Smartbi V10.5技能学习之路上,如果你正面临: 想理解新版本 却苦于学习材料艰涩难懂? 想学习V10.5新操作 不晓得该从何动手? 或者想理解更多新品直播课程内容? …… 明天,小麦将近期麦粉们最常见的问题进行了整顿,在这里给大家一一进行解答。 Q1:小麦,据说上周Smartbi V10.5公布了? 此次上新涵盖了80+新个性性能点,在多个模块都有所加强。如果你想理解有哪些性能亮点,连忙戳下方学习~ Smartbi V10.5正式公布!带给您从未有过的极“智”体验 Q2:怎么学习最新的产品操作,咱们有直播课吗? 曾经安顿上了!咱们上周就开启了Smartbi V10.5新品系列直播,4位业余讲师轮番上阵,每周四晚在线手把手教学,咱们还筹备了课堂问答环节,只有你答对了就能够博得红包处分噢~ Smartbi V10.5新品系列直播来了,让咱们一起赢在学习的起跑线 Q3:本周咱们有直播吗,直播内容是什么? 当然有!本周四晚,帅气的密兴老师带来一场干货十足的直播课程分享:挪动端——随时随地把握数据信息,从实践到实际,带你理解高效智能的挪动办公模式。 Smartbi挪动端亮点 1、反对便捷应用数据:与社交实现智能交融,随时随地通过手机疾速查看业务报表、指标看板,让业务交互剖析变得更简略。 2、满足个性化定制需要:Smartbi架构设计与性能划分模块化,满足用户对界面成果和格调的个性化需要,便于进行个性化定制和二次开发。 3、保障系统稳固平安:反对高速加载性能,不仅能实现用户管控,还能通过多种手段保障数据安全。 Q4:指标治理是此次新版本的外围亮点之一,咱们会有相干内容的直播课程吗? 有的。Smartbi新增指标治理作为V10.5版本中弱小的外围力量,这门直播课程必然不能错过。3月24日黄铄老师将带来“指标治理——打造自增长指标体系”为主题的课程,跟大家具体介绍指标治理的新个性,大家敬请期待! 指标治理亮点 1、指标开发便捷化:以维度、度量为根底,业务人员可通过向导式的形式实现指标创立。 2、弱小的指标计算能力:通过自助ETL能够进步数据的品质,并能依照打算工作定时执行ETL工作等。 3、指标体系标准化:依照业务口径和存储形式将指标分类分层,实现标准、对立、规范的开发流程和指标体系。 4、指标利用一体化:一键生成数据模型,而后联合报表、大屏等Smartbi弱小的剖析能力进行剖析展示,无需集成第三方产品。 Q5:直播课程的学习形式是怎么样? 学习形式为线上直播教学,手机端、电脑端都能够观看,讲师会依据直播主题进行产品性能介绍,每节课还设置了答疑环节,帮忙大家真正了解常识、加强产品实操能力。 立刻报名:第二期 / 第三期 Q6:如果想要重温一下上期的学习内容,能够查看回放吗? 当然能够,为了不便各位小伙伴,咱们的直播课都反对回看,大家只有点击下方的链接,即可观看往期精彩回放。 第一期回放

March 16, 2022 · 1 min · jiezi

关于大数据:深入跨国互联网业务场景谈华为云数智融合元数据的五个统一

大数据查找应用面临的挑战 企业的数据通常有两种类型:作业数据和剖析数据。前者在业务运行时应用和生成,撑持业务运行;后者在经营时应用和生成,撑持企业做商业决策。前者是后者数据的起源。 图表 1从作业数据到剖析数据 随着数字技术与业务场景深度交融,人、物被高速网络宽泛联接起来,信息替换的速度在晋升,数据的规模、复杂度达到难以想象的水平,这时企业会面临如下两个突出问题: 1.企业通常晓得在哪一个业务环节生成了数据,但在最须要的时候却找不到。数据资产如果无奈组织治理好,就是一片“数据沼泽”,把本来低劣的资产变成企业的累赘。 2.数据技术还在疾速倒退迭代中,如果不足前瞻性的设计和零碎思考,就会因为技术限度导致在多个大数据引擎和AI引擎之间存在数据割裂的状况。业务人员须要在不同引擎间来回拷贝数据能力将数据用于剖析,导致反复存储和加工,不仅减少了老本,也大大降低了性能。 在华为,因为流程IT和终端大数据的全面云化,华为云大数据解决的数据体量、运算量、业务复杂度在世界上绝无仅有,咱们与客户一起摸索解决最艰巨的数据集成治理的形式,让数据资产能“理得清”“找得快”,基于一份数据在多个剖析计算引擎间自在流转的能力,为实现AI和数据的交融剖析,本文将联合我的项目实际介绍数智交融元数据计划。 华为云数智交融元数据计划介绍 元数据中保留了数据的重要信息(如表名、字段名、工夫戳、版本、表大小、格局、访问控制列表等)和关联关系(即数据的流动链路),在多云、跨业务畛域、不同零碎下提供集中式的数据管理,能发现查找、疾速了解、剖析数据。 图表 2某跨国互联网企业交融元数据计划 上图所示的某跨国互联网企业交融元数据计划针对大数据、数据仓库、机器学习等场景实现了“五个对立”: 对立目录:建设对立残缺的数据资产清单,让企业能全局化透视化把握所领有的数据资产。如图表2所示的对立Metastore Service,用对立的数据视图将大数据和AI引擎、数据分析团队、管理员三方连接起来,让生产零碎中大数据实时可视,所见即所得。同时,通过抓取/Hook等形式反对异构数据源元数据的及时同步。 对立权限:建设对立的权限治理,让正确的人能操作正确的数据资产。如图表2所示的Metadata Admin,细粒度的权限治理,不仅能够做到表级,还能够做到列级和行级权限管制;不仅能够治理数据的权限,还能够治理AI模型的权限。权限零碎与云上的IAM账号体系和认证体系买通,做到一次受权,所有用数场景都受控,简化管理员的权限管理工作。 图表 3对立权限治理 对立索引:建设对立的元数据索引和数据索引。元数据索引实现元数据性能的线性扩大,反对百万级分区大表的低时延高并发拜访。数据索引使数据分析时能精确定位数据地位,缩小IO,晋升性能。通过数据大脑剖析计算用户的数据日常用数行为,主动举荐适宜利用场景的索引和物化视图,同时在用户的抉择下实现索引和物化视图的创立和增量刷新,进一步晋升每次数据拜访的hit rate(命中率)。 图表 4对立索引 对立事务:建设大数据、数据仓库、机器学习的ACID(原子性、一致性、隔离性和持久性)事务机制,让数仓开发人员、分析师、数据科学家等多种用数角色在同一个牢靠的并发零碎中协同工作。向用户提供多版本、多分支治理能力,用户可随时抉择应用历史版本做数据复现或模型复现,或做版本回退修复数据问题。同时基于弱小的细粒度元数据管理能力,多版本复用一份底层存储,存储不收缩,用户也可通过管制版本保留时长管制其总体存储老本。 图表 5数据&模型多版本多分支 对立拜访记录:建设数据和AI模型链路的血统治理,梳理分明表格与表格之间、表格与模型之间的流调关系。如图表2“血统、“拜访”、“计算成本”所示,通过计算引擎中的实时感知,收集各团队对数据和模型的拜访过程信息,能够做到数据在整个处理过程中的可追溯、可复现、可比照。在典型的数据链路中,每张数据表和模型在整个生命周期中消耗了多少老本(即应用了多少计算存储资源),都将十分清晰地出现在业务使用者背后,用户能够依据投入产出比,剥离有效工作。例如,某实时报表占用了大量的剖析存储资源,而从业务角度来看隔天生成报表也没有影响,所以能够将Flink实时链路更改成Spark离线链路。在残缺地记录信息,融入业务知识后,交融元数据会让企业有一笔清晰明确的用数账本和优化计划。 图表 6典型的数据链路 交融元数据实质上是对数据应用的指引和管制,是一个零碎思考的过程,而不是一个繁多的流动。因而,良好的元数据管理须要同时联合业务教训和技术倒退。 时下,华为云也在联合本身和客户的诉求,摸索如何均衡性能与老本、升高用数门槛、洞察未知等等。咱们心愿突破存储与计算、多个引擎间的“数据墙”,让一份数据贯通始终,解决“数据搬家”带来的性能和一致性问题;像治理代码一样治理数据和模型,让数据与AI开发高效无缝互通,在AI算法的加持下,让数据的价值有限开释;赋数以智,让数据治理走向自动化,升高数据研发老本,让各个系统可能“对话”,解决“数据孤岛”景象。 交融元数据正是解决这些问题的根底,它将为企业数据和数据目录提供对立视图,为数据应用程序、数据工程师、数据科学家和业务经营提供数据服务,在面临海量数据的业务场景中、在无止境的数据治理摸索路线上,向企业搭档展示一幅清晰的地图。

March 15, 2022 · 1 min · jiezi

关于大数据:湖仓一体天花板大数据一站式交互式SQL分析技术

本文分享自华为云社区《【华为云Stack】【大架光顾】第7期:湖仓一体天花板,大数据一站式SQL剖析技术实际》,作者:华为云HetuEngine首席架构师 武文博。 (一)背景 早在2020年5月华为云寰球分析师大会中,华为率先提出“湖仓一体”概念,并落地在华为云FusionInsight智能数据湖解决方案中。其中,HetuEngine河图引擎承当一站式SQL剖析引擎角色,使能跨源、跨域的一体化剖析落地。基于云原生架构,让“逻辑数据湖”大规模数据交融剖析提效50倍,本文将具体论述HetuEngine在实现一站式SQL剖析所面临的挑战、技术架构和案例。 (二)需要和挑战 咱们调研了上千家客户,对于一站式SQL剖析场景,客户提出了一些需要和冀望: 跨域逻辑协同,通过计算去中心化,反对高度灵便、简单拓扑的算力网络,并充沛复用现网的硬件设施和数据资源,节俭投资;在跨源方面,买通数据源,将零散的数据,以高性价比的形式实现交融剖析,缩小ETL,节省时间老本;云原生已是2021年的热词之一,大数据也不例外,跨源、跨域逻辑协同的数据虚拟化引擎也须要云原生的加持,以实现基于云的弹性伸缩、动静多租、对立入口;正是因为政企业务爆发式增长,使其对大数据平台的性能要求越来越高,挑战也随之而来。 跨域要高效在跨域协同计算时,临时性工作多,需灵便麻利的SQL化跨域协同能力,以较小的数据老本和较短的耗时协同剖析散落在不同机房、不同数据中心、不同数据源的数据,要求有如下特点: • 一条SQL语句跨地区执行 业界现有的一些跨域协同计划并不是以SQL语句来实现的,而是在SQL引擎之上建设的一层非SQL接口的任务调度框架。这类实现计划技术难度较低,然而对于业务用户来说应用简单,灵活性差,不可避免地存在屡次数据落盘和拷贝,实时交互式查问场景无奈满足时效性要求。 通过一条SQL语句实现跨地区分布式执行,从技术角度看,带给了业务用户优良的用户体验和极低的学习门槛,接口简略扩大灵便。相应地,跨域协同SQL引擎自身就必须要克服一系列由此产生的艰难与挑战。 • 提供近似本地应用体验 要实现跨域SQL拜访,须要思考的次要限度条件如下: 1) 网络条件:跨域要面临的网络条件,往往要比本地网络条件劣化很多倍,客户常常碰到如高时延、低带宽、网络抖动、网络代理瓶颈、网段隔离等挑战; 2) SQL语法:如何在SQL语句层面很不便的表白出想要拜访的数据中心上面的数据源的表?如何确保跨域SQL语句写法可能与本地SQL语句无缝连接? 3) 数据与系统安全:如何确保本地区以外的SQL用户只能感知到本地管理员对外开放的数据列表?如何做到本地区的计算资源、网络资源不被内部SQL申请所耗尽? 第1个问题间接关系到跨域协同的性能体验,第2个问题间接关系到跨域联邦SQL是否易落地、容易被业务用户所承受,第3个问题决定了跨源联邦SQL引擎是否胜利上线。 如果跨域联邦SQL引擎无奈做到高吞吐(单服务IP端口达到1GB/s的传输能力)、高性能(1000公里间隔内100ms响应,亿行数据秒级拉取),那么很难认为这个跨域联邦SQL引擎达到实在商用程度。 • 动静感知不同地区的元数据 在晚期的业界跨域计划中常常提到集中管理的全局元数据。这类计划的实质还是依附中心化的主SQL引擎+集中存储的核心元数据来实现跨地的数据拜访,通过繁琐、简单的全局元数据采集、汇总来回避了革新传统SQL引擎内核所面临微小技术挑战。相应地,这类计划上线后,须要继续投入治理运维人力进行跨地区的元数据汇总,每次上线或者下线一个数据中心都会牵一发而动全身,成为一个盛大、旷日持久的革新工程。 为了彻底解决上述计划的弊病,新一代的跨域联邦SQL引擎要具备跨域动静感知元数据的能力。客户通过简略部署配置即可间接上线,无需染指相似元数据管理等与业务强耦合的简单筹备工作中。反之,通过批改配置即可让一个Region/DC脱离联邦SQL查问网络。 跨源要易用跨源剖析中首要问题是如何实现多源异构SQL化剖析,目前,市场上真正满足客户需要的引擎并不多,次要是因为: • 一条SQL拜访多个异构数据源 要实现这个指标,升高客户应用大数据的门槛,简而言之要做4个“一”:一个SQL语句,一个元数据模型,一个拜访入口,一个鉴权体系。既要实现对多源异构数据的对立SQL查问和剖析,又要放弃与传统数据库的SQL语法体验统一。 • 跨源保障高性能 在跨源拜访方面,要解决两个关键问题: 如何尽可能地升高被拜访的数据源的进口数据量和数据传输损耗;如何尽可能地升高跨源SQL引擎的计算工作量和导入数据量。• 数据源信息可自定义,可实时刷新,要害敏感信息主动加密 这一点的必要性对于业务管理员来说显而易见,然而往往被开源社区或尚未达到商用程度的跨源引擎所疏忽。要做好这一点,须要从部署、元数据管理、服务化等多个角度进行建设。从对外接口类型看,跨域、跨源剖析引擎要具备两个类型的接口: • 业务接口 面向一般SQL用户,提供对立的服务化拜访入口,屏蔽前方的多个计算实例细节信息,提供与传统OLAP引擎统一的业务交互体验; • 治理接口 面向平台、业务管理员,提供常见的运维治理配置服务,波及——用户认证、资源调配、数据源信息集中管理、业务拜访权限定义等能力。这些业务配置信息须要欠缺的后盾零碎提供加解密治理和长久化存储。 上述两个接口面向不同的角色凋谢,不同的角色的用户感知不到其它角色的行为。从而实现信息隔离和高水平的服务化。 总之,现实的成果是——不管用户正在拜访的是跨域的数据,还是跨源的数据,咱们都要让业务用户的应用体验与传统的OLAP引擎体验保持一致。这也正是数据虚拟化力求达到的成果。 引擎云原生化近年来,云原生技术方兴未艾,一大批云原生的数仓、OLAP引擎、湖仓一体引擎正在迅猛发展,有影响力的剖析引擎都已搬迁上云。其中海内提供云原生大数据服务,比拟有代表性的有Databricks、Snowflake等,其市值已达千亿美元。 咱们认为,一款云原生的剖析引擎至多要具备以下能力: • 租户资源隔离化 云原生状态下,要求实现租户之间资源齐全隔离,通过资源隔离打消运行危险,晋升数据安全。 • 资源策略灵活化 灵便的资源策略有助于升高经营老本,常见的资源策略包含——动静资源分配实时失效,反对动静、动态部署形式,单个租户实例要反对无损业务的弹性伸缩。 • 故障疾速主动复原,在线滚动重启 云原生动静部署在带来灵活性的同时,也造成了单个实例的理论运行物理地位的随机性。万一产生故障时,须要整个零碎具备自动检测、主动重新部署实现疾速复原。同时,在线滚动重启也是当下云原生引擎的标配。 (三)数据虚拟化引擎HetuEngine 随着大数据平台在各行业的疾速倒退,大数据集群出现零散式建设、湖仓割裂、来回搬迁等新挑战,客户对于跨域高效、跨源易用、云原生化提出了更高的要求。 传统计划广泛波及了下图中的1、2点。对于单企业、小规模业务场景而言,在业务倒退初期根本可满足需要,然而对技术开发、保护人员的技能要求较高,一旦业务发生变化就须要从新定制开发,手工变更部署计划,易造成信息泄露。 为了打造一款成熟、可商用的虚拟化引擎,咱们须要站在客户理论应用场景角度登程,系统性、端到端地设计一款平安、易用、易运维、可扩大的数据虚拟化引擎。 实践经验表明,上图中3、4、5、6点是决定一款数据虚拟化引擎是否满足业务理论需要、是否高效上线业务的要害。 **HetuEngine架构HetuEngine是华为云FusionInsight团队自研的一款高性能分布式SQL查问&数据虚拟化引擎,可与大数据生态无缝交融,实现海量数据秒级查问;反对多源异构协同,使能数据湖内/湖间/湖仓一站式SQL交融剖析。** 图 HetuEngine架构图 咱们齐全基于云原生2.0的技术理念施行了HetuEngine顶层架构设计,这一点决定了HetuEngine从一开始就是为云服务化、“湖仓一体”而生。对立的云服务层在带来极简操作和极致运维体验的同时,也为引擎层的多实例、弹性伸缩、跨域跨源对立拜访入口、数据虚拟化等能力奠定了软件架构根底。 面向跨域、跨源、云原生三大维度,HetuEngine别离具备如下架构劣势: ...

March 15, 2022 · 1 min · jiezi

关于大数据:从构建到使用openLooKeng-如何实现-Hash-Join

Hash Join是在进行多表连贯时罕用的形式之一。那如何在openLooKeng上构建并实现Hash Join?openLooKeng反对的Join类型有哪些?本期,社区小伙伴将分享[openLooKeng Hash Join 实现原理],从构建到应用,内容非常具体,心愿对大家有帮忙。 1 openLooKeng Join概述 为了更好的介绍join,咱们创立两个非常简单的表t1和t2。执行的SQL语句如下: create table t1(id bigint, value bigint);insert into t1 values(1, 11);insert into t1 values(2, 22);insert into t1 values(3, 33);insert into t1 values(4, 44); create table t2(id bigint, value bigint);insert into t2 values(1, 111);insert into t2 values(2, 11);insert into t2 values(3, 333);insert into t2 values(4, 33); openLooKeng的join有四类: 1) Lookup Join 大部分类型的Join都由Lookup Join实现。例如咱们执行SQL语句如下: select * from t1 inner join t2 on t1.value=t2.value; ...

March 15, 2022 · 2 min · jiezi

关于大数据:使用分享Hive分区表那些事

一、 动态分区 1.创立动态分区格局: create table employees ( name string, salary float, subordinated array<string>, deductions map<string,float>, address struct<street:string,city:string,state:string,zip:int> ) partitioned by (country string,state string) row format delimited fields terminated by "\t" collection items terminated by "," map keys terminated by ":" lines terminated by "\n" stored as textfile;创立成绩后发现他的存储门路和一般的外部表的门路是一样的而且多了分区表的字段,因为咱们创立的分区表并没内容,事实上,除非须要优化查问性能,否则实现表的用户不须要关系"字段是否是分区字段" 2.增加分区表 alter table employees add partition (country="china",state="Asia"); 查看分区表信息: show partitions employees; hdfs上的门路:/user/hive/warehouse/zxz.db/employees/country=china/state=Asia 他们都是以目录及子目录模式存储的 3.插入数据: 格局: INSERT INTO TABLE tablename [PARTITION (partcol1[=val1], partcol2[=val2] ...)] VALUES values_row [, values_row …]; 格局2:(举荐应用) load data local inpath '/home/had/data1.txt' into table employees partition (country =china,state=Asia) ...

March 15, 2022 · 2 min · jiezi

关于大数据:MRS-IoTDB时序数据库的总体架构设计与实现

MRS IoTDB时序数据库的总体架构设计与实现 MRS IoTDB是华为FusionInsight MRS大数据套件最新推出的时序数据库产品,其当先的设计理念在时序数据库畛域展现出越来越弱小的竞争力,失去了越来越多的用户认可。为了大家更好地理解MRS IoTDB,本文将会系统地为大家介绍MRS IoTDB的前因后果和性能个性,重点为大家介绍MRS IoTDB时序数据库的整体架构设计与实现。 什么是时序数据库时序数据库是工夫序列数据库的简称,指的是专门对带工夫标签(依照工夫的程序变动,即工夫序列化)的数据进行存储、查问、剖析等解决操作的专用数据库系统。艰深来说,时序数据库就是专门用来记录例如物联网设施的温度、湿度、速度、压力、电压、电流以及证券买入卖出价等随着工夫演进一直变动的各类数值(测点、事件)的数据库。 以后,随着大数据技术倒退和利用的不断深入,以物联网IoT(Internet Of Things)、金融剖析为代表的两类数据,体现出随着工夫的演进连续不断地产生大量传感器数值或事件数据。工夫序列数据(time series data)就是以数据(事件)产生的时刻(工夫戳)为时间轴造成的连续不断的数值序列。例如某物联网设施不同时刻的的温度数据形成一个工夫序列数据: 工夫戳设施ID温度T1D128T2D231T3D312T4D489无论是机器产生的传感器数据,还是人类流动产生的社会事件数据,都有一些独特的特色: (1)采集频率高:每秒采集几十次、上百次、十万次乃至百万次; (2)采集精度高:起码反对毫秒级采集,有些须要反对微秒级和纳秒级采集; (3)采集跨度大:7*24小时继续一直地间断采集几年、乃至数十年数据; (4)存储周期长:须要反对时序数据的长久存储,甚至对有些数据须要进行长达上百年的永恒存储(例如地震数据); (5)查问窗口长:须要反对从毫秒、秒、分钟、小时到日、月、年等不同粒度的工夫窗口查问;也须要反对万、十万、百万、千万等不同粒度的数量窗口查问; (6)数据荡涤难:工夫序列数据存在乱序、缺失、异样等简单状况,须要专用算法进行高效实时处理; (7)实时要求高:无论是传感器数据还是事件数据,都须要毫秒级、秒级的实时处理能力,以确保实时响应和应急解决能力; (8)算法业余强:工夫序列数据在地震、金融、电力、交通等不同畛域,都有很多垂直畛域的业余时序剖析需要,须要利用时序趋势预测、类似子序列剖析、周期性预测、工夫挪动均匀、指数平滑、工夫自回归剖析以及基于LSTM的时序神经网络等算法进行业余剖析。 从时序数据的独特特色能够看出,工夫序列非凡的场景需要给传统的关系数据库存储和大数据存储都带来了挑战,无奈是采纳关系数据库进行结构化存储,还是采纳NoSQL数据库进行存储,都无奈满足海量时序数据高并发实时写入和查问的需要。因而,迫切需要一种专门用于存储工夫序列数据的专用数据库,时序数据库的概念和产品就这样诞生了。 须要留神的是:时序数据库不同于时态数据库和实时数据库。时态数据库(Temporal Database)是一种可能记录对象变动历史,即可能保护数据的变动经验的数据库,比方TimeDB。时态数据库是对传统关系数据库中工夫记录的工夫状态进行细粒度保护的零碎,而时序数据库齐全不同于关系数据库,只存储不同工夫戳对应的测点值。无关时序数据库与时态数据库的更具体比照,后续将会发文专门介绍,在此不再详述。 时序数据库也不同于实时数据库。实时数据库诞生于传统工业,次要是因为古代工业制作流程及大规模工业自动化的倒退,传统关系数据库难以满足工业数据的存储和查问需要。因而,在80年代中期,诞生了实用于工业监控畛域的实时数据库。因为实时数据库诞生早,在扩展性、大数据生态对接、分布式架构、数据类型等方面存在局限,然而也有产品配套齐全、工业协定对接残缺的劣势。时序数据库诞生于物联网时代,在大数据生态对接、云原生反对等方面更有劣势。 时序数据库与时态数据库、实时数据库的根本比照信息如下: 时序数据库时态数据库实时数据库诞生时代诞生于物联网时代诞生于20世纪80年代诞生于传统工业时代与关系数据库关系对关系数据库无间接关系对关系数据库的时态扩大对关系数据库的扩大加强工夫序列解决能力适宜解决工夫序列不适宜解决工夫序列适宜解决工夫序列架构分布式架构非分布式架构非分布式架构生态对接大数据生态对接不足大数据生态对接不足大数据生态对接不足大数据生态对接2.什么是MRS IoTDB时序数据库 MRS IoTDB是华为FusionInsight MRS大数据套件中的时序数据库产品,在深度参加Apache IoTDB社区开源版的根底上推出的高性能企业级时序数据库产品。IoTDB顾名思义,是针对IoT物联网畛域推出的专用时序数据库软件,是由清华大学发动的国产Apache开源软件。自IoTDB诞生之初,华为就深度参加IoTDB的架构设计和外围代码奉献,对IoTDB集群版的稳定性、高可用和性能优化投入了大量人力并提出了大量的改良倡议和奉献了大量的代码。 IoTDB在设计之初,全面剖析了市面上的时序数据库相干产品,包含基于传统关系数据库的Timescale、基于HBase的OpenTSDB、基于Cassandra的KariosDB、基于时序专属构造的InfluxDB等支流时序数据库,借鉴了不同时序数据在实现机制方面的劣势,造成了本人独特的技术劣势: (1)反对高速数据写入 独有的基于两阶段LSM合并的tLSM算法无效保障了IoTDB即便在乱序数据存在的状况下也能轻松实现单机每秒千万测点数据的并发写入能力。 (2)反对高速查问 反对TB级数据毫秒级查问 (3)性能齐备 反对CRUD等残缺的数据操作(更新通过对同一设施同一时间戳的测点数据笼罩写入来实现,删除通过设置TTL过期工夫来实现),反对频域查问,具备丰盛的聚合函数,反对相似性匹配、频域剖析等业余时序解决。 (4)接口丰盛,简略易用 反对JDBC接口、Thrift API接口和SDK等多种接口。采纳类SQL语句,在规范SQL的语句上减少了对于工夫滑动窗口的统计等时序解决罕用的性能,提供了零碎应用效率。Thrift API接口反对Java、C\C++、Python、C#等多语言接口调用。 (5)低存储老本 IoTDB独立研发的TsFile时序文件存储格局,专门针对时序解决解决做了优化,基于列式存储,反对显式的数据类型申明,不同数据类型主动匹配SNAPPY、LZ4、GZIP、SDT等不同的压缩算法,可实现1:150甚至更高的压缩比(数据精度进一步升高的状况下),极大地升高了用户的存储老本。例如某用户原来用9台KariosDB服务器存储的时序数据,IoTDB用1台等同配置的服务器即可轻松实现。 (6)云边端多状态部署 IoTDB独有的轻量级架构设计保障了IoTDB能够轻松实现“一套引擎买通云边端,一份数据兼容全场景”。在云服务中心,IoTDB能够采纳集群部署,充分发挥云的集群解决劣势;在边缘计算地位,IoTDB能够在边缘服务器上部署单机IoTDB,也能够部署大量节点的集群版,具体视边缘服务器配置而定;在设施终端,IoTDB能够TsFile文件的状态间接嵌入到终端设备的本地存储中,并间接被设施终端的间接读写TsFile文件,不须要IoTDB数据库服务器的启动运行,极大地缩小了对终端设备解决能力的要求。因为TsFile文件格式凋谢,终端任意语言和开发平台能够间接读写TsFile的二进制字节流,也能够利用TsFile自带的SDK进行读写,对外甚至能够通过FTP将TsFile文件发送到边缘或云服务中心。 (7)查问剖析一体化 IoTDB一份数据同时反对实时读写与分布式计算引擎剖析,TsFile与IoTDB引擎的松耦合设计保障了一方面IoTDB能够利用专有的时序数据处理引擎对时序数据进行高效写入和查问,同时TsFile也能够被Flink、Kafka、Hive、Pulsar、RabbitMQ、RocketMQ、Hadoop、Matlab、Grafana、Zeepelin等大数据相干组件进行读写剖析,极大地晋升了IoTDB的查问剖析一体化能力和生态扩大能力。 3. MRS IoTDB的整体架构 MRS IoTDB在Apache IoTDB已有架构的根底上,交融MRS Manager弱小的日志治理、运维监控、滚动降级、平安加固、高可用保障、灾备复原、细粒度权限管控、大数据生态集成、资源池优化调度等企业级外围能力,对Apache IoTDB内核架构尤其是分布式集群架构做了大量的重构优化,在稳定性、可靠性、可用性和性能方面做了大量的零碎级加强。 (1)接口兼容性: 进一步欠缺北向接口和南向接口,反对JDBC、Cli、API、SDK、MQTT、CoAP、Https等多种拜访接口,进一步欠缺类SQL语句,兼容大部分Influx SQL,反对批量导入导出 (2)分布式对等架构: MRS IoTDB在基于Raft协定的根底上,采纳了改良的Multi-Raft协定,并对Muti-Raft协定的底层实现进行了优化,采纳了Cache Leader等优化策略在保障无单节故障的根底上,进一步晋升MRS IoTDB数据查问路由的性能;同时,对强一致性、中等一致性和弱一致性策略进行了细粒度优化;对一致性哈希算法退出虚构节点策略防止数据歪斜,同时交融了查表与哈希分区的算法策略,在晋升集群高可用的根底上进一步保障集群调度的性能。 (3)双层粒度元数据管理: ...

March 15, 2022 · 1 min · jiezi

关于大数据:Apache-hudi-源码分析-写时处理优化小文件问题flink

Flink : 0.12 (引擎版本影响不大) hudi : 0.11.0-SNAPSHOT Time: 2022/03/14 spark 适配同理 整体流程flink 对每一行数据进行解决,结构 recorderKey(蕴含分区门路)通过 Hudi Metadata 获取指定分区门路所有满足条件的小文件(fileId)对小文件进行结构生成 AssignState,通过计算历史均匀每一行数据的大小,计算每个小文件还能再存入多少条数据。将 AssignState 用分区门路缓存。对每行数据反复上述操作,如果是曾经缓存过的分区门路,间接获取 AssginState,更新每个小文件残余存入个数如果小文件残余容量有余,就会创立新的 fileId 进行写入待 checkpoint 触发写出源码剖析BucketAssignFunction.java flink processElement,hudi 会通过其计算的每一条数据的 recordKey 失去 partitionPath private HoodieRecordLocation getNewRecordLocation(String partitionPath) { // // 通过 recordKey 失去 partitionPath,获取对应分区的小文件信息,察看下一个代码块 final BucketInfo bucketInfo = this.bucketAssigner.addInsert(partitionPath); final HoodieRecordLocation location; switch (bucketInfo.getBucketType()) { case INSERT: // This is an insert bucket, use HoodieRecordLocation instant time as "I". // Downstream operators can then check the instant time to know whether // a record belongs to an insert bucket. location = new HoodieRecordLocation("I", bucketInfo.getFileIdPrefix()); break; case UPDATE: location = new HoodieRecordLocation("U", bucketInfo.getFileIdPrefix()); break; default: throw new AssertionError(); } return location; }BucketAssigner.java ...

March 14, 2022 · 3 min · jiezi

关于大数据:如何打造一款极速数据湖分析引擎

简介:本文向读者具体揭秘了数据湖剖析引擎的关键技术,并通过 StarRocks 来帮忙用户进一步了解零碎的架构。 作者: 阿里云 EMR 开源大数据 OLAP 团队 StarRocks 社区数据湖剖析团队 前言随着数字产业化和产业数字化成为经济驱动的重要能源,企业的数据分析场景越来越丰盛,对数据分析架构的要求也越来越高。新的数据分析场景催生了新的需要,次要包含三个方面: 用户心愿用更加低廉的老本,更加实时的形式导入并存储任何数量的关系数据数据(例如,来自业务线应用程序的经营数据库和数据)和非关系数据(例如,来自挪动应用程序、IoT 设施和社交媒体的经营数据库和数据) 用户心愿本人的数据资产受到紧密的爱护 用户心愿数据分析的速度变得更快、更灵便、更实时 数据湖的呈现很好的满足了用户的前两个需要,它容许用户导入任何数量的实时取得的数据。用户能够从多个起源收集数据,并以其原始模式存储到数据湖中。数据湖领有极高的程度扩大能力,使得用户可能存储任何规模的数据。同时其底层通常应用便宜的存储计划,使得用户存储数据的老本大大降低。数据湖通过敏感数据辨认、分级分类、隐衷爱护、资源权限管制、数据加密传输、加密存储、数据危险辨认以及合规审计等措施,帮忙用户建设平安预警机制,加强整体平安防护能力,让数据可用不可得和平安合规。 为了进一步满足用户对于数据湖剖析的要求,咱们须要一套实用于数据湖的剖析引擎,可能在更短的工夫内从更多起源利用更多数据,并使用户可能以不同形式协同解决和剖析数据,从而做出更好、更快的决策。本篇文章将向读者具体揭秘这样一套数据湖剖析引擎的关键技术,并通过 StarRocks 来帮忙用户进一步了解零碎的架构。 之后咱们会持续发表两篇文章,来更具体地介绍极速数据湖剖析引擎的内核和应用案例: 代码走读篇:通过走读 StarRocks 这个开源剖析型数据库内核的要害数据结构和算法,帮忙读者进一步了解极速数据湖剖析引擎的原理和具体实现 。 Case Study 篇:介绍大型企业如何应用 StarRocks 在数据湖上实时且灵便的洞察数据的价值,从而帮忙业务进行更好的决策,帮忙读者进一步了解实践是如何在理论场景落地的 。 什么是数据湖?什么是数据湖,依据 Wikipedia 的定义,“A data lake is a system or repository of data stored in its natural/raw format, usually object blobs or files”。艰深来说能够将数据湖了解为在便宜的对象存储或分布式文件系统之上包了一层,使这些存储系统中离散的 object 或者 file 联合在一起对外展现出一个对立的语义,例如关系型数据库常见的“表”语义等。 理解完数据湖的定义之后,咱们自然而然地想晓得数据湖能为咱们提供什么独特的能力,咱们为什么要应用数据湖? 在数据湖这个概念进去之前,曾经有很多企业或组织大量应用 HDFS 或者 S3 来寄存业务日常运作中产生的各式各样的数据(例如一个制作 APP 的公司可能会心愿将用户所产生的点击事件事无巨细的记录)。因为这些数据的价值不肯定可能在短时间内被发现,所以找一个便宜的存储系统将它们暂存,期待在未来的一天这些数据能派上用场的时候再从中将有价值的信息提取进去。然而 HDFS 和 S3 对外提供的语义毕竟比拟繁多(HDFS 对外提供文件的语义,S3 对外提供对象的语义),随着工夫的推移工程师们可能都无法回答他们到底在这外面存储了些什么数据。为了避免后续应用数据的时候必须将数据一一解析能力了解数据的含意,聪慧的工程师想到将定义统一的数据组织在一起,而后再用额定的数据来形容这些数据,这些额定的数据被称之为“元”数据,因为他们是形容数据的数据。这样后续通过解析元数据就可能答复这些数据的具体含意。这就是数据湖最原始的作用。 ...

March 9, 2022 · 3 min · jiezi

关于大数据:图解大数据-Spark机器学习下建模与超参调优

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/84本文地址:http://www.showmeai.tech/article-detail/181申明:版权所有,转载请分割平台与作者并注明出处 1.分类、回归与聚类模型1)分类算法概述分类是一种重要的机器学习和数据挖掘技术。分类的目标是依据数据集的特点结构一个分类函数或分类模型(也经常称作分类器),该模型能把未知类别的样本映射到给定类别中的一种技术。 分类的目标就是剖析输出数据,通过在训练集中的数据体现进去的个性,为每一个类找到一种精确的形容或者模型,采纳该种办法(模型)将隐含函数示意进去。 结构分类模型的过程个别分为训练和测试两个阶段。 在结构模型之前,将数据集随机地分为训练数据集和测试数据集。先应用训练数据集来结构分类模型,而后应用测试数据集来评估模型的分类准确率。如果认为模型的准确率能够承受,就能够用该模型对其它数据元组进分类。一般来说,测试阶段的代价远低于训练阶段。 (1)逻辑回归逻辑回归(logistic regression)是统计学习中的经典分类办法,属于对数线性模型。logistic回归的因变量能够是二分类的,也能够是多分类的。 获取数据集与代码 → ShowMeAI的官网GitHub https://github.com/ShowMeAI-Hub/awesome-AI-cheatsheets运行代码段与学习 → 在线编程环境 http://blog.showmeai.tech/python3-compilerfrom pyspark.ml.classification import LogisticRegressionfrom pyspark.sql import SparkSessionspark = SparkSession \ .builder \ .appName("LogisticRegressionSummary") \ .getOrCreate()# 加载数据training = spark.read.format("libsvm").load("data/mllib/sample_libsvm_data.txt")lr = LogisticRegression(maxIter=10, regParam=0.3, elasticNetParam=0.8)# 拟合模型lrModel = lr.fit(training)# 模型信息总结与输入trainingSummary = lrModel.summary# 输入每一轮的损失函数值objectiveHistory = trainingSummary.objectiveHistoryprint("objectiveHistory:")for objective in objectiveHistory: print(objective)# ROC曲线trainingSummary.roc.show()print("areaUnderROC: " + str(trainingSummary.areaUnderROC))spark.stop()(2)反对向量机SVM分类器反对向量机SVM是一种二分类模型。它的根本模型是定义在特色空间上的距离最大的线性分类器。反对向量机学习办法蕴含3种模型:线性可分反对向量机、线性反对向量机及非线性反对向量机。 当训练数据线性可分时,通过硬距离最大化,学习一个线性的分类器,即线性可分反对向量机;当训练数据近似线性可分时,通过软距离最大化,也学习一个线性的分类器,即线性反对向量机;当训练数据线性不可分时,通过应用核技巧及软距离最大化,学习非线性反对向量机。线性反对向量机反对L1和L2的正则化变型。 获取数据集与代码 → ShowMeAI的官网GitHub https://github.com/ShowMeAI-Hub/awesome-AI-cheatsheets运行代码段与学习 → 在线编程环境 http://blog.showmeai.tech/python3-compilerfrom pyspark.ml.classification import LinearSVC# Load training datatraining = spark.read.format("libsvm").load("data/mllib/sample_libsvm_data.txt")lsvc = LinearSVC(maxIter=10, regParam=0.1)# Fit the modellsvcModel = lsvc.fit(training)# Print the coefficients and intercept for linear SVCprint("Coefficients: " + str(lsvcModel.coefficients))print("Intercept: " + str(lsvcModel.intercept))(3)决策树分类器决策树(decision tree)是一种根本的分类与回归办法,这里次要介绍用于分类的决策树。决策树模式呈树形构造,其中每个外部节点示意一个属性上的测试,每个分支代表一个测试输入,每个叶节点代表一种类别。 ...

March 8, 2022 · 5 min · jiezi

关于大数据:图解大数据-Spark机器学习上工作流与特征工程

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/84本文地址:http://www.showmeai.tech/article-detail/180申明:版权所有,转载请分割平台与作者并注明出处 1.Spark机器学习工作流1)Spark mllib 与mlSpark中同样有用于大数据机器学习的板块MLlib/ML,能够反对对海量数据进行建模与利用。 2)机器学习工作流(Pipeline)一个典型的机器学习过程,从数据收集开始,要经验多个步骤,能力失去须要的输入。是一个蕴含多个步骤的流水线式工作: 源数据ETL(抽取、转化、加载)数据预处理指标提取模型训练与穿插验证新数据预测MLlib 已足够简略易用,但在一些状况下应用 MLlib 将会让程序结构简单,难以了解和实现。 指标数据集结构复杂须要屡次解决。对新数据进行预测的时候,须要联合多个曾经训练好的单个模型进行综合预测 Spark 1.2 版本之后引入的 ML Pipeline,能够用于构建简单机器学习工作流利用。以下是几个重要概念的解释: (1)DataFrame应用Spark SQL中的 DataFrame 作为数据集,能够包容各种数据类型。较之 RDD,DataFrame 蕴含了 schema 信息,更相似传统数据库中的二维表格。 它被 ML Pipeline 用来存储源数据,例如DataFrame 中的列能够是存储的文本、特征向量、实在标签和预测的标签等。 (2)Transformer(转换器)是一种能够将一个DataFrame 转换为另一个DataFrame 的算法。比方,一个模型就是一个 Transformer,它能够把一个不蕴含预测标签的测试数据集 DataFrame 打上标签,转化成另一个蕴含预测标签的 DataFrame。 技术上,Transformer实现了一个办法transform(),通过附加一个或多个列将一个 DataFrame 转换为另一个DataFrame。 (3)Estimator(预计器/评估器)是学习算法或在训练数据上的训练方法的概念形象。在 Pipeline 里通常是被用来操作 DataFrame 数据,并生产一个 Transformer。从技术上讲,Estimator 实现了一个办法fit(),它承受一个DataFrame 并产生一个Transformer转换器。 (4)ParameterParameter 被用来设置 Transformer 或者 Estimator 的参数。当初,所有 Transformer(转换器)和Estimator(预计器)可共享用于指定参数的公共API。ParamMap是一组(参数,值)对。 (5)PipeLine(工作流/管道)工作流将多个工作流阶段( Transformer转换器和Estimator预计器)连贯在一起,造成机器学习的工作流,并取得后果输入。 3)构建一个Pipeline工作流 val pipeline = new Pipeline().setStages(Array(stage1,stage2,stage3,…))① 首先须要定义 Pipeline 中的各个PipelineStage(工作流阶段)。 包含Transformer转换器 和Estimator评估器。比方指标提取 和 转换模型训练。有了这些解决特定问题的Transformer转换器和 Estimator评估器,就能够依照具体的解决逻辑,有序地组织PipelineStages,并创立一个Pipeline。② 而后,能够把训练数据集作为入参,并调用 Pipelin 实例的 fit 办法,开始以流的形式来解决源训练数据。 ...

March 8, 2022 · 3 min · jiezi

关于大数据:图解大数据-流式数据处理Spark-Streaming

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/84本文地址:http://www.showmeai.tech/article-detail/179申明:版权所有,转载请分割平台与作者并注明出处 1.Spark Streaming解读 1)Spark Streaming简介Spark Streaming是Spark外围API的一个扩大,能够实现实时数据的可拓展,高吞吐量,容错机制的实时流解决框架。 Spark Streaming 反对的数据输出源很多,例如:Kafka、 Flume、Twitter、ZeroMQ 和简略的 TCP 套接字等等。数据输出后能够用 Spark 的高度形象原语如:map、reduce、join、window 等进行运算。而后果也能保留在很多中央,如HDFS,数据库等。另外Spark Streaming 也能和 MLlib(机器学习)以及 Graphx 完满交融。 (1)流数据特点数据始终在变动数据无奈回退数据始终源源不断涌进(2)DStream概念和 Spark 基于 RDD 的概念很类似,Spark Streaming 应用离散化流(discretized stream)作为形象示意,叫作DStream。DStream 是随时间推移而收到的数据的序列。在外部,每个工夫区间收到的数据都作为 RDD 存在,而DStream 是由这些RDD 所组成的序列(因而得名“离散化”)。 (3)DStream造成步骤针对某个时间段切分的小数据块进行RDD DAG构建。间断工夫内产生的一连串小的数据进行切片解决别离构建RDD DAG,造成DStream。定义一个RDD解决逻辑,数据依照工夫切片,每次流入的数据都不一样,然而RDD的DAG逻辑是一样的,即依照工夫划分成一个个batch,用同一个逻辑解决。 DStream 能够从各种输出源创立,比方 Flume、Kafka 或者 HDFS。创立进去的 DStream 反对两种操作,一种是转化操作(transformation),会生成一个新的DStream,另一种是输入操作(output operation),能够把数据写入内部零碎中。DStream 提供了许多与 RDD 所反对的操作相相似的操作反对,还减少了与工夫相干的新操作,比方滑动窗口。 2)Spark Streaming特点 Spark Streaming有下述一些特点: 易用:Spark Streaming反对Java、Python、Scala等编程语言,能够像编写离线程序一样编写实时计算的程序求照的器。容错:Spark Streaming在没有额定代码和配置的状况下,能够复原失落的数据。对于实时计算来说,容错性至关重要。首先要明确一下Spak中RDD的容错机制,即每一个RDD都是个不可变的分布式可重算的数据集,它记录着确定性的操作继承关系(lineage),所以只有输出数据是可容错的,那么任意一个RDD的分区(Partition)出错或不可用,都能够应用原始输出数据通过转换操作从新计算失去。易整合到Spark体系中:Spark Streaming能够在Spark上运行,并且还容许重复使用雷同的代码进行批处理。也就是说,实时处理能够与离线解决相结合,实现交互式的查问操作。3)Spark Streaming架构大家晓得Spark的工作机制如下: 而SparkStreaming架构由三个模块组成: 在上图中几个外围的角色和性能别离是: Master:记录Dstream之间的依赖关系或者血缘关系,并负责任务调度以生成新的RDWorker: ①从网络接收数据并存储到内存中②执行RDD计算Client:负责向Spark Streaming中灌入数据(flume kafka)4)Spark Streaming 作业提交(1)相干组件Spark Sreaming的作业提交蕴含的组件和性能别离为: ...

March 8, 2022 · 3 min · jiezi

关于大数据:图解大数据-综合案例使用Spark分析挖掘音乐专辑数据

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/84本文地址:http://www.showmeai.tech/article-detail/178申明:版权所有,转载请分割平台与作者并注明出处 引言娱乐影音是目前大数据与AI利用最宽泛的场景之一,本案例以音乐专辑发行数据为背景,解说应用pyspark对HDFS存储的数据进行解决数据分析的过程,并且对剖析后果做了可视化出现。 1.试验环境(1)Linux: Ubuntu 16.04(2)Python: 3.8(3)Hadoop:3.1.3(4)Spark: 2.4.0(5)Web框架:flask 1.0.3(6)可视化工具:Echarts(7)开发工具:Visual Studio Code为了反对Python可视化剖析,大家能够运行如下命令装置Flask组件: sudo apt-get install python3-pippip3 install flask2.试验数据集1)数据集阐明数据集和源代码下载 链接:https://pan.baidu.com/s/1C0VI6w679izw1RENyGDXsw 提取码:show本案例的数据集来自于Kaggle平台,数据名称albums.csv,蕴含了10万条音乐专辑的数据(大家能够通过上述百度网盘地址下载)。次要字段阐明如下: album\_title:音乐专辑名称genre:专辑类型year\_of\_pub: 专辑发行年份num\_of\_tracks: 每张专辑中单曲数量num\_of\_sales:专辑销量rolling\_stone\_critic:滚石网站的评分mtv\_critic:寰球最大音乐电视网MTV的评分music\_maniac\_critic:音乐达人的评分2)上传数据至HDFS(1)启动Hadoop中的HDFS组件,在命令行运行上面命令: /usr/local/hadoop/sbin/start-dfs.sh(2)在hadoop上登录用户创立目录,在命令行运行上面命令: hdfs dfs -mkdir -p /user/hadoop(3)把本地文件系统中的数据集albums.csv上传到分布式文件系统HDFS中: hdfs dfs -put albums.csv3.pyspark数据分析1)建设工程文件(1)创立文件夹code (2)在code下创立project.py文件 (3)在code下创立static文件夹,寄存动态文件 (4)在code/static文件夹上面创立data目录,寄存剖析生成的json数据 2)进行数据分析本文对音乐专辑数据集albums.csv进行了一系列的剖析,包含: (1)统计各类型专辑的数量 (2)统计各类型专辑的销量总数 (3)统计近20年每年发行的专辑数量和单曲数量 (4)剖析总销量前五的专辑类型的各年份销量 (5)剖析总销量前五的专辑类型,在不同评分体系中的均匀评分 3)代码实现获取数据集与代码 → ShowMeAI的官网GitHub https://github.com/ShowMeAI-Hub/awesome-AI-cheatsheets运行代码段与学习 → 在线编程环境 http://blog.showmeai.tech/python3-compilerproject.py代码如下: from pyspark import SparkContextfrom pyspark.sql import SparkSessionimport json#统计各类型专辑的数量(只显示总数量大于2000的十种专辑类型)def genre(sc, spark, df): #依照genre字段统计每个类型的专辑总数,过滤出其中数量大于2000的记录 #并取出10种类型用于显示 j = df.groupBy('genre').count().filter('count > 2000').take(10) #把list数据转换成json字符串,并写入到static/data目录下的json文件中 f = open('static/data/genre.json', 'w') f.write(json.dumps(j)) f.close()#统计各个类型专辑的销量总数def genreSales(sc, spark, df): j = df.select('genre', 'num_of_sales').rdd\ .map(lambda v: (v.genre, int(v.num_of_sales)))\ .reduceByKey(lambda x, y: x + y).collect() f = open('static/data/genre-sales.json', 'w') f.write(json.dumps(j)) f.close()#统计每年发行的专辑数量和单曲数量def yearTracksAndSales(sc, spark, df): #把雷同年份的专辑数和单曲数量相加,并依照年份排序 result = df.select('year_of_pub', 'num_of_tracks').rdd\ .map(lambda v: (int(v.year_of_pub), [int(v.num_of_tracks), 1]))\ .reduceByKey(lambda x, y: [x[0] + y[0], x[1] + y[1]])\ .sortByKey()\ .collect() #为了不便可视化实现,将列表中的每一个字段别离存储 ans = {} ans['years'] = list(map(lambda v: v[0], result)) ans['tracks'] = list(map(lambda v: v[1][0], result)) ans['albums'] = list(map(lambda v: v[1][1], result)) f = open('static/data/year-tracks-and-sales.json', 'w') f.write(json.dumps(ans)) f.close()#取出总销量排名前五的专辑类型def GenreList(sc, spark, df): genre_list = df.groupBy('genre').count()\ .orderBy('count',ascending = False).rdd.map(lambda v: v.genre).take(5) return genre_list#剖析总销量前五的类型的专辑各年份销量def GenreYearSales(sc, spark, df, genre_list): #过滤出类型为总销量前五的专辑,将雷同类型、雷同年份的专辑的销量相加,并进行排序。 result = df.select('genre', 'year_of_pub', 'num_of_sales').rdd\ .filter(lambda v: v.genre in genre_list)\ .map(lambda v: ((v.genre, int(v.year_of_pub)), int(v.num_of_sales)))\ .reduceByKey(lambda x, y: x + y)\ .sortByKey().collect() #为了不便可视化数据提取,将数据存储为适配可视化的格局 result = list(map(lambda v: [v[0][0], v[0][1], v[1]], result)) ans = {} for genre in genre_list: ans[genre] = list(filter(lambda v: v[0] == genre, result)) f = open('static/data/genre-year-sales.json', 'w') f.write(json.dumps(ans)) f.close()#总销量前五的专辑类型,在不同评分体系中的均匀评分def GenreCritic(sc, spark, df, genre_list): #过滤出类型为总销量前五的专辑,将同样类型的专辑的滚石评分、mtv评分,音乐达人评分别离取均匀 result = df.select('genre', 'rolling_stone_critic', 'mtv_critic', 'music_maniac_critic').rdd\ .filter(lambda v: v.genre in genre_list)\ .map(lambda v: (v.genre, (float(v.rolling_stone_critic), float(v.mtv_critic), float(v.music_maniac_critic), 1)))\ .reduceByKey(lambda x, y : (x[0] + y[0], x[1] + y[1], x[2] + y[2], x[3] + y[3]))\ .map(lambda v: (v[0], v[1][0]/v[1][3], v[1][1]/v[1][3], v[1][2]/v[1][3])).collect() f = open('static/data/genre-critic.json', 'w') f.write(json.dumps(result)) f.close()#代码入口if __name__ == "__main__": sc = SparkContext( 'local', 'test') sc.setLogLevel("WARN") spark = SparkSession.builder.getOrCreate() file = "albums.csv" df = spark.read.csv(file, header=True) #dataframe genre_list = GenreList(sc, spark, df) genre(sc, spark, df) genreSales(sc, spark, df) yearTracksAndSales(sc, spark, df) GenreYearSales(sc, spark, df, genre_list) GenreCritic(sc, spark, df, genre_list)4)代码运行(1)在Ubuntu终端窗口中,用 hadoop 用户登录,在命令行运行 su hadoop,并输出用户明码。 (2)进入代码所在目录。 (3)为了可能读取HDFS中的 albums.csv 文件,在命令行运行: ...

March 8, 2022 · 7 min · jiezi

关于大数据:图解大数据-综合案例使用spark分析新冠肺炎疫情数据

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/84本文地址:http://www.showmeai.tech/article-detail/176申明:版权所有,转载请分割平台与作者并注明出处 引言2020以来新冠疫情扭转了全世界,影响着大家的生存,本案例联合大数据分析技术,应用pyspark对2020年美国新冠肺炎疫情进行数据分析,并联合可视化办法进行后果出现。 1.试验环境(1)Linux: Ubuntu 16.04(2)Hadoop3.1.3(3)Python: 3.8(4)Spark: 2.4.0(5)Jupyter Notebook2.数据集1)数据集下载本案例应用的数据集来自Kaggle平台的美国新冠肺炎疫情数据集,数据名称us-counties.csv,为csv文件,它蕴含了美国发现首例新冠肺炎确诊病例至2020-05-19的相干数据。 数据集下载(百度网盘) 链接:https://pan.baidu.com/s/1YNY2UREm5lXsNkHM3DZFmA 提取码:show数据一览如下: 2)格局转换原始数据为csv格式文件,咱们首先做一点数据格式转换,不便spark读取数据生成RDD或者DataFrame,具体数据转换代码如下: import pandas as pd#.csv->.txtdata = pd.read_csv('/home/hadoop/us-counties.csv')with open('/home/hadoop/us-counties.txt','a+',encoding='utf-8') as f: for line in data.values: f.write((str(line[0])+'\t'+str(line[1])+'\t' +str(line[2])+'\t'+str(line[3])+'\t'+str(line[4])+'\n'))3)数据上传至HDFS而后上传“/home/hadoop/us-counties.txt”至HDFS文件系统中,具体门路为“/user/hadoop/us-counties.txt”。操作命令如下: ./bin/hdfs dfs -put /home/hadoop/us-counties.txt /user/hadoop3.应用Spark对数据进行剖析这里采纳Python作为编程语言,联合pyspark进行数据分析。 1)数据读取与DataFrame构建首先咱们读取数据文件,生成Spark DataFrame。 本案例中应用的数据为结构化数据,因而能够应用spark读取源文件生成DataFrame以不便进行后续剖析实现。 from pyspark import SparkConf,SparkContextfrom pyspark.sql import Rowfrom pyspark.sql.types import *from pyspark.sql import SparkSessionfrom datetime import datetimeimport pyspark.sql.functions as funcdef toDate(inputStr): newStr = "" if len(inputStr) == 8: s1 = inputStr[0:4] s2 = inputStr[5:6] s3 = inputStr[7] newStr = s1+"-"+"0"+s2+"-"+"0"+s3 else: s1 = inputStr[0:4] s2 = inputStr[5:6] s3 = inputStr[7:] newStr = s1+"-"+"0"+s2+"-"+s3 date = datetime.strptime(newStr, "%Y-%m-%d") return date#主程序:spark = SparkSession.builder.config(conf = SparkConf()).getOrCreate()fields = [StructField("date", DateType(),False),StructField("county", StringType(),False),StructField("state", StringType(),False), StructField("cases", IntegerType(),False),StructField("deaths", IntegerType(),False),]schema = StructType(fields)rdd0 = spark.sparkContext.textFile("/user/hadoop/us-counties.txt")rdd1 = rdd0.map(lambda x:x.split("\t")).map(lambda p: Row(toDate(p[0]),p[1],p[2],int(p[3]),int(p[4])))shemaUsInfo = spark.createDataFrame(rdd1,schema)shemaUsInfo.createOrReplaceTempView("usInfo")2)数据分析本案例次要进行了以下统计分析,剖析的指标和办法如下: ...

March 8, 2022 · 5 min · jiezi

关于大数据:图解大数据-Spark-DataframeSQL大数据处理分析

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/84本文地址:http://www.showmeai.tech/article-detail/175申明:版权所有,转载请分割平台与作者并注明出处 1.Spark Dataframe 简介在高版本的Spark中,咱们能够应用Dataframe这个构造状态更方便快捷地对数据进行解决,而且它也和咱们相熟的python pandas Dataframe的很多操作能够类比关联。 DataFrame是一个以命名列形式组织的分布式数据集。在概念上,它跟关系型数据库中的一张表或者1个Python(或者R)中的data frame一样,然而进行了一些优化。DataFrame能够依据结构化的数据文件、hive表、内部数据库或者曾经存在的RDD结构。 依据官网文档的解释,咱们能够发现 Spark DataFrame 有以下几个外围点: 分布式的数据集与关系型数据库中的table、excel 里的一张 sheet、python/R 里的 DataFrame等相似领有丰盛的操作函数,相似于 RDD 中的算子一个 DataFrame 能够被注册成一张数据表,而后用 SQL 语言在下面操作丰盛的创立形式:结构化数据文件、Hive表、内部数据库、已有的RDD1)DataFrame的劣势DataFrame API 是在 R 和 Python Pandas Dataframe 灵感之上设计的,具备以下性能个性: 从KB到PB级的数据量反对多种数据格式和多种存储系统反对通过Spark SQL 的 Catalyst 优化器进行先进的优化,生成代码通过Spark无缝集成所有大数据工具与基础设施为Python、Java、Scala和R语言(SparkR)API简略来说,DataFrame 可能更不便的操作数据集,而且因为其底层是通过 Spark SQL 的 Catalyst优化器生成优化后的执行代码,所以其执行速度会更快。 2)Spark生态及DataFrame所处地位 2.DataFrame 创立形式1)创立DataFrame的数据源Spark SQL,DataFrame,datasets 共用 Spark SQL 库,三者共享同样的代码优化、生成以及执行流程,所以 SQL,DataFrame,datasets 的入口都是 SQLContext。 2)创立DataFrame的步骤以python代码(pyspark)为例,咱们在创立spark Dataframe之前,须要先初试化Sparksession。 获取数据集与代码 → ShowMeAI的官网GitHub https://github.com/ShowMeAI-Hub/awesome-AI-cheatsheets运行代码段与学习 → 在线编程环境 http://blog.showmeai.tech/python3-compiler基于sparksession对象咱们能够通过read函数对不同类型的文本状态数据进行加载(比方下图演示的是json格局) ...

March 8, 2022 · 1 min · jiezi

关于大数据:图解大数据-基于Spark-RDD的大数据处理分析

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/84本文地址:http://www.showmeai.tech/article-detail/174申明:版权所有,转载请分割平台与作者并注明出处 1.RDD介绍要把握基于Spark的大数据处理操作,大家首先要理解Spark中的一个外围数据概念:RDD。 《更多材料 → 数据迷信工具速查 | Spark使用指南(RDD版)》1)RDD介绍RDD,全称为Resilient Distributed Datasets(弹性分布式数据汇合),是一个容错的、并行的数据结构,能够让用户显式地将数据存储到磁盘和内存中,并能控制数据的分区。同时,RDD还提供了一组丰盛的操作来操作这些数据。 RDD(弹性分布式数据汇合)是Spark的根本数据结构,Spark中的所有数据都是通过RDD的模式进行组织。 RDD是不可变的数据汇合,每个分区数据是只读的。RDD数据集要做逻辑分区(相似hadoop中的逻辑切片split),每个分区能够独自在集群节点进行计算。RDD数据集中的数据类型能够蕴含任何java类型、scala类型、python类型或者自定义的类型。RDD善于的畛域:迭代式的数据处理,比方机器学习。2)RDD的5个属性每个RDD有5个次要的属性: 一组分片(partition),数据集的根本组成单位。一个函数,计算每个分片。对parent RDD的依赖,形容RDD之间的lineage。一个Partitioner,对于key-value的RDD。一个列表,存储存取每个partition的preferred地位。例如对于一个HDFS文件来说,存储每个partition所在的块的地位。 3)RDD与Spark工作在Spark分布式数据处理工作中,RDD提供数据,供工作解决。很多时候hadoop和Spark联合应用:hadoop提供hdfs的分布式存储,Spark解决hdfs中的数据。 咱们以 sc.textFile("hdfs://path/to/file") 模式生成RDD时,Spark就曾经算好了数据的各个切片(也叫分区),并把分区信息放在了一个列表(名单)里,这个名单就属于RDD自带的其中一个属性。 RDD不蕴含理论要解决的数据,而是在RDD中的分区名单中载明切片的信息。数据曾经在Hadoop的数据节点上了,只有在RDD中表明分区对应的数据所在位置、偏移量、数据长度即可,就相似元数据。RDD在被散发到每个执行计算的工作节点后,每个工作节点会依据元数据信息获取本身节点负责计算的分区数据,并把数据放到本节点的内存当中,而后对数据进行计算。 每个分区由一个节点来计算,换句话说就是每个工作只计算RDD的其中一个分区。个别咱们会把数据所在的节点和Spark的计算节点配成同一个主机,这样就实现了数据本地化。 在worker节点将要运行Spark的计算工作时,只须要从本地加载数据,再对数据使用Spark的计算函数,就不须要从别处(例如近程主机)通过网络传输把须要计算的数据拿过去,从而防止了低廉的网络传输老本。“宁肯挪动函数,也不要挪动数据”。2.RDD创立形式1)创立RDD的3种形式RDD的3种创立形式如下图所示(以pyspark代码为例): 2)从内部数据创立RDDspark也反对从多种内部数据源读取数据,包含HDFS、S3、Hbase、MongoDB等,如下图所示: 3.RDD播送与累加器1)共享变量在Spark程序中,当一个传递给Spark操作(例如map和reduce)的函数在近程节点下面运行时,Spark操作实际上操作的是这个函数所用变量的一个独立正本。 这些变量会被复制到每台机器上,并且这些变量在近程机器上的所有更新都不会传递回驱动程序。 通常跨工作的读写变量是低效的,然而,Spark还是为两种常见的应用模式提供了两种无限的共享变量: 播送变量(broadcast variable)累加器(accumulator)2)播送变量为什么要将变量定义成播送变量? 在分布式计算中,由Driver端散发大对象(如字典、汇合、黑白名单等),个别,如果这个变量不是播送变量,那么每个task就会散发一份。在task数目非常多的状况下,Driver的带宽会成为零碎的瓶颈,而且会大量耗费task服务器上的资源。 如果将这个变量申明为播送变量,那么常识每个executor领有一份,这个executor启动的task会共享这个变量,节俭了通信的老本和服务器的资源 3)累加器为什么要将变量定义为累加器? 在Spark应用程序中,异样监控、调试、记录合乎某个性的数据数目,这些需要都须要用到计数器。 如果变量不被申明为累加器,那么被扭转时不在Driver端进行全局汇总。即在分布式运行时每个task运行的只是原始变量的一个正本,并不能扭转原始变量的值。 然而,当这个变量被申明为累加器后,该变量就会有分布式计数的性能。 4.RDD transformation与action要对大数据进行解决,咱们须要应用到一系列Spark RDD上能够变换与操作的算子,咱们来重点了解一下spark的RDD transformation和action。 1)transformation与action transformation操作针对已有的RDD创立一个新的RDD。 例如,map就是一种transformation操作。它用于将已有RDD的每个元素传入一个自定义的函数,并获取一个新的元素,而后将所有新元素组成一个新的RDD。action次要是对RDD进行最初的操作(如遍历、reduce、保留到文件等),并能够返回后果给Driver程序。 例如,reduce就是一种action操作。它用于对RDD中的所有元素进行聚合操作,并获取一个最终的后果,而后返回给Driver程序。 2)高频RDD算子图解map与flatMap filter与distinct sort与sortBy sample与takeSample union与intersection groupby与cartesian join与glom collect与reduce top与count takeOrdered与take reduceByKey与collectAsMap 5.参考资料数据迷信工具速查 | Spark使用指南(RDD版) http://www.showmeai.tech/article-detail/106数据迷信工具速查 | Spark使用指南(SQL版) http://www.showmeai.tech/article-detail/107耿嘉安,Spark内核设计的艺术:架构设计与实现, 机械工业出版社,2018郭景瞻,图解Spark:核心技术与案例实战,电子工业出版社Spark的根本数据结构RDD介绍: https://blog.csdn.net/qq\_31598113/article/details/70832701Spark RDD(Resilient Distributed Datasets)论文:http://spark.apachecn.org/paper/zh/spark-rdd.htmlShowMeAI相干文章举荐图解大数据 | 导论:大数据生态与利用图解大数据 | 分布式平台:Hadoop与Map-reduce详解图解大数据 | 实操案例:Hadoop零碎搭建与环境配置图解大数据 | 实操案例:利用map-reduce进行大数据统计图解大数据 | 实操案例:Hive搭建与利用案例图解大数据 | 海量数据库与查问:Hive与HBase详解图解大数据 | 大数据分析开掘框架:Spark初步图解大数据 | Spark操作:基于RDD的大数据处理剖析图解大数据 | Spark操作:基于Dataframe与SQL的大数据处理剖析图解大数据 | 综合案例:应用spark剖析美国新冠肺炎疫情数据图解大数据 | 综合案例:应用Spark剖析开掘批发交易数据图解大数据 | 综合案例:应用Spark剖析开掘音乐专辑数据图解大数据 | 流式数据处理:Spark Streaming图解大数据 | Spark机器学习(上)-工作流与特色工程图解大数据 | Spark机器学习(下)-建模与超参调优图解大数据 | Spark GraphFrames:基于图的数据分析开掘ShowMeAI系列教程举荐图解Python编程:从入门到精通系列教程图解数据分析:从入门到精通系列教程图解AI数学根底:从入门到精通系列教程图解大数据技术:从入门到精通系列教程 ...

March 8, 2022 · 1 min · jiezi

关于大数据:图解大数据-大数据分析挖掘Spark初步

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/84本文地址:http://www.showmeai.tech/article-detail/173申明:版权所有,转载请分割平台与作者并注明出处 1.Spark是什么学习或做大数据开发的同学,都据说或者应用过Spark,从这部分开始,ShowMeAI带大家一起来学习一下Spark相干的常识。 Apache Spark是一种用于大数据工作负载的分布式开源解决零碎。它应用内存中缓存和优化的查问执行形式,可针对任何规模的数据进行疾速剖析查问。Spark基于内存计算,进步了在大数据环境下数据处理的实时性,同时保障了高容错性和高可伸缩性,容许用户将Spark部署在大量的便宜硬件之上,造成集群。 Spark提供应用Java、Scala、Python 和 R 语言的开发 API,反对跨多个工作负载重用代码—批处理、交互式查问、实时剖析、机器学习和图形处理等。Apache Spark 曾经成为最受欢迎的大数据分布式解决框架之一。 《更多材料 → 数据迷信工具速查 | Spark使用指南(RDD版)》《更多材料 → 数据迷信工具速查 | Spark使用指南(SQL版) 》2.Spark的特点Apache Spark是个开源和兼容Hadoop的集群计算平台。由加州大学伯克利分校的AMPLabs开发,作为Berkeley Data Analytics Stack(BDAS)的一部分,当下由大数据公司Databricks保驾护航,更是Apache旗下的顶级我的项目。 1)Apache Spark堆栈中的不同组件 2)Apache Spark的劣势 更高的性能:因为数据被加载到集群主机的分布式内存中。数据能够被疾速的转换迭代,并缓存用以后续的频繁拜访需要。在数据全副加载到内存的状况下,Spark有时能达到比Hadoop快100倍的数据处理速度,即便内存不够寄存所有数据的状况也能快Hadoop 10倍。宽泛的反对与易用性:通过建设在Java、Scala、Python、SQL(应答交互式查问)的规范API以不便各行各业应用,同时还含有大量开箱即用的机器学习库。多场景通用性:Spark集成了一系列的库,包含SQL和DataFrame帮忙你疾速实现数据处理;Mllib帮忙你实现机器学习工作;Spark streaming做流式计算。多平台反对:Spark能够跑在Hadoop、Apache Mesos、Kubernetes等之上,能够从HDFS、Alluxio、Apache Cassandra、Apache Hive以及其余的上百个数据源获取数据。 3.Spark作业与调度Spark的外围是作业和任务调度零碎,它能够保障各种工作高效残缺地运行。 1)Spark作业和任务调度零碎Spark通过作业和任务调度零碎,可能无效地进行调度实现各种工作,底层的奇妙设计是对工作划分DAG和容错,使得它对低层到顶层的各个模块之间的调用和解决显得熟能生巧。 2)基本概念一览概念解释作业(Job)RDD中由口头操作所生成的一个或多个调度阶段。调度阶段(Stage)每个Job作业会因为RDD之间的依赖关系拆分成多组工作汇合,称为调度阶段,简称阶段,也叫做工作集(TaskSet)。调度阶段的划分是由DAGScheduler(DAG调度器)来划分的。调度阶段有Shuffle Map Stage和Result Stage两种。工作(Task)散发到Executor上的工作工作,是Spark理论执行利用的最小单元。Task会对RDD的partition数据执行指定的算子操作,比方flatMap、map、reduce等算子操作,造成新RDD的partition。DAGScheduler(DAG调度器)DAGScheduler是面向Stage(阶段)的任务调度器,负责接管Spark利用提交的作业,依据RDD的依赖关系划分调度阶段,并提交Stage(阶段)给TaskScheduler。TaskScheduler(任务调度器)TaskScheduler是面向工作的调度器,它接管DAGScheduler提交过去的Stage(阶段),而后把工作散发到Worker节点运行,由Worker节点的Executor来运行该工作。3)Spark作业和调度流程Spark的作业调度次要是指基于RDD的一系列操作形成一个作业,而后在Executor中执行。这些操作算子次要分为转换操作和口头操作,对于转换操作的计算是lazy级别的,也就是提早执行,只有呈现了口头操作才触发作业的提交。 在Spark调度中最重要的是DAGScheduler和TaskScheduler两个调度器:其中DAGScheduler负责工作的逻辑调度,将Job作业拆分成不同阶段的具备依赖关系的工作集,而TaskScheduler则负责具体任务的调度执行。 4.RDD / DataFrame与Dataset1)Spark API的历史Apache Spark 中有RDD,DataFrame和Dataset三种不同数据API,倒退如下: RDD: RDD是Spark最早提供的面向用户的次要API。从根本上来说,一个RDD就是数据的一个不可变的分布式元素汇合,在集群中跨节点散布,能够通过若干提供了转换和解决的底层API进行并行处理。DataFrame: 与RDD类似,DataFrame也是数据的一个不可变分布式汇合。但与RDD不同的是,数据都被组织到有名字的列中,就像关系型数据库中的表一样。设计DataFrame的目标就是要让对大型数据集的解决变得更简略,它让开发者能够为分布式的数据集指定一个模式,进行更高层次的形象。它提供了特定畛域内专用的API来解决你的分布式数据,并让更多的人能够更不便地应用Spark,而不仅限于业余的数据工程师。Dataset: 从Spark 2.0开始,Dataset开始具备两种不同类型的API特色:有明确类型的API和无类型的API。从概念上来说,能够把DataFrame当作一些通用对象Dataset[Row]的汇合的一个别名,而一行就是一个通用的无类型的JVM对象。与之造成比照,Dataset就是一些有明确类型定义的JVM对象的汇合,通过你在Scala中定义的Case Class或者Java中的Class来指定。2)Spark API简介在Spark 2.0中对Dataframe和Dataset进行了对立,如下图所示: 3)Spark的逻辑构造Spark的整体逻辑构造如下图所示,蕴含不同的层级及组成部分: 5.Spark2.0与SparkSession1)SparkSession的引入Spark2.0中引入了SparkSession的概念,它为用户提供了一个对立的切入点来应用Spark的各项性能,借助SparkSession,咱们能够应用DataFrame和Dataset的各种API,利用Spark的难度也大大降落。 在Spark的晚期版本,SparkContext是进入Spark的切入点,RDD数据基于其创立。但在流解决、SQL等场景下有其余的切入点,汇总如下: RDD,创立和操作应用SparkContext提供的API。流解决,应用StreamingContext。SQL,应用sqlContext。Hive,应用HiveContext。 在Spark高版本中,DataSet和DataFrame提供的API逐步成为新的规范API,须要一个切入点来构建它们。所以,Spark 2.0引入了一个新的切入点(entry point):SparkSession。 ...

March 8, 2022 · 1 min · jiezi

关于大数据:图解大数据-海量数据库查询Hive与HBase详解

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/84本文地址:http://www.showmeai.tech/article-detail/172申明:版权所有,转载请分割平台与作者并注明出处 1.大数据与数据库1) 从Hadoop到数据库大家晓得在计算机领域,关系数据库大量用于数据存储和保护的场景。大数据的呈现后,很多公司转而抉择像 Hadoop/Spark 的大数据解决方案。 Hadoop应用分布式文件系统,用于存储大数据,并应用MapReduce来解决。Hadoop擅长于存储各种格局的宏大的数据,任意的格局甚至非结构化的解决。 2) Hadoop的限度Hadoop非常适合批量解决工作,但它只以程序形式拜访数据。这意味着如果要查问,必须搜寻整个数据集,即便是最简略的搜寻工作。 当处理结果在另一个宏大的数据集,也是按程序解决一个微小的数据集。在这一点上,一个新的解决方案,须要拜访数据中的任何点(随机拜访)单元。 3) HBase与大数据数据库、HBase是建设在Hadoop文件系统之上的分布式面向列的数据库。 HBase是一个数据模型,相似于谷歌的Bigtable设计,能够提供疾速随机拜访海量结构化数据。它利用了Hadoop的文件系统(HDFS)提供的容错能力。 它是Hadoop的生态系统,提供对数据的随机实时读/写访问,是Hadoop文件系统的一部分。咱们能够间接或通过HBase的存储HDFS数据。应用HBase在HDFS读取生产/随机拜访数据。 HBase在Hadoop的文件系统之上,并提供了读写访问。 2.BigTable与HBase要提到HBase,就要顺带提到google的Bigtable。HBase是在谷歌BigTable的根底之上进行开源实现的,是一个高牢靠、高性能、面向列、可伸缩的分布式数据库,能够用来存储非结构化和半结构化的稠密数据。 1) 结构化数据和非结构化数据BigTable和HBase存储的都是非结构化数据。 2) BigTable简介BigTable是一个用于治理结构化数据的分布式存储系统,构建在GFS、Chubby、SSTable等google技术之上。实质上说,BigTable是一个稠密的、分布式的、长久化的、多维的、排序的键值(key-value)映射。 3) HBase简介HBase是一个高牢靠、高性能、面向列、可伸缩的分布式数据库,是谷歌BigTable的开源实现。HBase次要用来存储非结构化和半结构化的涣散数据,指标是解决十分宏大的表,能够通过程度扩大的形式,利用便宜计算机集群解决由超过10亿行数据和数百万列元素组成的数据表。 4) HBase在大数据生态环境中的地位HBase在大数据生态环境中的地位如下图所示,它建设在Hadoop HDFS之上的分布式面向列的数据库。 5) HBase的特点如下图所示,HBase有以下特点: 大:一个表能够有上亿行,上百万列。面向列:面向列表(簇)的存储和权限管制,列(簇)独立检索。稠密:对于为空(NULL)的列,并不占用存储空间,因而,表能够设计的十分稠密。无模式:每一行都有一个能够排序的主键和任意多的列,列能够依据须要动静减少,同一张表中不同的行能够有截然不同的列。数据多版本:每个单元的数据有多个版本,默认状况下,版本号是单元格插入时的工夫戳。数据类型繁多:HBase中的数据都是字符串,没有类型。 6) HBase的拜访接口类型特点场合Native Java API最惯例和高效的拜访形式适宜Hadoop MapReduce作业并行批处理HBase表数据HBase ShellHBase的命令行工具 最简略的接口适宜HBase治理应用Thrift Gateway利用Thrift序列化技术 反对C++、PHP、Python等适宜其余异构零碎在线拜访HBase表数据REST Gateway解除了语言限度反对REST格调的Http API拜访HBasePig应用Pig Latin流式编程语言来解决HBase中的数据适宜做数据统计Hive简略当须要以相似SQL语言形式来拜访HBase的时候3.HBase数据模型1) 逻辑存储模型组件形容表 TableHBase采纳表来组织数据,表由行和列组成,列划分为若干个列族行 Row每个HBase表都由若干行组成,每个行由行键(row key)来标识列族 Column Family一个HBase表被分组成许多“列族”(Column Family)的汇合列限定符Column Qualifier列族里的数据通过列限定符(或列)来定位单元格 Cell通过行、列族和列限定符确定一个单元格,单元格中存储的数据都视为byte工夫戳 Times tamp同一份数据的多个版本,工夫戳用于索引数据版本HBase中须要依据行键、列族、列限定符和工夫戳来确定一个单元格。因而,能够视为一个“四维坐标”,即 [行键, 列族, 列限定符, 工夫戳] 。 2) 物理存储模型Table在行的方向上宰割为多个Region,每个Region扩散在不同的RegionServer中。 每个HRegion由多个Store形成,每个Store由一个MemStore和0或多个StoreFile组成,每个Store保留一个Columns Family。StoreFile以HFile格局存储在HDFS中。 4.HBase零碎架构1) HBase架构组件HBase蕴含以下三个组件: Region Server:提供数据的读写服务,当客户端拜访数据时,间接和Region Server通信。HBase Master:Region的调配,DDL操作(创立表,删除表)。ZooKeeper:是HDFS的一部分,保护一个沉闷的集群状态。 ...

March 8, 2022 · 2 min · jiezi

关于大数据:图解大数据-实操案例Hive搭建与应用案例

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tuto...本文地址:http://www.showmeai.tech/arti...申明:版权所有,转载请分割平台与作者并注明出处 1.Hive 搭建与配置大数据生态中最重要的工具平台之一是Hive,它是离线计算的要害组件,罕用于数仓建设,在公司内会通过SQL实现大数据的统计与报表。上面来看一下Hive的搭建和配置应用办法。 1)下载Hive装置Hive过程能够参考官网文档:https://cwiki.apache.org/confluence/display/Hive/GettingStarted。 依照文件倡议在 http://www.apache.org/dyn/closer.cgi/hive/ 下载最新的release,这里以Hive3.1.3为例解说。 把安装文件解压到装置有hadoop环境的机器上: root@ubuntu:~/bigdata# lltotal 20drwxr-xr-x 27 root root 4096 Sep 30 07:24 azkaban/drwxr-xr-x 2 root root 4096 Oct 13 08:36 demo/drwxr-xr-x 12 1001 1001 4096 Sep 30 09:43 hadoop-3.3.0/drwxr-xr-x 11 root root 4096 Oct 13 07:58 hive-3.1.3/drwxr-xr-x 32 work work 4096 Aug 28 07:28 spark-3.0.1/root@ubuntu:~/bigdata# pwd/root/bigdata接下来把Hive的bin目录导出PATH: root@ubuntu:~/bigdata# cat /etc/profile.d/java.sh export PATH=/usr/local/jdk/bin:/root/bigdata/hadoop-3.3.0/bin:/root/bigdata/spark-3.0.1/bin:/root/bigdata/hive-3.1.3/bin:${PATH}降级guava依赖为hadoop版本: mv lib/guava-19.0.jar lib/guava-19.0.jar.bk ln -s /root/bigdata/hadoop-3.3.0/share/hadoop/hdfs/lib/guava-27.0-jre.jar /root/bigdata/hive-3.1.3/lib/guava-27.0-jre.jar上述第一条命令先备份了Hive自带的guava依赖包,而后将hadoop自带的更高版本软链过去,这个版本一致性是Hive失常运行的要害之一。 2)装置MYSQLhive的元数据服务是独立部署的,它基于mysql保留数据。能够应用apt命令在ubuntu环境装置oracle mysql: apt-get install mysql-server如果应用 mysql -h localhost -u root -p 登录时,提醒 access denied,那须要找到和删除 mysql user 表中的一条 localhost 的非凡规定: ...

March 8, 2022 · 4 min · jiezi

关于大数据:同人于野平常无边-对话-StarRocks-的三位女性工程师

在工业界职场上,有为数不少的女性,不论她们身处哪个职能、对本人的人生有怎么的了解, 她们都在一直摸索业余的深度与边界,参加着某个技术畛域的独特发明。 她们或像产品经理司墨一样,汇聚交融多方信息,搭建桥梁、被动判断翻新方向; 她们或像测试工程师南木一样,吃定一个方向摸爬滚打十余年,以酷爱抵岁月漫长; 她们或像解决方案架构师颖婷一样,体悟过多个视角,以绝妙的组合能力洞察客户需要。 她们或鬼马热烈,或温顺知心,或张弛有度、自性自足……她们却又都是词语所无奈穷尽的“我”。 在这个为庆贺女性在公共畛域作出贡献并表白自我的节日(International Women's Day), StarRocks 推出「同人于野,平时无际」专题,对话服务于 StarRocks 社区的三位女性工程师。 《易》曰:“同人于野,亨。利涉大川。” 天地间的翻新,正产生于凋谢分享的社区共同体。 科技的增长曲线趁势于宏大的“同人”者,她们,闪耀其中。 ✨✨✨ 产品经理司墨:“数据”是写在我血液里的货色 本科毕业于山东大学数学学院,毕业之后想做利用,就去了南洋理工大学学金融。感觉「数据」是写在本人血液里的货色,兜兜转转来到了数据库畛域。✨ StarRocks 工作是种怎么的体验? 越是在相熟的畛域越难做翻新的事件。StarRocks 是个继续学习的团队,为了能给用户在全场景下都带来极速的剖析体验,咱们做了很多新课题的钻研和摸索:全面向量化执行引擎、实时可更新的列式存储引擎、全新的 CBO 优化器……历史的教训让咱们走得更稳,继续的摸索让咱们走得更远,也使得我能够继续对业余放弃新鲜感。 很多人认为数据库这种技术产品不须要产品经理,技术足够牛就能够。实际上,赤裸裸的技术间隔真正解决问题、带来价值还很远,须要由咱们这群人来搭建桥梁。 产品经理最怕研发说“这个需要做不了”,因而之前我总会习惯性给需要打折。来了 StarRocks 之后,很震惊的是素来没听过这句话,研发有时还会本人给本人加工作量。 我感触到的是,研发足够置信产品经理作为桥梁对用户、市场和产品的判断。有质疑的时候,大家会一起探讨而不是没来由地否定。在这些探讨中,咱们还能够从不同的角度把 feature 饱满起来。 很多时候,咱们判断一个 feature 很重要,如何实现呢?没人晓得,也没人做过。但只有这个 feature 能给客户带来价值,也与咱们的产品门路符合,咱们就有信念做进去。 ✨ 对你来说,“社区”是怎么的画面? 去年 StarRocks 做了几期线下的 Hacker Meetup,把向量化、实时更新、Pipeline、多表关联这些技术点拿进去毫无保留地解说,跟社区成员分享。即使是疫情期间严卡入场券,这几期的现场上座率也都超过了 90%。 我做过几期主持人,看到很多听众互相间意识,有的是多年未见的老友、前共事,有的加入了四期、结交到了敌人。我意识到,咱们做的事件远不止分享 StarRocks 的技术内核,而是建设了一个更加弱小和团结的大数据圈。 这可能是做技术社区的终极意义:透过一款产品,汇集起散落在行业里的优良个体,而他们有足以推动整个行业倒退的力量。 ✨ 提起“我”,你会怎么说? 量化狂魔,喜爱量化过程和后果,喜爱用数字掂量所有。同时又喜爱探寻技术反面的兽性。 画得不行,但喜爱画画,喜爱做社畜表情包。 有一只黑压压的小狗,尽管狗毛过敏,但我还是很爱她。过敏是我的问题。 数据库测试开发工程师南木,酷爱可抵岁月漫长 电子信息迷信与技术业余出身,十多年来在软件测试行业摸索、积攒,曾在一线临阵脱逃,也曾率领测试团队乘风破浪。机缘巧合进入数据库测试畛域,找到了一个本人喜爱且看好的业务方向,酷爱可抵岁月漫长,不觉间也已七年无余。✨ 在 StarRocks 工作是种怎么的体验? 在测试组里,咱们针对各种问题畅所欲言、碰撞思维,比方如何更好更高效地保障测试品质、构建迷信欠缺的测试流程体系、如何做好测试设计等。有时候,咱们也聊美食,聊喜好,分享人生的乐趣。StarRocks 技术交换气氛浓重,又不失兽性关心,是个能让人发光发热、补充到能量的团队。 测试有很多重复性的工作,却又总能在反复中遇到意外的惊喜。人生何尝不是如此,须要在平庸、一般的过程去深挖,去拓展,去积攒,让工作绘声绘色,让历程有滋有味。 ✨ 对你来说,“社区”是怎么的画面? 社区最大的意义不是新的商业模式、不是颠覆谁,而是分享和发明。现在有了互联网,能够参加一个社区的人群前所未有的宽泛,主题也前所未有的宽泛,人们能够因为拥护某种程序语言而惺惺相惜,也能够因为独特参加一场救助而以文档协作者的身份相聚。 平时我会关注参加一些对于孩子教育与沟通的网络社区,从中找到了一些和我有着独特纳闷或者话题的父母们。咱们互相学习、传递教训,帮忙我在无限的工夫里更无效地和孩子沟通,更高质量地陪伴孩子成长。 ...

March 8, 2022 · 1 min · jiezi

关于大数据:图解大数据-实操案例MapReduce大数据统计

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/84本文地址:http://www.showmeai.tech/article-detail/170申明:版权所有,转载请分割平台与作者并注明出处 1.引言本教程ShowMeAI具体给大家解说Hadoop应用Map-Reduce进行数据统计的办法,对于Hadoop与map-reduce的基础知识,大家能够回顾ShowMeAI的基础知识解说篇分布式平台Hadoop与Map-reduce详解。 只管大部分人应用Hadoop都是用java实现,然而Hadoop程序能够用python、C++、ruby等实现。本示例教大家用python实现MapReduce实例统计输出文件的单词的词频。 输出:文本文件输入:单词和词频信息,用 \t 隔开2.Python实现 MapReduce 代码应用python实现MapReduce须要利用Hadoop流的API,通过STDIN(规范输出)、STDOUT(规范输入)在Map函数和Reduce函数之间传递数据。 咱们会利用Python的sys.stdin读取输出数据,并把咱们的输入传送给 sys.stdout。Hadoop流将会实现其余的工作。 一个形象的Hadoop大数据处理流程如下图所示: 对于本文提到的工作,咱们做一个更具体的拆解,整个Hadoop Map-Reduce过程如下图所示: 从上图,咱们能够看到,咱们在当前任务中,须要外围通过代码实现的步骤是: Map:产生词与次数标记键值对Reduce:聚合同一个词(key)的值,实现统计上面咱们来看看,通过python如何实现这里的 Map 和 Reduce 阶段。 2.1 Map阶段:mapper.py在这里,咱们假如map阶段应用到的python脚本寄存地址为 ShowMeAI/hadoop/code/mapper.py #!/usr/bin/env pythonimport sysfor line in sys.stdin: line = line.strip() words = line.split() for word in words: print "%s\t%s" % (word, 1)解释一下上述代码: 文件从STDIN读取文件。把单词切开,并把单词和词频输入STDOUT。Map脚本不会计算单词的总数,而是间接输入 1(Reduce阶段会实现统计工作)。为了使脚本可执行,减少 mapper.py 的可执行权限: chmod +x ShowMeAI/hadoop/code/mapper.py2.2 Reduce阶段:reducer.py在这里,咱们假如reduce阶段应用到的python脚本寄存地址为 ShowMeAI/hadoop/code/reducer.py : #!/usr/bin/env pythonfrom operator import itemgetterimport syscurrent_word = Nonecurrent_count = 0word = Nonefor line in sys.stdin: line = line.strip() word, count = line.split('\t', 1) try: count = int(count) except ValueError: #count如果不是数字的话,间接疏忽掉 continue if current_word == word: current_count += count else: if current_word: print "%s\t%s" % (current_word, current_count) current_count = count current_word = wordif word == current_word: #不要遗记最初的输入 print "%s\t%s" % (current_word, current_count)文件会读取 mapper.py 的后果作为 reducer.py 的输出,并统计每个单词呈现的总的次数,把最终的后果输入到STDOUT。 ...

March 8, 2022 · 2 min · jiezi

关于大数据:专注自主研发加速大数据基础软件国产化进程

全国两会召开在即,从31个省(自治区、直辖市)的2022年“两会”来看,科技翻新将会再次成为焦点热词。翻新驱动倒退、科技成果转移、要害核心技术攻坚、科技重大专项“揭榜挂帅”、“赛马”攻关制等此前在31省2022年次要工作中均有相干表述及具体布局。 作为国之重器,要害核心技术对推动我国经济高质量倒退、保障国家平安都具备非常重要的意义。星环科技作为一家企业级大数据根底软件开发商,自成立之初就保持自主研发与技术创新,勇担时代使命,积极参与信息产业国产化过程,成为大数据根底软件国产化的重要推动者之一。通过自主研发,公司已实现多项技术冲破,造成了大数据与云根底平台、分布式关系型数据库、数据开发与智能剖析工具的软件产品矩阵。 目前,星环科技已助力金融、能源、制作、交通等行业多个客户实现了数据分析场景中局部要害信息系统的国产代替,代替的对象包含传统关系型数据库 Oracle、IBM DB2、Teradata,以及搜索引擎 Elastic Search、大数据平台 Cloudera DataPlatform、数据统计分析软件 SAS 等多家国外支流厂商产品。 自主研发的一站式大数据根底平台平安、高效撑持客户各项数字化业务图片 大数据根底平台 Transwarp Data Hub是公司自主研发的一站式大数据根底平台,包含多个大数据存储与剖析产品,有着优良的数据库兼容性,不仅能够帮忙各个行业用户开发翻新的数字化业务,还能够代替关系型数据库晋升以后业务的利用效力。 TDH 被广泛应用在离线数据批处理、高并发的在线数据服务、数据集市、数据仓库、数据湖、文本搜寻、图存储剖析、空间数据存储、实时数据处理等各类大数据业务场景,在金融、交通、政府、能源等多个行业积攒了大量案例,能够代替 Oracle、IBM DB2、Teradata等传统支流数据库在剖析型场景中的利用及代替Elastic Search在分布式搜寻场景中的利用。 以某邮政团体大数据分析平台我的项目为例,其基于Teradata和Oracle传统关系型数据库建设的企业经营剖析业务与决策支持系统,通过多年的运行后,存在存储空间有余、数据加工性能差等问题。为了更好的撑持大数据分析类业务需要,该团体应用星环科技 TDH 产品来构建大数据平台。在 TDH 的良好性能和高可用的个性下,大数据平台胜利代替了原有的零碎架构搭建实现了新的经营剖析业务与决策支持系统。 采纳新一代分布式技术自主研发分布式关系型数据库 而在关系型数据库畛域,多年以来,以 Oracle、IBM DB2 为代表的国外传统集中式关系型数据库长期占据数据库市场的次要份额,被广泛应用于我国各行业的外围信息系统之中。此类集中式数据库通常运行在预配置的专用设备上,且存在容量限度,可扩展性较差,只能通过更换高性能的硬件设施(纵向扩大)来改善数据库性能,不能通过简略减少硬件设施的形式来晋升性能(横向扩大),无奈适应大数据时代数据快速增长的存储和解决需要。 随着分布式技术的衰亡,新一代基于分布式技术的数据库凭借着技术与架构的先进性,可能在性能和可扩大方面逐渐超过传统集中式数据库。为此星环科技采纳新一代的分布式技术,自主研发了分布式剖析型数据库 ArgoDB 和分布式交易型数据库 KunDB。 作为公司自主研发的数据库,ArgoDB 是一款具备多模型、联邦等个性的高性能剖析型数据库,并且重视与国产软硬件生态的兼容,曾经实现和飞腾、鲲鹏等国产硬件及麒麟、UOS 等国产操作系统的深度适配。ArgoDB 兼容Oracle、IBM DB2、Teradata 数据库对 SQL 语言的扩大,能够在数据仓库场景中代替国外剖析型数据库。 以某农商行新一代数据仓库我的项目为例,正是因为其原Oracle 数据库在业务撑持能力方面存在交易明细查问后果输入迟缓、数据加工提早、撑持场景繁多等诸多问题,因此抉择了 ArgoDB 。基于星环科技对立架构的 ArgoDB 平台,反对满足仓集一体、实时数仓等建设需要,同时具备残缺的 SQL 及 PL/SQL 反对。通过反对 Oracle 方言,极大升高了 Oracle 数据库业务数据和现有剖析型业务的迁徙老本。在剖析型业务方面以更低成本、更高性能残缺代替了传统 Oracle 数据仓库,确保剖析型业务与交易型业务的隔离。 凭借继续的自主研发和技术创新,星环科技在推动大数据根底软件国产化代替过程的过程中,也播种了诸多荣誉和认可,充沛彰显了行业引领者的形象。 通过自有技术创新,推出的由IaaS、PaaS和SaaS层数据安全加固的系列产品所组成的解决方案——平安大数据平台解决方案入围工业和信息化部网络安全产业倒退核心“2021年数字技术交融翻新利用典型解决方案”;分布式交易型数据库 KunDB通过央行分布式数据库检测;…… 将来星环科技还将判若两人保持自主研发和技术创新。

March 8, 2022 · 1 min · jiezi

关于大数据:21克仅需3天我们就用Quick-BI搭建起数据驾驶舱

简介:数智化并不仅仅是大型企业才须要去思考的课题,而是摆在所有企业背后的一个可选项。借助Quick BI搭建的数据分析体系,21克实现了销售、财务、供应链等多部门业务的数据化撑持,从一份份本地化的Excel文件,到清晰好看的数据看板,数据所能带来的价值扭转正在21克中逐步浮现。 21克成立于2016年,是一家诞生于桂林外乡,放眼于寰球的家居行业综合性企业,公司深耕家居产品行业,具备丰盛的批发、电商资源积淀,以及弱小的供应链整合能力,以跨境电商为市场切入点,不断创新与疾速迭代。 作为一家仍处在疾速发展期的守业型企业,21克在谋求业务增速的同时,也在一直夯实和欠缺企业的数智化能力。在组织架构设计层面,引入了先进的中台机制,建设BSCM(大供应链治理)、DGT(数据治理)、CE(消费者互动)三个横向买通的中台撑持团队,将具备通用性的工作内容,收口至中台层重点攻坚,将前台业务从繁缛的重复性工作流程中解放出来。 团队组织架构 去年年末,21克引入了由阿里云数据中台研发的Quick BI ,用以补足公司在数据可视化剖析畛域的能力短板。通过将公司过来所积淀下来的订单交易、市场营销、财务等相干数据进行荡涤和剖析,疾速构建起全场景数据生产能力,洞察出对公司经营倒退更无益的营销策略。 首先摆在DGT(数据治理组)背后的是各部门数据口径不统一的问题。如果连最根底的数据规范都无奈对立,那数据分析也将成为“准确的谬误”,无奈真正施展出数据价值。 DGT部门负责人Chlorine提到:“咱们公司的销售业务部比拟多,各自都有各自的习惯,为了保障数据分析我的项目可能高效推动,咱们抉择以跨部门报表为突破口来进行数据规范地对立,比方要向高层汇报的数据,以及波及财务的数据,咱们会优先来进行布局治理。” 就拿最常见的销售额统计为例,一项交易记录波及的工夫泛滥,有订单创立的工夫、客户付款工夫、仓库发货工夫、财务到账工夫等,后续可能还会波及售后退货等,如何来定义工夫周期,各部门就须要达成共识。“咱们在做偏好剖析的时候,会按下单工夫来,一旦波及到财务相干,就会以交易实现工夫为准。”来自DGT的数据专员Clyde这样解释。 一、数据驾驶舱:大盘外围数据高深莫测亚马逊作为21克最外围的销售渠道之一,奉献了较大比重的订单销量,因而数据团队抉择以亚马逊平台作为数据分析试点的第一站。 通过第三方ERP零碎以及亚马逊自身凋谢的API接口,数据团队每个月会定期提取数据进行会集整合、清理加工后写入数据库,并接入Quick BI。造成一张数据较为全面的大宽表,为后续制作管理层数据看板,提供了详实的数据根底。 数据驾驶舱局部截图 在21克的数据驾驶舱中,管理者能够随时随地直观地看到各种大盘外围数据,如销售统计、地区热力求、利润状况、SKU销售排行榜等。同时,还能够通过丰盛的控件进行自主筛选,如按地区、店铺、工夫、我的项目、币种等查看相干数据。 二、让营销广告投放有据可依目前输入的业务数据看板除了满足管理层看数需要外,也让业务人员在广告营销投放层面,有了更无力的数据撑持,能够有针对性地发展精细化营销策略。 通过针对历史数据进行汇聚,并通过技术荡涤和整顿生成丰盛的特色洞察,将一条条纯数字的交易表格,通过Quick BI在仪表盘中以更易于了解和剖析的可视化组件展现。 营销剖析看板 市场部人员则可本人通过报表控件筛选条件,来查看剖析更具体的报表内容,进而在不同平台(如Google等搜寻广告平台,以及Instagram、Facebook、TikTok等社交平台)造成具备差异化的广告投放策略,以更少的投入取得更丰富的营销回报。 三、供应链数字化:更可控的危险和老本通过2个月不到的产品使用期,21克的数据团队成员曾经通过Quick BI构建了3个数据生产场景,包含管理层看板、根本销售状况剖析、以及面向财务侧的利润剖析等。 Chlorine示意,Quick BI应用起来对于数据分析新人十分敌对,这给他们团队的工作起步扫清了很多阻碍,在外部的合作过程当中也能疾速浸透铺开。“接下来咱们将进行更全链路的数据接入,以及将数据写入流程自动化,实现底层数据源自动更新,缩小人工投入,让更多部门的人员都能够通过数据分析与洞察,对业务流程和策略进行调优降级”。 如供应链部门对数据反馈的实时性要求更高,一旦能将洽购、资料、仓储、物流等数据及时通过Quick BI来进行展现和剖析,将对货品周转、库存压力、品质监控等提供策略领导,比方针对售后问题反馈,能够反向对供应商进行筛选,及时发现品质保障能力较弱的供应商或某不合格批次产品,缩小公司的售后老本及损失。 数智化并不仅仅是大型企业才须要去思考的课题,而是摆在所有企业背后的一个可选项。借助Quick BI搭建的数据分析体系,21克实现了销售、财务、供应链等多部门业务的数据化撑持,从一份份本地化的Excel文件,到清晰好看的数据看板,数据所能带来的价值扭转正在21克中逐步浮现。 原文链接本文为阿里云原创内容,未经容许不得转载。

March 7, 2022 · 1 min · jiezi

关于大数据:大数据时代下App数据隐私安全你真的了解么

你是否有过这样的经验:你和敌人聊天表白你近期想要购买某件商品,第二天当你关上某购物软件时,平台向你推送的商品正是你想要购买的;或者,你是否接到过生疏复电,他们精确的报出了你的名字和年龄...... 近年来,信息技术疾速倒退,大数据时代曾经降临。大数据为咱们带来信息共享、便捷生存的同时,还存在着个人隐私透露等诸多数据安全的问题。 笔者发现不少公司目前依靠于推送等采集数据工具积淀用户原始数据,通过下层数据服务变现,其作为一种商业模式为App业务引入了微小的数据隐衷爱护危险。例如在某推送服务提供的《开发者协定》中,服务商明确要求App开发者《隐衷政策》中须告知其App用户主体批准SDK提供者收集并应用其个人信息。其中包含1、设施信息,设施信息包含:设施标识符(IMEI、IDFA、Android ID、MAC、OAID、IMSI等相干信息)2、利用信息(利用解体信息、告诉开关状态、软件列表等相干信息)3、设施参数及零碎信息(设施类型、设施型号、操作系统及硬件相干信息)4、网络信息,网络信息包含:IP地址,WiFi信息,基站信息等相干信息。 5、地理位置信息。这些隐衷数据是新个保法重点保障的对象,相干信息的收集为个体隐衷保障引入了微小危险。 同时也有用户发现,目前在手机APP的应用过程中关上某个APP,能连带关上好几个别的App,这种主动操作引发用户对手机里信息被盗取的担心,事实上,究其原因,是App为了保障被用户持续应用,就要尽可能多的“刷存在感”,否则长此以往用户就会弃之不必,甚至卸载。如果App开发者抉择了采纳联结唤醒的机制或者其余相似机制来“保活”,这就可能导致大量的服务过程在后盾被唤醒、驻留,从而造成不同利用之间的穿插唤醒、关联启动的景象。 基于上述技术规范内容分析,App通过自启动、关联启动等形式唤醒后,如果存在通过权限等机制收集个人信息的行为,且并未在隐衷政策等规定中明确指出具体的目标的,其收集个人信息的频度则涉嫌超出了业务性能理论须要。 而在我国的《App守法违规收集应用个人信息行为认定办法》第四条第3点指出,收集个人信息的频度等超出业务性能理论须要,可认定为“违反必要准则,收集与其提供的服务无关的个人信息”。 公民个人信息不容进犯,确保APP不“越界”,国家始终在口头。数据显示,近年来工信部继续发展APP侵权整治流动,发展了六批次集中抽检,查看了76万款APP,通报748款违规APP,下架了245款拒不整改的APP。在北方都市报发表于2020年11月27日的文章中点击查看,指出个推、小米SDK(软件开发工具包),以及旧版本的360加固工具等软件存在违规收集个人信息的第三方组件的问题。 为了保障App业务的隐衷合规平安,阿里云挪动研发平台EMAS近期上线了隐衷合规检测专项服务。该服务是根据国家相干法律法规及行业标准,对挪动App隐衷平安、集体数据收集和应用进行合规剖析。服务提供了全面的隐衷合规检测报告和专家建议,从确保模式合规(隐衷政策文本合规性)及本质合规(代码层合规性)的一致性,从个人信息收集、权限应用场景、隐衷政策等多个维度帮忙企业和开发者提前辨认App隐衷合规相干危险,躲避监管通报、利用下架等重大危险。 阿里云挪动研发平台EMAS高度重视个人信息的爱护,对设施权限获取遵循最小化准则,禁止收集任何设施隐衷数据用于其余场景的数据服务变现,相干隐衷政策点击:EMAS隐私权政策,该隐衷政策实用于挪动推送/HTTPDNS/挪动热修复/近程日志/解体剖析/性能剖析/移动用户反馈等EMAS全平台产品,咱们欢送对App隐衷合规话题感兴趣或存在疑难的开发者退出EMAS开发者社区,独特探讨合规话题,为用户构筑隐衷爱护的松软防线。 欢送退出EMAS开发者钉钉交换群<<群号:35248489

March 3, 2022 · 1 min · jiezi

关于大数据:为什么在数据驱动的路上AB-实验值得信赖

在线AB试验成为当今互联网公司中必不可少的数据驱动的工具,很多公司把本人的利用来做一次AB试验作为数据驱动的试金石。文 | 松宝 来自 字节跳动数据平台团队增长平台 在线AB试验成为当今互联网公司中必不可少的数据驱动的工具,很多公司把本人的利用来做一次AB试验作为数据驱动的试金石。 数据 => 洞察 => 优化,周而复始寻找最优解,寻找增长的办法。 AB中有句经典的名言:大胆假如,小心求证。 本系列连载会从数据驱动、AB试验根本架构、指标选取与数据分析等角度切入,第一篇着重介绍AB试验与数据驱动的条件和AB试验的根本架构。 AB试验与数据驱动AB试验阶段对应数据驱动的不同阶段,从最根本的设计执行分析阶段到绝大多数改变须要AB验证,从简略到简单,从大量试验到大规模试验,正好反馈的数据驱动从「爬,走,跑,飞」的四个阶段,关系是层层递进的。 1、设计执行分析阶段设计执行分析阶段次要是:数据检测设置和数据迷信能力搭建。在AB试验上进行屡次的试验,从试验的设计,指标的定义,试验的开启,试验后果的剖析,并且找到胜利的一些试验案例有助于咱们进入到下一阶段。 2、标准化指标阶段标准化指标阶段次要是:运行大量试验到定义规范指标再到开启更多试验。AB试验开始运行更加简单的case来继续验证数据的可行性,并且通过运行AA试验来验证平台潜在的问题,同时可能进行样本比率偏差检测。 3、大面积试验AB试验阶段从上一个阶段的标准化指标,曾经能够运行大量试验,并且各种指标也逐步绝对成熟,每次试验进行多个指标的衡量,而后在一个利用上利用AB试验对绝大多数的新性能和改变做试验。 4、绝大多数改变须要AB验证阶段简直所有的改变都须要通过AB试验的验证,能够在没有数据科学家的辅助下,能够对大多数的试验进行独立的剖析和运作。同时通过对过来试验的剖析,AB试验的有效性和最佳实际也能失去一直的更新。 数据驱动的条件1、试验标准化数据决策必定是一套标准化的货色来标准,试验标准化也是AB数据驱动的必备条件。 那什么是AB试验的标准化呢?AB试验须要留神辛普森悖论,幸存者偏差,抉择偏差等,注意事项都是来源于对撞因子,简略来说就是「是指同时被两个以上的变数影响的变数」,具体能够在Google深刻理解一下。 2、试验后果可信性有数字容易,让人信赖的数字须要下功夫。开启试验容易,实验报告有数字很容易,这些数字的可信度,这些数字让人信赖更重要,须要破费更长的工夫。 大量试验中可能只有很小一部分试验,例如微软大概30%的后果是正向踊跃的,最终能够公布到整个利用上。 举个例子:如果我抛起三枚硬币,落地别离是正正反,那么我能够说抛硬币侧面朝上的概率是三分之二吗?概率和频率并不是一个货色,同理,少数几次AB试验的后果也不能证实版本A和版本B的优劣。 咱们须要统计学上的严格论证和计算,来判断一个试验后果是否显著,是否可信。 3、如何掂量好的想法对于任何一个想法咱们很难去掂量它的好坏,大胆假如小心求证。短期指标可能会与更要害的长期指标发生冲突。 举个例子:一家超市忽然进步价格,可能会在短期带来更高利润。但久远看,如果更多的顾客改从竞争对手那里购买商品,那么这家店的支出就会缩小。离奇效应如何防止? 对于用户有感知的A/B Test,如UI改版、新的经营计划、新性能上线等,实验组做的任何扭转都可能引起用户的留神,好奇心驱使他们先体验一番,从而导致A/B Test中实验组成果一开始优于对照组,p-value极小,试验成果十分显著。然而一段时间过来后,用户对于新的改版不再敏感,实验组成果回落,显著性可能会降落,最初趋于稳定。足够的样本量能保障一个正当的试验周期,能够应用咱们的流量计算器中计算流量和试验周期,从而防止这种离奇效应的影响。 AB试验根本架构01 - 流量宰割流量宰割的形式:分流和分层。 每个独立试验为一层,层与层之间流量是正交的(简略来讲,就是一份流量穿梭每层试验时,都会再次随机打散,且随机成果离散)。试验在同一层拆分流量,不论如何拆分,不同组的流量是不重叠的。 分流分流是指咱们间接将整体用户切割为几块,用户只能在一个试验中。然而这种状况很不事实,因为如果我要同时上线多个试验,流量不够切怎么办?那为了达到最小样本量,咱们就得缩短试验周期,要是做一个试验,要几个月。 简略来说:分流是指对流量进行整体切割,试验之间互斥。 目标:为了获取污浊的分区,不会相互影响。毛病:节约流量,导致流量不够。分层就是将同一批用户,不停的随机后,处于不同的桶。也就是说,一个用户会处于多个试验中,只有试验之间不相互影响,咱们就可能有限次的切割用户。这样在保障了每个试验都能用全流量切割的同时,也保障了试验数据是相信的。 简略来说:对整体流量分流分层。 目标:同一个用户在不同的实验组,互相不会影响。毛病:不同层之间的hash值尽量不要重合。02 - 如何对待随机单元?什么是随机单元呢?简略来说,随机单元就是AB试验须要达到随机的最小单元。一个web网站中,最小单元可能是页面级别,可能是会话级别,或者是用户级别。 举个例子:咱们抉择页面级别的随机单元,AB试验针对某一个页面,用户每一次关上页面的时候决定把该用户导向某一个实验组。最简略的状况就是:随机单元和剖析单元是统一的。咱们大多数状况也是将随机单元和剖析单元采纳用户级别。两种单元不统一可能使得试验剖析变得更加简单。 03 - 随机算法首先什么是随机数?不确定的数。大多数随机算法应用的是伪数字生成器。 那什么是伪数字生成器?一个生产数字序列的算法,特色近似随机数序列的个性。伪随机数生成器通常承受一个随机种子( seed) 用来初始化生成器的初始状态。 依照密码学来将「随机」分为三种级别: 伪随机 (PRNG)密码学平安的伪随机 (CSPRNG)真随机 (TRNG) 机PRNG生成的序列并不是真随机。它齐全是由一个初始值决定,初始值称为随机种子(seed)。靠近于真随机序列能够通过硬件随机数生成器生成。然而伪随机数生成器因为其生成速度和可再现的劣势,实际中也很重要。 寻找一个适合的随机算法是十分重要的。 一个试验的每一个variant(实验组或对照组)都具备对于users的一个随机抽样。随机算法必须有一些特色。特色如下: 特色(1):用户必须等可能看到一个试验的每个variant,对于任意的variant必须是无偏的。特色(2):同一个试验中,对于单个user反复调配必须是统一的,对于该用户每次后续拜访中,该user必须被调配到雷同的variant上。特色(3):当多个试验同时并行运行的时候,试验之间必须没有关联关系。也就是在一个试验中,一个user被调配到一个variant,对于被调配给其余任意试验的一个variant,在概率上没有影响。特色(4):算法必须反对枯燥递增的,也就是说,如果没有对那些曾经被调配给实验组的用户调配进行变更,用户看到一个实验组的百分比可能会迟缓减少的。应用caching的伪随机 伪随机数的随机性能够用它的统计个性来掂量,次要特色是每个数呈现的可能性和它呈现时与数序中其余数的关系。 伪随机数的长处是它的计算比较简单,而且只应用多数的数值很难推断出它的计算算法。 应用caching缓存,能够应用规范伪数字生成器作为随机算法,一个好的伪数字生成器会满足特色(1)和特色(3)。 对于特色(2),须要引入状态,用户的调配必须被缓存,或者缓存实现能够是数据库存储,便于下次再次拜访利用。 Hash和分区 不同于伪随机办法,hash和分区是无状态的,每一个user都会被调配一个惟一的user_unique_id,应用ssid和webid(或者其余)来维持。user_unique_id会和试验的id进行映射绑定,接着user_unique_id和试验id应用hash函数来取得一个整数,整数的范畴是均匀分布的。 hash函数的选取须要留神⚠️,如果hash函数有漏斗(那些相邻key的实例会映射到雷同的hash code),会造成均匀分布的抵触,如果hash函数有个性(某一个key变动会产生一个hash code 上可预测的变动),会造成试验之间会产生相干。 「加密hash函数MD5」生成的数据在试验间没有相关性。其实还能够关注「大质数素数hash算法」等更加精细低劣的算法。 04 - 试验灰度公布试验公布是一个容易疏忽但又十分重要的步骤,从比拟小的流量缓缓公布到绝对比拟大的流量,直到最初全站公布。这个过程是须要自动化和危险管制相结合。 咱们常常的做法就是: 试验公布之后,还能够预留一些流量来掂量试验的长期成果。 还能够反复公布某一个试验,看试验的后果是否能够放弃。  指标选取 选取什么指标来进行检测,从而更好的帮忙咱们进行数据驱动决策。 对于一个利用或者产品来说,可能会有很多指标的抉择,哪些指标须要被重点关注,哪些仅仅是关注,哪些是能够不关注。为什么要定义这个指标,这个指标的定义是为了阐明什么状况,如果这个指标发生变化,将须要怎么去解释它。 (一)指标个性1、 依照试验的角度来划分 ...

March 3, 2022 · 1 min · jiezi

关于大数据:大数据时代下App数据隐私安全你真的了解么

简介:你是否有过这样的经验:你和敌人聊天表白你近期想要购买某件商品,第二天当你关上某购物软件时,平台向你推送的商品正是你想要购买的;或者,你是否接到过生疏复电,他们精确的报出了你的名字和年龄......近年来,信息技术疾速倒退,大数据时代曾经降临。大数据为咱们带来信息共享、便捷生存的同时,还存在着个人隐私透露等诸多数据安全的问题。 你是否有过这样的经验:你和敌人聊天表白你近期想要购买某件商品,第二天当你关上某购物软件时,平台向你推送的商品正是你想要购买的;或者,你是否接到过生疏复电,他们精确的报出了你的名字和年龄...... 近年来,信息技术疾速倒退,大数据时代曾经降临。大数据为咱们带来信息共享、便捷生存的同时,还存在着个人隐私透露等诸多数据安全的问题。 笔者发现不少公司目前依靠于推送等采集数据工具积淀用户原始数据,通过下层数据服务变现,其作为一种商业模式为App业务引入了微小的数据隐衷爱护危险。例如在某推送服务提供的《开发者协定》中,服务商明确要求App开发者《隐衷政策》中须告知其App用户主体批准SDK提供者收集并应用其个人信息。其中包含1、设施信息,设施信息包含:设施标识符(IMEI、IDFA、Android ID、MAC、OAID、IMSI等相干信息)2、利用信息(利用解体信息、告诉开关状态、软件列表等相干信息)3、设施参数及零碎信息(设施类型、设施型号、操作系统及硬件相干信息)4、网络信息,网络信息包含:IP地址,WiFi信息,基站信息等相干信息。 5、地理位置信息。这些隐衷数据是新个保法重点保障的对象,相干信息的收集为个体隐衷保障引入了微小危险。 同时也有用户发现,目前在手机APP的应用过程中关上某个APP,能连带关上好几个别的App,这种主动操作引发用户对手机里信息被盗取的担心,事实上,究其原因,是App为了保障被用户持续应用,就要尽可能多的“刷存在感”,否则长此以往用户就会弃之不必,甚至卸载。如果App开发者抉择了采纳联结唤醒的机制或者其余相似机制来“保活”,这就可能导致大量的服务过程在后盾被唤醒、驻留,从而造成不同利用之间的穿插唤醒、关联启动的景象。 基于上述技术规范内容分析,App通过自启动、关联启动等形式唤醒后,如果存在通过权限等机制收集个人信息的行为,且并未在隐衷政策等规定中明确指出具体的目标的,其收集个人信息的频度则涉嫌超出了业务性能理论须要。 而在我国的《App守法违规收集应用个人信息行为认定办法》第四条第3点指出,收集个人信息的频度等超出业务性能理论须要,可认定为“违反必要准则,收集与其提供的服务无关的个人信息”。 公民个人信息不容进犯,确保APP不“越界”,国家始终在口头。数据显示,近年来工信部继续发展APP侵权整治流动,发展了六批次集中抽检,查看了76万款APP,通报748款违规APP,下架了245款拒不整改的APP。在北方都市报发表于2020年11月27日的文章中点击查看,指出个推、小米SDK(软件开发工具包),以及旧版本的360加固工具等软件存在违规收集个人信息的第三方组件的问题。 为了保障App业务的隐衷合规平安,阿里云挪动研发平台EMAS近期上线了隐衷合规检测专项服务。该服务是根据国家相干法律法规及行业标准,对挪动App隐衷平安、集体数据收集和应用进行合规剖析。服务提供了全面的隐衷合规检测报告和专家建议,从确保模式合规(隐衷政策文本合规性)及本质合规(代码层合规性)的一致性,从个人信息收集、权限应用场景、隐衷政策等多个维度帮忙企业和开发者提前辨认App隐衷合规相干危险,躲避监管通报、利用下架等重大危险。 原文链接本文为阿里云原创内容,未经容许不得转载。

March 3, 2022 · 1 min · jiezi

关于大数据:Kyligence-春季论坛成功举办助力企业构建数字化管理新体系

3 月 1 日,Kyligence 2022 秋季线上论坛胜利召开。本次论坛围绕寰球数据翻新趋势、数据服务与治理等话题展开讨论。Kyligence 介绍了企业级指标中台的解决方案及落地实际,助力企业建设业务和 IT 的高效单干模式,更高效地构建业务数字化经营管理体系。同时,Kyligence 发表云上数据分析代经营服务全新上线,将应用自动化工具解放企业 IT 运维累赘,更好地保障业务的稳固运行和翻新利用。 大数据时代,古代数据服务与治理满足企业新需要 寰球大数据行业在过来二十年间飞速发展,一直解放企业生产力。红点中国合伙人刘岚认为更多企业正在应用先进的技术构建数字化体系,通过 AI 智能举荐等帮忙企业实现对未知问题的事后洞察,开掘数据需要档次中更高价值的内容和我的项目。 现在,各行各业正在由过来粗放式的增长向数据撑持的精细化经营转型。安永征询合伙人迟平认为海量数据处理能力、更高时效、更便捷可视化的古代数据服务与管理工具能够帮忙企业进行多维度的度量和管控,疾速推动企业策略切实落地。Kyligence 则察看到「数据即产品」这一趋势,公司联结创始人兼 CEO 韩卿提到企业须要构建踊跃的数据文化和生态。每一家企业实则都是一家数据公司,人人都将能基于现有数据开发新产品或发明新的价值,实现业务的晋升与翻新,为企业数字化转型奠定良好基石。 Kyligence 企业级指标中台,以数据驱动治理效力晋升 Kyligence 企业级指标中台实质是一个管理系统,指标中台解决方案是助力企业以指标为核心,去构建整个数字化体系建设的方法论,从而建设数据管理共识,最终服务于企业治理指标;同时,企业在落地指标中台后,能够实现「边应用,边治理」,一直开掘数据的价值。 总体来看,Kyligence 业级指标中台产品技术解决方案集业务模型、指标治理、指标加工、数据服务等于一体,帮忙企业构建口径对立、自上而下、业务驱动的指标体系,无效掂量业务经营和倒退状况。该计划现已反对私有云、公有云以及本地部署。该服务通过 AI 加强的智能指标引擎、高性能全场景的 OLAP 引擎、对立的语义层、全面的 API 集成接口等技术劣势,帮忙企业实现: 构建业务数字化经营管理体系:反对企业内各级管理者通过指标中台及时、精确地够取得经营状况,领导做出正确的决策和指挥;建设业务和 IT 的高效单干新模式:通过指标模型智能治理、加工与查问减速,大幅晋升开发效率,以数据麻利推动业务麻利;推动数据治理和数据文化建设:数据即服务,面向全公司提供数据拜访、自助剖析及数据开发能力,升高用户应用数据的门槛,赋能业务自助用数。Kyligence 云上数据分析代经营服务,解放运维,聚焦业务翻新 数字化转型的大趋势下,企业正在通过上云来满足一直变动的业务倒退需要,或借助各类生产力工具来晋升合作效率,通过一系列设施管控来进行平安防备。不过,技术学习的工夫老本、架构搭建和部署的工夫老本等都须要持续性投入,这让企业负担沉重。 在这样的背景下,Kyligence 正式推出云上数据分析代经营服务,以近程的形式帮忙企业高效平安地运维 Kyligence 产品,并在现有的规范技术支持体系之上,额定提供集监控告警、定期服务健康检查、TCO 优化倡议三位一体的增值服务。 Kyligence 通过 7x24x365 不间断的被动的、预防式的、自动化运维的近程服务,保障客户业务的稳固运行。目前这项服务已反对微软云 Azure 、亚马逊云科技、华为云和 Google Cloud 平台用户应用。Kyligence 代经营服务能够实现: 卓越服务,升高运维老本:通过自动化的运维工具、资深的产品专家和标准化的服务流程,帮忙客户疾速上手 Kyligence 产品,从简单的运维中解放出来。降本增效,总体老本优化:私有云上的企业可取得来自 Kyligence 业余团队对云资源的应用与老本管制的业余倡议,进一步升高 TCO。预判安全隐患,保障业务稳固:确保企业对外数据服务的高可用性,企业可取得来自 Kyligence 专家的及时监控告警,从而防止潜在的数据服务稳定性隐患。数据日益成为驱动企业战略决策的产品,Kyligence 将持续通过智能化、自动化的数据服务与治理,助力企业构建数据文化,撑持企业数据管理,升高用户应用数据的门槛,驱动企业实现数字化最佳转型。

March 2, 2022 · 1 min · jiezi

关于大数据:一文全面掌握大数据关联与汇聚

云智慧 AIOps 社区是由云智慧发动,针对运维业务场景,提供算法、算力、数据集整体的服务体系及智能运维业务场景的解决方案交换社区。该社区致力于流传 AIOps 技术,旨在与各行业客户、用户、研究者和开发者们独特解决智能运维行业技术难题,推动 AIOps 技术在企业中落地,建设衰弱共赢的AIOps 开发者生态。区间关联(Interval Join)Flink反对惯例Join(Regular Join)和区间Join(Interval Join) 关联,本章节将会比照阐明惯例关联和区间关联的技术差别和各自的实用场景。 惯例Join惯例Join为保障数据完整性和准确性,须要继续一直的读取两个Source数据源,且很容易导致数据状态的有限增长,适宜用于离线和小数据量场景。 惯例数据关联(Regular Join)与RDB数据库中应用的join相似,左右两张表通过外键关联进行数据合并。但在实时数据处理中,因为数据继续一直的推送,上一秒未关联上的数据,可能会在这一秒新推送数据中找到可关联的数据,此时便须要将所有历史数据都保留在Flink状态中,以应答随时推送来的新数据,因而导致Flink状态的无限度增大。此外,因为实时计算对后果的要求是实时的,所以输入的数据后果也是在一直的变动的。以上因素均会导致实时的惯例Join应用场景无限,个别仅限于离线数据处理和小数据量场景。 SELECT * FROM Orders LEFT JOIN Product ON Orders.product_id = Product.id 区间Join区间Join将数据依照工夫宰割成区块儿,对超过窗口期的数据进行清理,仅保留须要解决的数据,工作绝对轻量化,有利于进步计算效率。 比方电商的订单与领取,各大电商平台在下单操作后都有领取工夫限度,超过领取工夫后,订单会主动勾销。换句话说,订单数据流和领取数据流只有在肯定工夫内才可能关联上,那么对于超过这个期限没有获取到领取数据的订单,便会得悉此订单是不可能再领取了,也就没有必要再保留在Flink状态中了。基于以上场景需要,Flink推出了区间关联(Interval Join),区间关联写法特色就是在join 的on语句中或者where语句中存在数据时间段限定。 SELECT * FROM Orders o, Shipments s WHERE o.id = s.order_id AND o.order_time BETWEEN s.ship_time - INTERVAL '4' HOUR AND s.ship_time 下图为区间关联示例,详细描述了区间关联的过期数据流程。两条线是两条数据流,上面是右流,下面是左流,区间关联的限定条件是左流的工夫最小不小于右流数据减2分钟,最大为右流数据加1分钟,下图黄色区域,如果右流以后数据工夫是2分,那左流最旧保留0分数据,最新能关联到3分数据,也就是0分到3分之间这部分黄色区域。同样,当下面的左流数据曾经到3分的数据时,上面的右流能关联到的数据区间是2分到5分之间。这样的话按照上面右流的数据,能够对下面左流晚于窗口期的数据进行过期清理,而上面右流的数据也能够依据下面左流数据的工夫进行过期解决,最终Flink状态里只保留着无限、大量的数据,既保证了数据关联的完整性又缩小了内存占用,工作始终以轻量化状态运行,放弃高效数据计算。 区间关联(Interval Join)蕴含以下谓词的Join语句,工夫区间能够是秒、分钟、小时、天等。这里的BETWEEN是既包含下界又包含上界的,相当于大于等于且小于等于。Join语句反对Inner Join和Outer Join。 ltime = rtime ltime >= rtime AND ltime < rtime + INTERVAL '10' MINUTE ...

March 2, 2022 · 1 min · jiezi

关于大数据:Apache-Kyuubi-SeaTunnel-联合-Meetup-见证中国大数据崛起

十多年来,Apache 社区一贯是大数据技术的风向标。去年,5 个源自中国的新我的项目进入 ASF 我的项目孵化器,其中 3 个是大数据相干我的项目,更是见证了外乡大数据的雄起。 2022 年 3 月 12 日(星期六), Apache Kyuubi 和 Apache SeaTunnel 两大新锐社区携手,邀请来自 eBay、T3 出行、oppo 等团队的五位实战型专家,从技术实际到业务优化,从我的项目倒退到社区参加,为企业大数据开发者、开源技术爱好者带来一场技术盛宴。 直播预约 扫码预约直播 或点击此链接:Apache Kyuubi & SeaTunnel 2022 联动 Meetup 直播微信群 扫码入直播微信群聊 01 流动简介主题:2022 Kyuubi & SeaTunnel 联结 Meetup 工夫:2022-3-12 14:00-17:00 模式:线上直播 02 流动亮点足不出户,即可取得: 技术大咖实际秘诀一线企业踩坑心得新锐我的项目发展趋势开源社区实战攻略03 流动议程 04 议题介绍 金嘉怡 技术专家 Apache Druid Committer & PMC 演讲主题:如何给 Apache SeaTunnel 奉献自定义插件 演讲概要:介绍如何从0到1地给 Apache SeaTunnel 奉献自定义插件,包含环境构建,代码编写,提交和 Review 等。 ...

March 2, 2022 · 1 min · jiezi

关于大数据:数据治理一体化实践之体系化建模

数字经济的疾速倒退,给企业的经营带来了新的时机和挑战,如何无效发展数据治理,突破数据孤岛,充分发挥数据的业务价值,爱护数据安全,已成为业界的热门话题。本文基于美团配送数据治理的历程,分享了数据定义、模型设计、数据生产三环节对立的配送数据“底座”的建设与实际。1 前言随着数字经济的疾速倒退,数据曾经成为新的生产因素。如何无效地发展数据治理工作,晋升数据品质,突破数据孤岛,充分发挥数据的业务价值,已成为业界的热门话题。本文基于美团配送数据治理的历程,重点和大家分享一下配送数据“底座”的建设与实际,如何通过体系化建模建设起数据定义到数据生产的桥梁,达成数据定义、模型设计、数据生产三个环节的对立,打消因数据规范缺失和执行不到位引发的数据信赖问题,在高质量地实现数据到信息的转化的同时,为后续的数据便捷生产提供数据和元数据保障。心愿能给从事数据治理方向的同学在实现数据到资产的转化过程提供一些参考和借鉴。 2 什么是体系化建模体系化建模是以维度建模为实践根底,以事先治理的理念驱动,让元数据贯通其中的建模流程,上承指标、维度的定义,下接理论的数据生产。首先,通过高层模型设计,将业务指标结构化拆解为原子指标/计算指标+限定条件的组合形式,并将其归属到特定的业务过程和主题下,实现业务指标的打算化定义;其次,基于高层模型设计自动生产具体的物理模型设计;第三,基于产生的物理模型设计,半自动或主动地生成数据加工逻辑,以确保最终的业务定义和物理实现的对立。具体如下图所示: 从对体系化建模的定义来看,它强调了两个对立,即数据需要与模型设计的对立和模型设计与物理实现的对立。 数据需要与模型设计的对立,模型设计是仓库畛域划分和具体需要相结合的产物。仓库畛域划分是对数据进行基于业务自身但超过和脱离业务需要限度的形象,对数据实现主题、业务过程的形象,作为业务指标、维度需要归属和实现数据建设高内聚、低耦合的重要依据;具体的需要模型设计,是在仓库畛域划分根底上的内容填充,将需要以指标、维度的模式归属到对应的主题与业务过程,以此驱动和束缚具体具体模型设计,勾画出贵重的信息架构资产。 模型设计与物理实现的对立,基于模型设计环节积淀的信息架构元数据,以此来驱动和束缚理论的物理模型,束缚对应物理模型的DDL,在数据加工时,避免因不足无效束缚带来的“烟囱式”开发,是模型上线前,主动实现业务定义与物理实现一致性验证,确保DML实现的正确性。 3 为什么要进行体系化建模此前一段期间,配送数据建设存在着需要治理(指标、维度)、模型设计、模型开发互相割裂不对立的景象,数据架构标准无奈进行本质、无效的治理,元数据(指标、维度、模型设计)与理论物理模型割裂、不匹配,造成各种数据资产信息缺失。而且因为不足零碎抓手,无奈齐全标准研发的模型设计品质,导致局部需要间接进行了数据开发,引起好转模型建设品质的问题。这种不足标准和束缚带来的“烟囱式”开发,在节约技术资源的同时造成数据反复且不可信。配送体系化建模切入点是:以标准“根底数据建设”,打消因“烟囱式”开发给业务带来的困扰和技术上的节约。 3.1 体系化建模能够对数据架构进行本质无效的治理,从源头打消“烟囱式”开发体系化建模不仅能够在工具上实现一体化设计和开发,而且能在机制上造成模型设计与开发施行的无效协同。以需要驱动模型设计,以模型设计驱动和束缚开发施行,避免因模型设计与开发施行割裂、开发施行短少束缚带来的无序、“烟囱式”开发。 3.2 体系化建模积淀的标准元数据,能够无效打消业务在检索和了解数据时的困扰体系化建模岂但将原先割裂的数据标准定义、模型设计以及最终的物理模型实现连贯在一起,而且以元数据的模式将数据资产的刻画积淀了下来,每个指标不仅有标准的业务定义和清晰的加工口径,而且还能够映射到对应的物理表上,无效地打消了业务在检索和了解数据时的困扰。 4 如何进行体系化建模实现体系化建模要从源头开始,将数据标准定义、数据模型设计和ETL开发链接在一起,以实现“设计即开发,所建即所得”。整体策略是从源头开始,先在需要层面解决指标定义的问题,而后顺次束缚和驱动模型设计进而束缚数据加工,将产生于线上业务流程各环节的数据进行畛域化形象,并实现业务规定的数字化,实现“物理世界”的数字孪生,造成“数字世界”。在工具层面实现基于需要的一体化设计和开发,在机制上造成模型设计与数据开发的无效协同。 体系化建模不仅在工具上基于需要实现一体化设计和开发,而且在机制上造成模型设计与数据加工的无效协同。首先,基于数仓布局,将业务提的指标、维度映射到对应的主题、业务过程,而后基于数据定义规范,对业务指标进行结构化拆解,实现指标的技术定义,实现高层模型设计;其次,基于高层模型设计环节积淀的元数据,驱动和束缚最终的物理模型设计,为后续的数据加工确定最终的DDL,实现物理模型设计,以此来束缚后续的数据开发。 4.1 高层模型设计一线的数据需要都是以指标和维度的模式提给数据工程师的,数据工程师首先要依据拿到的指标需要确定要剖析的业务过程,实现业务过程的划分和定义,同时将指标归属到对应的业务过程下;其次,依据指标的业务口径,将业务指标拆分成原子指标+限定条件+工夫周期或计算指标+限定条件+工夫周期模式,实现指标的技术定义;第三,综合各方剖析视角,实现该业务过程统一维度的设计,多个业务过程一致性维度的设计形成该主题下的总线矩阵。 上述高层模型设计,波及两个环节。第一,通过业务形象实现畛域模型划分,咱们基于业务的理论流程来划分业务过程,并依照剖析畛域实现业务过程的归属。在特定的业务下,剖析畛域和对应的业务流程不会随着剖析需要的变动而变动,畛域划分也不会随着剖析需要的变动而变动,能够基于此划分,构建稳固的资产目录。第二,通过实现业务指标的技术定义并将其归属到特定的业务过程下,以及确定特定业务过程的剖析维度实现逻辑建模。逻辑建模进一步勾画出了在特定的剖析畛域和业务过程下,具体的剖析度量和剖析维度,实现最终的高层模型设计,高层模型的设计决定了在特定的剖析域和剖析业务过程下的具体物理产出。 更具体的讲,确定业务过程下的剖析度量须要实现业务指标的技术定义,并将其归属到特定的业务过程下。在这一步中,咱们从技术角度对业务指标产出了结构化的技术定义,造成了一套结构化指标体系。一方面结构化定义容易对立并造成规范,防止全文字描述带来了解上的歧义,另一方面结构化的定义有助于零碎来保障其一致性,解决靠人工来保障一致性难以施行的难题。咱们的结构化指标计划将指标分为:原子指标、计算指标和衍生指标,并针对这三类指标做了如下明确的定义: 原子指标:指在某一业务过程下不可再拆分的指标,具备明确业务含意的名词。在物理实现上,它是特定业务过程下业务实体字段加特定聚合算子的组合。计算指标:由原子指标与限定条件组合并通过加减乘除四则运算失去的指标。计算指标有明确的计算公式作为计算指标的定义,能够与多个限定条件进行组合。对于计算指标的归属,咱们遵循2个准则①因为原子指标都能归属到相应的业务过程,业务过程一般来说都有工夫前后程序,将计算指标归属到程序靠后的业务过程中;②如果波及到多个业务过程,同时这些业务过程没有工夫的先后顺序,这种状况下须要判断指标形容内容与主题业务过程的相关性,而后再归属到对应的业务过程。在物理实现上,计算指标能够由其定义的计算公式间接主动的生成其实现逻辑。衍生指标:由 “工夫周期+多个限定条件+原子指标/计算指标” 组成的指标。因为衍生指标是由原子指标/计算指标衍生进去的,所以衍生指标须要归属到原子指标/计算指标所属的业务过程。限定条件:限定条件是指标业务口径的一个逻辑封装,工夫周期也能够算作一类非凡的限定条件,是衍生指标必须蕴含的。在物理实现上咱们将其加工成衍生事实的一个逻辑标签。在这样的定义后,衍生指标便清晰地分为原子衍生指标和计算衍生指标两类,都能够比拟容易地通过结构化的形式半自动生成定义和实现。衍生指标笼罩了用户生成报表等数据产品的所有指标,而原子指标和计算指标作为指标体系的核心内容不间接提供给用户应用。在指标的实现形式上也容易明确,原子指标和计算指标的逻辑尽量下沉在根底事实层中,而衍生指标在中间层和应用层依据需要实现。 4.2 具体模型设计具体模型设计是将高层模型设计转化为理论物理生产的桥梁,具体模型设计必须联合数据的生产流程,给出与其分层模型相匹配的理论物理模型。依据数仓不同分层间的职责边界,具体模型设计又呈现出不同特点。 具体说来,须要数据工程师联合业务需要,对应的逻辑建模产出的DDL实现最终物理模型的加工生产,这是咱们具体模型设计的外围,对于中间层汇总模型,是为进步查问性能,基于明细模型进行预计算的过程,不波及工作业务口径的加工,只有元数据定义清晰,齐全能够通过工具实现“TEXT2SQL”进而实现配置化生产。咱们的工程师只须要关注基建层的开发,两头和应用层建设交给工具实现,节俭了大量的工夫和精力。在开展具体模型设计之前,咱们先介绍一下数仓分层,而后通过数据分层来介绍与之匹配的具体模型设计。 4.2.1 数仓分层简介依照整个数据生产的流转链路看,数据会经验产生、接入、加工到最初的生产,数仓的建设次要集中在数据的接入和加工环节。数据的接入蕴含数据的获取和荡涤两个过程,通过该过程实现了数据从业务零碎到仓库的流转,为后续基于剖析场景的数据建模提供了原始数据,咱们将该过程产生的数据定义为筹备区数据,该过程根本通过工具实现了自动化,不须要太多的人为参加和设计。 另一过程,为了反对用户、报表制作者以及其余BI利用的查问,咱们须要为用户提供开放区数据,目前采取维度建模和仓库分层实践,通过星型明细模型+多维汇总模型的形式别离满足用户固定的在线剖析,以及无奈预期的、随便查问的即席剖析诉求。该区域是数据工程师整体工作的外围,能够利用在线建模积淀的元数据,辅助咱们实现数据生产的提效和提质。在数据筹备区,咱们将数据模型分为根底明细层(B3)、两头汇总层(B2、B1)来撑持不同场景的数据需要。 4.2.2 元数据驱动的具体模型设计设计理念 元数据驱动的具体模型设计,是基于高层模型设计产出的逻辑模型,进而来驱动和束缚后续要加工的物理模型DDL,大抵分成三步:第一,确定物理模型名称;第二,基于模型归属主动生成根底事实,基于需要确定衍生事实,实现事实确定;第三,基于总线矩阵,确定模型一致性维度。 每一步具体操作的内容因模型所属的仓库分层不同而有所区别。对于两头汇总层而言,只是在根底模型根底上的多维上卷,根底模型确定当前,人工通过简略的指标拖拽,就能够自动生产DDL而且能够自动生产DML,绝对较简略,在此不做详述。接下来,咱们重点形容一下根底事实层的具体模型设计,具体如下图所示: 第一步,依据模型的出处确定模型名称,通过此处,不仅标准了模型命名,而且在数据生产前主动实现了资产挂载,不便了后续数据的治理和经营;第二步,依据第一步的模型挂载,束缚并确定该模型要生产的事实,即该模型所蕴含的根底事实字段由对应业务过程下的快照表决定,自动生产根底事实字段,该模型所蕴含的衍生事实由由对应业务过程下的衍生指标所需的限定条件决定,确保了需要、模型设计、物理实现三者的对立。 通过该过程,咱们束缚了理论生产环节物理模型的随便加工,从源头打消了“烟囱式”开发带来的冗余。通过元数据束缚了对应主题应该生产哪些事实,从源头避免了边界不清带来的交叉耦合问题,保障了最终物理模型的高内聚、低耦合。 第三步,基于总线矩阵确定物理模型的一致性维度,不是基于需要来增加维度,前期如果因需要变动而频繁调整根底模型,这样会导致根底模型复用性差,而是在模型生产之初,一次性实现维度的设计和生产,以晋升模型的稳定性和复用性。 产品实现 在论述了具体模型设计的理念和束缚后,咱们再具体看一下在具体产品层面是如何实现的。具体模型设计就是基于上一阶段的高层模型设计和物理建模的根本准则,采纳系统化的形式疏导数据工程师依照规范的流程实现对应的物理模型设计,以最终产出的DDL作为该环节的交付物,领导数据工程师在生产环节,实现最终的DML编写。 这个环节除了辅助数据工程师实现规范化的模型设计外,还通过物理模型齐备了上下文形容,包含实现了物理表与资产目录的映射关系、物理字段与指标维度的映射关系,为后续资产生产环节提供了齐备的根底元数据。依照物理模型设计最终的交付物来看,它的设计流程次要包含两局部:第一,依照标准和规范,确定物理模型的名称;第二,依照标准和规范,确定物理模型的数据字典。 通过确定所建物理模型对应的数仓层级、主题域和业务过程,主动生成该物理表的名称。 基于高层模型设计环节确定的剖析度量和维度,主动生成物理表对应的数据字典,确保模型设计与最终物理落地的一致性,从源头杜绝不标准的开发。 4.3 上线前卡点高层模型设计和具体模型设计束缚和标准了数据工程师如何确定一个模型的DDL,对于如何束缚和保障理论的加工逻辑(模型的DML)和业务定义保持一致,并没有与之匹配的束缚卡点。上线前卡点就是利用高层模型和具体模型设计这两个环节产生的元数据,通过自动化的形式来实现DML与业务定义的一致性验证,打消人工验证带来的老本问题。具体卡点验证包含四类: 雷同指标不同出处的数据一致性验证,将来自不同出处的雷同指标上卷到雷同维度,它们具备雷同的数值;业务定义与具体实现的一致性验证,此类验证次要针对码值类字段,具体数值必须与其对应的业务定义统一;研发合规的束缚类验证,例如,主键必须惟一、全表扫描、代码流程分支笼罩(T+1重导、批量重导、全量重导);变更时的级联影响,包含上游的生产工作影响和生产工作影响。5 总结体系化建模是配送数据团队围绕着数据资产化建设“提质降本和数据利用提效”这一指标孵化的产物,本着将规范流程工具化的思路,咱们通过工具来束缚和标准数据工程师的生产,力求将模型的规范化治理做到事先,防止重蹈业务疾速倒退阶段“先建设后治理”的覆辙。在模型提质方面,咱们实现了高层模型设计、物理模型设计的对立以及业务定义与物理实现的对立,而且在提效方面,在线建模通过零碎的形式为咱们积淀了贵重的元数据,是咱们后续基于元数据进行利用提效的要害。 ① 体系化建模,搭建起了数据定义到生产的桥梁,实现数据到信息的转化,提供了齐备的流程保障,并在配送外部实现了波及10多个主题、180多个原子指标、300多个计算指标和90多个衍生指标的对立。 在美团外部,波及配送交易、履约等外围主题的规范性建设方面治理评分均获得了优良的问题,特地是在指标完整性建设得分和物理模型维度完整性得分方面,均获得90分以上优良问题。 ② 得益于体系化建模实现的元数据和数据的对立,咱们实现了数据建设从“保姆”模式到“服务+自助”模式的转变。 在数据检索方面,得益于体系化建模积淀的高质量元数据,咱们构建了数据地图,解决了数据“可搜寻/可获取”问题,并在检索内容方面实现了所建即所得。 在数据生产方面,得益于体系化建模积淀的高质量元数据,咱们实现了“服务+自助”的数据服务模式,不仅打消了传统报表开发齐全依赖产研带来的开发流程长、需要响应慢、笼罩用户少等问题,而且解决了无奈“零SQL”即席剖析的难题,满足了业务人员通过“拖、拉、拽”即可疾速产生剖析报告的诉求。 目前,该模式广泛应用于所有业务大区”零SQL“数据经营人员早报、周报、季度述职等业务场景,得益于上述模式,不仅失去了一线人员宽泛好评,而且也将咱们的数据RD从“取数”、“跑数”的沉重工作中解脱进去。 作者简介王鹏、新兴、晓飞,均来自配送事业部数据团队。 团队简介配送数据组负责基于美团配送业务千万级订单、百万级商家和骑手产生的海量数据的实时和离线数据计算体系和产品体系的建设,为业务实现平安、效率和体验的外围指标,为新一代智能即时配送零碎——「美团超脑」建设数字化、智能化的零碎能力,提供数据撑持,为业务的经营治理、策略决策和算法策略提供欠缺的数据体系和基于数据迷信的决策能力。作为美团万物到家的根底,美团配送领有最丰盛的实时计算和离线计算场景,利用业界最先进的数据计算技术架构,建设保障数据及时性、一致性、准确性、完整性,保障数据计算和服务的稳定性的技术能力。欢送你的退出,跟美团配送数据团队一起打造业界当先的数据撑持平台。 浏览美团技术团队更多技术文章合集 前端 | 算法 | 后端 | 数据 | 平安 | 运维 | iOS | Android | 测试 ...

March 2, 2022 · 1 min · jiezi

关于大数据:大巧不工袋鼠云正式开源大数据任务调度平台Taier太阿

2022年2月22日,在明天这个非凡的日子里,历经多年继续迭代和千万周期实例并发调度考验的Taier(太阿)终于开源了! Github开源地址: https://github.com/DTStack/Taier 官网文档地址: https://dtstack.github.io/Taier/ 这是袋鼠云开源我的项目的重要里程碑事件,代表着袋鼠云技术研发团队对开源的信心。咱们心愿通过技术分享,帮忙更多人摸索大数据平台的业务场景,同时也由衷欢送更多开发者参加到社区中来,Committer虚位以待! |缘起:太阿出鞘 Taier的命名,源自中国十大名剑太阿。 Taier Logo太阿是春秋战国期间楚国的镇国至宝,由铸剑名师欧冶子和干将联手打造。相传楚国在生死存亡之际,靠太阿剑气击败晋国大军,被世人誉为诸侯英武之剑,象征了威武不屈、心田弱小的实力,正如Taier强悍稳固的任务调度能力,每天可解决15w+超宏大工作体量,岂但大大降低企业ETL的开发成本,还能无效保障大数据平台的安稳运行,功能强大,一如太阿剑威力无穷。 |亮剑:Taier诞生 Taier的诞生,与时代的倒退非亲非故。 现在,数字化转型已成为寰球浪潮,大数据平台建设成为新时代必不可少的基础设施。随着数字化转型的深刻,很多企业在建设数据中台过程中,将波及大量数据采集、解决、计算等方面的工作,需要的一直叠加,呈现了单个零碎难以满足简单业务的状况,迫切需要一种兼容多个子系统相互合作的任务调度零碎协调,正是基于这种背景,Taier分布式DAG任务调度零碎应运而生。 Taier是一个开箱即用的分布式可视化的DAG任务调度零碎,技术开发人员能够在Taier 间接进行业务逻辑的开发,而不必关怀工作盘根错节的依赖关系与底层的大数据平台的架构实现,将工作的重心更多地聚焦在业务之中。 Taier(太阿)调度零碎架构图在Taier Logo的设计上,咱们围绕零碎自身凋谢容纳、简略易用的个性,在设计中融入了积木、剑、蜂巢等元素。主体Logo由四块积木交叠而成,形若利剑,有组合,有拆散,传播开源项⽬凋谢容纳的理念,同时也体现Taier采⽤分布式模式——具备很强的解耦性、扩展性。 Taier Logo创意阐释Logo底层采⽤六边形蜂巢构造,六边形蜂巢是大自然中最省劳动⼒、最省资料、最稳固的排列⽅式,其六条对称轴能够通过各种旋转⽽不扭转形态,选用六边形作为Logo的边框,意在传播Taier升高开发成本、提⾼⼤数据平台稳定性的特点。 |亮点:Taier性能劣势 作为一个分布式可视化的DAG任务调度零碎,太阿Taier脱胎于袋鼠云的一站式大数据开发平台——数栈DTinsight,技术实现来源于数栈散布式调度引擎DAGScheduleX,DAGScheduleX是数栈产品的重要基础设施之一,负责大数据平台所有工作实例的调度运行。太阿Taier是DAGScheduleX的重要枢纽,负责调度日常宏大的工作体量,多年的继续迭代与积淀,造就了太阿Taier六大外围劣势: 一、超高的稳定性 单点故障:去中心化的分布式模式 高可用形式:Zookeeper 过载解决:分布式节点+ 两级存储策略 + 队列机制。每个节点都能够解决任务调度与提交;工作多时会优先缓存在内存队列,超出可配置的队列最大数量值后会全副落数据库;工作解决以队列形式生产,队列异步从数据库获取可执行实例 实战测验:失去数百家企业客户生产环境实战测验 二、超强的易用性,一站式任务调度 反对大数据作业Spark、Flink、Hive、MR的调度 反对泛滥的工作类型,目前反对Spark SQL、Flinkx;后续开源反对:SparkMR、PySpark、FlinkMR、Python、Shell、Jupyter、Tersorflow、Pytorch、HadoopMR、Kylin、Odps、SQL类工作(MySQL、PostgreSQL、Hive、Impala、Oracle、SQLServer、TiDB、greenplum、inceptor、kingbase、presto) 可视化工作流配置:反对封装工作流、反对单任务运行,不用封装工作流、反对拖拽模式绘制DAG DAG监控界面:运维核心、反对集群资源查看,理解以后集群资源的残余状况、反对对调度队列中的工作批量进行、工作状态、工作类型、重试次数、工作运行机器、可视化变量等要害信息高深莫测 调度工夫配置:可视化配置 多集群连贯:反对一套调度零碎连贯多套Hadoop集群 三、超常的兼容性,反对多版本引擎 反对Spark 、Flink、Hive、MR等引擎的多个版本共存,例如可同时反对Flink1.10、Flink1.12(后续开源) 四、安全可靠,反对Kerberos Spark、Flink、Hive 五、丰盛的零碎参数 反对3种工夫基准,且能够灵便设置输入格局 六、卓越的扩展性,反对多种形式扩容 设计之处就思考分布式模式,目前反对整体Taier程度扩容形式;后续开源反对:Scheduler/Worker拆散部署模式。 调度能力随集群线性增长 |终端:Taier用户界面 |瞻望:将来迭代打算 Taier调度平台是数据平台框架中的一个组件,能够满足企业日常数据分析、解决、展现须要。将来随着业务的接入和数据规模的增大,Taier将继续晋升用户体验,打算将优化: 工作类型:反对SparkMR、PySpark、FlinkMR、Python、Shell、Jupyter、Tersorflow、Pytorch、HadoopMR、Kylin、Odps、SQL(MySQL、PostgreSQL、Hive、Impala、Oracle、SQLServer、TiDB、greenplum、inceptor、kingbase、presto 调度形式:同时反对Yarn/K8s 计算引擎:同时反对Spark-2.1.x/2.4.x、Flink-1.10/1.12(与Flink后续版本) 部署形式:同时反对Scheduler/Worker整合与拆散部署 性能反对:反对交易日历、事件驱动 内部零碎对接:反对Taier零碎对接内部调度零碎(AZKBAN、Control-M、DS调度) |结语:Taier 应用了 Apache 的多个开源我的项目如Flink、Spark 作为计算组件实现数据同步和批处理计算,得益于开源社区才有现在的太阿 Taier。正因为Taier 取之于社区, 所以咱们心愿通过开源此项技术的形式,回馈社区,独特弘扬“Community Over Code“的Apache文化。将来,咱们仍将秉承兼容并包与凋谢多样化的心态,将持续推出Taier 后续版本,欢送更多的公司和集体参加到开发者队伍中来,让Taier社区更加强壮、衰弱的倒退,让更多人享受开源带来的技术反动! ...

March 1, 2022 · 1 min · jiezi

关于大数据:白话大数据-从买菜这件小事来聊聊数据仓库

最近几个新入职的同学说被数据库,数据集市,数据仓库整的有点懵,不太分明它们之间的关系和区别。周末小编在买菜的过程中灵光一闪,决定从买菜这件小事来聊聊数据仓库。 当咱们想做饭时首先须要思考的就是想做的菜须要买什么资料,比方小炒肉,咱们须要青椒和猪肉。晚期的时候,咱们须要别离去蔬菜店买青椒,去肉铺买猪肉。这个过程咱们须要破费很多的工夫和精力,甚至有的时候跑了一大段路却发现店里没有我想买的货色,或者我买到了青椒,却发现肉铺没有肉卖了这种难堪的状况。起初逐步建设了农贸市场,由每个资料供货商供货,品种齐全,并依照肯定的规定摆放参差,咱们想要买什么菜依照指示牌就能够疾速地定位。 咱们能够把数据库比作一个个小店铺或者供货商,他们的强项在于事务处理,比方从农民伯伯手上去收买蔬菜,从屠宰厂零售猪肉等,将这些原材料汇总起来,至于怎么摆放供客户筛选,通过各种市场剖析去增长销量等不是他们善于的。数据库次要就是面向事务设计的,与ERP,CRM,OA等各类业务系统集成并实现业务过程数据的组织治理,他们解决的是根本的业务流程治理,通过数据的录入,删除,批改,查问及用户在业务零碎操作界面中做的增删改查操作,和业务零碎底层的数据库例如MySQL,Oracle,SQL Server实现数据的交互,数据也积淀在这些数据库中。 那聪慧的同学曾经晓得数据仓库其实就像“农贸市场”,把各种供货商手上的货源收集起来,依照肯定的规定摆放参差供客户筛选,同时能够通过整个农贸市场的销售经营状况进行一些粗疏的剖析,对整个市场有更好的理解,从而促销相应的洽购,销售策略等等。数据仓库是构建面向剖析的集成化数据环境,为企业提供决策反对,它出于剖析性报告和决策反对的目标而创立。 那什么是数据集市呢?数据集市能够比喻成各种专区,卖蔬菜农产品的,卖水产海鲜的,卖肉禽的等等。数据集市其实就是一个面向小型的部门或工作组级别的小型数据仓库,只专一于某一个方面的主题剖析。 图片起源:包图网 数据仓库自身并不生产数据,数据来源于内部,并且凋谢给内部利用,这也是为什么叫仓库,不叫工厂的起因。例如农贸市场并不种植蔬菜、养殖各种水产禽类,而是从各供货商获取资料。数据集市能够从本人的数据源获取数据,也能够从数据仓库中获取某一主题的数据。那从供货商到农贸市场的两头过程,其实就是所谓的“ETL”过程。ETL就是extract,Transform和load,指的是荡涤,转换和加载。咱们都晓得,供货商提供的货不是什么都要的,咱们要筛选出有价值的,滞销的种类,有些坏的,不陈腐的菜在进农贸市场的过程中就须要去除掉。而不同的供货商提供的货可能也存在一些一样的品种,那么在搬运到农贸市场中就须要做一些归类合并,依照更好的一种排列形式摆放参差供客户筛选。这个从供货商搬运,荡涤,转换,加载各种菜的过程就是ETL过程。在这个过程中,还波及到ETL的形式和频率。比方水产海鲜,很多都是速冻空运过去的,一些需求量比拟小的比方澳龙可能几天才送一次,而一些蔬菜是人们日常须要的,大都是周边蔬菜大棚产的,就会由货车每天运输进农贸市场。这些菜被运送到农贸市场后,会依据肯定的规定进行摆放让客户筛选。咱们能够依据不同的规定对这些菜进行治理,就像数据仓库的技术框架一样,咱们能够抉择个别的技术框架或者大数据技术框架,不同的抉择最终决定了咱们数据仓库的应用成果和投入老本。因而,数据仓库的实质还是一个数据库,它将各个异构的数据源,数据库的数据对立治理起来,并且实现了相应数据的剔除,格局转换,最终依照一种正当的建模形式来实现源数据的组织模式的转变,以更好的反对前端的可视化剖析。对于数据库和数据集市,数据仓库的区别,咱们简略做个总结一下: 个性 数据库 数据仓库 数据集市出发点 面向事务处理设计 面向企业主题设计 面向部门或工作组主题性能 捕捉和存储数据 剖析数据 剖析数据数据起源 从单个零碎会获取 从多个数据源抽取和标准化 个别数据仓库数据量 小 大 中小存储内容 个别是在线数据 通常是历史数据 通常是历史数据服务对象 业务人员 企业数据分析师、高层 部门数据分析师、领导 那数据仓库有什么价值呢?咱们先来说一个啤酒和尿布的故事。某超市货架上将啤酒与尿布放在一起售卖,这看似不相干的两个货色,为什么会放在一起售卖呢?原来在晚期的时候,该店面经理发现每周啤酒和尿布的销量都会有一次同比增长,但始终搞不清楚起因。起初商家通过对原始交易记录进行长期的详细分析后发现,很多年老的父亲在上班后给孩子买完尿布后,大都会顺便买一点本人爱喝的啤酒。于是该商家将尿布与啤酒摆放在一起售卖,通过它们的潜在关联性,互相促进销售。“啤酒与尿布”的故事一度成为营销界的神话。从下面能够看出,数据仓库除了将各数据源抽取集成到一起为数据管理和使用提供方便外,还能够依照不同的主题,将不同品种的数据进行归类组织,从多维度、多角度挖掘出一些有价值的货色,为了企业的剖析和决策提供数据根据。而个别数据库次要是面向事务处理,对数据分析性能不佳。此外,通常一个公司的业务零碎会有很多,不同的业务零碎往往治理部门不同,地区不同,各个数据库系统之间是互相隔离的,无奈从这些不同零碎的数据之间挖掘出关联关系。因而基于这些个性,数据仓库可用于人工智能、机器学习、危险管制、无人驾驶,数据化经营、精准经营,广告精准投放等场景。星环科技是国内当先的大数据根底软件公司,围绕数据的集成、存储、治理、建模、剖析、开掘和流通等数据全生命周期提供根底软件与服务,于2016年被国内出名剖析机构 Gartner 选入数据仓库及数据管理剖析魔力象限,位于远见者象限,在前瞻性维度上优于 Cloudera、Hortonworks 等美国支流大数据平台厂商,是Gartner 公布该魔力象限以来首个进入该魔力象限的中国公司。Transwarp ArgoDB是星环科技面向数据分析型业务场景的分布式闪存数据库产品,次要用于构建离线数据仓库、实时数据仓库、数据集市等数据分析系统。2019年8月,ArgoDB成为寰球第四个通过TPC-DS基准测试并通过TPC官网审计的数据库产品。 基于星环科技ArgoDB的数据仓库解决方案,通过对数据的荡涤、治理、建模、治理、剖析,造成数据仓库,为业务人员和管理人员提供管理决策服务。联合星环科技事件存储库Event Store和实时流计算引擎构建实时数据仓库,能够高速接入实时音讯数据(吞吐量能够达到数百万记录/秒),或者从交易型数据库实时同步数据到ArgoDB,并对数据进行实时增删改查,以及高速的数据简单加工和统计分析。基于星环科技ArgoDB的数据仓库解决方案个性: ★多模型数据库 反对关系型、搜寻、文本、对象等数据模型 ★残缺的SQL反对 反对残缺的SQL规范语法,兼容Oracle、IBM DB2、Teradata方言,兼容Oracle和DB2的存储过程,反对业务平滑迁徙 ★反对超大规模集群 人造分布式架构,集群节点规模无下限,数据存储容量随节点规模线性扩容,可反对2000+节点集群 ★混合负载反对 反对实时数据与混合负载,反对海量数据的离线批量解决、在线实时剖析和多维度的简单关联统计等性能 ★分布式事务保障 反对残缺4种事务隔离级别,保障事务在分布式系统下失常运行,高吞吐的,确保数据强统一,高可用的事务保障 典型案例 某农商行基于ArgoDB构建了新一代数据仓库,通过反对Oracle方言,极大升高了原先Oracle数据库业务数据和现有剖析型业务的迁徙老本。在剖析型业务方面以更低成本、更高性能残缺代替了传统Oracle数据仓库,确保剖析型业务与交易型业务的隔离。平台满足了行内包含历史明细数据查问、交易流水查问、实时交易大屏、大额交易揭示等十多个要害查问业务场景需要。针对各类剖析型业务的主动性能优化,保障了多用户高并发场景下的性能要求。联合实时流引擎Slipstream,将源数据库Oracle的增量数据以秒级延时疾速同步到ArgoDB数仓,尤其确保了对源零碎数据有删改的经常性调账退款业务数据能即时反映在剖析零碎中。平台基于实时落库的业务数据实现了多流水表多维度数据整合的交互式简单剖析能力,将本来基于Oracle的离线级剖析能力晋升到秒级的准实时级交互式剖析能力,为行内将来多种简单的剖析型业务利用的拓展与更高的实时性要求打下松软的技术根底。

March 1, 2022 · 1 min · jiezi

关于大数据:大数据测试场景科普-离线造数场景

原文由孙高飞发表于TesterHome社区,原文链接背景好久没写文章了, 自从换工作当前终日就忙着相熟新公司的我的项目了。 趁着这两天有工夫我就持续更新一下大数据测试系列。 上一次咱们聊过流计算场景个别的测试方法,而流计算是在线业务。 那明天咱们聊聊离线业务的场景。 不晓得大家有没有接触过大数据平台产品, 这类产品以 TO B 公司居多, 当然也有一些大厂外部也会有大数据平台去撑持业务线, 比方阿里的如同叫 odps 吧(有点忘了), 腾讯也有 tbds 这样的大数据产品。 或者一些 AI 平台也有着大数据平台的个性。 它们的特点是产品属于平台类的, 没有本人的业务, 或者说他的业务就是提供算力去撑持客户的业务。 也就是大数据平台类的产品提供的是一些原始算力, 用户须要调用这些算力来满足他们的业务。 这就跟互联网不太一样了, 接触过大数据的同学比拟相熟的应该还是在业务层的数据处理逻辑, 比方测试一些研发提供的 ETL 程序, 或者数据组的同学提交的一些 hive sql。 这些都是带着强烈的业务属性的,属于业务层的货色。 而大数据平台的产品并没有这些属性, 能够了解为它属于中台层。 场景举例下面说的过于形象,咱们用个例子来阐明一下。 个别企业在倒退到肯定水平,数据积攒到一定量级都会倒退出数仓(数据仓库)利用, 数仓个别用来做相似 BI 的业务帮忙企业剖析数据以做出决策, 我用知乎上一个仁兄举的例子来说, 比方需要会从最后十分粗放的:“昨天的支出是多少”、“上个月的 PV、UV 是多少”,逐步演变到十分精细化和具体的用户的集群剖析,特定用户在某种应用场景中,例如 “20~30 岁女性用户在过来五年的第一季度化妆品类商品的购买行为与公司进行的促销流动计划之间的关系”。这类十分具体,且可能对公司决策起到关键性作用的问题,根本很难从业务数据库从调取进去。 次要起因我感觉有 3 点: 业务数据库中的数据结构是为了实现交易而设计的,不是为了而查问和剖析的便当设计的。业务数据库大多是读写优化的,即又要读(查看商品信息),也要写(产生订单,实现领取)。因而对于大量数据的读(查问指标,个别是简单的只读类型查问)是反对有余的。咱们须要大量的数据来进行剖析, 但这些数据不都是存在关系型数据库中的, 数据源可能来自消息中间件也可能来自日志零碎。 咱们在剖析的时候须要对接多种数据源所以综上所述, 到了这个阶段的企业不会再用 mysql 这种关系型数据库来构建数据仓库了, 而是应用诸如 hive 这样的技术来构建数仓。 因为数仓的要求个别为: 数据结构为了剖析和查问的便当;只读优化的数据库,即不须要它写入速度如许快,只有做大量数据的简单查问的速度足够快就行了。个别的大数据平台都会提供数仓的能力。 而构建数仓的第一步就是如何从各种数据源中把业务数据导入到数仓中(这其中还须要荡涤过滤数据, 多表拼接, 标准 schema 等 ETL 流程)。 所以很多大数据平台会提供从各种数据源中把数据导入到平台本身零碎存储的性能。 并且这些导入性能要保障性能的前提下也要保障性能,一致性,高可用等等。 ...

February 28, 2022 · 2 min · jiezi

关于大数据:图解大数据-实操案例Hadoop系统搭建与环境配置

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/84本文地址:http://www.showmeai.tech/article-detail/169申明:版权所有,转载请分割平台与作者并注明出处 1.引言本教程ShowMeAI具体给大家解说Hadoop的装置与环境配置办法,对于Hadoop与map-reduce的基础知识,大家能够回顾ShowMeAI的基础知识解说篇分布式平台Hadoop与Map-reduce详解。本教程的工作环境为Linux零碎(理论有大数据环境的公司,工作与开发环境很多也是在服务器上,大家能够尽早相熟一下)。 本教程应用到的Hadoop安装文件,下载方式有以下抉择: ① Hadoop官网 https://hadoop.apache.org/releases.html② 百度网盘,找到Hadoop安装文件【hadoop-2.7.1.tar.gz】进行后续试验Hadoop安装文件下载(百度网盘) 链接:https://pan.baidu.com/s/1kFBBT2glXeGxf\_Y2PXwA7Q 提取码:show2.环境阐明零碎环境: Ubuntu 14.04 64位 (Ubuntu 12.04,Ubuntu16.04 也行,32位、64位均可)。Hadoop版本:本教程基于Hadoop 2实现,Hadoop 2.6.0 (stable) 版本验证通过,可适宜任何 Hadoop 2.x.y 版本。3.创立用户1)新增用户首先新增一个名为 hadoop 的用户。关上终端窗口(快捷键ctrl+alt+t ),输出如下命令 : sudo useradd -m hadoop -s /bin/bash对上述操作做一个解释: sudo命令:sudo是ubuntu中一种权限管理机制,管理员能够受权给一些普通用户去执行一些须要root权限执行的操作。当应用sudo命令时,就须要输入您以后用户的明码。本教程中大量应用到sudo命令。明码:在Linux的终端中输出明码,终端是不会显示任何你以后输出的明码,也不会提醒你曾经输出了多少字符明码。而在windows零碎中,输出明码个别都会以“*”示意你输出的明码字符。2)设置明码应用如下命令设置明码,可简略设置为 hadoop,按提醒输出两次明码: sudo passwd hadoop再通过以下命令为 hadoop 用户减少管理员权限,不便部署: sudo adduser hadoop sudo4.更新apt接下来更新一下 apt,因为在Linux(Ubuntu)环境下最不便的装置软件形式是应用 apt ,放弃它在比拟新的状态,在命令行执行如下命令: sudo apt-get update装置vim等编辑器:后续应用vim进行文本编辑,这里基于更新后的apt装置一下vim,命令如下: sudo apt-get install vim装置软件时若须要确认,在提醒处输出 y 即可。 5.装置与配置SS集群、单节点模式都须要用到 SSH 登陆,Ubuntu 默认已装置了 SSH client,此外还须要装置 SSH server,能够基于以下命令装置: sudo apt-get install openssh-server装置后,能够应用如下命令登陆本机: ssh localhost此时会有如下提醒(SSH首次登陆提醒),输出 yes 。而后按提醒输出明码 hadoop,这样就登陆到本机了。 ...

February 25, 2022 · 3 min · jiezi

关于大数据:全面解析湖仓一体与大数据演进历程|内含技术工具选型策略

云智慧 AIOps 社区是由云智慧发动,针对运维业务场景,提供算法、算力、数据集整体的服务体系及智能运维业务场景的解决方案交换社区。该社区致力于流传 AIOps 技术,旨在与各行业客户、用户、研究者和开发者们独特解决智能运维行业技术难题,推动 AIOps 技术在企业中落地,建设衰弱共赢的AIOps 开发者生态。大数据架构的演进历程对于大部分人来说,大数据架构所波及的概念及术语繁多且简单。如何将这些凌乱的词汇转化为有机思维,使其能够通过横向切面、纵向切片的形式出现进去是咱们必须思考的一个问题。本章将通过对大数据外围架构类型进行梳理,以及通过对不同阶段根底选型工具的解说,带大家具体理解大数据架构的演进历程。 基础知识介绍MPP 架构 & 分布式架构MPP 架构MPP 大规模并行处理构造 (Massivly Parallel Processing)指将工作并行扩散到多个 SMP 节点,每个节点计算实现后,将各自局部的后果汇总在一起失去最终的后果。 因为 MPP 在数据库畛域利用较为宽泛,所以在事务一致性方面要求比拟高。从总体来讲,MPP 的一致性>可靠性>容错性。在内部的一些状况下,在能保障 MPP 一致性的时候必须保障一致性,否则就失去了数据库定位的这个实质。 分布式架构分布式架构 (Hadoop 架构/批处理架构)指集群中各节点实现自治,即独立运行部分利用;MPP 架构无奈做到节点自治,它只能作为整体对外提供服务。分布式架构 (Hadoop 架构/批处理架构)集群中各节点实现自治,即独立运行部分利用;MPP 架构无奈做到节点自治,它只能作为整体对外提供服务。 分布式架构更多关注的是“分而治之”,它要保障的是整体节点之间的一个均衡,所以从整体优先级来讲,分布式架构的容错性>可靠性>一致性。 总体来讲,咱们平时理解到的分布式架构个别指的就是 Hadoop 系列,集群以及一些数据库则指的是MPP。 OLAP 面向数据仓库与OLTP面向事务数据库在线剖析解决 OLAP(On-Line Analytical Processing) 利用于数据仓库畛域,反对简单查问的数据分析,侧重于为业务提供决策反对(DSS);在线事务处理 OLTP(On-Line Transaction Processing) 利用于在线业务交易系统,反对频繁的在线操作(增删改)、事务个性。 总体来讲,OLAP 侧重于事务的计算、 BI 剖析、智能决策;而 OLTP 更多地是保障事务的一致性,比方在线交互零碎中的增删改操作。 分布式架构如何“拆层”分布式架构分为分布式音讯队列层、分布式计算引擎层、分布式存储架构层以及分布式SQL引擎层和分布式配置管理层。本章中的数据架构侧重点则会对立集中在分布式计算、分布式存储和分布式 SQL 引擎三大块,上面咱们将从分布式存储切入解说。 Hadoop生态环境因为上述所说的分布式架构和批处理均是基于 Hadoop 生态环境,所以上文所形容的分层逻辑也能够套在 Hadoop 生态中。底层 HDFS 就是方才所说的分布式存储,中间层 MapReduce 就是分布式计算,而Hive 指的就是分布式 SQL。 ...

February 25, 2022 · 2 min · jiezi

关于大数据:图解大数据-分布式平台Hadoop与Mapreduce详解

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/84本文地址:http://www.showmeai.tech/article-detail/168申明:版权所有,转载请分割平台与作者并注明出处 1.Hadoop疾速入门1)Hadoop简介Hadoop是Apache软件基金会旗下的一个开源分布式计算平台,为用户提供了零碎底层细节通明的分布式基础架构。 Hadoop是基于Java语言开发的,具备很好的跨平台个性,并且能够部署在便宜的计算机集群中;Hadoop的外围是分布式文件系统HDFS(Hadoop Distributed File System)和MapReduce;Hadoop被公认为行业大数据规范开源软件,在分布式环境下提供了海量数据的解决能力;简直所有支流厂商都围绕Hadoop提供开发工具、开源软件、商业化工具和技术服务,如谷歌、微软、字节跳动、美团点评、淘宝等,都反对Hadoop。对于 Hadoop的搭建与利用案例 欢送大家关注ShowMeAI下列文章: 实操案例-Hadoop零碎搭建与环境配置实操案例-利用map-reduce进行大数据统计2)Hadoop倒退简史Hadoop当初曾经宽泛地利用在大数据工作中,而它最后其实只是由Apache Lucene我的项目的创始人Doug Cutting开发的文本搜寻库。上面是它的倒退历程。 Hadoop源自始于2002年的Apache Nutch我的项目——一个开源的网络搜索引擎,也是Lucene的一部分。2004年,Nutch我的项目也模拟GFS开发了本人的分布式文件系统NDFS(Nutch Distributed File System),也就是HDFS的前身。2004年,谷歌公司又发表了另一篇具备深远影响的论文,论述了MapReduce分布式编程思维。2005年,Nutch开源实现了谷歌的MapReduce。2006年2月,Nutch中的NDFS和MapReduce开始独立进去,成为Lucene我的项目的一个子项目,称为Hadoop,同时,Doug Cutting加盟雅虎。2008年1月,Hadoop正式成为Apache顶级我的项目,Hadoop也逐步开始被雅虎之外的其余公司应用。2008年4月,Hadoop突破世界纪录,成为最快排序1TB数据的零碎,它采纳一个由910个节点形成的集群进行运算,排序工夫只用了209秒。2009年5月,Hadoop更是把1TB数据排序工夫缩短到62秒。Hadoop从此名声大震,迅速倒退成为大数据时代最具影响力的开源分布式开发平台,并成为事实上的大数据处理规范。2.Hadoop个性与利用现状1)Hadoop个性Hadoop是一个可能对大量数据进行分布式解决的软件框架,并且是以一种牢靠、高效、可伸缩的形式进行解决的。它具备以下几个方面的个性: 2)Hadoop利用现状Hadoop凭借其突出的劣势,曾经在各个领域失去了宽泛的利用,而互联网畛域是其利用的主阵地。 雅虎2007年在Sunnyvale总部建设了M45——一个蕴含了4000个处理器和1.5PB容量的Hadoop集群零碎。Facebook作为寰球出名的社交网站,Hadoop是十分现实的抉择,Facebook次要将Hadoop平台用于日志解决、举荐零碎和数据仓库等方面。国内支流的互联网及信息公司,包含百度、淘宝、网易、字节、美团点评、华为、中国移动等都采纳了Hadoop。 3)Hadoop版本演进Apache Hadoop版本分为两代:第一代Hadoop称为Hadoop 1.0,第二代Hadoop称为Hadoop 2.0。 第一代Hadoop蕴含三个大版本,别离是0.20.x、0.21.x、0.22.x。 0.20.x最初演化成1.0.x,变成了稳定版。0.21.x和0.22.x则减少了NameNode HA等新的重大个性。第二代Hadoop蕴含两个大版本,别离是0.23.x、2.x。 它们齐全不同于Hadoop 1.0,是一套全新的架构,均蕴含HDFS Federation和YARN两个零碎。相比于0.23.x,2.x减少了NameNode HA和Wire-compatibility两个重大个性。3.Hadoop生态我的项目架构 如上图列举了Hadoop生态的我的项目架构,蕴含以下组件,层级构造与外围性能见图。 组件性能HDFS分布式文件系统MapReduce分布式并行编程模型YARN资源管理和调度器Tez运行在YARN之上的下一代Hadoop查询处理框架HiveHadoop上的数据仓库HBaseHadoop上的非关系型的分布式数据库Pig一个基于Hadoop的大规模数据分析平台,提供相似SQL的查询语言Pig LatinSqoop用于在Hadoop与传统数据库之间进行数据传递OozieHadoop上的工作流管理系统Zookeeper提供分布式协调一致性服务Storm流计算框架Flume一个高可用的,高牢靠的,分布式的海量日志采集、聚合和传输的零碎AmbariHadoop疾速部署工具,反对Apache Hadoop集群的供给、治理和监控Kafka一种高吞吐量的分布式公布订阅音讯零碎,能够解决消费者规模的网站中的所有动作流数据Spark相似于Hadoop MapReduce的通用并行框架4.HDFS介绍1)分布式文件系统分布式文件系统,把文件散布存储到多个计算机节点上,成千上万的计算机节点形成计算机集群。与之前应用多个处理器和专用高级硬件的并行化解决安装不同的是,目前的分布式文件系统所采纳的计算机集群,都是由一般硬件形成的,这就大大降低了硬件上的开销。 2)HDFS的长处与局限 总体而言,HDFS要实现以下指标: 兼容便宜的硬件设施流数据读写大数据集简略的文件模型弱小的跨平台兼容性HDFS非凡的设计,在实现上述低劣个性的同时,也使得本身具备一些利用局限性,次要包含以下几个方面: 不适宜低提早数据拜访无奈高效存储大量小文件不反对多用户写入及任意批改文件3)HDFS块及其劣势块(Block):HDFS默认一个块64MB,一个文件被分成多个块,以块作为存储单位。块的大小远远大于一般文件系统,能够最小化寻址开销。 HDFS采纳形象的块概念能够带来以下几个显著的益处: 反对大规模文件存储:文件以块为单位进行存储,一个大规模文件能够被分拆成若干个文件块,不同的文件块能够被散发到不同的节点上,因而,一个文件的大小不会受到单个节点的存储容量的限度,能够远远大于网络中任意节点的存储容量。简化零碎设计:首先,大大简化了存储管理,因为文件块大小是固定的,这样就能够很容易计算出一个节点能够存储多少文件块;其次,不便了元数据的治理,元数据不须要和文件块一起存储,能够由其余零碎负责管理元数据。适宜数据备份:每个文件块都能够冗余存储到多个节点上,大大提高了零碎的容错性和可用性。4)HDFS次要组件的性能 HDFS蕴含Name Node和Data Node,具体的性能和特点比照如上图所示。 Name NodeData Node存储元数据存储文件内容元数据保留在内存中文件内容保留在磁盘保留文件、block、datanode之间的映射关系保护了 block id 到 datanode 本地文件的映射关系5.Map-Reduce分布式数据处理HDFS很好地解决了分布式文件存储的问题,而hadoop利用一套Map-Reduce的计算框架,也解决了大数据处理的难题。上面整顿了大数据计算所面对的问题,以及一些解决思路(也是map-reduce的核心思想)。 咱们前面的内容会以实操的形式,带大家一起看hadoop的组件与Map-Reduce利用的案例,这里大家先做一个简略理解,具体的利用实操接着看ShowMeAI后续内容哦~ 集群计算面对的问题&计划 问题1:节点故障。如何保持数据的持续性,即在某些节点故障的情景下不影响仍旧可能应用数据?在运行工夫较长的集群运算中,如何应答节点故障呢? 解决办法:在多节点上冗余地存储数据。分布式文件存储系统提供全局的文件命名空间,冗余度和可获取性。例如:Google的GFS、Hadoop的HDFS。 问题2:网络带宽瓶颈。 解决办法:数据以“块状”模式在多台机器上存储。每个数据块都会反复地在多台机器上存储,保证数据的持续性和随时可取性。 问题3:分布式编程非常复杂。须要一个简略的模型可能隐去所有的复杂性。 ...

February 24, 2022 · 1 min · jiezi

关于大数据:图解大数据技术从入门到精通系列教程

作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/84申明:版权所有,转载请分割平台与作者并注明出处 引言本篇是ShowMeAI组织的「图解大数据处理与开发系列教程」入口,本教程以大数据技术为根基,给大家解说大数据开发与数据处理剖析的相干常识与技能,并配以相干的实战案例帮忙大家学习了解。 内容笼罩:Hadoop,Map-Reduce,Hive, HBase,Spark,流式数据处理,Spark Streaming,大数据机器学习,GraphFrames,图数据挖掘 教程地址点击查看残缺教程学习门路内容章节1.导论:大数据生态与利用 2.分布式平台:Hadoop与Map-reduce详解 3.实操案例:Hadoop零碎搭建与环境配置 4.实操案例:利用map-reduce进行大数据统计 5.实操案例:Hive搭建与利用案例 6.海量数据库与查问:Hive与HBase详解 7.大数据分析开掘框架:Spark初步 8.Spark操作:基于RDD的大数据处理剖析 9.Spark操作:基于Dataframe与SQL的大数据处理剖析 10.综合案例:应用spark剖析美国新冠肺炎疫情数据 11.综合案例:应用Spark剖析开掘批发交易数据 12.综合案例:应用Spark剖析开掘音乐专辑数据 13.流式数据处理:Spark Streaming 14.Spark机器学习(上)-工作流与特色工程 15.Spark机器学习(下)-分类回归聚类建模与超参调优 16.Spark GraphFrames:基于图的数据分析挖 ShowMeAI速查表下载Spark SQL 速查表Spark RDD 速查表ShowMeAI系列教程举荐图解Python编程:从入门到精通系列教程图解数据分析:从入门到精通系列教程图解AI数学根底:从入门到精通系列教程图解大数据技术:从入门到精通系列教程

February 24, 2022 · 1 min · jiezi

关于大数据:看懂这5幅图研发效能分析和改进就容易了

简介:作为 CTO 或企业管理者,咱们如何去理解和掂量研发团队的研发效力呢?作为 PMO 和效力负责人,咱们该从哪几个维度来答复对于研发效力的问题呢?如何通过效力数据分析,帮忙企业管理者透明化研发效力程度和变化趋势,剖析效力问题根因、领导改良口头、掂量改良成果。 作为 CTO 或企业管理者,咱们如何去理解和掂量研发团队的研发效力呢? 作为 PMO 和效力负责人,咱们该从哪几个维度来答复对于研发效力的问题呢? 带着这两个问题,咱们进入到研发效力剖析的场景,聊一聊咱们如何通过效力数据分析,帮忙企业管理者透明化研发效力程度和变化趋势,剖析效力问题根因、领导改良口头、掂量改良成果。 注:以下内容分为视频版和文字版,读者可自选学习。 观看地址:https://v.qq.com/x/page/j3324... 在云效效力洞察 Insight 中,咱们能够从 3 个维度掂量和剖析团队的研发效力: 看交付速率:单位工夫内,团队可能交付多少需要,即需要交付的吞吐量;看响应能力:需要从提出到交付上线的工夫长短,即需要交付周期;看交付品质:交付过程中缺点发现和修复的及时性,以及缺点数量的多少。看交付速率在云效Insight的效力剖析场景报表,通过「需要交付速率」指标卡,咱们能够: 看到在单位工夫内的需要交付量,及所选时间段内均匀单位工夫需要交付量;看到需要交付速率趋势,依据近期交付量来合理安排团队未来的交付节奏和对外的承诺。 图片起源:云效效力洞察Insight 需要交付速率:横坐标为工夫,以周为单位,纵坐标是需要的数量(个),柱子高下代表一周交付需要数量的多少,柱子的色彩散布别离对应交付周期的长短散布。 注:按需要个数统计的形式,因需要大小不统一会呈现一些统计偏差,因而冀望做需要交付统计时可能将需要粒度拆分的绝对较小且平均。 在「需要交付速率」指标卡中,咱们能够深入分析: 1. 依据团队交付速率,评估团队交付能力 咱们能够依据团队近期的交付速率,预测团队未来的交付速率,以便更好地安顿团队将来可接收需要的工作量。比方最近 6 周,每周交付需要数量为 10,12,15,13,11,17,平均值为 13,咱们能够预测团队每周可交付需要数量在 13 个左右,当咱们晓得这个数据时,能够更好的安顿需要交付的节奏和工夫,并对外部承诺。 2. 通过观测公布频率,推动团队继续交付 如果每周都有柱子,阐明每周都有公布,如果柱子有间隔性,即每两周有一个柱子,阐明是两周一次公布,以此类推。 看响应能力通过云效Insight效力剖析报表中的「需要交付散布」、「需要累积流图」指标卡,咱们能够看响应能力。 首先,在「需要交付散布」指标卡中,咱们能够: 看到各需要上线工夫的散布状况,反映团队的需要公布频率;看到需要交付周期的趋势,反映团队对需要响应能力及变化趋势;通过历史数据分析,预测未来的响应能力。图片起源:云效效力洞察Insight 指标卡中数据含意: 需要交付散布,也叫需要管制图,横坐标为工夫,纵坐标为需要交付周期(天),图中: 圆点:代表一个已交付的需要,它所在的横坐标为交付工夫,纵坐标为该需要交付时长;折线:代表需要交付周期的滚动均值,取该点以及前后各1/3/5/7/9 点(随区间事项数变动)的平均值;面积:蓝色暗影区域代表滚动标准差,即理论数据与滚动平均值的偏差量;横线:所选工夫区间内,需要交付周期的平均值。在看到「需要交付散布」的数据时,咱们能够从 5 个方面进行了解和剖析: 1、纵向上,交付需要的圆点越向下越好,反映出周期时间越短、响应能力越快,可预测性越好; 2、横向上,交付需要的圆点散布越密越好,反映出需要在频繁地交付,即公布频率越高; 3、横向上,交付需要的圆点散布越平均越好,反映出需要在继续稳固地交付,更趋向于继续交付;如果圆点散布间断而交付集中,可反映出是批量地交付需要; 图片起源:云效效力洞察Insight 注:每个批量的间隔时间比拟长(譬如2周或1个月以上),可采取缩小需要进出的批量和减少公布窗口的措施。 4、交付周期线,代表在所选时间段内,交付周期的一个根本水位,该水位越低越好; 5、动均值折线,展现需要交付周期的变化趋势,冀望是有往下走的趋势,代表团队的响应能力在继续地晋升。 「需要交付散布」能够反映出团队是否已具备继续疾速交付需要的能力,帮忙团队回顾和剖析队的效力状况,并依据历史效力状况,设定团队的效力指标。其次,对业务人员来说,可随时查看交付团队的效力状况,预测需要的上线工夫。 「需要交付散布」是针对交付的后果进行度量,如果须要对整个交付过程进一步了剖析,咱们能够中点关注「需要累积流图」,可综合反映了前置工夫(交付周期)、在制品数量、交付速率等指标,并体现了团队合作、打算和交付需要的模式,罕用以发现系统性的改良机会,上面就对该图进行进一步介绍。 通过「需要累积流图」指标卡,咱们能够: 看均匀交付周期:需要在各阶段的停留时长之和,指需要交付之前,从开始到完结所经验的工夫;看在制品数量:需要在各阶段的停留数量,能够反馈出解决需要批量大小和并行度状况;看交付速率:公布阶段曲线的整体斜率,能够反馈出团队的需要交付速率。图片起源:云效效力洞察Insight 指标卡中数据含意: 累积流图:横坐标为日期,纵坐标为各个阶段累积的需要数量;从左到右的每个阶段,都是需要按程序变动的阶段,相应的,曲线对应的别离是这些阶段的累积实现的需要数量。 「需要累积流图」同时具备整体性和动态性,它既反映了团队整体的合作模式,端到端的动静交付过程,同时还反映了交付模式和交付能力的变化趋势。咱们能够从累积流图中,剖析团队的合作和交付模式,并发现改良机会。咱们从上面 3 个方面进行剖析: 1. 团队的打算模式次要看需要进入开发阶段的数量和频率,如一个我的项目中,进入开发阶段的批量大,而且频次低(譬如每月一次),往往是大批量的输出,很容易呈现大量需要并行,导致需要交付周期变短。反之,如果是小批量,多频次的输出,让在制品数量变低,缩短需要交付周期; 2. 需要的转测模式需要大批量转测,带来的问题是,开发实现的需要,要期待较长时间才开始测试,导致更多在制品,并缩短了需要交付周期; 3. 需要的公布模式需要发布会呈现阶梯状,阶梯的距离越长,代表公布的频率越少,也就是每个公布的间隔时间比拟长。同时也能够看进去,公布距离越长,则每次公布需要的数量就越多,而公布的难度随着需要的减少而减少。 看交付品质通过云效Insight效力剖析报表中的「缺点趋势」和「缺点修复散布」指标卡,咱们能够: ...

February 24, 2022 · 1 min · jiezi

关于大数据:数据平台与Flink任务运行原理介绍

本文将从5个方面具体介绍数据平台大数据工作开发的基础知识。蕴含数据平台的简介、如何在平台内创立Flink表、如何编写Flink大数据处理作业、Flink工作启动时的调用流程以及Flink web UI 工作监控页面。此外,将重点介绍数据平台内Flink工作开发相干的局部内容,包含Flink数据连贯、Flink流作业、批作业和资源库。资源库为自定义的UDF,为了不便介绍后续将对立简称为平台。 云智慧AIOps社区是由云智慧发动,针对运维业务场景,提供算法、算力、数据集整体的服务体系及智能运维业务场景的解决方案交换社区。该社区致力于流传AIOps技术,旨在与各行业客户、用户、研究者和开发者们独特解决智能运维行业技术难题、推动AIOps技术在企业中落地、建设衰弱共赢的AIOps开发者生态。 数据平台平台定义平台基于Flink计算框架,集成Kafka、Clickhouse等大数据组件,具备数据采集、数据同步、数据存储、实时计算、离线计算、数据治理、数据服务等能力。实际平台化思维,充分利用数据,可实现简单业务的数据开发工作,构建了一套残缺的技术生态体系。 平台指标定位为实时数仓、流批一体、湖仓一体的智能大数据平台,晋升整体的IT经营服务能力。 Flink数据连贯Flink数据连贯是Flink读取和写入到web零碎数据库的一个接口。下图为Flink 数据连贯的一个页面,左侧的为目录数,不便数据源的归类与查找。右侧列表化展现数据连贯,可依据数据连贯的名称、类型、标签等内容进行检索,反对导入、导出与复制,不便做迁徙和备份编辑。右上角新建按钮能够点击新建Kafka、Redis以及Clickhouse 的原表和后果表。通过页面式、配置化操作,将各数据资源虚拟化成Flink表。 新建Kafka源表命名数据连贯名称:名称不便于在数据列表中进行查问。 地址和端口:用于读取集群上的topic;Kafka类型:Kafka类型分为Kafka和 upsert-Kafka;数据格式:罕用数据格式为json;生产形式:分为从头开始生产(从最老的数据将Kafka topic残缺的数据都生产到)、从以后地位,从group offset以及从指定工夫开始生产;最大读取记录数:一批次内读取的最大数据量;key格局与字段 动静表名称:后续在Flink SQL中写SQL时将会用到,即建表的表名 Kafka源表创立实现之后,将会失去该建表语句 反对数据连贯类型Kafka:反对Kafka连接器和upsert-Kafka连接器Clickhouse:基于jdbc连接器开发,反对Clickhouse集群和多节点轮询数据写入Redis:自主开发,反对单机、集群、哨兵和代理模式的Redis服务,提供写入和维表关联能力逐渐反对更多的数据连贯数据作业开发数据作业开发页面与数据源页面相似,右边为目录,左边能够新建编辑作业。 编辑SQL页面反对以下操作: 反对勾选数据源表和数据后果表抉择数据表后,填充建表语句至编辑区,反对自定义批改反对增加自定义算子 SQL编辑实现后可进行作业配置操作: 并行度:工作每个算子的线程数插槽数:每个插槽独占CPU资源,但应用同一个执行器的JVM内存资源(同一个taskmanager的插槽),减少插槽数会获取更多的计算资源,但不利于内存资源的利用效率。重启策略:可设置固定重启次数和失败比例策略 工作启动流程Flink工作启动会运行起一个JobManager和一个或多个TaskManager。 JobManager:负责资源提供、回收、调配,任务调度、解决实现或失败的工作、协调 checkpoint、提供REST接口和WebUI展现作业执行信息。 TaskManager:执行作业工作并缓存和替换数据流,蕴含一个或多个task slot。TaskManager 中 task slot 的数量示意并发解决 task 的数量,一个 task slot 中能够执行多个算子。 TaskManager是一个JVM过程,所蕴含的多个Task Slot会均分JVM内存。 多个算子可共享一个Task Slot,有利于资源分配和资源利用,并行度设置为Task Slot数的整数倍,会平均的调配到每个Task Slot。 Flink工作监控页面平台内保护了工作状态、运行日志等内容,Flink本身也提供了具体的工作监控能力,Flink工作监控蕴含Flink工作运行状态、时长以及资源分配状况的监控。会展现算子DAG图,数据处理状况以及算子反压、异样日志、Checkpoint记录等。 下图为TaskManager、JobManager的内存占用、GC状况以及运行日志。 理解更多云智慧已开源集轻量级、聚合型、智能运维为一体的综合运维治理平台OMP(Operation Management Platform) ,具备 纳管、部署、监控、巡检、自愈、备份、复原 等性能,可为用户提供便捷的运维能力和业务管理,在进步运维人员等工作效率的同时,极大晋升了业务的连续性和安全性。点击下方地址链接,欢送大家给OMP点赞送star,理解更多相干内容~ GitHub地址:https://github.com/CloudWise-OpenSource/OMP Gitee地址:https://gitee.com/CloudWise/OMP

February 24, 2022 · 1 min · jiezi

关于大数据:DStream-以及基本工作原理

Spark Streaming 根本工作原理 Spark Streaming 外部的根本工作原理如下:接管实时输出数据流,而后将数据拆分成多个 batch,比方每收集 1 秒的数据封装为一个 batch,而后将每个 batch 交给 Spark 的计算引擎进行解决,最初会生产出一个后果数据流,其中的数据,也是由一个一个的 batch 所组成的。 DStream Spark Streaming 提供了一种高级的形象,叫做 DStream,英文全称为 Discretized Stream,中文翻译为“离散流”,它代表了一个继续一直的数据流。DStream 能够通过输出数据源来创立,比方 Kafka、Flume 和 Kinesis;也能够通过对其余 DStream 利用高阶函数来创立,比方 map、reduce、join、window。 DStream 的外部,其实一系列继续一直产生的 RDD。RDD 是 Spark Core 的外围形象,即,不可变的,分布式的数据集。DStream 中的每个 RDD 都蕴含了一个时间段内的数据。 对 DStream 利用的算子,比方 map,其实在底层会被翻译为对 DStream 中每个 RDD 的操作。比方对一个 DStream 执行一个 map 操作,会产生一个新的 DStream。然而,在底层,其实其原理为,对输出 DStream 中每个时间段的 RDD,都利用一遍 map 操作,而后生成的新的 RDD,即作为新的 DStream 中的那个时间段的一个 RDD。底层的 RDD 的 transformation 操作,其实,还是由 Spark Core 的计算引擎来实现的。Spark Streaming 对 Spark Core 进行了一层封装,暗藏了细节,而后对开发人员提供了不便易用的高层次的 API。 ...

February 22, 2022 · 1 min · jiezi

关于大数据:Dataphin产品核心功能大图六发布中心生产和开发隔离模式下的保护伞

简介:Dataphin,用中台方法论打造企业级好数据。Dataphin是阿里巴巴团体OneData数据治理方法论外部实际的云化输入,一站式提供数据采、建、管、用全生命周期的大数据能力,以助力企业显著晋升数据治理程度,构建品质牢靠、生产便捷、生产平安经济的企业级数据中台。Dataphin提供多种计算平台反对及可拓展的凋谢能力,以适应各行业企业的平台技术架构和特定诉求。 在数据权限管控严格的研发流程下,经常会应用生产开发环境隔离的研发模式。Dataphin反对创立成对存在、相互关联的生产开发模式我的项目(Dev-Prod我的项目)。 我的项目中,研发人员通常须要实现代码编写、工作根底属性和调度属性配置、并基于开发环境的数据执行补数据测试,通过后再将工作提交至公布核心。公布审核人员接到公布申请后,联合工作配置详情评估是否配置正当,是否存在数据生产危险等,之后执行公布操作;公布胜利的工作会在生产环境中失效并调度运行,而公布失败的工作不会更新至生产我的项目,以此实现开发和生产我的项目的数据隔离,保证数据品质。 一、公布核心概述试想,若由公布人员对每个工作进行人工审核,工作量微小且容易脱漏,对研发效率产生较大影响。那么现实的公布流程会是什么模式呢? Dataphin公布核心提供了待发布工作概览、批量公布、基于零碎规定的主动审核、公布记录概览、公布详情查看、公布失败起因提醒及一键从新公布等性能;同时,管理中心的公布管控性能,能够自定义审核规定和策略,以满足个性化需要场景。公布人员只需评估哪些工作须要上线生产环境,批量勾选并一键执行公布即可,大大缩短了操作门路,并从零碎角度提供了全面保障。 二、性能介绍接下来,咱们具体介绍一下公布核心的外围性能: 首先,在开发环境我的项目创立一个以“test”命名的代码工作,实现代码编写、调度配置、预编译等操作,点击操作栏的“提交”按钮,将工作提交到公布核心;提交胜利后,点击工作操作栏的“去公布”按钮或者切换顶部导航为“公布”,即可进入公布核心: 1 待发布对象列表在待发布对象列表页面,记录了以后我的项目已提交待发布的标准建模、数据处理和管道脚本数据对象。公布胜利的数据对象将从待发布对象列表移除,并在公布记录列表中生成一条公布胜利的记录;公布失败的数据对象将从新被记录在待发布对象列表,同时在公布记录列表中生成一条公布失败的记录,能够查看每条公布记录的公布详情。 待发布对象列表概览:列表记录了对象名称、对象类型、调度节点ID、最近1次提交公布的版本号、本次提交变更类型、提交人及提交工夫等信息。公布审核人员能够基于这些根本信息,初步评估工作变更状况,作为判断是否须要公布的根据。 提交详情及提交记录查看:反对查看每个对象以后最新提交的版本详情及历史的提交记录,公布人员能够基于详情信息进一步评估公布该对象对生产我的项目可能产生的变更影响。同一个对象提交屡次(每次提交均未公布)时会合并为一条待发布对象;点击以后版本号可开展版本详情,点击“版本记录”,能够查看该对象的变更记录及每次变更操作人、操作工夫及变更起因备注。 移除及跳转编辑待发布对象:如果工作提交后须要再次变更,为了避免变更前的内容被提前公布影响生产环境数据,您能够被动移除公布对象,并在批改实现后再次提交公布。提供“编辑”对象的快捷操作入口,点击将跳转到该工作在开发模块的详情页。 公布及批量公布:确定能够公布后,您能够针对单个对象执行公布,也能够批量选中多个对象一次性公布。被选中的对象会依照依赖关系顺次执行公布动作。点击确定公布后可主动跳转到公布记录列表,期待执行实现后,即可查看公布后果。 2 公布零碎校验规定不同公布对象有不同的校验规定。以SQL代码工作为例,会进行如下校验: 上游依赖配置的正确性:如果存在自依赖或上游依赖配置不残缺,则会阻断公布。节点输入名称是否惟一:节点输入名称是每个工作的全局惟一标识,重名校验能够防止协同操作带来的抵触问题。代码中援用的资产对象是否有相应权限:如是否有创立、删除表的权限,是否有往表中插入数据的权限等,避免权限泄露引发的数据安全问题。SQL语法是否正确:若语法不正确,发布会被阻断,免得公布到生产环境后运行报错,影响上游数据产出。公布执行是否失常:如果工作逻辑过于简单或一次性批量过多,可能会产生公布超时问题,在此处进行揭示。每个对象只有所有零碎校验规定均通过,能力公布胜利,否则会在公布详情弹框进行谬误提醒,疏导须要执行的下一步操作,如申请权限、批改代码逻辑等等。 3 公布记录列表公布记录列表页面记录了每一次公布的详情及公布后果: 公布记录概览:公布记录列表展现了每一次公布的执行详情,包含公布名称、公布对象、对象类型、公布版本、公布的变更类型、公布人及公布工夫、公布状态等。公布详情查看:针对每条公布记录,能够查看公布详情,评估是否合乎预期;尤其是公布失败的工作,在公布详情会给出失败起因提醒,公布人员能够依据提示信息分割相干开发批改后从新公布。 公布失败日志查看及一键从新公布:公布失败的对象,能够点击查看公布详情,公布详情中能够查看本次公布的日志记录,以获取更多的报错信息领导下一步操作;若问题已解决,能够一键从新公布,缩小页面切换的操作老本。如果该对象曾经被公布胜利,则会提醒“从新公布失败,最新版本已公布。” 公布管控:如果您应用了变更管控中的公布管控性能,此处还会进行公布管控规定的校验,并将校验后果展现在“动态查看”局部。公布详情中会展现命中的管控规定及校验后果,针对校验失败的,还会展现在管控规定中配置的阐明文案,以揭示公布人员。 公布作为生产开发隔离的研发模式中毕竟的一道环节,为生产数据的正确性和生产环境稳定性提供了移到前置保障,能够缩小人工操作失误或流程不标准引发的问题,升高了对生产业务产生影响的可能性,为您的数据建设撑起一道保护伞。 三、结语本期介绍了Dataphin的公布性能,包含如何执行公布、如何查看公布详情并解决异样等等,想要更残缺理解Dataphin的公布核心,就快来申请试用体验吧! 原文链接本文为阿里云原创内容,未经容许不得转载。

February 22, 2022 · 1 min · jiezi

关于大数据:直播报名火热启动-2022-年-Apache-DolphinScheduler-Meetup-首秀

各位关注 Apache DolphinScheduler 的小伙伴们大家好呀!置信大家都曾经从冷落的春节里回过神来,从新投入到繁忙的工作学习生存中去。海豚调度在这里祝愿大家虎年大吉,万事顺利。 在这早春时节,Apache DolphinScheduler 于 2022 年的第一场 Meetup 也行将到来,置信社区里的小伙伴早就曾经翘首以盼了吧! 在此次的Meetup中,四位来自不同公司的嘉宾将会为咱们讲述他们在应用 Apache DolphinScheduler 时的心得体会,置信不管你是 Apache DolphinScheduler 的使用者抑或是正在张望的敌人都能从中播种到许多。 咱们置信将来将会有更多的小伙伴退出咱们,也会有越来越多的使用者相互分享实践经验应用和领会, Apache DolphinScheduler 的将来离不开大家的奉献与参加,愿咱们一起越变越好。 此次 Apache DolphinScheduler 2月首秀将于 2 月 26 日下午 14:00 准时开播,大家别忘了扫码预约哦~ 扫码预约直播 扫码退出直播微信群 01 流动简介主题:Apache DolphinScheduler 用户实际分享 工夫:2022 年 2 月 26 日 14:00-17:00 模式:线上直播 02 流动亮点此次 Apache DolphinScheduler 的流动咱们将迎来四位分享嘉宾,他们别离是来自于 360数科、杭州思科以及途家的大数据专家,置信他们对于 Apache DolphinScheduler 的理论体验将会有高度的代表性以及典型性。他们与咱们分享的实践经验蕴含但不限于在 K8S 集群上的摸索与利用以及对 Alert 模块的革新等,对于解决大家在理论应用中遇到的艰难具备很大的意义,心愿大家都能够从中失去独属于本人的宝贵财富。 03 流动议程 04 议题介绍 刘建敏/360 数科/大数据工程师 演讲主题:Apache DolphinScheduler 在 360 数科的实际 ...

February 18, 2022 · 1 min · jiezi

关于大数据:2022年最强大数据面试宝典全文50000字

此套面试题来自于各大厂的实在面试题及常问的知识点,如果能了解吃透这些问题,你的大数据能力将会大大晋升,进入大厂不可企及温习大数据面试题,看这一套就够了! 本文目录: 一、Hadoop二、Hive三、Spark四、Kafka五、HBase六、Flink七、数仓业务方面八、算法 本文因内容较多,带目录的PDF版查看是比拟不便的:2022年最弱小数据面试宝典PDF版 HadoopHadoop中常问的就三块,第一:分布式存储(HDFS);第二:分布式计算框架(MapReduce);第三:资源调度框架(YARN)。 1. 请说下HDFS读写流程这个问题尽管见过无数次,面试官问过无数次,还是有不少面试者不能残缺的说进去,所以请务必记住。并且很多问题都是从HDFS读写流程中引申进去的。HDFS写流程: Client客户端发送上传申请,通过RPC与NameNode建设通信,NameNode查看该用户是否有上传权限,以及上传的文件是否在HDFS对应的目录下重名,如果这两者有任意一个不满足,则间接报错,如果两者都满足,则返回给客户端一个能够上传的信息;Client依据文件的大小进行切分,默认128M一块,切分实现之后给NameNode发送申请第一个block块上传到哪些服务器上;NameNode收到申请之后,依据网络拓扑和机架感知以及正本机制进行文件调配,返回可用的DataNode的地址; 注:Hadoop在设计时思考到数据的平安与高效, 数据文件默认在HDFS上寄存三份, 存储策略为本地一份,同机架内其它某一节点上一份, 不同机架的某一节点上一份。客户端收到地址之后与服务器地址列表中的一个节点如A进行通信,实质上就是RPC调用,建设pipeline,A收到申请后会持续调用B,B在调用C,将整个pipeline建设实现,逐级返回Client;Client开始向A上发送第一个block(先从磁盘读取数据而后放到本地内存缓存),以packet(数据包,64kb)为单位,A收到一个packet就会发送给B,而后B发送给C,A每传完一个packet就会放入一个应答队列期待应答;数据被宰割成一个个的packet数据包在pipeline上顺次传输,在pipeline反向传输中,一一发送ack(命令正确应答),最终由pipeline中第一个DataNode节点A将pipelineack发送给Client;当一个block传输实现之后, Client再次申请NameNode上传第二个block,NameNode从新抉择三台DataNode给Client。HDFS读流程: Client向NameNode发送RPC申请。申请文件block的地位;NameNode收到申请之后会检查用户权限以及是否有这个文件,如果都合乎,则会视状况返回局部或全副的block列表,对于每个block,NameNode都会返回含有该block正本的DataNode地址;这些返回的DataNode地址,会依照集群拓扑构造得出DataNode与客户端的间隔,而后进行排序,排序两个规定:网络拓扑构造中距离 Client 近的排靠前;心跳机制中超时汇报的DataNode状态为STALE,这样的排靠后;Client选取排序靠前的DataNode来读取block,如果客户端自身就是DataNode,那么将从本地间接获取数据(短路读取个性);底层上实质是建设Socket Stream(FSDataInputStream),反复的调用父类DataInputStream的read办法,直到这个块上的数据读取结束;当读完列表的block后,若文件读取还没有完结,客户端会持续向NameNode 获取下一批的block列表;读取完一个block都会进行checksum验证,如果读取DataNode时呈现谬误,客户端会告诉NameNode,而后再从下一个领有该block正本的DataNode 持续读;read办法是并行的读取block信息,不是一块一块的读取;NameNode只是返回Client申请蕴含块的DataNode地址,并不是返回申请块的数据;最终读取来所有的block会合并成一个残缺的最终文件;2. HDFS在读取文件的时候,如果其中一个块忽然损坏了怎么办客户端读取完DataNode上的块之后会进行checksum验证,也就是把客户端读取到本地的块与HDFS上的原始块进行校验,如果发现校验后果不统一,客户端会告诉NameNode,而后再从下一个领有该block正本的DataNode持续读。 3. HDFS在上传文件的时候,如果其中一个DataNode忽然挂掉了怎么办客户端上传文件时与DataNode建设pipeline管道,管道的正方向是客户端向DataNode发送的数据包,管道反向是DataNode向客户端发送ack确认,也就是正确接管到数据包之后发送一个已确认接管到的应答。 当DataNode忽然挂掉了,客户端接管不到这个DataNode发送的ack确认,客户端会告诉NameNode,NameNode查看该块的正本与规定的不符,NameNode会告诉DataNode去复制正本,并将挂掉的DataNode作下线解决,不再让它参加文件上传与下载。 4. NameNode在启动的时候会做哪些操作NameNode数据存储在内存和本地磁盘,本地磁盘数据存储在fsimage镜像文件和edits编辑日志文件。 首次启动NameNode: 格式化文件系统,为了生成fsimage镜像文件;启动NameNode: 读取fsimage文件,将文件内容加载进内存期待DataNade注册与发送block report启动DataNode: 向NameNode注册发送block report查看fsimage中记录的块的数量和block report中的块的总数是否雷同对文件系统进行操作(创立目录,上传文件,删除文件等): 此时内存中曾经有文件系统扭转的信息,然而磁盘中没有文件系统扭转的信息,此时会将这些扭转信息写入edits文件中,edits文件中存储的是文件系统元数据扭转的信息。第二次启动NameNode: 读取fsimage和edits文件;将fsimage和edits文件合并成新的fsimage文件;创立新的edits文件,内容开始为空;启动DataNode。5. Secondary NameNode理解吗,它的工作机制是怎么的Secondary NameNode是合并NameNode的edit logs到fsimage文件中; 它的具体工作机制: Secondary NameNode询问NameNode是否须要checkpoint。间接带回NameNode是否查看后果;Secondary NameNode申请执行checkpoint;NameNode滚动正在写的edits日志;将滚动前的编辑日志和镜像文件拷贝到Secondary NameNode;Secondary NameNode加载编辑日志和镜像文件到内存,并合并;生成新的镜像文件fsimage.chkpoint;拷贝fsimage.chkpoint到NameNode;NameNode将fsimage.chkpoint重新命名成fsimage;所以如果NameNode中的元数据失落,是能够从Secondary NameNode复原一部分元数据信息的,但不是全副,因为NameNode正在写的edits日志还没有拷贝到Secondary NameNode,这部分复原不了。 6. Secondary NameNode不能复原NameNode的全副数据,那如何保障NameNode数据存储平安这个问题就要说NameNode的高可用了,即 NameNode HA。 一个NameNode有单点故障的问题,那就配置双NameNode,配置有两个关键点,一是必须要保障这两个NameNode的元数据信息必须要同步的,二是一个NameNode挂掉之后另一个要立马补上。 元数据信息同步在 HA 计划中采纳的是“共享存储”。每次写文件时,须要将日志同步写入共享存储,这个步骤胜利能力认定写文件胜利。而后备份节点定期从共享存储同步日志,以便进行主备切换。监控NameNode状态采纳zookeeper,两个NameNode节点的状态寄存在zookeeper中,另外两个NameNode节点别离有一个过程监控程序,施行读取zookeeper中有NameNode的状态,来判断以后的NameNode是不是曾经down机。如果Standby的NameNode节点的ZKFC发现主节点曾经挂掉,那么就会强制给本来的Active NameNode节点发送强制敞开申请,之后将备用的NameNode设置为Active。如果面试官再问HA中的 共享存储 是怎么实现的晓得吗? 能够进行解释下:NameNode 共享存储计划有很多,比方Linux HA, VMware FT, QJM等,目前社区曾经把由Clouderea公司实现的基于QJM(Quorum Journal Manager)的计划合并到HDFS的trunk之中并且作为默认的共享存储实现。 基于QJM的共享存储系统次要用于保留EditLog,并不保留FSImage文件。FSImage文件还是在NameNode的本地磁盘上。 QJM共享存储的根本思维来自于Paxos算法,采纳多个称为JournalNode的节点组成的JournalNode集群来存储EditLog。每个JournalNode保留同样的EditLog正本。每次NameNode写EditLog的时候,除了向本地磁盘写入 EditLog 之外,也会并行地向JournalNode集群之中的每一个JournalNode发送写申请,只有大多数的JournalNode节点返回胜利就认为向JournalNode集群写入EditLog胜利。如果有2N+1台JournalNode,那么依据大多数的准则,最多能够容忍有N台JournalNode节点挂掉。7. 在NameNode HA中,会呈现脑裂问题吗?怎么解决脑裂假如 NameNode1 以后为 Active 状态,NameNode2 以后为 Standby 状态。如果某一时刻 NameNode1 对应的 ZKFailoverController 过程产生了“假死”景象,那么 Zookeeper 服务端会认为 NameNode1 挂掉了,依据后面的主备切换逻辑,NameNode2 会代替 NameNode1 进入 Active 状态。然而此时 NameNode1 可能依然处于 Active 状态失常运行,这样 NameNode1 和 NameNode2 都处于 Active 状态,都能够对外提供服务。这种状况称为脑裂。脑裂对于NameNode这类对数据一致性要求十分高的零碎来说是灾难性的,数据会产生错乱且无奈复原。zookeeper社区对这种问题的解决办法叫做 fencing,中文翻译为隔离,也就是想方法把旧的 Active NameNode 隔离起来,使它不能失常对外提供服务。 ...

February 16, 2022 · 15 min · jiezi

关于大数据:赵渝强大数据原理与实战新书上市

通过近一年的期待,《大数据原理与实战》新书上市!!先睹为快!!! 点击这里查看详情 点击这里查看详情 点击这里查看详情 点击这里查看详情 点击这里查看详情 点击这里查看详情 点击这里查看详情 点击这里查看详情 点击这里查看详情 点击这里查看详情

February 15, 2022 · 1 min · jiezi

关于大数据:e签宝借助钉钉宜搭变革传统项目管理模式交付效率显著提升

简介:通过钉钉宜搭,e签宝在半个月内搭建了我的项目交付治理平台,晋升了项目管理的效率和品质,推动了团队外围业务的信息化建设。e签宝在无效梳理了各环节的工作进度、品质、老本、职权后,通过宜搭平台保障了内外通顺,实现了我的项目矩阵式治理。 e签宝:1000-1500人 / 互联网 / 中国-浙江-杭州 / 我的项目交付治理平台 “咱们应用了钉钉宜搭的我的项目管理系统之后,公司的我的项目交付效率有了显著晋升。随着应用的深刻,钉钉宜搭正在帮忙咱们实现数字化转型,置信将来能够进一步晋升公司在行业内的竞争力。”——e签宝项目管理办公室PMO 朱雀 e签宝成立于2002年,是一家面向企业组织、政务服务体系、个人用户,提供电子合同全生命周期服务的电子签名企业,具备平安可信的电子签名与智能履约平台、物电一体化的印章治理平台、身份认证和智能风控系统、区块链证据顾全与治理平台、在线速裁与司法服务体系等先进利用。 随着公司业务的一直壮大,e签宝一直加大对外部信息化倒退的投入,但企业须要交付的我的项目越来越多,传统交付管理模式亟待改良,尤其是我的项目数据的统计、整合与同步都须要更加清晰高效。为此,我的项目交付层面的数据管理信息化,就成为了e签宝的重点建设指标。 围绕我的项目施行与交付,e签宝团队踊跃启动了数字化建设。在掂量了自建信息系统所需的投入产出比后,决定寻找优良的内部供应商,并在充沛的理解与比照后,最终抉择了上手快、成本低的钉钉宜搭作为项目管理工具。 e签宝项目管理负责人朱雀说道:“咱们专门成立了一个宜搭开发小组,本来打算三个月甚至更久能力初见模型的我的项目管理系统,用宜搭搭建只用了不到半个月就实现了。在后期学习过程中,咱们通过宜搭的官网视频课程顺利入门,学习一周左右后便开始搭建零碎了。因为外部对交付我的项目流程充沛理解,所以业务设计也能很快实现。” 通过钉钉宜搭提供的标准化模块、自定义搭建模式以及丰盛多样的连接器,e签宝开发了客户项目管理平台,后续也会把更多业务场景迁徙到宜搭上。 我的项目跟进到工作工单,笼罩项目管理全流程 客户项目管理平台:蕴含了我的项目的根底信息记录、我的项目的跟进状况以及我的项目须要的资源记录和工单任务等模块。通过我的项目实时提交汇总,使得各个我的项目节点的工作高深莫测。以我的项目信息提交为例:项目经理能够针对客户我的项目别离进行信息补充,对客户反馈的现场信息进行实时流转,同时在线继续推动我的项目进度,晋升了沟通效率。 突破信息孤岛,实时展示统计数据我的项目数据可视化:通过钉钉宜搭的报表性能,e签宝所有的我的项目信息实现数据实时统计,解决了过来人工统计我的项目进度和交付记录带来的滞后问题。同时不再须要在多个零碎间来回查问和录入,突破了信息孤岛,进步了项目管理效率,让决策人有更清晰的整体我的项目布局。 我的项目信息填报:通过宜搭,我的项目信息无需用Excel记录,辞别了信息无奈实时同步的懊恼,所有的我的项目对立录入到零碎内,零碎会为每个我的项目主动编号,业务人员能够依据编号、我的项目要害信息等实时查找我的项目材料和我的项目进度。 项目风险治理:借助宜搭的数据管理能力,e签宝的项目风险治理实现了一键关联并援用我的项目根底信息,一分钟即可实现项目风险填报,让业务共事不用反复填写和操作,能够把更多精力破费在理论的我的项目操作上。 在宜搭中能够把收集到的我的项目信息提前分类对立汇总,而且危险评估也能够通过线上流程搞定,评估的过程和信息记录都有迹可查,让我的项目的治理更加繁难高效。 ![上传中...]() 我的项目周报:定时产出的周报有助于为公司决策提供数据反对,也不便了我的项目的及时跟踪和记录。 通过钉钉宜搭,e签宝在半个月内搭建了我的项目交付治理平台,晋升了项目管理的效率和品质,推动了团队外围业务的信息化建设。e签宝在无效梳理了各环节的工作进度、品质、老本、职权后,通过宜搭平台保障了内外通顺,实现了我的项目矩阵式治理。 “咱们基本上每天都要更新我的项目进度和提报新的我的项目审核,从软件老本思考,钉钉宜搭帮忙咱们节俭几十万的开发费用;从人力老本登程,随着我的项目交付效率的晋升,人力老本节约20%。”朱雀说道。 将来,e签宝还将基于钉钉宜搭平台,把更多线下流程搬到线上,放慢企业信息化建设过程。 原文链接本文为阿里云原创内容,未经容许不得转载。

January 27, 2022 · 1 min · jiezi