关于大数据:Maxcompute-数据上云一致性比对

我写过很多如何去对数、如何批量对数的技术文档,最近我的项目遇到这个问题,我才发现在官网博客上还没有公布过这个课题的文章。这就像灯下黑,太长用到的知识点,反而没有意识到其重要性。 注:这里对数的场景就是指在阿里云平台应用dataworks等大数据开发工具集成业务零碎数据库(oracle等)数据上云到maxcompute的场景,所以,示例的SQL也是针对maxcompute。 先说说个别业务上怎么对数的,咱们做了一个报表,出了一个数据“某个产品卖了30个”。这个不只是在大数据平台上有这个数据,在业务零碎也有这个数据,这些统计动作在业务零碎通过程序和人工也会有一份,个别做好报表后会先对这个数据。 所以,第一线反馈回来的数据就是这个汇总数据不统一的问题。然而这个后果是十分概括的,因为就像我感觉这个月工资少发了5毛一样,如果我不看我的工资条我其实不晓得本人是不是少发了。工资条不只是一个汇总数据,外面有我税前工资、奖金(浮动)、社保、扣税等一系列的明细数据,这些数据让我去判断我是不是少了5毛,而加工过的数据是简单的。 说到这里,我其实就像表白一个事件,对数是要对明细数据。这是所有计算后事实的根底,能够拿进去作证的。 所以,两边都查一下这个汇总值应用的表的对应的记录,比如说查问“明天这个产品ID的售卖记录”。后果就发现业务零碎有31笔,而大数据平台有30笔。 即使到了这里,其实咱们依然不晓得期间产生了什么,为什么会失落数据。另外咱们还不晓得其余商品ID的数据是不是也有失落的,还有其余的表的数据是不是也会产生相似的状况。 1.明细数据比对既然最终都是对明细数据,那么我是不是能够间接比对明细数据呢?答复是:正确。 个别产生这种状况,首先要比对业务零碎和大数据平台两个表的数据。 1.再利用全量集成工具,从业务零碎的数据库全量抽取一遍数据到大数据平台。比对数据肯定要把数据放到一起,隔空比对是不存在的。因为大数据平台的容量是数百倍于业务零碎的,所以,个别都在大数据平台比对。(这里有一个悖论,如果集成工具自身就有缺点,导致抽取过程中就丢数据,岂不是永远没方法比对了。所以,如果对这个工具也不确定就得从数据库导出数据到文件,而后再加载到某个数据库下来比对。在这里,通过我对离线集成这个产品的长年应用教训,这个工具是十分牢靠的,还未遇到过这个问题。) 2.依据主键关联,比对2个表中的主键的差别。如果是下面提到的记录失落的问题,这一步做完就很容易比对进去了。这里还会发现一个问题,就是业务零碎的表是一直变动的,所以,这时与大数据平台的表比照会有差别。这个差别的外围起因是:大数据平台的表是业务零碎表在每日的日末(00:00:00)的一个时点数据,而业务零碎的数据是始终在变动的。所以,即使有差别超出预期也不要惊恐。如果是应用实时同步能够从归档日志中获取到这期间数据的每一条变动,能够追溯变动起因。如果没有实时同步,也能够通过表中与工夫相干字段去判断数据是否被更新掉。要是什么都没有(这种状况也是存在的),那就去骂骂设计表的业务零碎开发(没错,是他们的锅),也能够跟业务去具体理解一下,这行记录是不是明天做的,而不是昨天。 3.还有一种状况,就是主键统一,数据内容(主键之外的字段)不统一。这种状况,还是须要思考数据变动的状况,能够从日志、工夫字段、业务等几个角度去比对。如果发现数据的确不合乎预期,就须要查问同步工具的问题。 2.比对SQL剖析在下面的章节,我形容了比对明天新抽取的全量表和上日在maxcompute上应用前日全量和上日增量合并的上日全量的环节。比对两张表汇合是否统一的SQL办法其实比较简单,大家第一工夫就会想到汇合操作。在oracle外面有Minus、except,同样在maxcompute外面也有。然而为了便于剖析问题,我还是本人写了一个SQL。示例SQL(maxcompute sql)如下: --限定日期分区,比对上日select count(t1.BATCH_NUMBER) as cnt_left,count(t2.BATCH_NUMBER) as cnt_right,count(concat(t1.BATCH_NUMBER,t2.BATCH_NUMBER)) as pk_inner,count(case when t1.BATCH_NUMBER is not null and t2.BATCH_NUMBER is null then 1 end) as pk_left,count(case when t2.BATCH_NUMBER is not null and t1.BATCH_NUMBER is null then 1 end) as pk_right,count(case when nvl(t1.rec_id ,'') = nvl(t2.rec_id ,'') then 1 end) as col_diff_rec_id,count(case when nvl(t2.rec_creator ,'') = nvl(t1.rec_creator ,'') then 1 end) as col_diff_rec_creator,count(case when nvl(t2.rec_create_time,'') = nvl(t1.rec_create_time,'') then 1 end) as col_diff_rec_create_timefrom ods_dev.o_rz_lms_im_timck01 t1 -- 开发环境从新初始化的明天数据full join ods.o_rz_lms_im_timck01 t2 -- 生产环节昨日长期增量合并的数据on t1.BATCH_NUMBER =t2.BATCH_NUMBER and t1.IN_STOCK_TIME =t2.IN_STOCK_TIMEand t1.OP_NO =t2.OP_NO and t1.STOCK_CODE =t2.STOCK_CODE and t1.YP_ID =t2.YP_ID and t2.ds='20230426'where t1.ds='20230426';--cnt_left 9205131 阐明:左表有记录数 9205131--cnt_right 9203971 阐明:右表有记录数 9203971--pk_inner 9203971 阐明:主键关联统一记录数 9203971--pk_left 1160 阐明:左表比右表多记录数 1160--pk_right 0 阐明:右表比左表多有记录数 0--col_diff_rec_id 9203971 阐明:字段统一记录数与主键统一雷同,阐明关联上的两个表该字段统一--col_diff_rec_creator 9203971 阐明:同上--col_diff_rec_create_time 9203971 阐明:同上在下面的例子中,左表是明天从新初始化的数据,右表是在maxcompute上merge的上日全量数据。在比对之前,咱们其实就应该理解这两个表的数据必然是不统一的。尽管是同一张表,然而时点是不统一的。 ...

June 1, 2023 · 1 min · jiezi

关于大数据:ChunJun-FTP-Connector-功能扩展解读

本文将从 FTP Connector 的性能详解,自定义文件切割及自定义 FileFormat 三个方面为大家带来 ChunJun FTP Connector 的性能扩大分享。 FTP Connector 详解FTP 是用于在网络上进行文件传输的一套标准协议,它工作在 OSI 模型的第七层, TCP 模型的第四层, 即应用层,提供一种在服务器和客户机之间上传和下载文件的无效形式。 FTP Connector 基本功能ChunJun FTP Connector 基本功能如下: · 反对 FTP 协定 与 SFTP 协定读写; · 反对断点续传; · 反对并发读写; · 反对多种文件格式的读写。 断点续传次要的类:Position,Data,FtpFileReader,代码如下: 并发读写代码如下: 自定义文件切割ConcurrentFileSplitFactory 像一个工厂,通过这个工厂去创立其余的类,包含 ConcurrentZipCompressSplit、ConcurrentCsvSplit 以及默认的 DefaultFileSplit,类构造如下图: 解决流程FTP 读取文件时,通过 ConcurrentFileSplit 对文件进行切割,切割成多个 FTPFileSplit,配置到 Channel 中,最初依据 FileSplit 保留的信息,自定义读取文件。 解决逻辑· 应用 maxFetchSize 配置,当同步的文件大于这个值时,开启大文件切割性能 · 对文件进行剖析,构建分片,以文件大小1.2G、分片数4举例,每个分片数解决的数据量约等于1.2G / 4 = 300M 其中应用的分片构建算法逻辑如下: ...

June 1, 2023 · 1 min · jiezi

关于大数据:理论实操|一文掌握-RFM-模型在客户数据洞察平台内的落地实战

确定用户价值是整个用户经营过程中极其重要的一环。传统的工作流程中,业务人员向数据部门提出数据需要,期待返回后果后再进行价值剖析是次要的筹备工作,但这个过程十分耗时。为了进步工作效率,业务人员常常会基于本人对用户的了解制订一系列的经营策略,但实现了经营流动后,比拟难及时进行流动成果的跟进与评估,到了能够评估的时候又往往发现流动成果并不现实。 造成以上状况的次要起因就是业务人员认为的用户群体特色与用户理论的特色之间存在着肯定的偏差,手动进行用户剖析则耗时耗力,当有了客户数据洞察平台后,上述问题就全副迎刃而解了。 数据部门提前将根本的数据加工好,业务人员有须要的时候间接自主进行标签加工、群组剖析等一系列操作,省去了很多沟通老本,将更多的精力放在了经营策略的制订上,最终胜利落地成果突出的经营流动。 如何将用户从一个整体拆分成特色显著的群体决定了经营的成败。行业内有很多成熟的用户价值分析方法,而这其中最为经典的实现模型就是 RFM 模型。在资源无限的状况下,RFM 模型能够让企业聚焦于更有价值的用户,带来事倍功半的成果。 对于 RFM 模型,这个名字很多同学都晓得,但深究到执行层面,置信很多同学都是只知其一;不知其二,本文将为大家具体介绍 RFM 模型在「袋鼠云客户数据洞察平台」内的落地实战,帮忙您疾速判断用户价值等级,真正实现数据赋能业务倒退。 RFM 模型外围维度首先,让咱们先来理解一下什么是 RFM 模型。RFM 模型是做用户精细化经营的罕用分析方法,能够直观看出用户的价值奉献。RFM 模型蕴含三个重要指标:最近一次生产频率(Recency)、生产频率(Frequency)、生产金额(Monetary)。上面通过具体例子介绍如何生成 RFM 模型来领导经营工作的推动。 在开始加工标签、生成模型之前,首先要实现业务场景的剖析,依据业务场景对用户的行为进行分层后,再通过「客户数据洞察平台」创立相应的「最近一次生产频率」、「生产频率」、「生产金额」标签,随后依据这些标签生成想要的 RFM 模型。 上面咱们以用户下单行为为例来看一下近30天有下单行为的用户价值。依据对业务场景的剖析,咱们须要实现以下这些标签的加工: 客户数据洞察平台中实现 RFM 模型实现了业务场景的剖析,接下来就能够在「客户数据洞察平台」实现标签的创立以及 RFM 模型的生成。 创立用户实体,并将订单表绑定至对应的用户实体下下图展现了订单表绑定实体的过程,实现了绑定的实体则能够进行后续标签的加工。 依据订单表加工所需的衍生标签通过前文的业务剖析,咱们须要以下5个衍生标签:近7天有消费行为、近15天有消费行为、近30天有消费行为、近30天生产频率、近30天生产金额程度。 其中,「近7天有消费行为」、「近15天有消费行为」、「近30天有消费行为」标签的加工办法相似。下图仅展现「近7天有消费行为」标签的加工规定: 下图为「近30天生产频率」标签的加工规定: 在加工标签的过程中,咱们能够通过标签值散布性能来评估咱们的分类规范是否正当,如呈现了下图这种散布状况,则阐明咱们设置的「高」等级标签值的门槛过高,没有实例能够笼罩,此时咱们须要整体调低分布区间,进步标签计算结果的利用率。 下图为「近30天生产金额程度」标签的加工规定: 依据加工好的衍生标签加工组合标签「最近一次生产频率」标签是依据近7天有消费行为、近15天有消费行为、近30天有消费行为三个衍生标签而来的组合标签,下图为「最近一次生产频率」标签的加工规定: 以上,咱们就实现了实现 RFM 模型所必要的三个外围标签。 标签圈群,实现 RFM 模型在创立 RFM 模型之前,让咱们先对模型做一下拆解,看一下群体后果与业务是如何进行联合的。 在 RFM 模型中,咱们须要的3个标签被分成了三个等级,对标签值进行自由组合,造成了27类人群,本文中选取其中的3类人群进行群组剖析与洞察。 理解了 RFM 模型如何应用之后,咱们就能够在「袋鼠云客户数据洞察平台」将须要进一步剖析的各个群组的用户正式筛选进去,进而对各个群体进行定向的更加具体的营销策略制订与执行。 「袋鼠云客户数据洞察平台」提供了两种 RFM 模型落地的形式,一种是从27类人群中选取重点关注的群体别离建设群组;一种是应用平台提供的模型封装工具疾速落地。 第一种形式将会节约更多的存储、计算资源,适宜对模型、用户的了解与利用更加粗浅的高级经营人员应用;第二种形式则能够更加方便快捷的查问各类不同价值等级的用户群体,更全面的洞察目标群体的突出特色,同时也须要破费更多的精力、更多的资源来关注一些低价值群体。 本文次要介绍第一种形式的配置办法,第二种形式感兴趣的同学可在「袋鼠云客户数据洞察平台」内自行摸索。进入到群组剖析内的标签圈群模块,设置好咱们上方提到的群组1的圈群条件,如下图所示: 设置好群组规定后,开始进行圈群动作,平台会向你提供所有的群体实例信息,你能够将其保留为群组后后续实时关注群组变动,也可疾速进行群组画像、显著性剖析、群组比照等群组剖析洞察。 总结以上,就是 RFM 模型在「袋鼠云客户数据洞察平台」的实战演练。除了 RFM 模型,客户数据洞察平台也能够落地其余典型的用户分析模型,如 AARRR 模型、PLC 模型、AIPL 模型等。 ...

May 31, 2023 · 1 min · jiezi

关于大数据:合合信息商业大数据技术为农商行打造数字化转型专项方案

作为农村金融服务体系的重要组成,农村商业银行(简称“农商行”)通过服务三农经济倒退,为小微企业提供了不便、快捷、高效、优质的金融服务,同时也面临着微小的倒退压力:大型银行服务重心的继续下沉,对农商行的客群拓展和存量客户经营工作带来“降维打击”;合规层面,“强监管”趋势之下,多家农商行因经营服务、危险管制体系暴露出的有余被罚,在过来的半年里,数家农商行甚至收到了千万级罚单。 为帮忙农商行更加零碎、高效地进行客户拓展、危险管制,合合信息旗下启信宝企业端产品“启信慧眼”近期公布了“农商行数字化转型计划”,用“网格化营销”帮忙银行精准获客,助力农商行减速数字化转型过程,更好地服务宽广小微企业。 “不良贷”频发,不足高质量数据是关键问题**贷前风险管理是农商行信贷业务的第一道防线,但因为本身业务数据积淀有余、不足内部数据等状况,局部银行无奈对授信对象进行全景的资信信息审查和动静危险监控。再加上信贷业务涉及面宽泛,局部审核人员不足专业性和调研精力,上报的信贷材料和调查报告品质低下,导致了农商行“不良贷”的产生。 为解决这些问题,启信慧眼“农商行数字化转型计划”通过“贷前-贷中-贷后”全流程危险管理系统,依靠启信宝汇聚的2.3亿家企业超1000亿条实时动静商业大数据,在贷前环节帮忙银行一站式实现企业“工商、司法、关系、经营、融资、行业”等8大维度线上的渎职考察,全面评估企业关联危险,大幅升高银行在企业危险尽调、关系尽调、批量尽调上破费的工夫和人力老本。 启信慧眼依靠商业大数据技术助力农商行进行企业危险辨认在贷中环节,该计划还可通过多项企业评分模型,对企业综合实力、空壳危险、司法危险、合同守约危险等进行量化计算,辅助银行审批人员评估企业的正当授信额度。 贷后环节,通过启信慧眼提供的危险预警模型,银行可继续对有贷户负面、舆情、要害人员施行监控,一旦捕捉到危险信号,即公布预警信息,揭示银行躲避危险,提前做好应答工作。 “网点式”拓客,帮忙农商行倒退走向精细化对公业务是银行资产、营收、净利润的次要起源。近年来,随着金融市场的逐步饱和及多项因素影响,银行对公业务增长速度放缓。大型银行往往领有资金老本劣势和成熟的技术体系,能在授信额度、贷款利率、负债老本以及综合服务能力等方面吸引优质客户的眼光,并通过服务触角继续“下沉”来拓展新市场、开发新客户群体。 与之绝对的是,少数农商行次要立足本地业务,因为数据品质、数量的有余,无奈及时获知存量客户最新经营状态,不仅拓客难,存量客户也在进一步散失,业务压力倍增。因而,农商行须要充分利用其在小微企业客群中的“地缘劣势”,深挖本地细分客群或特定畛域,盘活存量客户、继续开掘存客营销价值。 传统的客户营销商机收集和保护形式需消耗大量资源,且营销效率低下。启信慧眼对公信贷专家提到,市场对商业银行的经营效率要求越来越高,宽广农商行挖掘新的业务增长点要以客户为核心,采取差异化、网格化深耕客群的经营策略,实现资源精准调配。为了帮忙农商即将无限的资源更高效地聚焦客户拓展,缩小营销治理传导过程的资源损耗,启信慧眼推出了“网格营销”产品,基于“支行网点及地理位置圈选”,主动开掘网点周边企业需要,让银行疾速定位客户。启信慧眼依靠商业大数据技术主动生成支行网点5公里范畴内的“待营销客群清单"此外,启信慧眼还构建了超过280项热门产业链专题,涵盖新基建、新能源、大生产、大衰弱等产业板块,帮忙农商行找到区域内高增长产业、细分产业环节与对应企业,提供更合乎产业需要的个性化金融服务。将来,启信慧眼将继续发力商业大数据技术,助力银行挖掘数字化转型独特劣势,打造行业竞争“护城河”。

May 31, 2023 · 1 min · jiezi

关于大数据:MaxCompute-物化视图智能推荐最佳实践

作者 夏俊伟  阿里云高级产品专家  /  郑君正 阿里云高级技术专家 什么是物化视图MaxCompute物化视图是一种事后计算和存储后果数据的数据对象,也能够称之为“实体化视图”。物化视图能够作为一张虚构表存在于MaxCompute我的项目中,它的内容是一个或多个表的聚合,过滤以及Join组合计算结果。物化视图能够大幅度缩小查询处理工夫以及节俭作业计算资源,基于MaxCompute优化器弱小的主动查问改写能力,当作业能够复用物化视图后果时,优化器主动把一些简单的操作替换成读取物化视图操作,从而晋升作业执行速度、节俭作业计算资源。 什么是物化视图智能举荐物化视图的应用,岂但须要对物化视图的工作原理比拟理解,同时须要理解业务数据行为与业务数据的应用场景,给普通用户应用物化视图带来肯定艰难。 MaxCompute 物化视图智能举荐实现了用户无感知的流程化应用物化视图能力。用户开启物化视图智能举荐后,MaxCompute 能够为用户主动剖析业务数据应用场景,主动举荐物化视图,并且能够可视化展示物化视图的应用成果。为物化视图应用大大降低了门槛,同时也带来更多的物化视图应用场景。 物化视图智能举荐的特点· 简略易用, 用户不须要理解物化视图各个底层工作细节,只需抉择本人的Project开启主动智能剖析。 · 智能, MaxCompute主动对用户历史作业进行剖析,自动识别周期性作业,并智能提取作业汇合中的公共计算逻辑作为物化视图计算逻辑,并最终转换成用户敌对的SQL文本模式,依照举荐水平排序展现给用户。 · 便于管理, MaxCompute控制台提供一站式的性能开明、物化视图治理以及物化视图应用成果展现。 物化视图智能举荐的应用场景数据治理随着企业业务倒退,公司的业务数据会越来越多,各部门对数据都存在各种数据分析需要,在日常应用过程中,各个部门对数据的应用会存在肯定的穿插应用,难免会有大量的雷同逻辑的反复计算。 日常用户或者大数据平台管理人员很难发现反复计算,因为反复计算局部可能只是整个计算逻辑中一部分。在发现有反复计算时想批改也比拟艰难,如果从新形象一个反复计算的表,上游的依赖作业都须要更改,而后测试上线。会带来额定的工作量,从而导致数据治理很难推动。 应用物化视图智能举荐性能后,MaxCompute会主动剖析Project中存在哪些公共的计算逻辑,并且举荐进去,让用户去创立物化视图,有了物化视图后,通过弱小的优化器改写能力,可能让作业主动利用上物化视图的计算结果,不须要用户批改原来的逻辑。 示例,在没有物化视图,如下图,Tab4跟Tab5的计算中存在棱形跟圆形局部逻辑是反复计算的,在下图中计算了两遍。 创立物化视图MV1后,菱形跟圆形局部逻辑只计算了一遍,能够节俭计算资源的同时进步计算速度。 智能数据建模传统大数据处理,第一步就是既懂技术又懂业务的数据分析专家搭建数据仓库,对数据仓库进行分层,失常模型都分贴源层,明细层,汇总层,应用层等;传统建模形式有以下弊病: 1)模型建的好坏,间接影响到计算的有效性,重大依赖建模的专家; 2)同时随着业务倒退,数据越来越多后,不免有模型建的不是很适合的状况,如果再改模型对整个现有工作都有影响; 3)资源节约,局部模型建好后,然而应用的人很少或者没有应用,导致整个模型白白浪费计算资源和存储资源。 有了物化视图智能举荐后,用户不须要依赖专家来事后建模。能够做到智能的自动化建模。当用户应用数据后,后端主动剖析,剖析出反复计算逻辑,MaxCompute主动举荐创立物化视图,实现真正的灵便,快捷的自动化建模。让用户不必放心数据存储状况,计算资源应用效率等问题;用户能够把更多精力放在业务倒退上。特地对中小型公司来说,不须要额定要招聘数据建模同学,全副交给MaxCompute物化视图智能举荐即可。 数据报表/看板物化视图智能举荐也能够为用户的BI智能报表/看板提供减速能力。MaxCompute会为用户主动剖析反复刷新的数据,举荐创立物化视图,有了物化视图后能够事后计算好报表/看板须要的数据,在报表/看板须要用的时候间接会主动改写路由去查物化视图,能够大大降低报表/看板的响应工夫。 如何应用物化视图智能举荐物化视图智能举荐应用非常简单,只需以下几个步骤: 登录MaxCompute控制台,点击右边菜单“物化视图”;抉择Tab页“设置”,开启智能剖析,并且增加须要剖析的项目名称;T+1天后,查看Tab页“物化视图举荐”,查看零碎依据用户应用行为,举荐进去的公共子查问;抉择对应的子查问创立物化视图;T+1天后,查看Tab页“物化视图治理”,能够看到目前哪些查问计算调用了该物化视图以及调用物化视图前后成果比照。物化视图智能举荐示例阿里团体数据中台团队负责建设整个阿里的数仓“公共层”,试图将反复计算的逻辑进行收敛,让多个上游业务拜访同一个后果表,从而达到节俭计算和存储的目标。随着数据量和业务复杂度的几何增长,传统的“公共层”曾经很难达到本来构想的状态,次要起因有: 找数难逻辑存在相似性然而后果表不齐全可用人工发现公共逻辑难度大MaxCompute推出的物化视图智能举荐性能,恰好能很好的解决上述问题。数据中台团队通过将MaxCompute智能举荐后果转变为物化视图,大大降低了上游作业之间的反复计算,节俭了大量计算资源。 一期物化视图智能举荐性能笼罩了4个BU共20个project,命中物化视图的作业,其均匀计算资源节俭率为14%。后续咱们会有更加具体的理论应用案例来开展介绍。 物化视图智能举荐应用阐明物化视图并不能解决所有问题,在绝大部分状况下,总体上看都是能够为用户带来正向收益,包含能够缩小计算资源,进步计算速度,并升高计算成本。然而针对某个查问计算,在小概率下会给用户带来负收益,用户须要关注以下几点: 公共子查问被物化成物化视图后的数据是否产生数据收缩,如果产生几倍或者更高的收缩时,不倡议应用物化视图。应用后付费的用户,须要留神目前物化视图节俭的是计算资源和计算复杂度,但并不一定会缩小数据扫描量,因为在数据物化过程中如果产生数据收缩后,可能扫描量会减少。【MaxCompute已公布收费试用打算,为数仓建设提速】新用户可0元支付5000CU*小时计算资源与100GB存储,有效期3个月。立刻支付>> 欢送各位开发者退出大数据计算 MaxCompute 社区, https://developer.aliyun.com/group/maxcompute

May 31, 2023 · 1 min · jiezi

关于大数据:每日互动联合绍兴高速交警温州高速交警和浙江高信发布高速障碍物预警系统

5月18日,以“瓯江论数 数安中国”为主题的2023数据安全倒退大会在温州圆满举办。其中,每日互动聚焦“平安是前提,倒退是主题”,承办了本次大会5个分论坛之一的“数据智能平安与倒退论坛”。在此论坛上,每日互动和绍兴高速交警、温州高速交警和浙江高信技术股份有限公司(“浙江高信”)联结公布了高速障碍物预警系统,基于数据智能,以低成本、高效率、智慧化的形式,护航高速交通的畅通与平安。图:数据智能平安与倒退论坛现场公布“高速障碍物预警系统” 党的二十大报告指出,要放慢建设交通强国。倒退数字交通,成为促成综合交通高质量倒退的重要推动力。在此背景下,每日互动和浙江高信基于各自的行业及技术劣势,携手发展在智慧高速畛域的数据智能实际,独特打造推出了“高速障碍物预警系统”,推动智慧高速场景建设。 每日互动是业余的数据智能服务商,聚焦数据智能赛道十余年,构建了“数据积攒-数据治理-数据利用”的服务生态闭环,为商业主体和政府部门提供丰盛的数据智能产品、服务与解决方案。其中,在公共服务畛域,公司具备丰盛的实践经验,积攒了对人、车、路线、工夫、空间等多因素数据进行关联计算和剖析洞察的能力,已在城市治理、智慧交通等畛域给政府相干部门提供了无力的大数据撑持。 浙江高信是浙江省交通投资团体有限公司(以下简称“交通团体”)上司科技型子公司,是交通团体交通信息产业的主体平台。二十年来次要围绕智慧交通、智慧城市、数字政企、智能轨道和航空航运等业务畛域,依靠数字化布局征询、数字基础设施建设和数据资源增值服务三大外围竞争力,业余提供多场景、多业务、全周期、全生态、数字化的一站式服务。 此次单方单干打造的高速障碍物预警系统次要用于保障高速交通的畅通与平安。从进步市民出行平安来看,零碎将高速异样事件预警模型与大数据技术相结合,能实时感知高速路线上的车速变动,及时发现异常事件并疾速预警,实现“预警”跑在“报警”前,缩小二次事变危险。而从路线的营运、治理部门的角度看,传统的视频监控、人工巡检等预警形式,在光线不好或者路线呈现通明液体等特定抛洒物的状况下,往往检测成果不佳,容易呈现漏检或误检的状况。相比而言,此次公布的“高速障碍物预警系统”则是基于车流特色去提供更加精准、更为及时的预警信息,可能大大提高经营和治理的效率。 现场,浙江高信CTO陆启荣提及该零碎时,用“小而全面,少而及时”八个字来形容。“从产品施行的角度来讲,老本十分‘小’;高速门架的铺设又是最‘全面’的;同时,ETC门架是专门独立设置的,所以数据被烦扰较‘少’;最初,ETC数据采集的‘及时’度十分高,比传统视频监测、人工巡检要更高。”陆启荣说到。 除此之外,每日互动CTO叶新江在现场还分享了每日互动数据智能在交通安全畛域的最新利用。“每日互动目前正在摸索交通高危人群的洞察,帮助交警部门针对性地发展宣传教育工作,进步交通出行的安全性。”叶新江说到。 目前,高速障碍物预警系统已在绍兴、温州落地试点,成效显著。将来,每日互动和浙江高信将持续携手,独特推动高速障碍物预警系统在各城市的落地利用,促成智慧高速场景的遍及;同时,单方也将进一步深入产品的继续迭代,减速高速公路信息化、升高高速公路事故率、进步高速通行通顺度,为行业深度赋能。

May 25, 2023 · 1 min · jiezi

关于大数据:Apache-Hudi-在袋鼠云数据湖平台的设计与实践

在大数据处理中,实时数据分析是一个重要的需要。随着数据量的一直增长,对于实时剖析的挑战也在一直加大,传统的批处理形式曾经不能满足实时数据处理的需要,须要一种更加高效的技术来解决这个问题。Apache Hudi(Hadoop Upserts Deletes and Incremental Processing)就是这样一种技术,提供了高效的实时数据仓库治理性能。 本文将介绍袋鼠云基于 Hudi 构建数据湖的整体计划架构及其在实时数据仓库解决方面的特点,并且为大家展现一个应用 Apache Hudi 的简略示例,便于新手上路。 Apache Hudi 介绍Apache Hudi 是一个开源的数据湖存储系统,能够在 Hadoop 生态系统中提供实时数据仓库解决性能。Hudi 最早由 Uber 开发,起初成为 Apache 顶级我的项目。 Hudi 次要个性· 反对疾速插入和更新操作,以便在数据仓库中实时处理数据; · 提供增量查问性能,可无效进步数据分析效率; · 反对工夫点查问,以便查看数据在某一时刻的状态; · 与 Apache Spark、Hive 等大数据分析工具兼容。 Hudi 架构Apache Hudi 的架构包含以下几个次要组件: · Hudi 数据存储:Hudi 数据存储是 Hudi 的外围组件,负责存储数据,数据存储有两种类型:Copy-On-Write(COW)和 Merge-On-Read(MOR); · Copy-On-Write:COW 存储类型会在对数据进行更新时,创立一个新的数据文件正本,将更新的数据写入正本中,之后,新的数据文件正本会替换原始数据文件; · Merge-On-Read:MOR 存储类型会在查问时,将更新的数据与原始数据进行合并,这种形式能够缩小数据存储的写入提早,但会减少查问的计算量; · Hudi 索引:Hudi 索引用于保护数据记录的地位信息,索引有两种类型:内置索引(如 Bloom 过滤器)和内部索引(如 HBase 索引); · Hudi 查问引擎:Hudi 查问引擎负责解决查问申请,Hudi 反对多种查问引擎,如 Spark SQL、Hive、Presto 等。 ...

May 24, 2023 · 3 min · jiezi

关于大数据:MaxCompute基于Package跨项目访问资源实践

背景目前随着公司业务的一直扩大,各个业务线的数据也越来越多,如果所有数据都集中管理比拟盘根错节。MaxCompute的跨我的项目拜访资源比拟适宜这样的场景。每个业务线创立对应的project,自行治理数据。如果有须要拜访其余业务线数据的诉求,能够基于Package实现数据共享的诉求,上面咱们来介绍下基于Package实现跨我的项目拜访资源的具体操作,本文以共享自建udf函数为例。 后期筹备MaxCompute我的项目projectA 和 projectB,详情参考 新建MaxCompute我的项目;子账号 A(projectA开发环境工作公布人),详情参考 子账号创立;子账号 B(projectA生产环境工作执行人,可为主账号或权限较高的子账号) ;子账号 C(projectB跨我的项目拜访人);projectA筹备udf所有的jar包、表和函数,详情参考 MaxCompute udf。步骤账号权限明细子账号 A(projectA开发环境工作公布人):一般开发人员子账号 B(projectA生产环境工作执行人):除主账号外权限最高的管理者子账号 C(projectB跨我的项目拜访人):一般开发人员,详情参考权限治理步骤一:子账号A 创立package工作并公布生产登录DataWorks 数据开发,创立SQL节点,创立package工作,详情可参考 ODPS SQL节点。 批改我的项目责任人(如果有专人执行生产工作可执行此步骤)在数据开发页面,单击业务流程后的图标,进入工作列表页面。批改责任人提交公布工作提交                  公布 可在公布列表中查看      步骤二:子账号B 执行生产工作1.子账号B登录DataWorks运维核心,周期工作运维 - 周期工作,详情可参考 DataWorks运维核心。 2.子账号B执行工作 右键工作 - 测试,详情可参考周期工作运维 抉择业务日期 查看运行后果 步骤三:子账号C 应用package1.主账号或管理员(Super_Administrator 或者 Admin)登录 projectB,装置package 并容许子账号C 拜访 package,详情可参考 基于package跨我的项目拜访资源。 2.子账号C 登录 projectB,进行package拜访 查看package的资源列表    应用udf函数 【 MaxCompute公布收费试用打算,为数仓建设提速 】新用户可0元支付5000CU*小时计算资源与100GB存储,有效期3个月。 立刻支付>>

May 23, 2023 · 1 min · jiezi

关于大数据:HashTable-在蚂蚁转化归因中的极致运用

作者:开七  蚂蚁团体数据技术专家 本文围绕 hash cluster 表使用及 Shuffle 过程原理进行探讨,欢送各位开发者退出大数据计算 MaxCompute 社区:https://developer.aliyun.com/group/maxcompute概述蚂蚁的转化归因在初期运行两个多小时的状况下,进行了一系列优化,其中建设hash cluster表及强制hash关联及Shuffle的手动干涉进行remove操作此局部优化占了较大比重。本文则次要讲述hash cluster表的一些使用。 Hash cluster表具备两个作用: 存储预排序的重排压缩。Hash cluster表采纳分桶排序操作,若雷同的值反复度高,则能够达到更好的压缩成果。上游工作的Shuffle Remove。Hash cluster表因为采纳对指定字段分桶操作,上游若一些关联、聚合操作与分桶键策略雷同,则会进行Shuffle Remove操作。MaxCompute操作中,Shuffle是低廉的,因而有必要在优化阶段尽可能移除不必要的Shuffle。什么状况下能够移除Shuffle?简略来说就是数据自身曾经具备某些数据分布个性,刚好这个数据分布个性满足了上游算子对这份数据的散布要求,就不须要再做Shuffle,这个也是Hash cluster表的重要利用场景。前言转化归因工作加工绝对较简单,在此对其中关键步骤做个阐明: 1、源头分三局部,拜访日志数据A,点击日志数据B,接入的事件数据C,此三局部数据表已设置为4096分桶的hash表。 2、以上三局部数据以用户进行分组,别离传入用户的点击、拜访和事件数据,通过udf解决失去单用户的归因后果数据(以字条串返回)。 3、返回以用户粒度的后果数据进行字段拆分后以用户的事件id进行收缩,收缩后关联用户事件数据补充事件数据后其它字段。 4、上一步关联后的后果数据以日志id进行收缩,收缩后的数据关联拜访和点击日志数据失去日志中的其它一些补充字段。 以上步骤按单用户数据处理过程流程大抵如下: 以支付宝领取线来讲,最后总计运行两个来小时,加工逻辑步骤有近十来个工作。后续进行了udf优化并逻辑合并为一个script,图2右局部。 图(3) 优化过程中间状态以下工作是在通过多任务合并为一script工作后内容,其中源头输出表点击(mid\_log\_clk\_xxxx\_di)和拜访(mid\_log\_vst\_xxxx\_di)表建设hash cluster,而事件表是以事件代码为二级分区的一般表(事件表是通过页面通过不同的事件码在线接入后生成不同的工作产出的表),以领取线为例,工作革新后稳固在半小时左右,但目前随着事件减少有所增长。 点击拜访建表次要内容 CLUSTERED BY (user_id ASC) SORTED BY (user_id ASC,log_id ASC) INTO 4096 BUCKETS 整体运行图如下,相比原来十来个工作,无论是日常运行、历史回刷都变的绝对简洁。 在此过程中集体剖析若事件输出表能在运行过程中变hash cluster的话,那上游按理可再缩小一些Shuffle操作,尝试对事件表减少 DISTRIBUTE BY  user\_id SORT BY scene\_type,order\_id 操作且设置参数set odps.sql.reducer.instances=4096,但测试发现上游对此无感知,分割MaxCompute 开发人员得悉目前暂无此性能。 接入事件hash表不能在运行中失去那只能再减少一个工作把事件数据插入一cluster表供工作应用,但因为在主链路上,减少的工夫影响整体产出工夫,但以领取线几个亿数据量为例,插入cluster表整体3分钟左右,建设cluster后整体执行图如下: 以上执行图曾经相当简略,运行速度相比原来工作及减少的上游整体也有肯定的晋升,然而发现两主task中,m3和m4同样都是4096实例,都是按用户分桶进行的散发,按理此两M应该是能够Shuffle remove进行合并的,问及MaxCompute开发人员大抵是一些简单操作后属性失落后不能打消Shuffle。 最终状态尽管图5的执行打算相对来说曾经十分简洁,但一些理论后果与认知不同时总想找到问题出在哪里。因而,我对工作中的一些sql嵌套进行档次缩小,对一些关联先拆解再缓缓减少,在此过程中发现减少了一个小表的mapjoin会导致上游须要进行Shuffle(实践上小表mapjoin不影响主表散发),其中一个黑名单列表,数据量少且近三年都无减少数据,因而间接革新为固定值传入,另外一个小表在最初再进行mapjoin关联,最终执行图如下,只有一个主的task,十分简洁。 以下为m2中的算子,非常复杂,但无需Shuffle执行效率十分高。 执行后果最终执行时长不到20分钟,绝对原先缩小一半,而且耗费的cu及内存都有所升高,转化归因整体链路产出提前20分钟+。 ...

May 22, 2023 · 1 min · jiezi

关于大数据:网易云微专业大数据开发工程师编程猿

download:网易云微业余-大数据开发工程师-编程猿“但见悲鸟号古木,雄飞雌从绕林间”,这是唐代诗人白居易《赋得古原草送别》中的一句诗句,描述了一幅对于鸟类在森林间飞翔、飞舞的画面。本文将联合这句诗句,探讨鸟类在自然界中的生态与行为。 在大自然中,鸟类是一个重要的物种群体,它们在生态系统中扮演着十分重要的角色,是食物链和生态平衡中不可或缺的一部分。作为一种高度进化的动物,鸟类具备丰富多彩的行为特点,包含滋生、觅食、迁徙等。其中,航行是鸟类最为突出的特色之一,在航行过程中,鸟类能够轻松地穿梭各种障碍物,实现长距离的旅行和迁徙。 同时,鸟类的栖身环境也是它们流动和生存的重要因素之一。正如白居易所言,“悲鸟号古木,雄飞雌从绕林间”,鸟类经常依附林木等植被作为栖身场合,保护着生态系统的均衡。在林间,鸟类能够找到丰盛的食物和平安的隐蔽处,同时也能防止天敌的攻打。 不同品种的鸟类在栖身环境、觅食形式和滋生习性上都有所差别。例如,喜鹊和松鼠一样,长于爬树跳跃,它们经常在林中的树木上建造巢穴,并抉择各种坚挺的垫料来加固。而水鸟则次要栖身在湖泊、河流等水域周边,通过游泳和潜水来觅食。 鸟类在觅食过程中也会体现出多种行为特色。例如,啄木鸟会利用其强健的喙和颈部肌肉,在树干上扣打,将虫子和其余昆虫捕食下来;而鹰类则会回旋在半空中,通过锐利的视力捕获猎物。 除了觅食和栖身,许多鸟类还领有惊人的迁徙能力。每年春秋两季,成千上万的鸟类会进行长距离的迁徙,从一个地区飞往另一个地区。例如,以燕子为代表的留鸟,在冬季达到南方滋生,到了秋季便会开始向南航行,直至达到北方和煦的海岛上过冬。这样的迁徙旅程须要消耗大量的能量和工夫,因而鸟类在迁徙前通常会进行一段时间的“肥储备”,以备不时之需。 总之,“但见悲鸟号古木,雄飞雌从绕林间”这句诗句不仅描述了鸟类在自然环境中的美好场景,也反映了鸟类多样化的生态与行为特色。随着人类流动的一直扩张和对自然资源的一直掠夺,许多鸟类和其它野生动物正在面临着重大的威逼和生存压力。爱护野生动物、保护生态平衡是咱们每个人都应尽的责任和任务。

May 19, 2023 · 1 min · jiezi

关于大数据:技术干货|如何利用-ChunJun-实现数据离线同步

ChunJun 是⼀款稳固、易⽤、⾼效、批流⼀体的数据集成框架,基于计算引擎 Flink 实现多种异构数据源之间的数据同步与计算。ChunJun 能够把不同起源、格局、特点性质的数据在逻辑上或物理上有机地集中,从⽽为企业提供全⾯的数据共享,目前已在上千家公司部署且稳固运⾏。 在之前,咱们已经为大家介绍过如何利用 ChunJun 实现数据实时同步(点击看注释),本篇将为大家介绍姊妹篇,如何利⽤ ChunJun 实现数据的离线同步。 ChunJun 离线同步案例离线同步是 ChunJun 的⼀个重要个性,下⾯以最通⽤的 mysql -> hive 的同步工作来介绍离线同步。 配置环境找⼀个空⽬录,接下来要配置 Flink 和 ChunJun 的环境,下⾯以 /root/chunjun_demo/ 为例⼦。 ● 配置 Flink 下载 Flinkwget "http://archive.apache.org/dist/flink/flink-1.12.7/flink-1.12.7-bin-scala_2.12.tgz"tar -zxvf chunjun-dist.tar.gz● 配置 ChunJun #下载 chunjun, 外部依赖 flink 1.12.7wget https://github.com/DTStack/chunjun/releases/download/v1.12.8/chunjun-dist-1.12-SNAPSHOT.tar.gz#新创建⼀个⽬录mkdir chunjun && cd chunjun#解压到指定⽬录tar -zxvf chunjun-dist-1.12-SNAPSHOT.tar.gz解压好的 ChunJun 有如下⽬录:binchunjun-distchunjun-exampleslib ● 配置环境变量 #配置 Flink 环境变量echo "FLINK_HOME=/root/chunjun_demo/flink-1.12.7" >> /etc/profile.d/sh.local#配置 Chunjun 的环境变量echo "CHUNJUN_DIST=/root/chunjun_demo/chunjun/chunjun-dist" >> /etc/profile.d/sh.local#刷新换新变量. /etc/profile.d/sh.local● 在 Yarn 上⾯启动 Flink Session #启动 Flink Sessionbash $FLINK_HOME/bin/yarn-session.sh -t $CHUNJUN_DIST -d输入如下: ...

May 19, 2023 · 5 min · jiezi

关于大数据:火山引擎DataLeap3步打造指标管理体系幸福里数据中心是这么做的

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群一家企业,为什么要搭建指标体系?一句话总结来说,全面、正当的指标体系能够帮忙企业对立指标,将业务环节量化,帮忙策略执行落地、定位问题、调整方向。但指标体系建构并非易事,指标如何保护和更新、如何对立指标口径、指标如何能迷信领导业务决策,是企业构建指标体系遇到的常见问题。幸福里APP是抖音团体旗下集内容、社区、工具于一体的房产信息综合平台,致力于提供多样化房产资讯、定制找房需要。数据建设是幸福里数据BP的外围工作,其中指标建设与治理是其中重要一环。指标是量化剖析和构建策略的根底,是业务决策重要依据之一,也是数据团队重要的数据资产,因而幸福里指标治理是团队关注的重点之一。本篇文章将从业务背景、业务痛点、幸福里指标数据实际、成果收益四个方面,介绍幸福里如何通过火山引擎DataLeap、DataWind等数据产品,从0-1实现指标体系搭建,并取得显著收益。 一、业务背景幸福里指标治理经验了两个阶段: 第一个阶段:幸福里业务疾速迭代,数据侧以响应需要,疾速反对业务迭代为主,指标没有对立的标准,粗放式治理,短少指标拆解规范以及分类规范,导致指标一词多义、反复开发、指标冗余,容易呈现数据品质问题。第二个阶段:幸福里整体业务倒退趋于稳定,精细化经营对数据提出了更大的挑战。以后,数据侧以解决数据效率和品质问题为优先,进一步增强体系化建设,制订指标建设标准。幸福里指标体系建设和落地离不开数据工具的反对。一方面,幸福里须要将不同数据源的指标进行建模,造成数据集,以便满足可视化查问的须要;一方面,也须要对立的平台规范化指标治理流程,晋升数据模型的复用性,保障外围指标口径统一,进步业务方应用体验的成果。作为火山引擎数智平台旗下的产品,DataWind反对业务线创立我的项目来存放数据集,反对对指标数据的可视化查问,而DataLeap具备一体化指标体系建设和治理的能力,提供指标命名及口径治理的工具, 反对导入多种数据源构建模型以及灵便抉择指标构建形式,通过一个平台即可实现指标治理。由此,DataLeap和DataWind成为幸福里团队构建指标体系首选。二、业务痛点第一,线下文档保护指标体系,格局不对立、更新不及时、保护老本高晚期幸福里指标字典次要通过线下文档人工保护,并没有专门人员对立负责指标的治理;指标保护碎片化,不同业务模块保护各自指标库,指标字典文档格局不对立;相干人员短少保护能源,新增或批改指标不及时,指标信息共享局限,无奈触达幸福里所有用户。以上问题给相干人员造成指标利用与治理上的压力,因而幸福里须要一个对立治理指标的平台,解决指标治理上的痛点。 第二,短少指标分类和治理标准在幸福里业务疾速迭代过程中,数据侧为谋求需要的疾速反对,短少指标的拆解或分类标准,存在反复开发、指标芜杂、一词多义、一义多词的问题,同时指标口径也没有在接口或数据做好透传,导致上游应用方不理解指标加工细节,进而可能使得数据品质问题频发。 三、利用实际为什么要引入火山引擎DataLeap? 通过DataLeap 实现指标建设流程线上化、规范化,实现指标命名、指标新增与变更流程;DataLeap性能上更加全面和丰盛,反对指标拆解、维度治理、词根治理等操作;对业务侧应用更加敌对,指标提需、口径变更进行流程化治理,能够串联起数据BP、分析师和业务独特保护指标。LOOK数据中心实际:指标100%笼罩LOOK是幸福里外部效率管理系统,除作业功能模块外,销售人员作业数据分析也是LOOK重要性能,通过数据及时监控外部员工作业效率,反馈外围大盘数据。该零碎下新房数据整体通过DataLeap同步DataWind数据集形式提供数据服务。 步骤一:提需流程确定数据BP和业务团队指标开发单干机制,以后幸福里数据BP和业务团队单干模式如下:指标开发数据BP须要进行业务指标和剖析维度的拆分,对于指标需先思考指标字典中是否存在(避免反复开发),如果不存在, 须要拆解为原子指标+工夫周期+修饰词, 并落入到指标平台;依据理论利用场景采纳DataWind数据集或数据接口输入指标。指标治理由数据BP和DA(或业务人员)独特保护。业务人员保护指标的业务口径并进行分类,业务定义将在DataWind看板或产品页面展现露出。数据BP保护指标技术口径,进行指标模型关联,提供数据利用。通过DataLeap造成了数据BP和分析师协同治理指标的诉求,同时对立指标查问平台。 步骤二:指标录入与保护幸福里以离线数仓主题划分数据域,同时将DataLeap词根治理性能进行利用,标准指标命名。针对需要波及指标将指标拆解并划分适合的数据域,便于责任人对立治理。指标拆解流程指标拆解实现后,对原子指标、衍生指标和复合指标进行创立和技术口径保护,联合需要创立数据模型买通DataWind数据集和mfs数据服务。DataLeap的业务管理模块由数据分析师或产品进行保护,次要是治理指标的业务分类和定义业务口径。业务定义将在DataWind看板或产品页面展现露出。其中生产信息能够查看以后指标的模型利用,方面后续指标应用剖析。 通过业务侧指标保护和指标的生产信息模块,便于业务侧查问和应用指标,同时对外展现便于各方了解。词根治理目前在录入指标过程中发现存在关键字定义不统一,一个中文名称有多个英文名称或者一个英文名称在不同业务线下有不同的中文含意。为解决此类问题,幸福里对词根进行保护,录入指标之前先在词根治理的字段治理模块查看对应关键字是否已存在。通过词根治理,将外围字段命名进行标准,防止命名不对立,解决了一词多义和一义多词的问题。 步骤三:指标利用&口径透传权限买通同步DataWind数据集与数据受权,数据受权操作只需在DataWind数据集进行。 口径透传DataLeap同步DataWind数据集后,上游配置的数据看板能够将指标口径进行展现,也反对指标平台的跳转,便于上游应用方理解指标加工细节。 通过以上三个步骤,幸福里实现以下几个方面晋升: LOOK数据模块整体通过指标平台提供指标服务,看板上查看看板波及的指标的口径,升高DA口径同步的老本。通过DataLeap缩小数据BP反复开发、一词多义的问题,对应指标有相应责任人进行开发和治理,进步指标整体复用度。观测数据时,用户能够通过指标平台理解每个展现指标的含意,整体进步数据的准确性。指标字典从线下文档迁徙到DataLeap,通过线上配置化治理,升高数据分析师保护老本。以前,数据集指标口径不分明须要找数仓人员确认,再通过代码获取指标技术生产逻辑;当初,DataLeap配置指标口径,反对在看板间接展现,节俭解释指标口径的工夫。DataLeap具备指标分组的能力,让指标更有层级性,不便查找和治理,晋升效率。四、成果收益:数据oncall解决超40%通过DataLeap指标平台,幸福里数据团队实现交易平台新房方向p0指标100%笼罩,包含指标定义、模型配置、责任人等元信息保护。DataLeap指标平台和DataWind买通,便于应用方理解指标加工逻辑,通过DataWind看板对应按钮跳转DataLeap间接查看指标口径形容和绑定模型状况。上面是目前幸福里在DataLeap的应用数据状况: 从数据上看,幸福里以后总录入指标数504个,模型数28个,交易平台整体指标覆盖率60%。模型建设门路偏差业务驱动;业务保护率为60%,和DA造成了肯定的联动; 还需进一步在业务侧增强推广,晋升指标生产热度。业务应用上,反对指标口径在看板和线上页面展现透出,便于上游理解指标加工细节,数据口径反馈问题缩小40%。另外,指标平台作为幸福里各方查指标用指标的对立平台,进步指标查问和生产效率。点击跳转火山引擎DataLeap理解更多

May 18, 2023 · 1 min · jiezi

关于大数据:提高数据的安全性和可控性数栈基于-Ranger-实现的-Spark-SQL-权限控制实践之路

在企业级利用中,数据的安全性和隐衷爱护是极其重要的。Spark 作为数栈底层计算引擎之一,必须确保数据只能被受权的人员拜访,避免出现数据泄露和滥用的状况。为了实现Spark SQL 对数据的精细化治理及进步数据的安全性和可控性,数栈基于 Apache Ranger 实现了 Spark SQL 对数据处理的权限管制。 本文基于 Apahce Spark 2.4.8 和 Apache Ranger 2.2 进行原理解说,和大家聊聊「袋鼠云一站式大数据根底软件数栈」基于 Ranger 在 Spark SQL 权限管制上的实际摸索之路。 基于Ranger实现Spark SQL权限管制Apache Ranger 是一个开源的权限治理框架,能够提供对 Hadoop 生态系统的平安访问控制。Ranger 为开发者提供了一种可扩大的框架,能够进行对立的数据安全治理,内置包含对 Hadoop、Hive、HBase、Kafka 等多个组件的访问控制。 Ranger 内置并没有提供 Spark 的权限管制插件,须要开发者本人实现,基于 Ranger 数栈实现了 Spark SQL 对库、表、列和 UDF 的拜访权限管制、行级别权限管制和数据脱敏三方面的权限治理与管制。接下来咱们分两局部对其实现原理进行解说,别离是自定义 Ranger 插件和 Spark SQL Extensions 机制。 自定义 Ranger 插件在 Ranger 中增加一个新服务的权限校验可分为两局部:第一局部是为 Ranger 减少新服务模块;第二局部是在新服务中减少 Ranger 权限校验插件。 ● Ranger 减少新服务模块 Ranger 减少新服务模块是在 Ranger Admin Web UI 界面减少对应服务模块,用来为对应服务增加对应资源的受权策略。新服务模块减少能够分为以下三个步骤: ...

May 17, 2023 · 3 min · jiezi

关于大数据:大数据技术沙龙来袭2023走进网易创新重塑数据生产力

随着大数据平台和技术在企业外部的推动与落地,长效价值逐步成为关注点。 ❓如何更好地治理数据资产? ❓是否有可参考的建设办法 ❓AIGC和ChatGPT热点是否能高效联合企业数据需要? ❓企业IT部门又该如何更好地施展其能力? 网易将为您解答!! 网易数帆联结信通院云大所、CSDN独特发动大数据技术沙龙,邀请一线专家分享前沿方法论;大数据从业者分享在理论业务中遇到的诉求与挑战,帮忙从业者享受技术创新的红利、独特教训碰撞,领略数据驱动的魅力。 ➡➡点击此处、填写信息即可报名! 扫描二维码也可报名流动,5月26日咱们不见不散!!

May 16, 2023 · 1 min · jiezi

关于大数据:袋鼠云产品功能更新报告05期|应有尽优数栈一大波功能优化升级

这段时间,咱们对产品自身以及客户反馈的一些问题进行了继续的更新和优化,包含对离线平台数据同步性能的更新,数据资产平台血统问题的优化等,力求满足不同行业用户的更多需要,为用户带来极致的产品应用体验。 以下为袋鼠云产品性能更新报告第五期内容,更多摸索,请持续浏览。 离线开发平台1.反对工作流参数背景:很多业务场景下一个工作流中须要有一些能失效于整个工作流的参数,对立配置其下所有子节点通用。 新增性能阐明:工作流父工作中反对创立工作流层级参数,工作流参数在工作流范畴内失效。工作流下子节点反对通过${参数名称}的形式来援用该工作流参数。 2.反对我的项目级参数背景: 目前离线已反对的参数类型有以下几种: • 全局参数-作用于整个数栈平台 • 自定义参数-作用于单个离线工作/工作流子节点 • 工作上下游参数-作用于引入此参数的上游工作 • 工作流参数-作用于单个工作流工作 减少的我的项目级参数,作用于以后我的项目之内的所有工作,既不影响别的我的项目的工作,也可实现我的项目内某些业务配置批量批改的成果。 新增性能阐明:反对在我的项目的「项目管理->我的项目参数」中配置我的项目参数,配置实现后,该我的项目下的工作都能够进行援用。在工作中能够通过${参数名称}的形式援用我的项目参数。 3.绑定的我的项目反对解绑背景:以后我的项目绑定为非可逆操作,一个我的项目一旦和另一个我的项目产生绑定后无奈解绑也不反对删除,但局部曾经绑定的我的项目因业务起因可能须要换指标我的项目绑定,或者不再应用须要删除。 新增性能阐明:可在测试项目的「我的项目设置-根本信息」中操作解绑生产我的项目,此操作不可逆。解除生产测试项目绑定后,数据源映射、资源组映射、公布至指标我的项目性能会受到影响,回退至绑定前状态,可按失常逻辑删除。 4.补数据反对对各类型参数进行一次性赋值背景:补数据时可能会存在须要对参数值进行长期替换的状况,例如跑历史日期的数据时,补数据的工夫参数范畴须要变更。 新增性能阐明:在「运维核心-周期工作治理-工作补数据」中进行补数据参数从新赋值操作,补数据理论跑工作的参数值会被补数据时从新赋值的参数值替换。 5.长期运行可查看运行历史背景:周期工作、手动工作提交到调度运行时,都会产生实例,记录运行状态和运行日志等信息。然而周期工作、长期查问和手动工作在长期运行时不存在运行记录,用户无奈查看历史长期运行的运行状态和运行日志等信息,导致一些重要的操作无奈追踪。 新增性能阐明:在数据开发页面最左侧功能模块列表中,新增了「运行历史」性能。在「运行历史」中,可查看历史近30天(可自定义)长期运行的 SQL、日志等信息。 6.告警承受人反对填写其余参数背景:局部客户心愿一些非数栈用户(比方合作方)也能收到工作的告警信息,而目前平台反对选的告警接管人范畴为以后我的项目下的用户。冀望离线侧告警配置时能灵便增加一些自定义值:能够是手机号、邮箱、用户名等信息,客户通过自定义告警通道中上传的 jar 包自定义解析获取值的内容,再通过本人的零碎给解析出的联系人发送告警。 新增性能阐明:在创立告警规定时,反对填写内部联系人信息,通过英文逗号宰割。(自定义告警通道中上传的 jar 须要反对解析) 7.数据同步的读写并行度反对离开设置背景:因为数据同步源端与指标端的数据库存在数据库自身性能等因素的影响,读和写的速率往往是不统一的,例如读的速率是5M/s,写的速率只有2M/s,读和写对立用一个并行度管制理论不能达到同步速率的最大优化,反而可能带来问题。 新增性能阐明:在数据同步的通道管制中原“作业并发数”改为“读取并发数”和“写入并发数”,两个参数独自配置互不影响,用户可灵便调整让同步效率最大化,并发数调整范畴下限改为100。 8.脏数据容忍条数反对按我的项目设置默认值新增性能阐明 背景:同步工作中的脏数据默认容忍条数本来固定是100,局部客户理论承受的容忍度是0,导致每配置一个同步工作就须要改一下脏数据容忍条数的设置值,应用不便。 新增性能阐明:在离线「项目管理->我的项目设置->操作设置」中,反对设置数据同步工作脏数据默认容忍条数和脏数据默认容忍比例。配置实现后,新建数据同步工作在通道管制模块会展现默认值。 9.数据同步读取 hive 表时可抉择读取多个分区的数据背景:数据同步读取 hive 表时目前仅反对抉择一个分区读取,局部客户场景下须要把多个分区的数据读取进去写入指标表。 新增性能阐明:读 hive 表时候区能够用 and 作为连接符筛选多个分区进行数据读取。 10.工作运行超时中断背景:目前所有工作一旦开始运行,无论运行多久平台都不会主动杀死,导致局部异样工作运行工夫长,占用大量资源。 新增性能阐明:所有工作在调度属性处减少了超时工夫的配置项,默认不限度,可抉择定义超时工夫,运行超时后平台会主动将其杀死。 11.表治理的表查看交互优化背景:点击表治理中某张表的字段、分区等详细信息的区域较小,不不便查看。 新增性能阐明:对该区域可手动进行拉高。 12.hive 数据同步的分区反对抉择范畴当 hive 类数据源作为数据同步的起源时,分区反对辨认逻辑运算符“>”“=”“<”“and”,例如“pt>=202211150016 and pt<=202211200016 ”,即代表读取范畴在此之间的所有分区。 13.FTP 大文件拆分反对自定义解析文件的拆分在用户解析形式抉择自定义解析形式时,反对用户上传自定义 jar 包对 FTP 中的文件进行切割拆分同步。 ...

May 12, 2023 · 2 min · jiezi

关于大数据:数据治理三大模式详解治理新范式释放数据潜能

随着世界经济由工业经济向数字经济转型,数据逐渐成为要害的生产因素,企业开始将数据作为一种策略资产进行治理。数据从业务中产生,在IT零碎中承载,要对数据进行无效治理,须要业务充沛参加,IT零碎确保听从,这是一个非常复杂的系统工程。 数据治理架构实践证明,企业只有构筑一套企业级的数据治理综合体系,明确要害数据资产的业务管理责任,依赖标准的制度流程机制,构建无效的治理平台及工具,数据的价值能力真正施展进去。数据治理架构如下图所示。 构筑数据治理体系的过程,即以数据利用为外围打造“良性循环的闭环数据治理管理体系”的过程。各IT零碎获取业务流动产生的各类数据后,通过零碎的数据治理、治理,一直开掘、变现数据价值,拓展、深刻数据利用场景,领导业务决策,同时在一直利用数据过程中基于发现的数据问题,通过数据治理、治理的过程一直订正,推动业务零碎全面降级,真正优化业务流程管理机制及标准,最终构建数据“获取→治理→变现→发现→应答→修改”的闭环管理机制。 以数据利用外围,数据治理平台工具为撑持,在数据治理组织/制度保障下,一直通过数据治理伎俩,推动实现数据标准化及业务标准化,实现业务、技术、治理、平台的无效联动。 在数据治理综合体系内,数据治理外围模块包含数据治理布局、数据治理职能及数据治理平台工具。 数据治理布局是指数据治理体系与布局、数据治理组织与职责、数据治理制度及流程,是数据治理规范化治理的外围模块; 数据治理职能包含数据规范治理、数据品质治理、数据架构及模型治理、数据开发、元数据管理、主数据管理、数据生命周期治理、数据安全治理八大职能,理论过程中,企业通常会合并治理; 数据治理平台工具包含数据开发平台、数据资产治理平台、数据品质治理平台、数据服务平台,通常数据治理平台工具基于数据治理的阶段性能并不完全一致,实际中平台工具通常综合多方面性能,而不是单平台性能。 三大模块互为能源,数据治理布局领导数据治理职能的全面施展,数据治理各项职能通过数据治理平台工具帮助治理,数据治理平台工具撑持数据治理布局的落地及优化,数据治理布局各层面逐渐固化在数据治理平台上,数据治理平台辅助数据治理各项职能的治理,通过数据治理各项职能一直落实和欠缺数据治理布局,实现组织数字化转型,固化管理机制及流程体系。 将来企业通过构筑数据治理综合体系,逐渐建设数据治理机制,实现组织转型,数据治理职能将成为企业治理的重要组成部分,良性循环的管理体系将推动企业实现更广、更深层次的数据利用,数据决策将成为企业人思考的习惯,企业决策将更加迷信、无效。 将来企业数据治理蓝图架构如下图所示,业务零碎、数据治理及数据利用互为能源,独特推动企业数字化转型的实现。 数据治理模式数据治理模式是指企业基于不同的数据治理指标,依据企业组织、零碎、数据利用的现状,以何种数据治理策略发展数据治理流动。依据袋鼠云8年的实践证明,通常数据治理模式包含三种基本模式。 模式一:自下而上,以数据架构为重,发展数据治理这种模式重在数据架构,层层向上治理数据,至数据应用层。这种模式从底层数据切入,基于现有数据根底,盘点、建设、治理、利用层层开展,对企业整体的数据思维、数据治理程度要求较高,通常实用于数据量重、业务利用轻大型技术型企业,或政府机构,或新建、自研零碎较多的企业。 模式二:自上而下,以明确的数据利用为重,发展数据治理这种模式即单点利用式,通常以现有利用需要为外围发展数据治理。聚焦各个业务畛域的数据利用、数据治理需要,在有需要、有资源、有驱动力的前提下,按需组织推动数据治理工作。只有业务部门的深刻参加能力做好数据治理,只有针对业务本身需要进行的治理,能力失去业务部门的认可和反对。 模式二通常围绕数据利用的需要进行数据治理,比方降级架构、更换平台等波及数据利用迁徙时,或聚焦监管、上报类等明确数据利用时,围绕数据利用进行数据治理。 模式二通常实用于数据利用较强、业务部门较为强势、但整体数据认知较弱的企业。这种模式的数据治理切入绝对较为简单,实践证明,大部分企业数字化转型初期会这种模式,缓缓摸索企业的数据治理路线,这种模式有助于拉齐数据部门、业务部门的认知,晋升企业整体数据认知,为将来数据治理的发展提供基石。 模式三:大布局模式,从数据利用布局动手,治理现状,布局将来,基于数据资产的将来发展数据治理这种模式须要企业全面梳理业务的现状痛点及业务将来畅想,盘现状、布局将来,基于业务当初及将来的需要布局剖析利用场景,在利用场景蓝图布局的范畴内,全面的梳理数据的现状、布局数据的将来,针对蓝图布局中的数据需要,制订全方位策略。例如哪些新建零碎、新购数据源?哪些须要现有数据系统升级,细化、标准化现有数据?哪些数据需要落地可行性较高? 制订全面的布局体系,划分优先级,有节奏、有步骤地实现全面的数据治理。这种模式通常是企业的策略我的项目,由高层推动发展,对数据、业务协同性要求较高,整个过程波及零碎革新降级、业务流程优化再造,是企业全面降级的过程。 组合模式一:模式一&模式二组合,即全域数据治理+明确利用场景布局。这种模式兼顾底层数据与下层利用,可对冲底层数仓重建的局部危险,同时可无效地论述数据价值,整体可行性较高。 组合模式二:模式一&模式三组合,即全域数据治理+全面利用场景布局。这种模式从当初、将来的角度全面发展数据治理,业务、数据全面笼罩,返工重建危险小,同时有助于推动业务零碎、数据全面降级,业务价值较高,但对组织协同要求高,且老本投入高、耗时久,对执行团队要求高,复合型人才需求大,属于高风险高收益模式,须要企业高策略、高执行的推动落地。 数据治理模式比照三大数据治理模式发展形式、实用场景、优劣势、资源投入各不相同。 模式一,自下而上,切入不便,老本可控,重架构,但脱离利用,对执行团队架构能力要求较高,功效慢; 模式二,自上而下,目标明确,切入不便,老本可控,重利用,但轻治理,容易造成体面工程,呈现反复治理的危险; 模式三,大布局模式,布局的眼光,笼罩业务、数据双层面,重建危险小,聚焦业务,有利于充沛开掘数据价值,但对组织的协同性要求较高,同时须要高质量复合型人才配合团队执行,整体落地危险较大,老本较大。 数据治理三大模式比照如下表所示: 三大数据治理模式各有优劣,而组合模式在某种程度上对冲繁多模式的危险,能够更好地满足企业数据治理的需要和目标。企业应基于面临的现状,抉择适宜的本人的治理模式。 数据治理模式抉择不同的数据治理模式,对企业的数据治理程度、组织协同水平要求不同。 自下而上的模式一是基于底层数据治理的,对数据治理程度要求较高,数据治理程度包含数据根底(数据量、数据品质等)以及数据治理能力,数据治理能力次要体现在数据治理团队业余度以及数据治理体系(组织、制度及流程)欠缺度。这种模式对组织协同度要求绝对较低,次要靠数据治理团队推动进行。 自上而下的模式二是基于明确数据利用进行数据治理的,相较于自下而上的模式一,组织的协同性要求会更高,须要业务部门、数据部门配合实现,但整体以需要为主,对数据治理的程度要求个别。 大布局的模式三既治理现状,又布局将来,对组织协同性及数据治理程度均有极高要求。该模式须要动员企业的业务部门、技术部门、数据部门,同时须要企业各阶层(高层、中层、基层员工)的人员独特配合,全面盘点业务的痛点及将来布局,同时梳理数据现状,布局数据将来,通常为策略我的项目、高层领导独特将企业数据治理程度推向一个新程度,同时实现数字化组织的转型。 组合模式在组织协同性、数据治理程度上会叠加繁多模式的要求,如模式一&模式三的组合模式对组织协同性、数据治理程度要求最高。 各模式对企业的组织协同性、数据治理程度的要求见下图所示,基于各模式对企业组织协同、数据治理程度的要求不同,企业应充沛盘点企业的组织现状、数据现状、利用现状,初步评估企业数据治理程度、组织协同度,联合数据治理的指标,评估可行性,抉择最佳模式。 企业数据治理是个简单而漫长的过程,通常在不同的倒退阶段,企业抉择数据治理模式并不同,基于面对的组织、数据、利用现状,企业须要平衡指标与现状,抉择当下最合适的数据治理模式。 企业数据治理并不是欲速不达的,它须要企业一直地进行布局、治理、监测、优化,通过数据治理不断完善企业的组织、制度、流程管理体系,同时一直晋升企业数据治理管理水平,包含数据规范、数据品质、数据架构及模型、数据利用等模块的管理水平晋升。 数据治理是一个继续循环的过程,需通过一直地改良晋升及欠缺。PDCA循环不是在同一程度上循环,而是呈阶梯式推动回升,每次循环将推动企业的数据治理程度及组织协同性向新的、更高的层级进阶,最终实现企业数字化转型。 数据治理施行门路企业数据治理施行门路通常蕴含三个阶段。 第一阶段:起步阶段,业务经营数字化阶段。 这个阶段次要是梳理企业面临的现状,响应痛点,摸索业务场景化。企业逐渐开始由信息化向数字化转型,这个阶段企业会从新扫视原有的数据治理策略,重构数据治理策略及实现门路,逐渐开始搭建数据治理框架、数据治理体系框架,降级原有的数据处理、利用模式,搭建大数据平台,构建大数据采集、会集、存储、计算、服务的根底能力,逐渐整合各零碎的数据,突破数据孤岛,积淀数据资产,摸索业务场景化。 第二阶段:深刻拓展阶段,数据赋能常态化阶段。 这个阶段数据利用成为重点,企业开始深挖数据价值,进步数据利用笼罩。数据利用的范畴,由外围KPI指标的实现,逐渐笼罩全副外围业务,搭建欠缺的剖析框架和洞察体系,一直地晋升业务决策品质。 大数据平台继续施展大数据处理的能力,企业纳入更多、更广的数据内容,不断扩大数据利用的广度及深度,初步造成企业的数据资产地图,数据规范体系逐渐搭建,数据利用的效率大大晋升,初步实现由“经验主义”向“数据主义”的转型,数据决策成为企业决策次要决策形式。 这个阶段,企业开始全面建设数据管理权限体系,欠缺数据治理机制,优化数据治理流程及制度体系,由原有的“粗放式”治理降级为“精细化”治理,数据品质一直晋升,企业数据管理能力降级,逐渐通过数据品质平台、数据资产平台、数据治理平台工具等实现智能治理,企业数据思维认知全面晋升。 第三阶段:智能利用阶段,经营决策智慧化阶段。这个阶段企业实现洞策合一,智慧场景利用成为常态,全面完成数字化转型,摸索数字业务,开启新篇章。这个阶段以智能利用为主,AI赋能成为常态,企业一直地开掘数据的价值、激发翻新,开始为企业战略性剖析提供精确的数据依赖,在这个阶段,有些企业甚至在原有商业模式上,激发新的业务模式。 数据管理层面,由数据治理体系建设逐渐向数据治理体系优化进阶,欠缺机制、流程,进一步细化数据管理职责;数据资产层面,实现全域数据资产建设,构建强健的数据模型体系,实现企业数据规范建设,不断完善数据资产体系;平台工具层面,大数据平台能力逐渐向算法能力转移,智能举荐算法模型开发成为常态化的需要,数据治理平台逐步完善性能,帮助企业智能化数据品质、数据规范、数据资产及主数据等模块,企业真正进入经营决策智慧化阶段。 《数栈产品白皮书》:https://www.dtstack.com/resources/1004?src=szsm 《数据治理行业实际白皮书》下载地址:https://www.dtstack.com/resources/1001?src=szsm 想理解或征询更多无关袋鼠云大数据产品、行业解决方案、客户案例的敌人,浏览袋鼠云官网:https://www.dtstack.com/?src=szsf 同时,欢送对大数据开源我的项目有趣味的同学退出「袋鼠云开源框架钉钉技术qun」,交换最新开源技术信息,qun号码:30537511,我的项目地址:https://github.com/DTStack

May 11, 2023 · 1 min · jiezi

关于大数据:数据剖析更灵活更快捷火山引擎-DataLeap-动态探查全面升级

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群近期,火山引擎 DataLeap 上线“动静探查”能力,为用户提供全局数据视角、欠缺的抽样策略,进步数据探查的灵便度以及响应速率。 传统的数据探查是基于库表的全量探查,由后端引擎执行,通过自动化检查数据成分、关系、格局等,以报告模式展现探查后列的统计散布后果,防止数据品质导致我的项目开发、上线呈现问题,次要利用于元数据管理、数据研发、数仓开发以及数据治理等环节,满足使用者对数据品质初探的需要。 但在数据量级大、用户须要探查数据明细或须要数据预处理操作时,因为传统的数据探查要对全量表进行检测,导致无奈实时产出报告、等待时间变长,灵便度低,且无奈跟踪数据明细。 针对上述痛点,火山引擎 DataLeap 在传统数据探查根底能力上,进一步加强了动静探查能力。其特点在于: 基于大数据预览探查,反对对数据进行函数级别预处理。数据探查后果秒级更新、实时响应。与数据监控联动,无效买通数据探查到品质剖析闭环。据介绍,DataLeap 动静探查的对象是抽样数据,反对间断抽样(依照默认程序间断抽样前 x 条数据)、过滤抽样(应用 where 过滤语句过滤)、随机抽样(随机抽样 x 条数据)3 种模式,用户可对数据进行预处理,实时、动静取得统计散布后果,具备灵便度高、实效性强的特点。火山引擎 DataLeap 动静探查应用流程除此之外,DataLeap 动静探查具备对探查后果根底剖析能力,蕴含列删除、过滤、排序等。用户对探查后果的每一次操作都会被记作一次操作,屡次操作串联成操作栈,DataLeap 反对用户自在批改或删减操作栈里的步骤,并实时查看最新后果。火山引擎 DataLeap 动静探查操作栈火山引擎 DataLeap 数据探查报告 目前,DataLeap 动静探查能够利用在以下三个场景中: 场景 1:用于剖析型探查场景,用户可利用 hive 根本函数,如 get_json_object,将列进行数据提取。场景 2:与探查报告买通,用户点击探查报告中的统计值,即可跳转到数据表格,并利用具体行过滤函数。场景 3:用于数据过滤后的探查场景,用户通过过滤和分组条件进行写条件探查,例如校验 status=0 时 current_price 为 0 的占比。DataLeap 是火山引擎数智平台旗下产品,提供数据集成、开发、运维、治理、资产、平安等能力,帮忙用户晋升数据研发效率、升高治理老本,减速推动企业的数字化转型,目前曾经利用于泛互联网、制作、新批发、汽车等畛域。 点击跳转火山引擎DataLeap理解更多

May 11, 2023 · 1 min · jiezi

关于大数据:本周日直播全链路数据治理实践论坛开放报名

5月14日,09:00-12:00,由阿里云资深技术专家温绍锦老师出品的 DataFun Summit 2023:数据治理在线峰会-全链路数据治理论坛,将邀请来自阿里、Aloudata大应科技、爱奇艺的4位专家就相干主题进行深度分享,出品人:温绍锦 阿里云 资深技术专家集体介绍:温绍锦,阿里云资深技术专家,花名高铁,阿里大数据开发治理平台 DataWorks 负责人。 冉秋萍 阿里云 DataWorks 产品专家集体介绍:阿里云大数据开发治理平台DataWorks PD,次要负责数据治理畛域相干产品建设。演讲题目:阿里巴巴数据稳定性治理实际演讲提纲:围绕数据稳定性治理畛域进行交换,分享基于阿里大数据开发治理平台的理论稳定性治理案例,探讨如何确保数据加工服务链路中的稳定性和可靠性,以及治理工作需达成的增效降损指标。听众收益: 影响数据稳定性的常见问题阿里巴巴的数据稳定性治理计划重点基线运维解决实际周泉 Aloudata大应科技 联结创始人&CTO集体介绍:Aloudata联结创始人&CTO 周泉,领有十余年大数据平台架构教训。在 EB 级金融数据平台基础架构、数据治理、隐衷平安等多个畛域有成熟实际并获得显著功效。周泉学生曾任蚂蚁团体数据平台架构师、蚂蚁数据治理一号位,主导了蚂蚁通用实时智能决策平台、被动数据治理、大数据安全合规技术体系等平台构建及架构演进,率领团队在大数据畛域取得了十余项技术专利,深度参加了多项大数据畛域国内国内技术标准制订。演讲题目:EB级数仓都在用的算子级血统如何实现被动数据治理演讲提纲: 数据驱动型企业面临哪些数据治理挑战数据越来越难管,被动数据治理如何让数据管理更智能、更主动基于算子级血统实现对EB级数据的被动数据治理听众收益:头部互联网/金融企业在治理EB级数据上,有哪些值得借鉴的前沿技术及实际?元数据、血统等平台能力应如何演进,以撑持数据治理从被动到被动的改革?实现全链路算子级数据血统,有哪些关键技术挑战?乔光 阿里巴巴 公共层数据研发集体介绍:八年阿里大数据研发教训,负责交易、会员等多畛域数据研发,独立构建钉钉数据公共层等。在数据计存治理、模型治理方面有丰盛的教训,专一于数据架构、模型治理和提效等畛域。演讲题目:大淘宝数据模型治理演讲提纲:大淘宝技术数据体系通过多年倒退,通过丰盛的数据和产品撑持了简单的业务场景,在数据畛域获得了比拟大的劣势。随着数据规模越来越大,开发人员越来越多,虽有阿里大数据体系标准进行对立治理,然而因为没有在产品侧进行无效的模型设计和管控,在模型规模、规范性、公共层复用性、应用层效率等方面呈现了计存老本进步、数据开发和生产效率升高、标准削弱、数据应用难度变大、运维累赘减少等问题。为了解决这些问题,咱们联合多年的模型教训,从定义问题、设计开发评估体系、专项治理实际、与阿里云DataWorks产品团队深度单干、形象出解决方案等环节全面系统地对大淘宝数据进行了模型治理,在数据服务业务的同时,谋求极致的数据开发和提效指标。次要内容包含: 大淘宝模型治理背景及问题大淘宝模型治理解决方案大淘宝模型治理成果将来布局听众收益:残缺理解大淘宝数据模型治理解决方案理解模型治理如何与产品联合独特探讨模型治理和数据管理将来的一些方向彭涛 爱奇艺 研究员集体介绍:2017年退出爱奇艺,次要负责爱奇艺流量反作弊和渠道反作弊工作。随着公司数据治理我的项目的发展,开始参加并推动爱奇艺数据治理的局部工作,笼罩内容包含:Pingback品质评估、数据异样监控、数据链路等。演讲题目:爱奇艺数据链路治理演讲提纲:本次次要分享爱奇艺在数据链路治理工作的实际和尝试,包含离线链路治理、实时链路治理、数据异样监控等工作如何保障爱奇艺外围数据的品质和时效性。听众收益: 构建数据血统,为后续的链路治理提供数据反对离线链路治理,保证数据的时效性和准确性实时链路治理,疾速定位异样起源辨认二维码,收费报名,预约本论坛直播若有播种,就点个赞吧

May 11, 2023 · 1 min · jiezi

关于大数据:从本地到云端豆瓣如何使用-JuiceFS-实现统一的数据存储

豆瓣成立于 2005 年,是中国最早的社交网站之一。在 2009 到 2019 的十年间,豆瓣数据平台经验了几轮变迁,造成了 DPark + Mesos + MooseFS 的架构。 由机房全面上云的过程中,原有这套架构并不能很好的利用云的个性,豆瓣须要做一次全面的从新选型,既要思考将来十年的发展趋势,也须要找到与现有组件兼容且平滑过渡的解决方案。一番革新后, 豆瓣数据平台目前造成了 Spark + Kubernetes + JuiceFS 的云上数据湖架构,本文将分享此次选型降级的整体历程。 01 豆瓣晚期数据平台在 2019 年,豆瓣所应用的数据平台次要由以下组件形成: Gentoo Linux,外部应用的 Linux 发行版;MooseFS ,分布式文件系统;Apache Mesos 负责整个集群的资源管理,以及 Dpark 作为分布式计算框架提供给开发者应用。 从上图能够看到在这个数据平台中,计算和存储是一体的,每个计算工作是由 Mesos 进行调度的。计算工作的 I/O 操作都是通过 MooseFS 的 Master 获取元数据,并在本地获取须要计算的数据。此外,GPU 计算集群也是通过 Mesos 进行治理,不同的是, GPU 会基于显存进行共享。 平台组件介绍Gentoo LinuxGentoo Linux 是一个较为小众的 Linux 发行版,具备简直无限度的适应性个性,是一个原发行版。Gentoo Linux 采纳滚动更新的形式,所有软件包都间接从社区中获取二进制包,咱们则通过源代码构建咱们所需的软件包。Gentoo Linux 有一个弱小的包管理器,应用它也会带来很多便当,也同时存在一些问题。比方,滚动更新的速度十分快,但对于服务器来说,可能存在肯定的不稳定性。 应用源代码构建软件包的益处是当社区没有预编译好咱们所需的软件包时,咱们能够非常简单地构建出本人所需的软件包,并且当已有的软件包无奈满足咱们的需要时,也能够很容易地进行定制调整。但这也会带来较高的保护老本。 另外,如果所有软件包都能依照标准进行编写的话,依赖抵触问题简直是不存在的,因为在打包过程中就曾经能够发现。但理论状况是并不是所有软件包都能恪守一个好的依赖形容的约定,因而依赖抵触问题可能依然存在。 Gentoo Linux 是较为小众的抉择,只管社区品质很高,然而用户也比拟少,一些新我的项目可能没有用户进行足够的测试,咱们在理论应用过程中会遇到各种各样的问题。这些问题大部分须要咱们本人解决,如果期待其他人回复的话,响应会比较慢。 MooseFSMooseFS 是一个开源的、合乎 POSIX 规范的分布式文件系统,它只应用 FUSE 作为 I/O 接口,并领有分布式文件系统的规范个性,如容错、高可用、高性能和可扩展性。 ...

May 10, 2023 · 2 min · jiezi

关于大数据:阿里巴巴宣布加入Linux-Foundation-AIData基金会捐赠首个开源项目DeepRec

近日,阿里巴巴发表退出Linux Foundation AI&Data基金会,继续加大对AI和大数据技术的投入以促成相干开源建设。 阿里巴巴是Linux的沉闷开发者,此前曾经为Linux内核提交了290多个Patch。除了Linux之外,阿里巴巴在MySQL、JVM、Web服务器等出名我的项目中均有杰出贡献,也是开源组织WebScaleSQL的5大成员之一。 阿里云机器学习平台PAI和大数据平台技术负责人林伟示意:“退出Linux Foundation AI&Data基金会有助于阿里巴巴更加深刻地了解LF AI&Data,更多地参加到技术与规范制订探讨当中,被动把握将来大数据和AI倒退方向”。 此次,在退出Linux Foundation AI&Data基金会的同时,阿里巴巴也踊跃地回馈社区,将面向举荐场景的高性能深度学习框架DeepRec捐献给Linux Foundation AI&Data基金会托管。 DeepRec 是阿里云机器学习平台 PAI 开源的面向举荐场景的高性能深度学习框架,针对稠密模型在分布式、图优化、算子、Runtime 等方面进行了深度的性能优化,同时提供了搜寻、举荐、广告场景下特有的动静弹性特色,动静弹性维度,自适应 EmbeddingVariable、增量模型导出及加载等一系列性能。 DeepRec在阿里巴巴团体外部广泛应用于淘宝、天猫、阿里妈妈、高德、淘特、AliExpress、Lazada等,反对了淘宝搜寻、举荐、广告等外围业务,撑持着千亿特色、万亿样本的超大规模稠密训练。DeepRec开源一年多以来,曾经在数十家公司的搜推广业务场景中大规模利用,带来了微小的业务价值。 Linux Foundation AI&Data 基金会执行董事 Ibrahim Haddad 博士对此示意热烈欢迎,“DeepRec 凭借其在深度学习举荐框架方面令人印象粗浅的成绩,为技术我的项目带来翻新的解决方案。很快乐与 DeepRec 单干进一步开发和加强这一弱小的开源技术。借助 Linux Foundation AI&Data 基金会的专业知识和资源,携手共进一起推动深度学习的提高,并彻底改变解决举荐零碎的形式。” 阿里巴巴在DeepRec捐献后,将持续和LFAI&Data一起继续保护和推广DeepRec,打造面向搜推广场景的深度学习框架生态,吸引更多的公司和团队参加到DeepRec应用和开发中来。此外阿里巴巴将会更加踊跃凋谢地参加到更多的开源基金会,并将在适当时候募捐局部软件我的项目给基金会托管。

May 10, 2023 · 1 min · jiezi

关于大数据:一年一度的星环开发者奇妙之旅招募活动开始啦

5月25-26日,由星环科技、上海数据交易所、上海市城市数字化转型利用促成核心、上海大数据联盟、财联社联结主办的向星力·将来数据技术峰会 (FDTC)将在上海前滩香格里拉大酒店举办。来自国内外政府、金融、交通、能源、制作等行业的超过1500名嘉宾将出席会议,独特探讨最新的大数据技术发展趋势、国产化数据库、数字化转型、数据安全、数据因素与流通等热门话题。 为了感激各位开发者对于数据技术畛域的重要奉献,本次峰会面向星环开发者发动”将来数据技术峰会微妙之旅”流动,将在社区用户中招募3名同学,作为特邀嘉宾缺席此次峰会,独特参加数据技术探讨和交换,大会组委会将为入选同学提供往返大交通、五星级酒店住宿、餐饮等系列大会福利! 期待与您相聚“向星力•将来数据技术峰会”

May 10, 2023 · 1 min · jiezi

关于大数据:一文详解如何在-ChengYing-中通过产品线部署一键提升效率

在之前的内容当中,咱们为大家介绍过 ChengYing 的装置原理、产品包制作等内容,本篇就连续之前的内容,和大家开展聊聊 ChengYing 产品线部署相干的设计。帮忙对「一站式全自动化全生命周期大数据平台运维管家 ChengYing」感兴趣的开发者更好地理解和应用 ChengYing。 产品线部署简介首先对 ChengYing 的产品线部署进行一个“自我介绍”,共分为三个局部: ● 反对用户自定义的产品线 在 ChengYing 中,是以组件包的维度部署服务,比方一个 zookeeper 的产品包,会事后定义好 ZK 的包上传到 ChengYing 的零碎当中,再去抉择要部署的服务以及给 ZK 编排部署机器,以此实现部署。 对于初学者来说,当须要部署多个服务,这些服务又有程序依赖关系时,会不分明部署的先后顺序,从而导致部署十分吃力。因而 ChengYing 反对应用 DAG(有向无环图)进行定义灵便可配的组件包部署程序。目标是为了让相熟和不相熟的人都可能通过预约义产品线的模式同时部署多个组件包,从而大大提高部署效率。 ● 反对服务的亲和性配置 依据组件包中不同服务的类型,联合主机角色信息主动进行服务主机编排。在接入主机到 ChengYing 零碎中时,反对给主机打上对应的标签即角色,相应角色的组件会部署到相应角色的机器上。 ● 一键主动部署组件包 基于组件包手动部署,同样的入口,抉择不同的产品线部署形式之后,可一键按需迅速实现所须要的多个组件包的同时部署,进步部署效率。 产品线部署设计接下来,通过代码设计的角度看看 ChengYing 对产品线部署是如何进行技术设计的。 什么是 DAGDAG (有向无环图,Directed Acyclic Graph)是一种罕用数据结构,仅就 DAG 而言,它曾经在咱们日常的各种工具中存在,如依赖零碎、数据流零碎、数据可视化等。当咱们从工作编排的角度来看,DAG 面向普通人术语叫作工作流(Workflow)。 在图论中, 如果一个有向图无奈从任意顶点登程通过若干条边回到该点, 则这个图就是一个有向无环图 (DAG 图)。 ChengYing 产品线部署设计的外围就是给定一组工作,依照自定义的形式安顿它们的执行程序,即 DAG。 产品线 DAG 定义事后定义某一条产品线中每一个组件包的部署程序,将其关系应用 DAG 的形式定义为 json 文件,平台主动解析 json 失去部署程序从而实现主动部署的成果。 · product_line_name: 产品线名称(可预约义) · product_line_version: 产品线版本(可预约义) ...

May 6, 2023 · 1 min · jiezi

关于大数据:袋鼠云飞跃计划20重磅发布全面升级伙伴权益共话数字生态

4月20日,袋鼠云胜利举办了以“数实交融,韧性成长”为主题的2023秋季成长大会。会上重磅公布了袋鼠云生态搭档打算——“飞跃打算2.0”,从商机、产品、联结计划及数据业务服务层面,与合作伙伴强强联手,独特打造数字化生态,同时在联结营销、渠道政策、赋能培训、产品凋谢、技术服务、交付施行等方面全面降级搭档权利,共拓市场蓝图。 并肩而耕 共建弱小生态圈往年2月份,国务院公布了《数字中国建设整体布局布局》,对数字中国建设做了整体性、体系化的布局,同时组建国家数据局,负责协调推动数据根底制度建设,兼顾数据资源整合共享和开发利用,确保数字中国策略的施行落地。 在数字中国的推动落地过程中,波及到蕴含硬件、数据库、大数据根底平台、数据利用、数据征询等各种畛域的内容,而这些内容没有一家厂商能做到全链路笼罩,因而单干共赢成为数字畛域厂商、客户的独特诉求。 袋鼠云作为数字化根底软件与利用服务商,深耕于大数据国产化根底软件畛域,旗下蕴含大数据根底软件——数栈、数字孪生——易知微、可观测运维——云掣三大业务板块。在公司策略和产品方向的抉择上,咱们始终保持做好本畛域内的产品和服务,做专做精,其余全副与合作伙伴单干。在整个数字链路上,底层可对接各种硬件厂商、存储和计算软件厂商,下层可对接各种数据库厂商、行业利用厂商,达到1+1>2的成果,造成全链路数字化解决方案,独特服务好企业级客户。 基于袋鼠云的产品定位及数字化解决方案对能力的要求,咱们与六大类搭档一起单干构建了一个弱小的生态圈,辐射全行业1000+利用场景,精准匹配能力互补,建设良性生态循环。 ● 云厂商 和阿里云,华为云,腾讯云等单干,提供轻量化的大数据根底平台,笼罩到宽广的中小企业。 ● 集成商 和电信、挪动、联通、浪潮等集成商单干,产品被集成,笼罩我的项目中数据中台、数据治理、数据可视化等方面的我的项目需要,为客户提供交钥匙式的服务。 ● 行业ISV ISV对垂直畛域的客户和业务十分相熟,能够和行业ISV单干,造成细分行业的产品联结解决方案。 ● 产品厂商 和上下游的数据库、BI、数据利用等厂商单干,提供全链路的大数据产品体系,减速数据我的项目的落地。 ● 信创生态链 和国产芯片、服务器厂商、中间件、操作系统、数据库等厂商单干,提供全链路信创解决方案,实现核心技术的自主可控也国产化代替,做大做强国产软硬件生态体系。 ● 数据征询厂商 和埃森哲、德勤、毕马威等征询厂商单干,实现业务征询布局,交付施行一体化。 飞跃打算1.0成绩回顾2年前袋鼠云公布了“飞跃打算1.0”,自该打算公布以外,咱们已和各行各业200+合作伙伴实现了多个我的项目的单干落地、交付验收。 ● 信创畛域 咱们和华为鲲鹏、达梦数据库、人大金仓数据库、宝兰德中间件、麒麟、统信、中科方德操作系统等单干,在金融等重点行业实现残缺的信创产业链输入。 ● 产品生态 咱们和阿里云、银联云、挪动云、云徙等厂商,进行产品联结研发,造成面向于各个垂直畛域的一体化产品,为客户提供开箱即用的产品服务。 ● 联结解决方案 咱们和云徙在地产&批发畛域、和蓝卓在工业畛域、和来将来在医疗卫生畛域、和安厨在智慧农村畛域、和希嘉及布谷蓝图在教育领域、和信雅达在金融畛域,联结输入解决方案,实现20+行业&场景的笼罩。 ● 征询交付施行闭环 咱们和埃森哲,德勤,毕马威等进行了多个我的项目的单干落地 除了下面提到的这些,还有十分多、十分好的合作伙伴,大家一起施展各自的特长,给客户提供专业化的能力,推动企业的数字化转型。 飞跃打算2.0重磅公布“飞跃打算1.0”的累累硕果验证了合作伙伴策略在市场上的可行性。基于此,咱们重磅公布“飞跃打算2.0”,持续加大在合作伙伴上的资源投入,面向寰球招募各种类型的合作伙伴。 ● 商机 在商机层面,能够相互举荐商机,相互带货,施展商务、计划、产品、交付等综合能力,扩充商机面、客户覆盖度和打单成功率,从而升高市场获客老本,更有利于我的项目成单。 ● 产品 在产品方面,能够与袋鼠云产品进行双向买通,深度交融,构建全链路数字化产品生态,给客户提供一体化产品体验。 ● 联结计划 在联结计划方面,基于垂直行业一起打造端到端联结行业数字化解决方案,中转客户的业务场景,和数据价值。 ● 数据业务服务 在数据业务服务方面,基于垂直行业,进行数据业务征询布局,产品选型,交付施行的落地,并为客户提供本地化,贴身式的服务。 同时为了保障合作伙伴打算的落地,实现客户、搭档、袋鼠云三赢的指标,咱们对合作伙伴的权利进行全方位的降级,次要蕴含以下几方面的内容。 ● 联结营销 和搭档一起举办线下/线下的各种市场流动,施展各种的劣势,打造品牌力和行业影响力。拉通单方的市场,营销等团队,独特拓客,商机资源池共享,做大营销根本盘。 ● 渠道政策 咱们踊跃拥抱被集成,激励搭档集成袋鼠云的产品,同时给搭档提供阶梯式,返佣等多种类型的渠道价格策略,充沛保障搭档的收益,激励搭档多卖产品,打造长期可继续的单干关系。 ● 培训赋能 帮忙搭档建设大数据人才队伍,并提供数字化建设、数据中台方法论、产品开发培训、数仓架构设计、交付施行等多维度,立体式的培训服务体系,疾速实现大数据能力的晋升,对培训通过的人才,进行官网人才认证。 ● 产品凋谢 和搭档的产品进行兼容性认证,确保产品链路的畅通,对外提供1000个以上的规范产品接口,进一步实现产品接口层面的买通,甚至进行单方联结研发、产品OEM、行业奖项申请等多方面的产品单干。 ...

May 5, 2023 · 1 min · jiezi

关于大数据:火山引擎-DataTester-上线全新-MAB-智能调优实验

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群近期 DataTester 上线了 MAB 智能调优试验性能,心愿通过智能化、自动化的 A/B 试验模式,帮忙业务团队实现收益最大化。 在 A/B 试验平台的研发路线上,火山引擎 DataTester 走在业内前沿,在惯例的 A/B 试验之外,始终在摸索实际智能试验。此次新性能 MAB 智能调优试验(Multi-Armed Bandit), 是一种能依据以后试验数据体现,来智能调整试验内不同实验组的流量比例调配的试验类型。 传统 A/B 试验依赖于统计显著性的经典假设检验,为对照版本和试验版本调配相应的流量,但在试验期间不可能变更每个子版本的流量。因而这类试验须要专门的预留周期(至多 7 天),必须有足够的样本进入试验,并且在试验开始后不能有任何变动,能力得出显著后果。而火山引擎 DataTester 的 MAB 智能调优试验,克服了传统 A/B 试验的上述限度,在如下几个场景上有非凡的利用劣势。 在冷启动、流量少的场景下,MAB 试验也能施展 A/B 试验的劣势点。对于初创公司,或在产品、流动冷启动期间,面临的一大问题是没有足够的流量进行试验。但因为 MAB 试验会基于当下指标的体现动静进行流量调配,所以可能在总流量不多的状况下,通过 A/B 试验的模式将收益最大化。 有了 DataTester 的 MAB 试验,短周期的流动也一样能够依附 A/B 试验进行优化了。流动经营有很大一部分是持续时间较短的流动,例如很多电商流动的继续周期只有 1-3 天,如果受限于传统 A/B 试验的限度,仅试验流量就要跑 7 天以上能力失去显著性的成绩,无奈利用在短周期流动中。而 DataTester 的 MAB 试验,因为试验外围指标是整个流动收益最大化,而非帮忙用户找到数据最优组,因而对试验时限无要求,短周期流动也能够用 A/B 试验优化。 在促成高价值流量转化方面,MAB 智能调优试验能够起到减速作用。对于一些高客单价的大额商品,如汽车、钻石等,每一个转化机会的老本都很高。如果采纳传统的 A/B 试验,在取得统计上显著计划的过程中,会错失一部分的后期试验流量,但 MAB 试验可能在过程中依据实时数据进行动静调优,缩小试验过程中的转化机会损失。 此外,一些特定场景下,如波及到 App 文案题目、缩略图、视频内容等的 A/B 试验优化测试,它们须要在短的窗口期内取得最大点击量,却受限于传统 A/B 试验实时性较弱,难以利用优化。而 MAB 能够在短周期内即可查问各版本的转化成果,火山引擎 DataTester 目前能够实现每半小时,即可获取更新数据反馈。 ...

May 5, 2023 · 1 min · jiezi

关于大数据:Apache-Pulsar-在火山引擎-EMR-的集成与场景

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群近年来,基于云原生架构的新一代音讯队列和流解决引擎 Apache Pulsar 在大数据畛域施展着愈发重要的作用,其利用场景和客户案例也在一直地丰盛与裁减。 火山引擎是字节跳动的企业服务品牌,次要面向 To B 业务场景。火山引擎中 Stateless 云原生开源大数据平台 E-MapReduce(简称 EMR)为用户提供了云上的端到端的大数据解决方案。与此同时,Apache Pulsar 的一个非常重要的个性也是云原生。 先进的存算拆散的架构使其非常适合在云化的环境中部署、运维,而 Topic 数据的存储形式也使其扩容操作大为简化,不须要数据的 rebalance 过程。于是,将Pulsar集成到火山引擎 EMR 的生态系统中便是一件瓜熟蒂落且极具价值的事件。 本文介绍火山引擎 EMR 中 Apache Pulsar 的集成状况和利用场景,依照如下构造来编排: 业务背景详解 Apache Pulsar 在 EMR 的集成计划Apache Pulsar 典型利用场景、问题与解法火山引擎 EMR 集成 Pulsar 的将来布局一、业务背景火山引擎是字节跳动旗下的云服务平台,将字节跳动疾速倒退过程中积攒的增长办法、技术能力和工具凋谢给内部企业,提供云根底、视频与内容散发、数智平台 VeDI、人工智能、开发与运维等服务,帮忙企业在数字化降级中实现持续增长。 火山引擎 EMR 是火山引擎数据中台产品体系的基座。数据中台是火山引擎中的一类重要产品,服务于用户的大数据体系,撑持用户构建端到端的数据链路。火山引擎数据中台产品体系如下图所示。 数据中台的大数据生产、服务体系,数据来源于交易系统、日志、IoT、音讯、文件等,通过数据集成进入到数据湖中,而后通过数据开发、治理过程,进入到专题集市,最初通过数据分析平台提供给数据的最终用户,包含 BI 报表、离线剖析、实时剖析、即席查问、数据挖掘等。以上是用户搭建大数据体系的一条残缺的数据链路。 在这条数据链路上的各个环节都有火山引擎数据中台的产品来对接。火山引擎 EMR 产品在数据中台整个的产品体系全景图中,处于基座的地位(如上图中黄色框所示),对于用户构建端到端的数据链路起着重要的撑持作用。火山引擎 EMR 基于火山引擎的 IaaS 能力,提供底层根底的大数据体系的计算引擎和存储引擎,并向上对接数据开发治理工具 DataLeap。 如果用一句话来定义火山引擎 EMR 这个云产品,那就是“Stateless 云原生开源大数据平台”。 用户能够在 EMR 产品中创立本人的集群,并应用 EMR 集群中配置好的服务,进行大数据的计算与存储。这里重点剖析一下火山引擎 EMR 产品定义中的几个关键词。云原生、开源、大数据平台这些概念置信都是读者们耳熟能详的。云原生是指云上资源的池化、用户的弹性按需应用、资源的老本摊薄和利用率晋升等。开源大数据平台则是 EMR 这类云产品的共有定义。 接下来重点讲一下 Stateless 这个概念。Stateless 指的是“无状态”。在 EMR 中创立的用户集群的“状态”指的是什么呢?以有状态场景下的 Hadoop 集群类型为例,集群的状态包含用户的 HDFS 中的数据(属于用户的外围数据资产)、Hive Metastore 中的元数据、Ranger 中的权限配置、各个服务的日志、历史作业执行统计信息、集群的配置信息等等。 ...

May 4, 2023 · 4 min · jiezi

关于大数据:网易云微专业大数据开发工程师交游落落俱星散

download:网易云微业余-大数据开发工程师JavaEE: 构建企业级应用程序的优良平台 关键字:JavaEE、企业级应用程序、Web应用程序、分布式系统、组件化JavaEE是一个宽泛应用的平台,可用于构建各种企业级应用程序。它提供了许多工具和技术,使开发人员能够更轻松地创立分布式系统和Web应用程序。 JavaEE最后称为J2EE,是Sun Microsystems(当初是Oracle Corporation)推出的一组企业级Java标准。JavaEE包含许多规范API和服务,如Servlets、JavaServer Pages(JSP)、Enterprise JavaBeans(EJB)、Java Message Service(JMS)和Java Persistence API(JPA)等。这些API和服务能够帮忙开发人员创立可伸缩和高性能的应用程序,并减速应用程序的开发和部署过程。 JavaEE还提供了许多工具和框架来简化开发过程。例如,JavaServer Faces(JSF)框架提供了可重用的用户界面组件,从而放慢了Web应用程序的开发。另外,Apache Struts和Spring框架使开发人员能够更轻松地创立模块化和易于保护的应用程序。 JavaEE的重要特色之一是组件化。通过将应用程序划分为各种组件,如EJB和Web组件,JavaEE使开发人员能够别离开发、测试和部署不同的利用程序模块。这种组件化办法进步了代码重用性,从而缩小了开发工夫和老本。 另外,JavaEE还提供了许多平安和治理个性,如J2EE容器,能够确保应用程序的安全性,并在运行时进行治理。例如,J2EE容器能够管制资源的拜访权限,并解决各种谬误和异常情况。 总之,JavaEE是一个功能强大的平台,可为企业级应用程序开发人员提供许多工具和技术。它反对组件化和分布式系统,使开发人员能够更轻松地创立可伸缩、高性能和易于保护的应用程序。如果您正在寻找一种牢靠而且宽泛应用的工具来构建企业级应用程序,那么JavaEE是一个十分好的抉择。

May 2, 2023 · 1 min · jiezi

关于大数据:大数据从概念到实践

大数据:从概念到实际关键字:大数据、数据挖掘、人工智能、云计算、智能化利用 一、什么是大数据?大数据是指解决海量数据的技术和工具。它蕴含着多种技术,如数据采集、存储、荡涤、剖析等。同时,大数据也包含了多种应用领域,如金融、医疗、电商等。 二、大数据的利用价值大数据能够带来以下几方面的利用价值: 数据挖掘:通过对大数据进行剖析和开掘,能够发现其中暗藏的法则和趋势,帮忙企业做出更好的决策。 人工智能:大数据是人工智能技术的根底,通过剖析海量数据,能够让机器学习并做出更加智能的决策。 云计算:大数据须要海量的存储和计算资源,在云计算平台上能够更好地进行部署和治理。 智能化利用:通过大数据分析,能够开发出各种智能化利用,如智能客服、智能投资等。 三、大数据的实际过程大数据的实际过程通常包含以下几个阶段: 数据采集:收集、整合和存储数据。 数据荡涤:对数据进行预处理,包含去重、去噪等。 数据挖掘:通过各种算法和模型进行数据分析和开掘。 数据可视化:将数据进行可视化展现,让人们更好地了解和利用数据。 四、大数据的将来随着云计算、人工智能等技术的一直倒退,大数据也将迎来新的倒退时机。将来,大数据将更加重视数据安全、数据共享和AI与大数据的交融。同时,大数据的利用场景也将更加宽泛,例如在城市智能化、医疗衰弱、个性化举荐等畛域失去利用。 总之,大数据是一项高度技术化的工作,但它所带来的利用价值也是十分微小的。在将来,咱们能够看到更多的智能化利用,也能够看到更好的数据治理和治理形式的呈现。

May 1, 2023 · 1 min · jiezi

关于大数据:拉钩大数据高薪训练营2022最新版眼中形势胸中策

download:拉钩教大数据高薪训练营2022最新版云原生:开启下一代企业应用 关键字:云原生、容器化、微服务、DevOps、Kubernetes 随着数字化时代的到来,企业对于IT零碎的需要也在一直地减少。而云原生作为下一代企业应用的核心技术之一,正在逐步成为了企业数字化转型中的重要组成部分。 一、什么是云原生? 云原生是指将应用程序及其相干服务(如存储、网络等)以容器为根底进行构建、运行和治理的形式。它采纳了微服务架构,能够将每个功能模块拆解为独自的服务,并通过API进行通信。同时,云原生还波及到DevOps文化、自动化、可观测性等方面的实际。 二、云原生的劣势 相比传统的应用程序,云原生具备以下劣势: 可移植性:因为容器的个性,云原生利用能够很容易地在不同的环境中迁徙。 弹性伸缩:云原生利用能够依据负载状况主动进行程度伸缩,从而保障利用的可靠性和高可用性。 灰度公布:云原生利用能够通过灰度公布等形式,实现无缝降级,从而防止对用户造成影响。 安全性:通过对容器和镜像进行加密,云原生能够更好地保障应用程序的安全性。 三、Kubernetes与云原生 Kubernetes是一个开源容器编排平台,它能够自动化地部署、扩大和治理容器化应用程序。作为云原生技术的代表,Kubernetes曾经成为了企业数字化转型中不可或缺的一部分。Kubernetes能够进步应用程序的可移植性、弹性伸缩性以及灰度公布等能力,从而更好地反对云原生利用的构建和运行。 总之,云原生曾经成为了下一代企业应用的核心技术之一。采纳云原生技术,能够进步应用程序的可移植性、弹性伸缩性以及灰度公布等能力,从而更好地满足企业数字化转型的需要。同时,Kubernetes作为云原生技术的代表,也在企业中失去了宽泛的利用和推广。

May 1, 2023 · 1 min · jiezi

关于大数据:火山引擎云原生数据仓库-ByteHouse-技术白皮书-V10-Ⅵ

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群近日,《火山引擎云原生数据仓库 ByteHouse 技术白皮书》正式公布。白皮书简述了 ByteHouse 基于 ClickHouse 引擎的倒退历程,首次具体展示 ByteHouse 的整体架构设计及自研核心技术,为云原生数据仓库倒退,及企业数字化转型实战使用提供最新的参考和启迪。 以下为 ByteHouse 技术白皮书【核心技术解析——元数据】版块摘录。 技术白皮书(Ⅰ)(Ⅱ)(Ⅲ)(Ⅳ)(Ⅴ)精彩回顾: https://xie.infoq.cn/article/5c9471c7adb58e4bb43b69c4d https://xie.infoq.cn/article/086b4e706965a6bd81f6a6ff2 https://xie.infoq.cn/article/a0dceef1588fe6c58247d3b37 https://xie.infoq.cn/article/9802a36beb0e82fd989991011 https://xie.infoq.cn/article/af5fc530f0d2ce7cbb8cefe5f 核心技术解析元数据管理元数据管理(Catalog Service)的性能次要是对读写申请的元数据进行读写操作。元数据服务是一个十分要害的服务,须要保障其本身的高可用和元数据的一致性,元数据服务的扩展性影响整个平台的扩展性,此外元数据读写的性能也影响整个读写过程的性能。 元数据管理须要重点思考上面几个方面的问题,元数据的长久化,和利用缓存对元数据层的减速。 元数据长久化元数据的长久化,能够有很多不同的存储后端可供选择,例如 KV 型数据库,传统数据库,New SQL。通过综合思考,最初决定抉择 KV 数据库,目前采纳字节外部产品 ByteKV,内部开源的 FoundationDB 也是其余产品常见抉择。 对于 KV 数据库外面须要存储的元数据信息次要有版本、统计信息、事务信息、数据的 Schema、Partition 信息、Part 的信息等。 元数据缓存因为咱们将 Part 级元数据存储在 ByteKV 中,因而在查问大数据范畴时,是 KV 数据库的 Scan 操作,获取 Part 元数据的工夫较长,且给 ByteKV 带来很重的累赘。因而通过减少一个缓存层进步性能、升高负载。 因为 Insert/Select 语句会在任意的 Coordinator 节点上执行,为保障 Read-Commited 语义,须要确保不同 Coordinator 过程间统一的 元数据读取,采纳 1.Leader Selection 机制保障惟一的 Master 2.Master 保护全局统一的拓扑图 3.所有 Coordinator 采纳雷同的选主机制保障每一张表有惟一的主节点 4.表的主节点维持 Cache 的有效性 ...

April 29, 2023 · 1 min · jiezi

关于大数据:七月在线大数据工程师集训营2022不知江月待何人

download:七月在线-大数据工程师集训营2022前后端拆散是一种在Web利用程序开发中宽泛采纳的架构模式。它的核心思想是将前端和后端齐全拆散,通过API接口进行通信。传统的Web开发中,前端和后端严密耦合,即前端和后端的代码在同一个我的项目中,前端次要负责页面展现,后端则负责数据处理和业务逻辑。然而,随着互联网技术的一直倒退,前后端拆散架构成为了越来越多Web应用程序的首选架构。 前后端拆散的长处: 进步零碎的可扩展性:在前后端拆散架构中,前端和后端是独立的两个零碎,能够分别独立开发、部署和保护。当须要减少新的性能时,只须要批改相应的API接口即可,不须要影响到整个零碎的运行。 减少了开发效率:因为前端和后端能够并行开发,大幅度缩短了开发周期,进步了开发效率。 反对多平台:因为前后端拆散,因而能够反对多个客户端平台,例如Web、挪动端等。 进步零碎的安全性:前后端拆散能够无效避免XSS攻打和CSRF攻打等对系统的平安威逼。 便于团队合作:前后端拆散能够让前端和后端的开发人员更加专一于本人的畛域,进步了团队合作效率。 前后端拆散的劣势: 须要更加简单的架构:相比传统的Web开发,前后端拆散须要更加简单的架构和技术栈,这也减少了开发成本和难度。 减少了开发工作量:在前后端拆散的架构中,前端和后端须要额定的开发工作量来实现API接口和数据交互等。 减少了部署难度和老本:因为前后端是两个独立的零碎,因而须要额定的配置和治理,这也减少了我的项目的部署难度和老本。 总之,前后端拆散是一种实用于大型Web应用程序的优良架构模式。它能够进步开发效率、加强零碎的可扩展性和安全性,并且反对多平台。然而,前后端拆散须要更加简单的架构和技术栈,并且须要额定的开发工作量和部署老本,因而须要依据具体情况进行抉择。

April 27, 2023 · 1 min · jiezi

关于大数据:火山引擎-DataTester-智能发布平台智能化-AB-实验助力产品快速迭代

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群在互联网竞争炙热的红海时代,精益开发高效迭代越来越成为成为产品竞争的利器。 产品迭代过程中,如何保障高效的性能迭代平安上线,如何疾速实现不同人群的精细化经营,成为了产研人员的新挑战,为了帮忙企业解决如此种种的迭代痛点,火山引擎 A/B 测试——智能公布平台(Feature Flag)应运而生。 火山引擎 A/B 测试智能公布平台基于先进的智能公布引擎和一站式配置托管能力,满足利用新性能灰度发版、A/B 试验到全量、人群定向公布等不同利用场景。 帮忙开发、产品、运维人员在低危险环境下迭代新 Feature,实现精益麻利开发。 火山引擎 A/B 测试的智能公布有诸多用处,其技术实质是按用户指定的规定下发不同的性能参数,以达到麻利公布的应用成果。除了最常见也是应用最广泛的“性能开关”外,还能够实现动静下发“利用配置”“业务配置”“环境配置”“平安配置”等诸多参数的能力。当然,它们最终反馈到产品/利用上,都是一个一个的性能。 火山引擎 A/B 测试-智能公布典型场景 1:千人千面精细化经营火山引擎 A/B 测试-智能公布典型场景 2:新性能灰度发版升高危险火山引擎 A/B 测试-智能公布典型场景 3:多 Feature 并行继续开发晋升迭代效率搜寻“火山引擎A/B测试”进入官网,即可申请智能公布性能收费试用。火山引擎 A/B 测试是迷信可信的 A/B 测试与智能优化平台,源自字节跳动长期积淀,服务多个亿级用户业务,助力企业在业务增长、用户转化、产品迭代、策略优化以及经营提效等各个环节科学决策。 点击跳转 火山引擎A/B测试DataTester 理解更多

April 27, 2023 · 1 min · jiezi

关于大数据:高性能快响应火山引擎-ByteHouse-物化视图功能及入门介绍

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群物化视图是指将视图的计算结果存储在数据库中的一种技术。当用户执行查问时,数据库会间接从曾经预计算好的后果中获取数据,而不须要从新计算视图。具体来说,物化视图是一种以表格模式存储的后果汇合。 当创立一个物化视图时,数据库会在后盾对视图进行计算,并将后果存储在表中。当用户查问该视图时,数据库会间接从表中获取后果,而不须要从新计算视图。这样能够大大提高查问性能和响应速度。 在应用物化视图时,须要留神以下四点: 物化视图的计算结果须要实时更新。如果源数据发生变化,须要及时更新物化视图的计算结果,以确保后果的准确性。物化视图须要占用存储空间。因为物化视图须要将计算结果存储在表中,因而会占用肯定的存储空间。在应用物化视图时,须要衡量存储空间和查问性能的关系。物化视图须要思考查问的复杂度。对于一些简单的查问语句,物化视图可能无奈进步查问性能。因而,在应用物化视图时,须要对查问语句进行剖析和优化,以确保可能施展物化视图的最大作用。总之,物化视图是一种十分实用的技术,能够帮忙咱们进步数据库的查问性能和响应速度。在理论利用中,咱们须要依据理论状况进行衡量和优化,以充分发挥物化视图的作用。利用场景介绍物化视图作为日常进步数据库查问性能和响应速度的一种实用技术,能够帮忙业务人员在多个场景中播种价值。 场景 1:数据分析场景以字节跳动举例,咱们每天要解决大量的数据,比方包含用户行为数据、广告投放数据等等。这些数据往往须要进行简单的查问和剖析,应用物化视图来存储常常应用的数据,就能够缩小简单查问的执行工夫,进步数据分析的效率。 场景 2:广告投放场景在广告投放场景中,业务人员须要对广告投放数据进行实时监控和剖析。物化视图能够帮忙存储广告投放数据的计算结果,以便疾速查问和剖析。通过物化视图,疾速地检测广告投放中的问题,缩小广告投放的错误率,进步广告平台的效率和盈利能力。 场景 3:举荐零碎家喻户晓,举荐零碎每天都须要对大量数据进行简单计算与剖析。通过应用物化视图,将计算结果存储在表格中,缩小计算复杂度,进步举荐零碎的响应速度。比方,咱们能够通过物化视图存储用户的趣味标签,减速对用户的个性化举荐。 ByteHouse物化视图疾速入门在 ByteHouse 客户的理论利用中,物化视图性能能够利用于许多场景。 比方,在电子商务网站中,咱们能够创立一个物化视图,用于计算每个用户的订单总额。当须要查问某个用户的订单总额时,数据库只须要从物化视图中获取后果,而不须要从新计算,这能够大大提高查问的速度。ByteHouse 客户——Chainbase 便是一个例子。 Chainbase 是一个 Web3 开发者平台,为开发人员提供云化的 API 服务,以帮忙接入加密网络、轻松构建可扩大的 Web3 原生利用。开发者们能够应用 ChainBase,来构建高效、平安的区块链利用。 ByteHouse 提供的物化视图性能,不仅能让 ChainBase 的查问速度失去晋升,同时还实现了实时可视化的数据分析,大大晋升了数据库查问剖析的效率。 ByteHouse 的物化视图性能具备 7 个显著特点: 始终保持最新能够手动或自动更新易于应用,能够通过界面或 SQL 进行治理ByteHouse会主动为高频简单查问创立物化视图企业级性能反对RBAC提供统计数据和倡议,帮忙用户优化物化视图上面简略介绍如何疾速入门,应用 ByteHouse 物化视图性能: 1.用户界面进入物化视图:数据库 > 新建 > 新建物化视图 2.依据 SQL 样例,填写物化视图语句。 3.创立胜利后。如果须要对以往历史的数据分区进行物化,依据 SQL 样例,手动刷新所定义分区。 如何进行SQL创立举荐用法 - 手动定义指标表(target_table_name)的物化视图创立办法 CREATE MATERIALIZED VIEW [IF NOT EXISTS] mv_name [TO [db_name.]target_table_name]AS SELECT select_statement FROM base_table_name;其余用法 - 零碎外部定义指标表的物化视图创立办法 ...

April 27, 2023 · 1 min · jiezi

关于大数据:基于公共信箱的全量消息实现

作者 | 百度音讯中台团队 导读 音讯中台为百度App以及厂内百度系产品提供即时通讯的能力,提供包含私聊、群聊、聊天室、直播弹幕等用户沟通场景,并帮忙业务通过音讯推送触达用户。百度App存在须要以『低用户打搅』的模式触达全量用户的场景,而现有基于用户『公有信箱』告诉拆分的机制,很难低成本、高时效的满足该场景诉求。基于上述问题,本文介绍了现有音讯零碎的次要组成,比照多种实现计划的差别,提出以『私有信箱』告诉读扩散的形式,低成本、高时效的实现全量用户告诉推送。 全文5515字,预计浏览工夫14分钟。 01 全量音讯提出背景百度App存在须要触达全量用户的诉求,比方:2022年12月7日解除疫情管控完结后,将通过筛选的官网政策解读、专题汇总、常识科普、实用工具类介绍等信息,通过官网号『百度小助手』下发触达到百度App用户,来无效体现人文关心,进步用户粘性。 1.1 全量音讯诉求在以音讯服务进行全量触达(即全量音讯)时,冀望可能满足: 在触达范畴上,心愿尽量扩充用户触达范畴,包含百度App月活用户、以及非月活用户然而近期新注册或登录的用户(_依据2022年12月对外公开数据,百度App月活6亿+用户_);在时效上,一次全量触达,心愿短时间内实现(比方小时级、甚至分钟级),抢占时效性;在用户打搅方面,音讯触达不能给用户带来较大的打搅,每次音讯下发,只触达一次,不能反复打搅用户,然而须要保留回访入口,满足用户二次查看的诉求。 1.2 现有技术痛点咱们现有IM(即时通讯)服务中,每个IM用户对应一个用户信箱。基于现有服务,如果想实现全量用户的音讯触达,须要把音讯推送到每个用户的信箱。实现6亿+的音讯写入(假设每条占用存储4KB,每秒写入2W条音讯),在音讯写入时效性,以及存储资源耗费上,都是很难承受的。且现有的基于用户公有信箱的计划,在同时反对多条全量音讯的场景下,扩展性也较差。 基于上述背景和技术痛点,咱们形象基于公共信箱的全量音讯实现:在特定业务场景下通过音讯服务,低成本、高时效的给全量用户推送内容统一的告诉音讯。 02 现有音讯零碎介绍在介绍基于公共信箱(信箱的实现形式,该信箱为IM用户私有)的全量音讯实现之前,先介绍一下目前音讯零碎的现状,包含音讯零碎的组成、告诉拉取模式、用户信箱等。 2.1 音讯零碎组成 从普通用户的直观体验上看,一个IM零碎能够包含如下几个元素:用户主体、用户账号、账号关系、聊天会话、聊天音讯。『用户主体』具备『用户账号』,『用户主体』具备头像、昵称等用户属性,『用户主体』通过『用户账号』登录IM零碎,进行聊天;账号之间的关注、屏蔽、免打搅等形成『用户关系』;通过用户之间的互动环节能够产生『聊天音讯』;聊天记录形成了一个『聊天会话』。 从集成音讯服务的业务方角度看,一个IM零碎能够包含音讯客户端(音讯客户端UI组件、音讯SDK)和音讯服务端。IM音讯能够作为一种服务,嵌入到各业务零碎中,为业务零碎提供『实时交互』能力。业务通过集成IM服务,晋升其用户体验。如下为一个集成了IM SDK的业务架构图。业务App集成IM SDK,通过IM SDK与IM Server交互,实现用户上行通信能力。业务App Server通过与IM Server交互,实现告诉上行触达用户。 从应用场景来看,音讯包含『私信音讯』(包含用户上下行音讯)、『告诉音讯』(业务方给用户推送的上行音讯)、『群聊』、『聊天室』、『直播间弹幕』等。 2.2 音讯的告诉拉取模式 IM音讯零碎,采纳告诉拉取(notify-pull) 模式来感知新音讯、拉取新音讯。IM SDK登录时,与IM 服务端建设长连贯(LCS, Long Connect Service),用户有新的音讯时,通过长连贯下发notify,实时告诉用户的IM SDK。实时notify不写用户信箱,因为noitfy不是音讯,而能够了解为揭示在线用户有新音讯的信号,IM SDK依据这个信号,来服务端拉取音讯。业务方server或者其余用户给该用户发送音讯后,通过IM业务解决模块,把音讯写入接收者信箱,IM Server会依据用户的登录和路由信息,给音讯接收者(私信场景下也包含『音讯发送者』,用于音讯的多端同步)发送新音讯notify,接管到notify的IM设施,通过IM SDK来IM Server端拉取 (pull)音讯。 2.3 用户信箱介绍为了暂存尚未拉取到IM SDK本地的离线音讯,须要对音讯进行服务端存储,而音讯的离线存储通过音讯信箱服务实现。目前IM用户音讯信箱次要包含用户公有信箱、群公共信箱(非下文提到的用户公共信箱)、直播间弹幕mcast等。用户信箱通过『音讯所属利用』+『IM标识用户的惟一ID』来标识。就一条音讯而言,音讯参与者有『音讯发送者』和『音讯接收者』,音讯收发单方的信箱都是互相独立的(假如发送方删除了本人信箱的某一条音讯,不会影响音讯接受者信箱的音讯)。对于有查看历史音讯诉求的一方来说,音讯须要入该方的信箱:比方用户之间的私信(点对点聊天)音讯须要入发送者和接收者的信箱,而对于全量告诉场景,音讯不须要存储发送者信箱,而只须要存接收者的信箱。而用户的信箱排序,是基于信箱Timeline,即音讯在信箱外部基于工夫线存储,每条音讯对应一个unix 微秒工夫戳(如第一条音讯1679757323320865),用户进行信箱拉取时,基于工夫范畴正序或者逆序拉取,如下为信箱timeline的示例: △信箱timeline 用户信箱中的每一条音讯记录都蕴含『音讯ID』、『音讯用户标识』、『音讯通用属性』、『音讯业务属性』四个次要局部。音讯ID为unix微秒工夫戳,不须要全局惟一,只须要特定用户信箱范畴内惟一即可。音讯用户标识包含from\_uid、to\_uid、contacter。音讯通用属性包含create\_time、expire、is\_read。音讯业务属性包含category、type、priority、business\_type、app\_id、msgkey、content等。如下为一条音讯记录示例: △音讯记录示例 03 全音讯实现3.1 全量音讯推送计划剖析目前音讯推送机制中,次要反对:单播(音讯推送形式,每次给一个用户推送一条音讯)、批量单播(每次给小范畴用户推送音讯,比方30个)、播送(基于关注关系的推送,如给全量粉丝推送),上述三种音讯推送机制推送的音讯,均须要存储服务端的用户公有信箱。为了实现百度App 6亿+月活用户(_月活数据起源:2022年12月百度App公开月活数据,_ https://baijiahao.baidu.com/s?id=1758522783976467912&wfr=spid... )的音讯推送,有几种可选的计划。 3.1.1 全流程从告诉入口推送①该种形式下,须要获取全量的月活用户列表,通过IM Server推送入口,给每一个用户推送疫情相干告诉。该告诉写入到用户信箱,若用户在线,在实时拉取该告诉;若用户离线,再下次登录IM服务时,拉取离线告诉。该种计划下,推送行为会笼罩IM的全流程,推送的告诉会进入每个月活用户的公有信箱,服务压力大。其中增量用户不会收到告诉推送(这里增量用户指的是不在月活用户列表的用户)。 3.1.2 跳过告诉入口间接写信箱②跳过IM音讯推送流程中的中间环节,间接把告诉音讯写入用户信箱。因为跳过了两头流程,间接写入信箱,告诉写入速度次要取决于信箱底层存储的压力接受状况。该种计划下,同①计划一样,无奈给用户发送实时告诉,依赖用户IM SDK的被动音讯拉取(断链后从新登录/新音讯揭示拉取),无奈给增量用户发送告诉。该计划因为跳过中间环节间接写信箱,危险较大,无奈间接提供给业务方应用,不倡议如此操作。 3.1.3 私有信箱实现机制③私有信箱机制,把告诉音讯写入『公共信箱』,在用户音讯拉取时,合并『用户私信信箱』+『公共信箱』的音讯。 3.1.4 三种计划比拟 计划①②都是写扩散形式,基于现有『用户公有信箱』的机制,把告诉音讯写入每个接管告诉的用户公有信箱。计划②与计划①的差异次要是跳过了音讯两头流程,能够防止因为中间环节负载瓶颈导致整体音讯写入速度过低。计划③是读扩散形式,音讯不必再写入接管告诉的用户公有信箱,而只须要在公共信箱存储一份,在用户拉取音讯时,实时拉取公共信箱的音讯。计划③中能够采纳内存缓存计划,解决对公共信箱的读压力。实质上来说,计划③与计划①②相比,是用读老本(CPU)换写老本(存储)。 ...

April 27, 2023 · 1 min · jiezi

关于大数据:数栈V60全新产品矩阵发布数据底座-EasyMR-焕新升级

4月20日,袋鼠云胜利举办了以“数实交融,韧性成长”为主题的2023秋季成长大会。会上,袋鼠云自主研发的一站式大数据根底软件——数栈V6.0产品矩阵全新公布。对旗下大数据根底平台、大数据开发与治理、数据智能剖析与洞察三大模块的全线产品进行全新降级,并重点公布了企业级数据计算与存储平台——自研大数据引擎 EasyMR。 往年的个体学习会议上强调:“要打好科技仪器设备、操作系统和根底软件国产化攻坚战,晋升国产化代替程度和利用规模,争取早日实现用我国自主的钻研平台、仪器设备来解决重大根底钻研问题。” 袋鼠云作为国内当先的数字化根底软件与利用服务商,一如既往保持自主翻新,专一大数据根底软件研发,利用先进技术赋能更多行业客户数字化转型,助力挖掘和开释数据资源的潜在价值。 全新公布数栈V6.0产品矩阵袋鼠云产研负责人思枢首先介绍了数栈V6.0全新产品矩阵的落地停顿以及产品升级方向。通过对多年数字化实际积淀的梳理、重构和降级,数栈V6.0造成了大数据根底平台层+大数据开发与治理层+数据分析与洞察平台层的全新数字化产品矩阵,以迭代的新组合、新能力、新技术,为数实交融利用注入更强劲的“数栈”驱动力。 整个矩阵中,大数据根底平台是底座,蕴含全新降级的两款产品:大数据计算引擎EasyMR 和湖仓一体EasyLake。EasyMR 次要提供 Hadoop、Spark、Flink、HBase、Trino 等一键式组件的装置、运维、部署。EasyLake 则次要提供面向数据湖的对立元数据管理,及数据服务和剖析。大数据根底平台旨在为各行业的数字化转型提供随时可用的强劲能源和坚实基础。 往上看,中间层大数据开发与治理,它交融了 DataOps 数据理念,蕴含离线开发BatchWorks、实时开发StreamWorks、数据服务DataAPI、数据资产DataAssets和指标治理DataIndex 五大模块。以自主可控、平安翻新为技术内核,将全域数据资产进行汇聚、加⼯、治理、服务、剖析,为客户提供平安、稳固、易⽤的⼤数据平台,减速开释数据价值,赋能数智利用。 最上层的数据智能剖析与洞察层,提供客户数据洞察UserInsight和数据可视化剖析EasyBI两大利用性能。助力企业构建以业务价值为导向的数据分析与利用体系,驱动业务增长。 以下为数栈本次重点降级的大数据计算引擎产品 EasyMR,依据思枢演讲整顿而成。 EasyMR:大数据计算引擎EasyMR 的丰盛性能EasyMR 内蕴含 Hadoop、Hive、Spark、Trino、HBase、Kafka 等计算组件,齐全兼容 Apache 开源生态,一键开启 LDAP+Kerberos+Ranger 认证权限体系,反对库/表/行/列级权限管制,提供企业级平安管控。 EasyMR 的集群治理包含以下五大性能: · 主机治理:能够对接x86服务器、ARM 服务器、Kubernetes 集群等主机类型,进行包含批量接入、主机下架、主机监控等在内的主机操作 · 装置部署:蕴含主动部署、手动部署、补丁包升/降级、组件回滚等丰盛性能 · 集群运维:蕴含组件启停、健康检查、服务日志查看等性能,以及依据客户业务侧的应用状况实现动静扩缩容 · 监控告警:随着业务的运行,产生主机运行的异常情况,可能实现主动告警 · 根底治理:包含用户治理、操作权限治理、审计日志等性能 EasyMR 的丰盛性能可能帮忙企业,更全面、更智能、更平安地使用数据,减速企业数字化转型。 EasyMR 的外围个性● 信创国产化 EasyMR 实现了与支流信创生态厂商的适配互认工作,反对统信UOS、龙蜥、麒麟等国产操作系统,鲲鹏920、飞腾等国产芯片,长城擎天CF520、华为私有云等国产服务器的适配,以及大部分国产数据库、国产中间件的适配。 EasyMR 的更多信创兼容状况请看下图: ● 开源/自主可控 EasyMR 作为袋鼠云自研的大数据根底平台,其大数据组件100%基于开源 Hadoop,齐全兼容 Apache 开源生态,与开源社区同步迭代,时刻放弃技术的当先性。并且 EasyMR 对 Spark、Flink、Trino、Iceberg 等局部组件个性进行优化加强,回馈社区,以凋谢心态共建 Hadoop 生态。 ● 运维托管服务 EasyMR 提供大数据集群监控告警、平安保障、数据品质保障以及平台运维服务;提供定期巡检、深度体检、老本优化以及高阶调优服务;以及提供包含大数据集群迁徙、集群容灾建设、架构设计布局等在内的施行服务,全链路一站式运维托管服务。 ...

April 27, 2023 · 1 min · jiezi

关于大数据:成就客户-企业如何培养数据文化Smartbi教你3个步骤

随着数字化浪潮的倒退,越来越多企业在理论工作中通过采纳BI等各种数据处理工具晋升工作效率。诚然,BI 工具能够帮忙员工更好地了解和剖析数据,从而发现业务中的时机和挑战,然而如果仅仅只是提供工具和技术,而不器重造就员工的数据素质,并不一定能间接且无效地晋升组织的数据驱动能力。 局部企业选购了BI工具,然而却往往面临着除了技术人员之外,还有大量的业务人员不会应用的问题,最终导致选购的工具并不可能较好地开释价值,难以较好地助力工作效率的晋升和决策程度的优化。为了解决这一问题,尤为要害的是要晋升整体企业员工的数据分析能力,而其中最为根底的是学习如何应用BI产品。 在数字化建设中,更为重要的是要调动员工对数据分析的感知度和参与度,不仅把握数据分析的技能,还长于用剖析数据晋升工作效率。IDC一项报告指出:将来每一家公司都是数据公司。真正的古代企业会造就一种文化,越来越多的人将其称为“数据文化”。 数据文化的诉求跃然纸上,作为企业文化的一种状态,数据文化其实是企业外部共有的一种以数据为导向的思维和行为模式。通过建设数据文化,能够激励员工对业务数据进行共享、共用、共性,及时感触和响应变动,并将数据作为重要的资源驱动业务倒退,进步决策的准确性和效率,从而实现业务增长。 IDC《数据文化如何在数据驱动型组织中助力晋升业务价值》报告中指出,企业的数据文化成熟度划分为四个阶段,别离是数据感知型、数据采纳型、数据成熟型和数据当先型。而越能高效利用数据、开释“数字资产”价值、建设强有力数据文化的企业,更可能晋升企业的业务指标,其范畴涵盖客户指标、财务指标、员工指标、产品/服务指标等多个维度。 IDC《数据文化如何在数据驱动型组织中助力晋升业务价值》 随着数字化转型进入深水区,越来越多的企业心愿打造数据文化,通过课程培训、实战较量等形式晋升员工的数据分析能力,营造“人人都是数据分析师”的气氛,让业务与数据技术能够更严密高效地进行联合,由此实现数据驱动增长。 基于此,思迈特软件踊跃与客户进行深度共创企业数据文化,目前已为金融、能源等泛滥行业的客户策动数据分析训练营,围绕数据分析为业务赋能,在员工积极性、课程培训、实战演练等环节提供强有力的撑持,通过学+问+练+考的模式,帮忙客户全方位夯实培训成果。  1  晋升意识,调动数据分析的学习积极性 营造数据文化须要企业外部整体的扭转,买通不同部门之间的壁垒,做到业务部门和技术部门串联互通,而非具体某一个部门或某团队的独自口头,因而数据分析训练营后期的预热和宣传尤为重要。思迈特软件个别会通过分享行业内数据分析实战案例,论述数据分析对业务带来的价值,晋升员工的利用数据的意识,带动更多强相干的业务部门参加进来,独特推动数据文化的建构。  2  实践学习,联合业务场景把握BI工具 落实数据文化,须要晋升整体企业员工对数据分析的感知度和参与度,基于此,许多企业会抉择举办数据分析训练营,对员工进行培训赋能。思迈特软件联合企业的具体业务场景来策动数据分析训练营课程,将理论知识与理论的利用场景相结合,帮忙员工切身理解数据分析的价值,从而晋升晋升数据管理和利用意识,最终帮忙解决理论的业务问题。  3  实战演练,深度实操业务主题场景 要建构数据文化,须要整体员工真正把BI用起来,而通过数据分析较量进行实战演练,是可能深度实操业务主题场景的无效形式。思迈特软件曾帮忙泛滥企业策动并举办数据分析较量,通过以赛促学,以赛促用的形式切实有效验证所学成绩,在实践中一直进步数字化素质和能力,从而做到数据驱动业务增长,最终实现“人人都是数据分析师”,营造浓重的数据分析文化氛围。 - 成就客户 思迈特软件秉承“成就客户”的理念,赋能企业推动数据文化的倒退历程。去年,思迈特软件携手长沙烟草举办Smartbi训练营及数据利用大赛等流动,通过数据利用场景点燃业务技能的“新引擎”,激发批发客户和营销人员数据利用的翻新生机,营造外部数据分析的气氛。 企业数字化转型,“人”是基本,其次是“工具”。想要数字化转型顺利进行,这不仅须要采取易用性较高的产品,还须要晋升业务人员应用数字化工具的能力,让业务人员真正用好、用活数字化工具,确保施展数据资产价值最大化。基于此,数据分析培训的基本目标是帮忙企业晋升业务人员晋升数字化素质,为企业的数字化转型之路奠定松软的根底。 如果您想进一步理解数据分析相干培训,或者也有借助思迈特软件举办相干流动的动向,能够分割小麦,欢送深刻交换探讨。 扫码增加小麦微信

April 26, 2023 · 1 min · jiezi

关于大数据:宝光股份-打造营销管理数据平台实现营销管理和业务双提升

陕西宝光真空电器股份有限公司(以下简称“宝光股份”)是享誉国内外的真空灭弧室产销基地,市场占有率间断多年稳居行业前列。2017年起蝉联工信部授予宝光股份“制造业单项冠军示范企业”名称,“宝光牌”真空灭弧室曾荣获第五届亚太博览会金奖、国家科技进步奖特等奖1项、二等奖1项等诸多奖项,建设“真空电器技术国家中央联结工程钻研核心”。 目前,公司主营真空灭弧室年累计产销量超过1100万只,利用中国智造的倒退契机,持续放弃纯正的技术劣势和卓越不凡的外围竞争力,打造成为国内一流数字化灭弧室生产企业。2021年,公司入选工信部智能制作“精准配送”优良场景名单、陕西省“智能工厂”示范企业。  背景及痛点 目前宝光股份曾经实现了多个数字化利用零碎的部署工作,如CRM、ERP等,在多个业务零碎上积攒了越来越多的数据,然而在数据管理和使用阶段还存在以下几个问题: 不足对客户多维分析,难以满足领导对客户画像及报价决策依据反对的要求,导致营销管理水平无奈进步。营销领导关注的销售业绩数据不能及时把握,无奈对业务达成过程做到实时预警揭示,业务干涉缓慢。一线销售数据查问依赖总部间接查问,耗时长,不能及时反馈要货满足状况,业务发展效率不高。数据孤岛显著,各项业务数据口径不对立、数据品质较差,导致领导和业务对数据不足信赖。建设思路基于以上问题,联合公司战略目标,宝光股份携手Smartbi搭建营销治理剖析平台,连贯现有ERP、CRM等业务零碎数据,建设数据集市,造成适宜宝光股份的营销治理剖析指标体系,造成以营销治理、营销剖析为外围的整体框架。 1、在营销治理方面,面向高管到一线销售人员,提供销售业务查问、销售业务汇报、数据统计分析的反对。 2、在营销剖析方面,面向高管和相干业务管理人员,发现销售工作中存在的问题,进步解决问题的针对性,同时优化工作流程,降本增效。 营销治理数据平台技术计划架构 建设成绩根据营销总关注的业务重点,宝光股份携手Smartbi进行高管驾驶舱搭建和营销业务专题剖析,由此反对营销决策和具体营销业务发展,以指标量化的管理手段晋升领导决策效率;Smartbi帮忙宝光股份搭建以营销业务为主的营销治理剖析平台,次要涵盖:销售业绩剖析、客户画像剖析、报价决策反对、业务查问与揭示等。 通过营销治理报价决策反对,帮忙领导提供报价决策依据,整体营销管理效率晋升30%;通过销售助手,实现一线人员数据挪动随行,及时获取成品库存等实时信息,达成业务流程效率晋升50%以上。 点击下载《制造业大数据分析解决方案》 具体业务场景01销售业绩剖析 依据销售业务管理须要,针对销售额、销售量、指标完成率、回款额、回款率等团体销售业绩相干指标进行业绩剖析,通过销售看板(区域)、客户、产品等多视角展现以后销售业绩状况,由此有助于对齐指标,制订营销政策。 整体销售看板 02客户画像剖析 通过对客户信息保护、客户销售额、回款、应收账款、销售量、活跃度等客户画像的建设,进行多个维度剖析,把握客户动向,适时调整策略,可能减少客户粘性,给销售口头提供帮忙,进步产出。 客户画像 03报价决策反对 通过对客户历史报价、历史销售额、付款金额、应收账款、历史均价等信息进行收集,联合当期产品类型和批数,给出报价参考,辅助领导进行报价审批。 客户报价辅助决策 04业务查问与揭示 买通企业各地区业务零碎数据,包含库存数据、订单数据、物流数据等,实现区域成品库存数据查问、送货单查问、在途物资状况等成果。针对营销板块要害业务搭建业务揭示模块,进行疑似失落客户揭示、超180天账龄客户信息预警、超60天库龄产品揭示等,帮忙销售人员及时进行客户回访开掘商机、回款催收、超库龄产品促销等业务发展。 业务查问 05销售助手 针对营销总监关注的业绩指标和一线销售经理频繁应用的业务模块,进行挪动端利用搭建,实现销售助手,数据挪动随行,可能随时获取业务运行状况,发展相干工作。 我的项目价值体现高管关注的业绩指标在营销治理剖析平台中设置了阈值,以便实时监控并预警。该平台会将增量订单、增量客户、增量区域等数据状况实时推送给销售领导,供其进行调研决策。 此外,一线销售人员常常须要在当地获取成品库存数据,以前须要通过电话分割总部查问,当初通过销售助手APP可外部实时获取各类产品的库存数据,同时查看订单入库和发货状况,进步了整个销售流程的效率,深受销售人员好评。 同时,整个平台的搭建让营销业务板块的分管领导可能掌控订单执行过程,理解订单的总装环节和检测环节等流转过程,及时进行资源调配,进步了整体管理决策的效率。 目前,中国制作企业正在从传统的教训管理模式向数据化经营管理模式转变。宝光股份采纳数据化的经营管理模式,能够帮忙企业更好地把握市场需求和产品研发方向,进步生产效率和品质,降低成本。

April 26, 2023 · 1 min · jiezi

关于大数据:在毫秒量级上做到更快DataTester-助力飞书提升页面秒开率

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群用户体验是决定互联网产品是否短暂生存的根底,每一个基于产品性能、应用、外观的渺小体验,都将极大关系到用户留存影响。 本文将讲述火山引擎 A/B 测试(DataTester)助力企业合作平台飞书进行用户体验优化的案例。 对飞书而言,用户体验旅程从关上产品页面的一瞬间就已开始,这里有一个非常重要的指标——页面秒开率,秒开率是指页面在一秒之内关上的比率。为了可能继续吸引用户,一款产品则至多须要在 1000 毫秒以内呈现出交互内容。 飞书为了晋升用户体验,对其各项性能的秒开率指标的优化下了大功夫,在这个过程中,火山引擎 DataTester 通过严格的变量管制,落地更精准的试验后果,帮忙研发团队间接佐证并明确了所选优化计划的收益。 影响秒开率其实有很多种因素,如代码冗余,插件连累…… 在其中,有一项重要的影响因素是“类加载”。类加载是指当页面被关上时,背地是调用的多个元素的代码,它们会经验验证、筹备、解析、初始化等环节后,能力被应用,这个流程是比拟消耗工夫的。 以飞书的一项性能“飞书妙记”加载为例,当飞书整体进行冷启动时,如果用户是首次关上飞书妙记界面,就会随同着靠近 1600 个类的大量加载,这对页面启动速度有着不可漠视的影响。 如何缩小如此高的类加载数量对秒开率的影响呢?飞书团队心愿尝试采纳的计划是:接入 SnapBoost 计划。 SnapBoost 计划的思路是让 app 可能提前对页面应用到的"类"进行加载,艰深来说,也就是在用户关上页面之前,将耗时较长的局部提前进行加载,当用户在关上页面的时候,这些代码省去了编译和解析的工夫,能够间接执行,使秒开率失去晋升。 那么 SnapBoost 计划是否能无效升高“飞书妙记”的加载工夫呢?飞书团队采纳了火山引擎 A/B 测试(DataTester)进行计划可行性的重要验证。 本次 A/B 试验三大指标: 类加载数量Activity切换耗时:Activity 通常指一个独自的屏幕(页面),此指标指在不同页面之间的切换耗时。可感知耗时 :指用户操作相干动作(点击播放、滑动卡片等)到首帧渲染进去感知到的耗时。优化前后收益验证: 火山引擎 DataTester 的试验后果,对 SnapBoost 计划的晋升性能假如给予了强有力的佐证,通过 SnapBoost 计划等一系列优化,飞书妙记的秒开率能够达成 37%的优化晋升,目前该计划曾经胜利地进行了全量上线。 除了飞书妙记的秒开率晋升,飞书的视频会议等全线性能,其实都已在应用火山引擎 DataTester 进行 A/B 试验。DataTester 为飞书的产品性能迭代带来了明确收益佐证能力。 “ DataTester 是联合 A/B 测试方法论最好的一个工具。”飞书的研发成员在采访时讲到。除了应用 DataTester,飞书团队也会通过灰度等形式来做比照试验。相比起灰度等试验形式,DataTester 的最大劣势在于更加严格的变量管制,试验创建者能够更直白地看清楚优化成果,在灰度的根底上,进一步晋升试验后果的说服力。 火山引擎 DataTester 目前已服务了美的、失去、凯叔讲故事等在内的上百家内部企业,反对了多种业务场景需要,为业务的用户增长、转化、产品迭代、经营流动等各个环节提供了迷信的决策依据,将成熟的“数据驱动增长”教训赋能给各行业。 点击跳转 火山引擎A/B测试DataTester 理解更多

April 26, 2023 · 1 min · jiezi

关于大数据:火山引擎-DataLeap在数据研发中如何提升效率

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群在数仓及中台研发过程中,研发人员常常须要在不同工作中保护雷同或相似代码,不仅费时费力,并且代码迭代后也面临不同业务单元逻辑性不统一的问题,对运维治理造成挑战。 一般来说,研发人员往往通过代码模板来解决这一问题。具体而言,在外围数据处理逻辑雷同的状况下,研发人员通过代码模版传入不同的工作参数,解决外围数据处理逻辑复用的问题,使得后续工作能够批量化,满足实时调用需要。 目前,工作模板已是火山引擎 DataLeap 研发治理能力之一,次要用于治理罕用的工作逻辑,以此升高罕用代码的运维老本。在产品性能上,DataLeap 工作模板反对丰盛的引擎能力,包含 LAS/EMR HSQL 、LAS/EMR Java Flink、LAS/EMR Flink SQL、shell 工作,满足离线实时工作的不同需要。 此外,DataLeap 还反对历史版本治理,即保留或更新模板后,记录各个版本更新状况,不便查看代码设置及参数。 在应用层面上,研发人员只须要三步骤即可实现工作模板创立,便捷复用外围数据处理逻辑。 第一步:选中反对的工作类型在模板列表右侧的“+”(更多)按钮中,新建子目录或新建工作模板。在新建工作模板窗口中,输出以下参数,并新建模板。 第二步:代码编写参数设置在工作模板的代码开发编辑界面,通过 DDL 和 DML 编写通用 SQL。表名、字段名别离能够用参数示意,以下以 LAS Flink SQL 的逻辑解决,保留为 test02 模板。第三步:在工作开发中援用研发人员能够通过以下 2 种形式援用 test02 模板: 办法 1:在模板列表中,抉择模板并点击后即可疾速援用。办法 2:在代码编辑界面右上角抉择工作模板,抉择模板后,按需抉择是否最新版本的模板,在对参数设置之后,预览代码最终生成成果(如图)。火山引擎 DataLeap 工作模板能力可利用于以下场景: 场景 1:将事后设计好的离线、实时工作模板保留后,即可在多个工作中援用此类型模板,疾速实现代码复用。场景 2:将 shell 工作代码制作为前置判断条件,在数据分析前的触发检测运行条件是否满足。除了工作模板之外,作为大数据研发治理套件,DataLeap 还能够提供数据集成、开发、运维、治理、资产、平安等能力,帮忙用户晋升数据研发效率、升高治理老本,减速推动企业的数字化转型。 点击跳转 火山引擎大数据研发治理DataLeap 理解更多

April 25, 2023 · 1 min · jiezi

关于大数据:强强联合ByteHouse-携手亚马逊云科技新一代云数仓服务重磅升级

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群随着全球化的倒退,越来越多的中国企业开始涉足海内市场,发展跨境业务。在这个过程中,弱小的数据分析能力是出海企业不可或缺的重要一环。 通过无效的数据分析,能帮忙企业更好地理解寰球市场对产品的需要便于调整产品策略,以及更好地理解寰球市场的消费者特点和偏好,从而进行有针对性的营销推广。然而,在面临数据分析业务出海时企业常遇到许多挑战。 为帮忙客户更好地解决这些问题,字节跳动 ByteHouse 与亚马逊云科技携手打造新一代云数仓服务,为中企出海业务保驾护航。 ByteHouse 是字节跳动旗下的一款云原生数据仓库,为用户提供极速剖析体验,可能撑持实时数据分析和海量数据离线剖析。便捷的弹性扩缩容能力,极致剖析性能和丰盛的企业级个性,助力客户数字化转型。 中企出海遇到的数据分析难题运维压力海内 IT 服务商和国内服务商对运维的反对力度和形式不同,造成了中企出海时往往面临了微小的数据分析系统运维压力。 ByteHouse 可能提供 7*24 小时的中文技术支持,可能无效帮忙中企缓解这一问题。资源隔离出海业务在合规方面有着微小挑战,为应答不同国家和地区各异的合规性要求数据分析系统可能具备良好的多租户资源隔离能力。 ByteHouse 具备良好的多租户能力,可能提供为企业提供高性能的 SLA 和对立的计费服务。迁徙老本高在国内的剖析业务中,通常会采纳明星产品 ClickHouse 作为数据分析的外围引擎,但海内支流的数据分析引擎并不兼容 ClickHouse SQL。 这造成现有的剖析场景须要进行语法革新能力利用于出海业务。ByteHouse 完满兼容 ClickHouse SQL 语法,是 ClickHouse 用户的第一抉择。ByteHouse 与亚马逊云科技强强联合,打造新一代云数仓服务基于亚马逊云科技宽泛的基础设施以及稳固的服务,联合 ByteHouse 多年的数仓技术积淀、客户服务教训和多云兼容能力,打造新一代云数仓服务,并且以 SaaS 模式帮忙出海企业疾速实现集成与上线。 ByteHouse 目前已在亚马逊云科技 Marketplace 实现上架,客户只须要在亚马逊云科技 Marketplace 页面搜寻 ByteHouse 就能够进入产品的控制台页面。 客户案例Chainbase 是一个 Web3 开发者平台,为开发人员提供云化的 API 服务,以帮忙接入加密网络、轻松构建可扩大的 Web3 原生利用。该中间件平台提供了多个服务,包含多链节点、数据查问、实时索引及利用监控等开发者工具。Chainbase 打算成为 Web2 到 Web3 的 Gateway,帮忙开发人员更好地进入新的世界,构建利用。 Chainbase 为什么抉择在亚马逊云科技上应用ByteHouse: 1.ByteHouse 的存储计算拆散架构充沛满足他们的应用场景(将不同的最终用户/业务调配到各自的计算组),ByteHouse 还能够横向扩大以满足 Chainbase 的并发需要。 2.ByteHouse 提供了比开源 ClickHouse 更好的性能。 ...

April 25, 2023 · 1 min · jiezi

关于大数据:技术干货|如何利用-ChunJun-实现数据实时同步

实时同步是 ChunJun 的⼀个重要个性,指在数据同步过程中,数据源与⽬标零碎之间的数据传输和更新⼏乎在同⼀工夫进⾏。 在实时同步场景中咱们更加关注源端,当源零碎中的数据发⽣变动时,这些变动会⽴即传输并应⽤到⽬标零碎,以保障两个零碎中的数据放弃⼀致。这个个性须要作业运⾏过程中 source 插件不间断地频繁拜访源端。在⽣产场景下,对于这类⻓工夫运⾏、资源可预估、须要稳定性的作业,咱们举荐使⽤ perjob 模式部署。 插件⽀持 JSON 脚本和 SQL 脚本两种配置⽅式,具体的参数配置请参考「ChunJun连接器文档」:https://sourl.cn/vxq6Zp 本文将为大家介绍如何应用 ChunJun 实时同步,以及 ChunJun ⽀持的 RDB 实时采集插件的个性、采集逻辑及其原理,帮忙大家更好地了解 ChunJun 与实时同步。 如何应用 ChunJun 实时同步为了让⼤家能更深⼊理解如何使⽤ ChunJun 做实时同步,咱们假如有这样⼀个场景:⼀个电商⽹站心愿将其订单数据从 MySQL 数据库实时同步到 HBase 数据库,以便于后续的数据分析和解决。 在这个场景中,咱们将使⽤ Kafka 作为两头音讯队列,以实现 MySQL 和 HBase 之间的数据同步。这样做的益处是 MySQL 表中变更能够实时同步到 HBase 后果表中,⽽不⽤担⼼历史数据被批改后 HBase 表未被同步。 如果在⼤家的理论利用场景中,不关⼼历史数据是否变更(或者历史数据基本不会变更),且业务表有⼀个递增的主键,那么能够参考本⽂之后的 JDBC-Polling 模式⼀节的内容。 · 数据源组件的部署以及 ChunJun 的部署这⾥不做详细描述 · 案例中的脚本均以 SQL 脚本为例,JSON 脚本也能实现雷同性能,但在参数名上可能存在出⼊,使⽤ JSON 的同学能够参考上文 「ChunJun 连接器」⽂档中的参数介绍 采集 MySQL 数据到 Kafka● 数据筹备 ⾸先,咱们在 Kafka 中创立⼀个名为 order_dml 的 topic,而后在 MySQL 中创立⼀个订单表,并插⼊⼀些测试数据。创立表的 SQL 语句如下: ...

April 24, 2023 · 5 min · jiezi

关于大数据:如何用-DataTester-设计并创建可视化实验

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群设计一个可视化试验确定试验指标:(示例)通过批改页面的「收费试用」按钮背景色彩,进步收费试用按钮的转化率。 确定试验指标:「收费试用」按钮上报自定义事件「bav2b_click」,计算口径「转化率」,外围指标为按钮点击的转化率 “4 步”残缺试验流程第 1 步:根底设置填写试验名称,实现试验流量设置及用户受众规定设置。第 2 步:设置失效策略设置试验的失效策略,包含流量设置和用户受众规定设置。第 3 步:编辑试验版本通过 DataTester 可视化编辑器进行多种试验版本的编辑。第 4 步:试验指标设置实现试验外围指标配置及相干关注指标配置。 如何应用可视化编辑器?目前应用可视化编辑器笼罩的试验模式:可视化试验,多页可视化试验,MVT 多变体试验。下方具体讲一下可视化试验中应用可视化编辑器。 3.1 编辑文本和图像应用 DataTester 可视化编辑器,你轻松编辑在 web/H5 上看到的任何内容——图像、文本、背景,及 shadow DOM 元素均可编辑。点击抉择你要编辑的元素,并进行想要的配置调整即可实现。 更改图像的地位或比例。齐全替换图像。编辑文本、字体、分量、色彩、大小等。 3.2 增加新元素和小部件 widgets过来,向硬编码网站增加新元素是一个工夫和资源密集型的过程。然而,应用可视化编辑器的根本元素或预约义的小部件在页面上引入新内容,只需单击一下即可使你的网页更加丰盛。 元素:增加文本、链接、图片和更多元素。小部件 widgets:增加可自定义的布告和其余高级小部件。3.3 Code Editor如果更喜爱在代码模式下工作?代码编辑器也提供了白板,在编辑器中进行网页自定义即可。以编码思维推动翻新。 穿插复制现有性能加强性能和元素建设在可视化编辑器之上借助火山引擎 DataTester 的可视化编辑器,用户能够次要利用它来放慢产品试验速度,并持续自在优化网站的转换,绕过开发团队的带宽限度。 但开发人员也不会因而而出工,因为无代码工具只会促成网络空间的扩大以包容更多业务,编码是一项将持续增长的技能。可视化 A/B 试验可能成为企业降本增效的无力助手,但开发人员将持续翻新发明和挑战技术。 点击跳转 火山引擎A/B测试DataTester 理解更多

April 24, 2023 · 1 min · jiezi

关于大数据:袋鼠云春季生长大会圆满落幕带来数实融合下的新产品新方案新实践

4月20日,以“数实交融,韧性成长”为主题的袋鼠云秋季成长大会圆满闭幕。 在秋季成长大会中,袋鼠云带来了数实交融趋势下的最新行业积淀、最佳实践经验和行业前瞻性的产品公布。从大数据根底软件“数栈”、到低代码数字孪生世界“易知微”,再到可观测运维专家“云掣”,为宽广用户带来了一场场精彩内容,共话数字将来! 3部白皮书:方法论到实际完满出现基于在数字化畛域的8年深厚积攒与实际服务教训,袋鼠云重磅公布了3部白皮书——《数据治理行业实际白皮书》《数字孪生世界白皮书(2023)》《云运维服务白皮书》,涵盖数据治理、数字孪生、云运维服务三个畛域,从方法论到实际,完满出现数字化建设体系。 《数据治理行业实际白皮书》:基于袋鼠云在数据治理畛域的8年深厚积攒与实际服务教训,从业余视角逐渐分析数据治理难题,论述数据治理的概念外延、指标价值、施行路线、保障体系与平台工具,并借助行业实际案例解析,为广大读者提供一种数据治理新思路。 《数字孪生世界白皮书(2023)》:着重提出了“数智视交融,虚实人联动”的观点,残缺系统地剖析数字孪生世界建设施行门路,针对各项数字孪生技术的交融赋能进行实际分析。总结了“园区、港口、工厂、水利、双碳”五大行业场景,通过对于计划深度分析和成绩分享,心愿能为数字孪生技术利用在千行百业中落地生根提供参考与借鉴。 《云运维服务白皮书》:基于云掣多年实在业务教训并汇聚了十位资深运维专家心血,总结了企业云化面临的五大挑战和常见解法之云运维服务提供商的三大外围能力,并提出了云掣本人的数据化可观测运维解决方案和云运维服务解决方案以及深度分析了八个实在行业客户的案例。 8大成绩:数实交融成绩最新展示|01 数实交融 韧性成长袋鼠云创始人、董事长陈吉平在收场中提到,成立以来袋鼠云始终在进行数字化根底软件的研发,一直打磨和迭代产品,一步步成长为当先的数字化根底软件与利用服务商。现在,袋鼠云曾经倒退成一个团体企业,通过大数据根底软件——数栈、数字孪生——易知微、可观测运维——云掣,这三个业务版块,曾经服务了金融、先进制作、水利、交通、教育、文旅等行业5000多家客户。 |02 易知微数字孪生世界,看见数字化有限可能在会上,袋鼠云联结创始人兼易知微CEO宁海元强调数字化、智能化和可视化等先进技术上的交融,将进一步打造“数智视交融,虚实人联动”的新型数字孪生利用,继续推动数字孪生世界“多跨”数智场景建设,这也是数字孪生产业将来的重要发展趋势之一。近年来,易知微始终将数字孪生、低代码和SaaS等畛域作为外围业务和产品方向,通过构建全场景多畛域数字化产品矩阵,让更多组织和个体受害于数字化。 |03 开释数据潜能,开拓数据治理新范式袋鼠云资深征询专家张爱东带来了数据治理的体系化介绍和解读,不同企业的数字化转型过程尽管不同,但数据治理均是必经之路。袋鼠云总结提出了数据治理的三种模式,别离为自下而上、自上而下、大布局模式,拓展了数据治理新思路。不同阶段,企业应基于组织现状抉择最佳门路,继续晋升数据管理能力,推动企业数据“闭环治理”机制的建设,实现数字化转型。 |04 数栈:一站式大数据根底软件大数据根底软件是企业实现数字化的技术根底,根底能力决定了业务利用零碎的能力边界和发明数据价值的效率。袋鼠云产研负责人杨思枢分享袋鼠云自主研发的一站式大数据根底软件——数栈V6.0的最新进展。数栈能够大大提高数据开发与治理的效率,实现数据资产化,为客户数字化转型提供松软的后盾。 此外,会上还公布了《数栈产品白皮书》:从数字技术、产品能力、利用实际、服务反对四个方面进行深度研判,针对性克服数字化转型短板,从数据治理、湖仓一体、数据集成、DataOps等八个方面进行解决方案解读,重点晋升客户数据管控 能力。此外,本白皮书总结了无效的大数据根底软件建设教训,为各行业企业的数字化转型提供参考和领导。 |05 云掣:基于EasyMR的大数据运维在国产化代替的趋势下,数据的迁徙和运维接下来会迎来需要顶峰。云掣科技业务部负责人王徐介绍了基于EasyMR的大数据运维服务,包含大数据迁徙服务和大数据运维托管服务。大数据迁徙服务简略说就是将Hadoop集群或CDH集群里的数据和工作迁徙至EasyMR或同类平台。大数据运维托管服务蕴含架构设计服务、稳定性保障服务、数据安全保障服务、开发反对服务和服务经营服务5个方面。云掣将以数据化可观测运维这一全新理念助力企业从容应对数字化转型中简单的运维需要,为企业的平安生产保驾护航。 |06 EasyV:继续进化,让可视化我的项目更有价值“如何让可视化我的项目更有价值?”会上,易知微可视化产品专家马雨洁在会上分析了EasyV产品的进化之路。 在“发明”方面,易知微全新推出「EasyMan 数字人」产品和服务,助力企业疾速高效地实现数字人形象。 在“延长”方面,EasyV一直降级三维GIS 能力建设,继续迭代业余地图组件以及海量城市数据基底系列模板,助力用户一站式实现空间天文数据可视化剖析,疾速构建多畛域、多层次的简单三维可视化场景,深刻赋能空间数据可视化剖析与表白。在将来,将推出预制体&组件容器性能,一直拓展数字孪生表白场景。 在“赋能”方面,EasyV空间合作体系极大地晋升企业客户在可视化或数字孪生我的项目上的体系化治理能力,为给用户提供一个更稳固、便捷、顺畅的利用演示环境,帮助企业构建可视化业务零碎,EasyV「智能演播模式」以及数据门户2.0也行将全新上线。 在“凋谢”层面,EasyV产品开放度进一步晋升,在地图服务集成、Easy for unreal等标准化插件等方面做了全新降级,并推出figma图表组件和组件开发平台2.0。此外,易知微凋谢了EasyV API接口,将客户的业务零碎与EasyV的可视化能力进行深度交融,继续赋能企业业务场景。 会中,「EasyV低代码数字孪生可视化平台产品白皮书」正式公布。 |07 DTable:一台跑步机的培修之旅,实体商品售后治理解决方案“成交的完结,意味着客户胜利的开始。” 现在,售后服务对于一家企业更加重要,易知微数字化利用平台产品专家林欣通过一台跑步机的培修故事,从消费者视角、企业视角展示了企业售后服务常见问题,并分享了DTable低代码施行方法论、售后服务解决方案等方面内容。 他强调,在业务利用构建过程中该当紧抓“自动化”、“协同化”、“数据化”三个外围性能,以提供更贴心、及时的售后服务。此外,在跟客户共创过程中,DTable在“机器人”、“高级权限”、“操作栏”等方面也作出全新降级,为与客户共创提供更好的反对! |08 智慧场馆的数字化之旅:大型综合体安保数字孪生解决方案基于多年对行业、客户的粗浅洞察,易知微数字孪生行业计划专家戎祥带来分享,别离对行业政策解析、“大型综合体”治理痛点、易知微数字孪生外围能力、大型综合体我的项目案例详解以及将来行业发展趋势内容做了具体论述。会上,戎祥联合易知微具体落地的实际后果,通过列举“多跨协同”、“云巡检”、“仿真推演”、“指挥调度3.0”等数字孪生利用场景,深刻分析了大型综合体安保数字孪生解决方案。在将来,他示意,易知微将联合VR、AR等新兴技术,一直摸索并实际,助力打造“数智视交融,虚实人联动”的新型数字孪生利用。 1个生态圈:“利益共享、能力共建、危险共担”|01 飞跃打算2.0启航生态合作伙伴打算是本次大会的又一重头戏,袋鼠云生态总经理闵佳为大家揭晓飞跃打算2.0的具体打算和将来布局。袋鼠云将持续加大在合作伙伴上的资源投入,面向寰球招募各种类型的合作伙伴,打造“能力共建、利益共享、危险共担”的弱小数字化生态圈。心愿通过各自专业化的产品和服务,为客户发明数据价值,驱动企业业务跨越式倒退。 本次大会,袋鼠云的“敌人们”也纷纷来“做客”,带来多个行业解决方案分享。 |02 希嘉数据:全场景智慧高校联结计划希嘉数据技术能力核心副总经理、生态单干总监胡添翼带来分享,希嘉与袋鼠云共创智慧高校联结计划,该计划基于袋鼠云的数字化软件基座和低代码数字孪生产品,希嘉专一于高校场景应用软件能力,单方实现能力互补,独特助力高校晋升数据资产管理水平,建设数据共享核心,实现业务数据化、数据资产化、资产服务化。 |03 数语科技:数据建模在数据中台的价值数语科技创始人、CEO王琤在发布会上带来数据建模相干分享,数据模型是数据中台的基石,关系到根底数据整合,开发效率,和数据品质,高质量的数据模型能够进步数据开发的效率。数语科技联合数据模型生命周期,提出数据模型整体架构,将DDM纳入开发投产流程中,应用平台提供的典型能力进行模型设计、开发测试和投产,实现“模型设计、指标落地、代码开发、测试验证”的一体化中台治理开发闭环。 |04 中创碳投:数字赋能,能碳交融会上,中创碳投科技有限公司的资深产品专家沈志平带来中创碳投可视化能碳利用分享,蕴含当下能碳畛域前沿趋势洞察、产品架构以及能碳治理平台利用实际等丰盛内容。沈志平示意,将来将持续与易知微联结推动基于数字孪生的“能碳”全流程服务平台,为政府、企业和园区等各类用户提供丰盛的降碳门路治理,达到可视、可感和可管的“双碳”建设功效。 |05 浙大城市学院:求是翻新,教育将来教育数字化飞速发展,“互联网+教育”改革风头正劲,会上,浙大城市学院信息中心副主任陈利锋带来「求实翻新,教育将来」的主题分享,蕴含当下教育行业前沿趋势洞察、校园孪生平台架构以及学院智慧教育最佳实际等丰盛内容。陈利锋示意,将来浙大城市学院将携手易知微继续深刻数字孪生校园畛域,独特致力于实现智慧校园的“双碳校园”、“服务深入”、“平安降级”、“特色城院”、“数字体验”。 圆桌分享:数字孪生利用更多可能在圆桌上,易知微邀请了中国特种设备检测研究院主任邓贵德、北京中创碳投科技有限公司首席科技官唐进、浙江卓见云科技有限公司行业计划总监朱建星,与袋鼠云联结创始人&易知微CEO宁海元,就“数字孪生技术、实际利用、挑战与时机”三大主题开展了圆桌交换探讨。嘉宾们分享了数字孪生技术在行业畛域的最新实际成绩,并深刻交换数字孪生技术利用前景与冲破。 最初,在本次秋季成长大会完结之际,“数智之旅全国巡讲”正式启动!欢送各界人士积极参与相干流动,流动全年将会在全国各地开花落地,走向更多城市,切实赋能搭档。今日“谷雨”,是一个新生事物萌芽成长的节气,也象征着生命的连续和孕育。咱们置信,数实交融必将成为数字经济新生态的重要组成部分,同时也将孕育出更多翻新与时机。 《数栈产品白皮书》:https://fs80.cn/cw0iw1 《数据治理行业实际白皮书》下载地址:https://fs80.cn/380a4b 想理解或征询更多无关袋鼠云大数据产品、行业解决方案、客户案例的敌人,浏览袋鼠云官网:https://www.dtstack.com/?src=szsf 同时,欢送对大数据开源我的项目有趣味的同学退出「袋鼠云开源框架钉钉技术qun」,交换最新开源技术信息,qun号码:30537511,我的项目地址:https://github.com/DTStack

April 23, 2023 · 1 min · jiezi

关于大数据:一文读懂火山引擎数智平台-VeDI-新品管理驾驶舱-Plus

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群4 月 18 日,2023 秋季火山引擎 FORCE 原动力大会在上海举办,火山引擎公布数智平台(VeDI)新品——“治理驾驶舱 Plus”。 企业管理者在决策时往往须要各方面的数据作为根据,火山引擎 VeDI 此次公布的治理驾驶舱 Plus 就是一款聚焦企业管理者决策场景打造的数据产品,既能满足管理者日常查看企业外围指标数据的需要,还特地降级“穿透式治理提效”、“指标驱动治理”的深度场景,为管理者提供、聚合内外部决策信息,建设综合、深度利用的新型"数据驱动治理"载体。 四大外围能力:升高管理者应用门槛,晋升数据安全保障在产品应用上,治理驾驶舱 Plus 提供“一次部署,多舱服务”和“零代码搭建”能力。企业只需实现一次部署,即可为不同层级的管理者建设不同需要维度的驾驶舱,如营销部门主管会关注营销费用、营销渠道、营销成果数据,但总经理除了营销部门外,还要对销售、经营、研发、财务等其余部门数据有所理解,因而这两个角色就须要两套不同数据维度的驾驶舱。 在实现一次产品部署之后,企业就可围绕营销部门主管和总经理两个角色的不同需要,实现对应驾驶舱建设,其中不同驾驶舱之间的内容反对个性化定义制作,数据可实现齐全隔离,并在权限管控上提供分层分级设置能力,保障管理者在数据应用过程中的安全性。 值得一提的是,从驾驶舱搭建到内容定制再到权限管控设置,都可通过“0 代码”自助配置的形式实现,与传统通过供应商定制“数据看板”交付的形式相比,灵便度、扩展性大大晋升。 在数据安全上,治理驾驶舱 Plus 采纳了“全链路 SLA”和风控技术。通过对私有化部署的硬件机器、底层组件、下层服务搭建残缺的监控和报警反对机制,以及对数据指标在定义、产出、加工、上线、查问等各环节进行全方位监控、巡检,治理驾驶层能最大限度保障数据完整性和准确性。 同时,通过利用在配置环节的"假数据"加密技术,治理驾驶舱 Plus 还能最大限度的保障企业外围在生产加工、经营服务过程中的数据安全,提前躲避数据泄露的潜在危险。 基于多重能力,治理驾驶舱 Plus 在帮忙企业实现场景建设时,能深度提炼管理者需要、了解管理者期待,落实更聚焦更高效地帮助企业治理,并在一直的迭代优化过程中,最终造成笼罩“指标驱动治理、高效传播治理动作、把握决策机会、获取辅助决策信息”四大场景的外围产品能力,使治理驾驶舱 Plus 成为管理者们的决策指挥核心。 此外,治理驾驶舱 Plus 还将字节跳动外部实践经验加以整合,积淀为数据 BP 咨询服务,像服务外部业务一样服务企业,为企业提供点对点解决方案征询,实现“产品+人”的组合式服务笼罩,既快又好地解决企业治理问题,真正帮忙企业实现数据驱动治理能力。 最新企业实际:深度场景笼罩助力企业治理能力跃升据走漏,目前已有多家企业率先尝试治理驾驶舱 Plus。 2022 年 10 月,国内某头部建设团体着手引入治理驾驶舱 Plus,通过 3 个月的需要梳理和产品部署,目前曾经实现面向管理层的凋谢使用,同时还实现了 7 个数据决策关联子项目的征询和落地。 团体相干负责人介绍,治理驾驶舱 Plus 在帮忙企业管理者实现指标建设、指标驱动、多端协同、治理提效等方面,成果显著。 其中,在指标建设方面,治理驾驶舱 Plus 可能精准管控指标全流程,保证数据指标可信。针对团体管理者在看数场景下对指标口径定义、数据更新频率等要求,治理驾驶舱 Plus 设计了指标变更、高低线强流程管控,通过辨认指标数据生产链路的各个环节以及对应负责人,当触发变更、高低线动作的时候,需通过相干方的一致同意,方可执行,以此多方保障数据品质和可信度。 指标驱动方面,治理驾驶舱 Plus 可能帮忙管理者实时监测既定目标完成度,并在过程中及时定位异常情况并上报,揭示策略调整,辅助管理决策。在建设团体的理论使用场景中,治理驾驶舱 Plus 引入了企业 OKR 治理理念,将团体战略目标的度量和指标实现数据监测进行联合,帮忙管理者更好地聚焦数据洞察方向——通过 OKR 分级,同步各级管理者企业指标拆解;通过关联指标,实时跟进指标实现进度;利用实现进度和工夫进度比照,疾速判断是否达成阶段预期…… 多端协同方面,治理驾驶舱 Plus 反对 0 老本多端多路径全面协同,即可实现包含 PC、APP、IM 利用等在内的多端响应,反对 APP 利用/飞书利用/飞书机器人/电话等多路径告诉。据理解,该团体已上线“治理驾驶舱 Plus”企业微信小程序,在拓展挪动办公场景的同时,还能反对随时随地一键查找问题对接人,并实现一键拉群,极大晋升问题响应效率。 ...

April 23, 2023 · 1 min · jiezi

关于大数据:火山引擎云原生数据仓库-ByteHouse-技术白皮书-V10-Ⅴ

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群近日,《火山引擎云原生数据仓库 ByteHouse 技术白皮书》正式公布。白皮书简述了 ByteHouse 基于 ClickHouse 引擎的倒退历程,首次具体展示 ByteHouse 的整体架构设计及自研核心技术,为云原生数据仓库倒退,及企业数字化转型实战使用提供最新的参考和启迪。 以下为 ByteHouse 技术白皮书【多租户治理、运维监控治理】版块摘录。 技术白皮书(Ⅰ)(Ⅱ)(Ⅲ)(Ⅳ)精彩回顾:https://xie.infoq.cn/article/5c9471c7adb58e4bb43b69c4dhttps://xie.infoq.cn/article/086b4e706965a6bd81f6a6ff2https://xie.infoq.cn/article/a0dceef1588fe6c58247d3b37https://xie.infoq.cn/article/9802a36beb0e82fd989991011 ByteHouse 多租户治理 多租户治理架构图 ByteHouse 的计算资源、数据资源、作业工作和用户权限都用租户进行隔离,所有的数据对象和资源都在一个租户外部进行治理。不同的业务团队能够建设各自的租户,按额度申请所需的计算资源,便于进行资源管理和结算。 计算资源隔离在租户外部,屏蔽租户之间的资源争抢。数据库、数据表、视图等对象都在租户外部进行治理和受权,数据安全限度在租户外部。数据查问、数据导入工作也在各自租户中,减少了工作代码安全性。 多租户治理性能适应了整个企业资源集中统一治理、按需按份额应用、兼顾资源共享和数据安全要求,同时能够为 SaaS 利用提供撑持,能按需为新用户申请资源,做到即开即用,又能满足不同用户资源和数据隔离性需求,实现一套零碎服务所有用户。 ByteHouse运维监控治理ByteHouse 的私有化部署版本蕴含一个可视化的资源监控和治理平台,提供资源、负载监控仪表盘,直观地展示集群整体情况,同时提供租户治理、报警监控、审计日志、扩缩容、系统升级、故障节点替换等外围性能,让运维人员通过白屏化操作,升高运维老本和操作危险。 集群治理保护模块包含对物理资源的配置、节点重启、故障节点一键替换、滚动降级、滚动重启等性能,实现可视化运维治理。 通过仪表板对集群衰弱度进行宏观监控,集群资源饱和度监控能实时查看存储计算的以后利用状况和增长趋势,不便进行扩缩容;节点衰弱度监控能实时监控节点实时的响应状况;集群负载监控能实时反馈集群总体负载水位;提供 Grafana 对各个组件运行状态进行细粒度监控。 运维监控模块示意图 监控报警模块提供与第三方报警平台对接能力,反对对 CPU、内存、存储资源使用量指标、技术组件衰弱度指标、计算工作状态指标、集群负载和性能指标进行监控,并通过短信、电话等形式告诉值班员。 点击链接,立刻下载完整版白皮书https://www.wjx.cn/vm/Ot0YJFq.aspx# 点击跳转 云原生数据仓库ByteHouse 理解更多

April 22, 2023 · 1 min · jiezi

关于大数据:零拷贝浅析

前言   在介绍零拷贝之前,咱们先通过简略的例子理解一般的数据传输模式有什么弊病,而后再看看零拷贝技术解决了哪些问题。咱们晓得很多 Web 应用程序提供大量动态内容,这相当于从磁盘读取数据并将完全相同的数据写回响应套接字(也就是 socket),而后再发送给客户端。这个过程仿佛只须要绝对较少的 CPU 流动,但其实这样做是较为低效的。首先咱们须要晓得内核从磁盘读取数据并将其跨内核用户边界推送到应用程序,而后应用程序将其推送回内核用户边界写入套接字。实际上,应用程序更相当于一个低效的搬运工,其从磁盘文件获取数据而后再将其转运到套接字。为什么说下面的流程是低效的呢?首先咱们须要明确每次数据穿梭用户内核边界时(用户态与内核态的切换),都必须进行复制,这会耗费 CPU 周期和内存带宽。那有没有什么办法去缩小这些不必要的复制呢?答案天然是必定的,有请咱们明天的配角:零拷贝技术。何为零拷贝零拷贝(Zero-copy;也被称为零复制)技术是指计算机执行操作时,CPU 不须要先将数据从某处内存复制到另一个特定区域。这种技术通常用于通过网络传输文件时节俭 CPU 周期和内存带宽。应用零拷贝的应用程序申请内核间接将数据从磁盘文件复制到套接字,而不通过应用程序。零拷贝极大地提高了应用程序性能并缩小了内核和用户模式之间的上下文切换次数。Java 类库通过 java.nio.channels.FileChannel.transferTo()办法反对零拷贝技术,能够通过 transferTo()办法将字节间接从调用它的 channel 传输到另一个可写字节 channel,而无需数据通过应用程序。具体流程分析接下来咱们详细分析下面所说的流程,事实上这是一个很常见的场景,它形容了很多服务器应用程序的行为,包含 FTP 服务器、邮件服务器等等。咱们首先分析传统计划(将字节从文件复制到 socket)的解决流程: 看上去如同很简略,然而实现起来须要在用户态和内核态之间进行四次上下文切换同时进行了四次数据复制,数据如何在外部从文件挪动到 socket 如下图所示: 上下文切换过程如下图所示: 而后咱们来剖析一下具体的流程,大抵分为以下几步:Read()调用导致从用户模式到内核模式的上下文切换,并在外部收回一个 sys_read()(或者其余等效的调用)以从文件中读取数据,第一个正本由 DMA 引擎执行,该引擎从磁盘读取文件内容并将它们存储到内核地址空间缓冲区中;2.申请的数据从读取缓冲区复制到用户缓冲区,而后 read()调用返回。调用的返回导致了内核态到用户态的切换,并且当初数据存储在用户地址空间缓冲区中;3.send()调用导致从用户模式到内核模式的上下文切换,并执行第三次复制以再次将数据放入内核地址空间缓冲区。然而留神这一次数据被放入了一个不同的缓冲区,一个与指标套接字相关联的缓冲区。4.零碎 send()调用返回,导致第四个上下文切换。当 DMA 引擎将数据从内核缓冲区传递到协定引擎时,会独立且异步地进行第四次复制。零拷贝办法的实现过程如果咱们仔细察看下面的流程,会发现实际上并不需要第二个和第三个数据正本。应用程序除了缓存数据并将其传输回套接字缓冲区外什么也不做。相同,数据能够间接从读取缓冲区传输到套接字缓冲区。在 java 中咱们能够通过上述提到的 transferTo()办法来实现。该办法将数据从文件通道传输到给定的可写字节通道。在具体实现中,取决于底层操作系统对零拷贝的反对;在 UNIX 和各种 Linux 零碎中,此调用被路由到 sendfile()零碎调用,如下图所示,它将数据从一个文件描述符传输到另一个文件描述符: 而后咱们剖析一下具体的数据流转过程,如下图所示:上下文切换过程如下图所示: transferTo()办法使 DMA 引擎将文件内容复制到读取缓冲区中。而后内核将数据复制到与输入套接字关联的内核缓冲区中。第三次复制产生在 DMA 引擎将数据从内核套接字缓冲区传递到协定引擎时。咱们显著能够发现上下文切换的数量从四个缩小到两个,并且数据正本的数量从四个缩小到三个(其中只有一个波及 CPU)。但这还没有使咱们达到零拷贝的指标。如果底层网络接口卡反对收集操作,咱们能够进一步缩小内核所做的数据复制。在 Linux 内核 2.4 及更高版本中,批改了套接字缓冲区描述符来反对该性能。这种办法不仅缩小了屡次上下文切换,而且还打消了须要 CPU 参加的反复数据正本。用户端的用法依然放弃不变,但具体的底层实现函数产生了变动:transferTo()办法使 DMA 引擎将文件内容复制到内核缓冲区中。留神此时没有数据被复制到套接字缓冲区中。相同,只有蕴含无关数据地位和长度信息的描述符才会附加到套接字缓冲区。也就是说相当于只把数据的元数据拷贝到套接字缓冲区,这份耗费通常是能够忽略不计的。DMA 引擎将数据间接从内核缓冲区传递到协定引擎,从而打消了残余的最终 CPU 正本。具体的流程如下图所示:须要留神的是 transferTo()办法的办法签名并没有扭转,只是操作系统的底层调用函数进行了调整优化。性能比拟测试环境: 通过观察测试后果能够很显著的看到性能上的晋升是非常明显的,对于很多适宜的场景,应用零拷贝技术能够显著地进步性能。咱们所熟知的 kafka 外部就采纳了零拷贝技术来提高效率。本文次要对零拷贝技术绝对于传统数据传输的优化点进行了简略的剖析,并没有深刻探索底层的 sendfile()零碎调用具体是如何实现的,以及如何在编程中具体的实际操作,感兴趣的小伙伴能够本人去深入研究一下噢。扩大概念DMA(Direct Memory Access)直译就是间接内存拜访,是一种无需 CPU 的参加就能够让外设与零碎内存之间进行双向数据传输的硬件机制。应用 DMA 能够使零碎 CPU 从理论的 I/O 数据传输过程中解脱进去,从而显著进步零碎的吞吐率。DMA 形式的数据传输由 DMA 控制器(DMAC)管制,在传输期间,CPU 能够并发的执行其余工作。当 DMA 完结后,DMAC 通过中断告诉 CPU 数据传输曾经完结,由 CPU 执行相应的中断服务程序进行后续解决。中断指处理机处理程序运行中呈现的紧急事件的整个过程。程序运行过程中,零碎内部、零碎外部或者现行程序自身若呈现紧急事件,处理机立刻停止现行程序的运行,主动转入相应的处理程序(中断服务程序),待处理完后,再返回原来的程序运行,这整个过程称为程序中断;举个简略的例子:比方小王正在工作(相当于处理机正在处理程序运行),忽然接到外卖小哥的电话说外卖到了(相当于接管到中断信号),此时小王就临时停掉手中的工作去拿外卖(相当于执行中断服务程序),而后再回到工位上持续工作(相当于返回原来的程序继续执行)。

April 21, 2023 · 1 min · jiezi

关于大数据:深入浅出的实践大数据-DAG-图

前言    DAG 是有向无环图(Directed Acyclic Graph)的简称。在大数据处理中,DAG 计算经常指的是将计算工作在外部合成成为若干个子工作,将这些子工作之间的逻辑关系或程序构建成 DAG(有向无环图)构造。X6 在 DAG 图中的实际X6 是一款开源的图编辑引擎,vue3.x+vite2.x 是目前较火的前端开发组合,当初用他们来实现一个 DAG 图;X6 分为画布(Graph)、基类(cell)、节点(node)、边(edge)、连贯桩(port)等元素,以及图的相干操作(如交互监听、元素操作、渲染等),因而只须要把握画布、节点、边的增删改查,应用 x6 就轻松加欢快了。基于 x6 封装一个类 GraphCroe应用 vue 组件注册 x6 自定义节点注册 x6 自定义边 在 GraphCore 类中增加节点,边的操作方法在 vue 组件中创立画布提供创立节点数据办法以上步骤就能够实现在画布中创立节点的性能,如下图: 要做一个有向无环图还须要解决以下 2 个问题:有方向,连线只能从上一个节点的输入桩(上面)连贯到以后节点的输出桩(下面);无环,输入桩发动的连线不能成环,即以后节点不能连贯本人,不能连贯本人下面所有连贯过的节点。综合以上问题只有在 defaultConfig 中配置连线校验逻辑即可:至此,一个简略的 DAG 图就曾经实现了。进阶学过计算机网络的晓得计算机网络中有一个拓扑构造,要实现 DAG 图多顶点的拓扑序列执行工作的性能,能够应用拓扑排序算法,拓扑排序算法的工夫复杂度为 O(n+e)。Js 实现拓扑排序算法笔者在这里提供了另一种思路:把每一个节点看作一个对象,因而只有关怀两件事就能够解决 DAG 图多顶点的拓扑构造执行工作的性能。遍历每个节点,把它放到事件订阅里边,执行订阅器;每隔一秒检查一下,如果以后节点曾经在运行,则跳过;以后节点是否有下级节点,没有就是顶点节点,顶点间接运行;有下级节点,下级节点是否有运行后果,所有下级节点都有运行后果就运行以后节点;以后节点有运行后果,从订阅器里删除以后节点;以后节点运行报错,从订阅器里删除以后节点;下级节点有报错,删除以后节点;最初订阅器里就空了,所有的工作也就执行完了。 前事不忘;后事之师在 vue3.x+vite2.x 中应用 x6 必然是要趟过很多坑的,上面是开发过程中遇到的一些问题:1.应用 "@antv/x6-vue-shape"来注册 vue 组件,须要 vue 在运行时进行编译,在 vite 别名中增加 2.开发阶段 @antv/x6,@antv/x6-vue-shape 引入报错,开发阶段批改别名小结本文由浅入深介绍了 DAG 图基于 X6 实现,以及拓展了解决 DAG 图多顶点的拓扑构造执行工作的另外一种思路,置信你曾经很分明地晓得怎么实现一个 DAG 图了。感激浏览,如有不足之处,欢送指出。

April 21, 2023 · 1 min · jiezi

关于大数据:火山引擎-DataTester-3-大功能升级聚焦敏捷智能与易用帮助企业降本增效

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群近日,火山引擎数智平台(VeDI)全面降级旗下 A/B 测试产品 DataTester,公布全新性能“MAB 智能调优试验”、降级“智能公布平台 Feature Flag”,同时还推出“可视化数据集成”及“集成工作台”计划。 DataTester 脱胎于字节跳动长期积淀,历经字节外部超 150 万次试验打磨,目前已能深度赋能业务,为企业的增长、转化、产品迭代,策略优化,经营提效等各环节提供迷信的决策依据。 作为 A/B 测试与智能优化平台,DataTester 此次降级次要聚焦智能、麻利与易用。 在麻利方面,本次降级的“智能公布平台 Feature Flag”,将基于先进的 Feature flag 引擎和一站式配置托管能力提供全新的 A/B 试验配置公布能力,满足利用新性能灰度发版、A/B 试验一键全量、人群定向公布等不同利用场景。 在智能方面,新性能“MAB 智能调优试验”,不仅反对多端、多场景的 A/B 试验开设,还能实时计算各实验组胜出概率,按成果动态分配流量,帮忙企业以 0 剖析老本、0 工夫老本的模式获取 A/B 试验指标收益的最大化。 在易用性上,DataTester 重点推出了“可视化数据集成”及“集成工作台”计划。前者能够帮忙企业将来自三方的数据导入到 A/B 零碎中,无需额定通过传统 SQL 开发或者业务代码编写等形式来进行数据集成,能够实现对历史数据资产间接复用,极大水平升高零碎反复建设老本。据理解,目前可视化数据集成性能在企业数据接入方面能带来高达 8 倍的提效。 集成工作台计划,则为用户提供了灵便轻量的 OpenAPI、微前端等凋谢能力,企业可间接将 A/B 试验的能力内嵌入本身的业务零碎,实现与客户业务零碎深度交融。 火山引擎 DataTester 相干负责人示意,DataTester 作为字节跳动数据平台最早的数据产品,其诞生之初就是为了助力科学决策,将来也将持续往“更麻利、更易用、更智能”的方向上优化与迭代。 点击跳转 火山引擎A/B测试DataTester 理解更多

April 21, 2023 · 1 min · jiezi

关于大数据:4月26日每日互动个推与您相约第六届数字中国建设峰会

4月26日-30日,第六届数字中国建设峰会及成绩展览会将在福州隆重举行。本届峰会以“放慢数字中国建设,推动中国式现代化”为主题,由国家网信办、国家发改委、科技部、工信部、国务院国资委、福建省人民政府独特主办,福州市人民政府等无关单位承办。 每日互动(个推)深耕数据智能赛道十余年,始终踊跃投身于数字中国和数字经济建设。往年每日互动也将携公司在垂直畛域的最新摸索和实际成绩,再次亮相数字中国成绩展览会(展位号:10号馆 10B11)。数据智能服务商每日互动(股票代码:300766)成立于2011年,通过十多年的疾速倒退,公司积淀了海量的数据资源,积攒了深厚的数据治理、算法建模等技术实力。每日互动充分发挥数据和技术能力劣势,面向用户增长、品牌营销、城市治理、公共治理等畛域提供业余的数据智能服务和解决方案,助力行业客户及政府相干单位实现数字化转型降级。 本次数字中国建设峰会,每日互动将携数智化经营、数智营销、智慧交通等畛域的翻新实际成绩亮相,期待与大家相聚福州,共话数据智能利用趋势,共探数字中国建设门路! 4月26日—30日第六届数字中国建设峰会每日互动展位号:10号馆 10B11欢送大家来现场参观和交换!

April 21, 2023 · 1 min · jiezi

关于大数据:火山引擎云原生数据仓库-ByteHouse-技术白皮书-V10-Ⅳ

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群近日,《火山引擎云原生数据仓库 ByteHouse 技术白皮书》正式公布。白皮书简述了 ByteHouse 基于 ClickHouse 引擎的倒退历程,首次具体展示 ByteHouse 的整体架构设计及自研核心技术,为云原生数据仓库倒退,及企业数字化转型实战使用提供最新的参考和启迪。 以下为 ByteHouse 技术白皮书【数据导入导出】版块摘录。 技术白皮书(Ⅰ)(Ⅱ)(Ⅲ)精彩回顾:https://xie.infoq.cn/article/5c9471c7adb58e4bb43b69c4dhttps://xie.infoq.cn/article/086b4e706965a6bd81f6a6ff2https://xie.infoq.cn/article/a0dceef1588fe6c58247d3b37 ByteHouse 数据导入导出ByteHouse 包含一个数据导入导出(Data Express)模块,负责数据的导入导出工作。 Data Express 模块架构图 Data Express 为数据导入/导出作业提供工作流服务和疾速配置模板,用户能够从提供的疾速模板创立数据加载作业。DataExpress 利用 Spark 来执行数据迁徙工作。 次要模块: JobServer导入模板导出模板JobServer 治理所有用户创立的数据迁徙作业,同时运行内部事件触发数据迁徙工作。 启动工作时,JobServer 将相应的作业提交给 Spark 集群,并监控其执行状况。作业执行状态将保留在咱们的元存储中,以供 Bytehouse 进一步剖析。 ByteHouse 反对离线数据导入和实时数据导入。 离线导入离线导入数据源: Object Storage:S3、OSS、MinioHive (1.0+)Apache Kafka /Confluent Cloud/AWS Kinesis本地文件RDS离线导入实用于心愿将已筹备好的数据一次性加载到 ByteHouse 的场景,依据是否对指标数据表进行分区,ByteHouse 提供了不同的加载模式: 全量加载:全量将用最新的数据替换全表数据。增量加载:增量加载将依据其分区将新的数据增加到现有的指标数据表。ByteHouse 将替换现有分区,而非进行合并。反对的文件类型ByteHouse 的离线导入反对以下文件格式: Delimited files (CSV, TSV, etc.)Json (multiline)AvroParquetExcel (xls)实时导入ByteHouse 可能连贯到 Kafka,并将数据继续传输到指标数据表中。与离线导入不同,Kafka 工作一旦启动将继续运行。ByteHouse 的 Kafka 导入工作可能提供 exactly-once 语义。您能够进行/复原生产工作,ByteHouse 将记录 offset 信息,确保数据不会失落。 ...

April 20, 2023 · 1 min · jiezi

关于大数据:火山引擎-DataLeap-下-Notebook-系列文章二技术路线解析

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群在 Jupyter 的生态下,除了 Notebook 自身,火山引擎 DataLeap 研发团队还留神到了很多其余组件。 彼时,JupyterLab 正在逐步取代传统的 Jupyter Notebook 界面,成为新的规范。JupyterHub 应用宽泛,是多用户 Notebook 的版本答案。 脱胎于 Jupyter Kernel Gateway(JKG)的 Enterprise Gateway(EG),提供了火山引擎 DataLeap 研发团队须要的 Remote Kernel(上述的独立工作 Kernel 环境)能力。 2020 上半年,火山引擎 DataLeap 研发团队基于下面的三大组件,进行二次开发,公布了 Notebook 工作类型。 (图:火山引擎 DataLeap 下 Notebook 整体架构) JupyterLab 前端这一侧,火山引擎 DataLeap 研发团队抉择了基于更现代化的 JupyterLab 进行革新,刨去了它的周边视图,只留下了两头的 Cell 编辑区,嵌入了火山引擎 DataLeap 数据研发的页面中。 为了和火山引擎 DataLeap 的视觉格调更符合,从 2020 下半年到 2021 年初,团队还针对性地改良了 JupyterLab 的 UI。另外火山引擎 DataLeap 研发团队还开发了定制的可视化 SDK,使得用户在 Notebook 上计算失去的 Pandas Dataframe 能够接入火山引擎 DataLeap 数据研发曾经提供的数据后果剖析模块,间接在 Notebook 外部做一些简略的数据探查。 ...

April 20, 2023 · 1 min · jiezi

关于大数据:个推打造消息推送专项运营提升方案数据驱动APP触达效果升级

“数智化经营”能力已成为企业的外围竞争力之一。借助数据和算法,构建欠缺的数智化经营体系,企业可加强用户洞察和科学决策能力,进步日常经营效率和投入产出比。近半年,个推精准把握行业客户的切实需要,将“数智化经营”思维和能力在音讯推送场景率先落地。聚焦音讯“达到”“点击”等要害经营指标,个推最新推出了专项经营晋升计划,提供更全面的剖析以及更精确的归因,帮忙APP强化与用户的连贯,使音讯推送更出功效。 01买通数据流,实现推送场景降本增效个推始终提倡“在适合的工夫、适合的地点、适合的场景,把适合的内容推送给适合的人群”。在本次专项经营晋升计划中,个推买通了整个推送链路上的数据流,反对APP便捷地剖析各维度、各环节的数据,并从中开掘适合的音讯下发机会、场景、内容及人群。 比方APP经营人员能够对用户属性、设施状态、设施应用场景等维度综合剖析,预测出最佳的用户触达机会,实现“亮屏推送”,在“适合的工夫”“适合的场景”下实现音讯下发,晋升音讯达到率和点击率;经营人员也能够联合用户的行为特色,实现“智能配额”,在保障音讯达到的同时节约厂商额度,实现在用户触达场景中的“降本增效”。 02标签+模型圈人,晋升推送点击率数智化经营的实质在于以用户为核心,通过数据驱动经营增长。个推也强调APP做音讯推送要从用户的外在需要登程,给“适合的人群”推送“适合的内容”。个推借助数智化技术帮忙APP实现人群和内容的精准匹配,从而晋升推送点击率。 具体实现形式有两种,一是“依据人群创作内容”,二是“依据内容匹配人群”。 依据人群创作内容不同的细分人群其趣味偏好也出现差异化的特色。个推提供用户画像洞察的能力,帮忙APP深刻、粗疏、全面地理解指标用户群的线上线下偏好特色,针对性地撰写更能激发他们趣味和好奇心的推送文案,晋升音讯推送的点击率。此外,APP也能够联合本身业务数据和个推数据能力,自定义标签规定,对用户进行分层,针对不同的特色人群推送相应的内容,实现更加高效率、精细化的用户沟通。依据内容匹配人群个推还应用AI技术,打造“智选人群”性能,帮忙APP基于流动文案找到对应的指标用户群。借助AI对文本语义的学习和了解,个推帮忙APP提取出推送文案的内容特色,并联合算法模型,预测出对文案有高点击偏好的用户群体,进行定向触达,晋升推送点击率。作为个推本次专项经营晋升计划中的一大亮点,个推智选人群性能一经推出就失去了泛滥客户的关注。出名游戏社交APP和个推单干,应用“智选人群”性能优化推送策略,通过AI模型预测出高点击人群,使推送点击率晋升了119.93%。03后效数据回流,继续优化经营策略数智化经营是一项长期工程,个推专项经营晋升计划帮忙APP将贵重的数据资产、推送策略及经营教训积淀下来,构建能够继续进化、迭代的数智化经营体系。 比方,个推提供欠缺的推送数据报表。借助疾速回流的后效数据,APP一方面能够联合A/B test分组推送等性能,对不同的人群、推送文案、推送机会进行测试比照,帮忙优化推送策略;另一方面APP也能够将后效数据“喂”给AI模型持续学习,一直晋升模型的预测能力。而在每一次推送和经营流动中体现出高点击、高转化的优质人群和优质文案,APP也能够将其积淀下来,造成模板,用于下一次的推送或广告投放。 综上,个推专项经营晋升计划围绕用户触达这一环节,将音讯推送、数据分析、算法模型等能力以及本身积攒的丰盛经营教训整合,为APP发展数智化经营提供切实可行的场景入口。以推送场景利用为终点,个推将继续打磨数智化经营解决方案,进一步为APP经营全链条增能提效,助力APP业务增长。 新用户限时福利@各位APP开发经营人员看过去:即日起至4月30日,在个推官网开发者核心实现注册的APP(含企业用户与个人用户),可享个推音讯推送VIP性能收费用30天。实现注册者可扫描下方二维码,增加@个推服务经营支付权利。扫码增加个推服务经营↑

April 20, 2023 · 1 min · jiezi

关于大数据:新起点大数据分布式可视化的-DAG-任务调度系统-Taier-正式发布14版本

咱们很快乐向大家发表,2023年4月14日,Taier 正式公布 1.4 版本。自2022年2月份 Taier 正式开源以来,收到了很多开发者和行业用户的踊跃评估,在诸多生产环境中已失去充沛利用。Taier 1.4版本正是排汇了各类实践经验及大家的倡议,进行了此次迭代优化。 本次更新不仅蕴含了性能优化和稳定性的晋升,还新增了各类工作类型、欠缺大量工作性能,优化应用场景,继续加强开源产品化技术能力和利用能力。 Taier 是一款好用又弱小的大数据分布式可视化的 DAG 任务调度零碎,旨在升高 ETL 开发成本、进步大数据平台稳定性。它让大数据开发人员能够在 Taier 间接进行业务逻辑的开发,而不必关怀工作盘根错节的依赖关系与底层的大数据平台的架构实现,将工作的重心更多地聚焦在业务之中。 截至目前(2023 年 4 月 17 日),Taier 在 GitHub 的 Star 数曾经冲破 1.1 k,并领有37名社区贡献者,咱们在此对所有参加到 Taier 我的项目及社区建设的敌人们表白由衷的感激。 目前新版本已在 Github 与 Gitee 上线,欢送大家返回体验。 Github: https://github.com/DTStack/Taier Gitee: https://gitee.com/dtstack_dev_0/taier 社区官网: https://dtstack.github.io/Taier/ Taier 1.4 版本更新亮点新增工作类型· 新增 DataX 组件,在无 Hadoop 环境的状况下,Taier 能够通过执行 DataX 的工作来实现异构数据源之间高速稳固的数据同步的能力,加强 Taier 在单机模式下的根底性能。 · 新增 Greenplum、GaussDB、MySQL、Postgresql、Sqlserver、TiDB、Vertica、Maxcompute 等工作类型,欠缺 Taier 相干 SQL 工作类型。 · 新增 Hadoop MR 工作类型,能够通过自行编写 Map/Reduce 的代码,来执行对应的数据集的解决。 ...

April 20, 2023 · 1 min · jiezi

关于大数据:解决方案|以大数据为抓手打造粮食安全智慧监管平台

食为政首,粮安天下,食粮问题始终深受总书记记挂,总书记屡次提到:“中国十三亿多人口,吃饭次要靠本人,不能靠外面来解决。” 近年来食粮安全事件频发,中央纪委国家监委在全国发展食粮购销畛域腐败问题专项整治工作,各级、各地纪检监察机关深挖彻查,在彻查监督过程中,发现仅仅依附线下监督、现场监督,存在监管难度大、监督时效滞后等问题。 解决方案针对以上问题和现状,思迈特软件通过使用智能监管流程平台与大数据分析预警技术,帮忙客户构建无效的食粮智慧监督平台,蕴含食粮公司业务管理系统、下级单位监管零碎、纪委监督零碎等,实现了大众参加、部门监管、纪委监督的监管体系,晋升食粮安全监管能力。 构建智能监管流程平台Smartbi联结渠道提供智能监管流程平台将食粮购销、存储、轮换等流程标准化、线上化,细化到每个环节、流程、责任人。 构建大数据分析预警平台Smartbi 提供大数据分析预警平台将监管的危险点清单化、模型化,通过数据比对预警实时监督各环节,实现实时监管,危险主动预警。 构建欠缺食粮购销监督体系Smartbi 帮忙食粮公司设计下级监管单位监管模块,如区发改局、财政局、农商行、市场监管局,区纪委监委等7个部门业务监管模块,通过微信公众号等形式凋谢端口,进步与大众的互动、实现了大众参加、上级部门监管、纪委监督的食粮安全监管体系。 点击收费下载《粮食安全大数据智慧监管平台计划》 利用场景Smartbi食粮智慧监督平台帮忙客户紧盯食粮公司食粮交易、洽购投标、资金拨付等全流程,梳理业务危险点清单20多项,最终造成流程规范性、品质危险以及专项危险三个维度,针对性开发“空气粮”,“转圈粮”等危险点算法模型,实现实时监管,危险主动预警。 “转圈粮”危险预警示例咱们以一个理论危险点为例展现“危险监管全过程”。如常见的“转圈粮”,是指食粮在交易过程中并没有来到粮库,仅仅是粮库和企业之间进行虚伪交易,原地“转了个圈”后,就能为粮库带来一笔新的财政补贴支出,零碎通过严格的外部治理流程零碎,将各个环节的数据进行比对,联合摄像头、第三方平台交易信息等多处主观数据,实现零碎主动预警。 · 食粮公司管理人员视角 食粮公司管理人员通过智能监管流程平台,可能锁定每一次轮换打算的详情、执行状况。 · 下级单位管理人员视角 平台通过将每一次轮换打算的数据详情、执行状况和粮仓出入库前后数据进行比对,若发现存在偏差,主动推送危险点预警给下级单位管理人员,帮忙管理人员及时发现“转圈粮”危险,及时核查处理。 下级单位管理人员也可通过数据大屏发现“出入库”落差较大的数据警示,揭示相干人员查看以后具体出入库信息。 · 纪委监委监管视角 纪委监委可能查看所有危险点预警信息,以及预警详情和处理状况,实现纪委监委实时和精准的监督。 点击收费下载《粮食安全大数据智慧监管平台计划》 计划劣势 1   进步食粮公司治理效力 实现食粮购销、存储、轮换等流程标准化、线上化、实时化,进步公司治理效力,同时防止安全事故产生。  2   赋能主管单位监管 围绕危险问题,梳理业务流程危险监管大数据分析模型20多个,设计区财政局、发改局等监管平台,为部门履职赋能降级。  3   实现纪委监委监督精准化 充分运用“采集数据—模型比照”模式,实现预警告诉等性能,纪委监委实时发现异常数据,精准监督。  4   增强与大众互动 通过微信公众号进步与大众的互动,设置信息公开、设置廉粮在线,提供留言反馈、实现问题实时收集。 典型案例多年来,Smartbi继续施展着国产化BI的作用,为泛滥地区的食粮公司搭建食粮智慧监督平台,在食粮安全监管畛域积攒了一整套残缺的监管计划,实现食粮监管业务危险点梳理,通过大数据模型化落地,可能为客户提供业内最佳的实践经验。 如某区纪委监委继续施展好牵头抓总作用,传导压力再增强,监督伎俩再翻新,使用科技化、信息化、数据化伎俩,开发食粮畛域大数据和监督零碎,紧盯公司食粮交易、洽购投标、资金拨付等全过程,联结Smartbi针对性开发“空气粮”、“转圈粮”等危险点算法模型20多个,通过30多种不同维度数据实时比对、预警,实现精准无效实时监督。 点击收费下载《粮食安全大数据智慧监管平台计划》

April 19, 2023 · 1 min · jiezi

关于大数据:获奖案例巡展科技向善之星中航电梯5G大数据管理平台

为表彰应用大数据、人工智能等根底软件为企业、行业或世界做出杰出贡献和微小翻新的标杆我的项目,星环科技自2021年推出了“新科技 星力量” 星环科技科技实际案例评选活动,旨在为各行业提供更多的优良产品案例,彰显技术扭转世界的力量,目前已胜利举办两届,收到了来自各界的积极参与。第二届星环科技科技实际案例评选活动新增了“年度信创先锋之星”,通过产业界、学术界专家联结评审,最终评比出了“年度信创先锋之星”、“年度科技向善之星”、年度价值奉献之星”、“年度科技前沿之星”、“年度技术革新之星”五大奖项,并特此进行案例巡展。 本期巡展案例为取得第二届“新科技 星力量” 星环科技科技实际案例评选活动“年度科技向善之星”的贵州中航电梯有限责任公司“中航电梯5G+大数据管理平台我的项目”。 案例背景 贵州中航电梯有限责任公司(以下简称中航电梯)成立于2004年5月,原隶属于中国航空工业团体,2018年12月划归遵义市政府,成为遵义市市属国有资本经营有限公司旗下一级子公司。公司是贵州省惟一一家集电梯设计、生产、装置、革新、维保为一体的配备制作企业,产品有乘客电梯、观光电梯、载货电梯、汽车电梯等14个品种,生产车间购买了先进的机器人生产设施,引入“MES”、“ERP”信息管理系统,建成全自动化生产流水线,使生产部件达到高度的统一性,从而进步了产品质量。 中航电梯目前面临的痛点次要有两方面:(1)整体技术痛点:不足对立的数据平台,电梯装置过程中的AI监管数据、测验数据、以及电梯交付后的运行数据处于割裂状态,难以进行整合,并且无奈实现全流程的数据交融剖析;(2)业务痛点:电梯装置过程波及到特种作业施工,采纳人工巡逻监管,人工成本高,没有利用人工智能、大数据分析的技术实现电梯装置过程AI监测与及时预警。 因而中航电梯须要构建团体层级的数据中台,满足中航电梯内各分、子公司,各层级用户业务流程和信息共享的需要;建设起对数据中台的治理、保护、更新和应用的长效管理机制,使平台可能一直的扩大、欠缺,保证数据的一致性、及时性和准确性,为中航电梯整个数据信息资源的布局、建设、利用奠定松软的根底;同时利用最新的大数据、人工智能、机器学习、物联网等新兴技术借帮忙中航电梯疾速实现数字化转型。 解决方案 中航电梯数据中台我的项目总体建设从全局登程,依据“高起点、总体设计分步施行、前瞻性与实用性联合、开放性与灵活性兼顾以及安全性共存”的准则,进行了全方位的布局与设计,采纳“团体统建,分子公司共享”的模式。 该我的项目应用了星环科技大数据根底平台TDH、数据云平台TDC、大数据开发工具TDS、智能剖析工具Sophon等产品进行建设,反对以多租户的模式提供服务,可能疾速响应各个分、子公司的大数据治理以及利用开发需要,具备平台稳固、技术全面、数据安全、运维不便等特点。平台使用利用隔离、资源隔离、数据隔离、运行隔离等伎俩保障各租户数据的隐蔽性,划分准则如下: 中航电梯数据中心:实现中航电梯、航奥电气、其余分子公司的数据对立接入,数据存储加工,数据轻度荡涤加工,数据下发,以及共性数据治理服务,打好根底数据存储、计算、治理、服务的数据中台底座。中航电梯租户区:可设立团体独立租户,进行团体治理域数据的主题加工与治理以及利用开发服务工作;各分子公司划分独立租户,进行各自数据的主题加工与治理以及利用开发工作。中航电梯数据资产治理平台:提供一套对立的数据资产治理平台,实现中航电梯数据中台内数据的数据管理工作、数据治理管理工作、数据安全管理工作等。整体业务布局基于中航电梯数据中台底座,采取“重点行业试点后行,行业对标横向扩大,利用逐渐丰盛”的准则构建,电梯行业作为中航电梯的主营业务,一阶段将作为次要试点行业。业务架构整体由四大局部组成:根底数据层、根底底座层、业务核心层、利用撑持层。 数据根底层,为数据中台提供根底数据源,次要蕴含三大类数据:业务零碎数据、中航电梯物联网数据、企业内部数据;根底底座层,基于团体数据中台将兼顾构建中航电梯数字化经营与工业互联网为一体的数字化底座,提供对立数据接入、对立数据治理、对立数据资产目录、对立数据共享替换的服务;业务核心层,为业务架构的外围建设层;利用撑持层,为理论业务实现层,整体将分三期进行业务利用建设。案例施行功效 升高企业数字化利用存储、开发、运维、治理老本通过数据中台技术利用,中航电梯实现了数据的对立存储、计算、治理、剖析,并通过对立的运维治理平台,实现了数据中台的图形化集中式运维,升高了开发和运维人员的技术要求和人员需要数量要求;同时在梯联网数据层面通过专有数据库的存储压缩技术,大大降低了相干数据的存储老本。 数据互通共享,实现精细化管控,进步经济效益通过对电梯行业经营数据、生产数据、供给数据、营销数据、梯联网数据的集成、治理、交融、剖析,实现了中航电梯的数字化集中管控模式,让决策有了全面的、精准的数据撑持。实现了精细化经营治理,对策略打算的施行过程进行全面监控,发现问题及时调控,进步经济效益。 进步作业效率,升高人力老本要害指标主动生成,解决业务人员手工编写报告的问题,缩小了相干部门反复报送数据的次数,从而间接缩小了中航电梯的办公老本和人力老本,实现降本增效的指标。 服务下属单位或工厂中航电梯数据中台基于数据云大数据平台进行建设,反对以多租户的模式提供服务,可能疾速响应各个分、子公司的大数据治理以及利用开发需要,帮忙团体升高整体平台的构建费用。 扩大团体业务,构建新型电梯售后服务商业模式重塑了中航电梯售后服务的商业模式,为中航电梯带来新的业务增长点,实现了团体翻新盈利业务的增长。 案例翻新点 在电梯装置监管业务畛域,整体采纳了AIOT“云边一体”的架构。云端由星环科技大数据根底平台TDH和数据迷信平台Sophon Base组成,实现梯联网数据的存储、计算、模型开发等性能;边端由星环科技边缘计算平台Sophon Edge搭配边缘计算盒子,实现数据的接入、解决、转发与模型推理。在整套架构的撑持下,已实现了安全帽检测、反光衣检测、人员吸烟行为检测、堆料防护栏检测、零部件缺失检测、电梯口人员平安检测等相干模型的开发与部署,帮忙客户实现了电梯装置、培修过程中的实时平安检测与可视化异样报警以及安全事件追溯。

April 18, 2023 · 1 min · jiezi

关于大数据:火山引擎-DataTester让企业无代码也能用起来的-AB-实验平台

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群当数字化改革方兴未艾,无代码正受到前所未有的关注。Salesforce 的数据显示,52%的 IT 部门示意,公司外部 IT 相干的技能差距是一个大问题,优良的开发人员难找且老本昂扬,而“无代码”能让编码技能无限的群体无需代码即可创立应用程序。 无代码反动可能放大企业人才技能差距、简化开发需要,让企业将更容易把业务与技术嵌合。在 A/B 试验畛域,无代码的改革也正在进行。 火山引擎 DataTester 的可视化编辑器已能提供“无代码”A/B 试验的能力,企业可在开发团队零干涉的前提下编辑网站元素并施行 A/B 试验。 火山引擎 DataTester 的可视化编辑器为无编码根底的企业提供了直观敌对的 UI 能力,用户能够通过简略的点击,就能在可视化编辑器中对页面中的图片、文字、色彩、地位等元素和属性,进行“所见即所得”的在线编辑。 据理解,DataTester 可视化编辑器实用于原生网站、构建网站、搭建网站等多种类型的网站优化,大幅升高企业在 Web/H5 页面优化等场景下的 A/B 试验配置老本。 以常见的网站落地页类 A/B 试验举例,在一些节日或者新品公布时,企业通常须要做各类营销流动,并搭建投放相应落地页。 此时,企业可通过 DataTester 可视化编辑器生成多个版本落地页并进行 A/B 测试,还能对页面进行快捷编辑。 用户在 DataTester 平台上创立多个落地页实验组后,能够应用小流量开启试验,当试验优胜版本得出后,则能够放大流量,确保最优版本失去收益最大化。除去产品落地页的 A/B 试验场景外,DataTester 还能够通过试验对产品主页、首页、详情页等页面进行优化,也就是通常所说的网站主页/首页/详情页优化类 A/B 试验。 如在电商行业的商品详情页中,如果企业想通过优化“退出购物车”、“立刻购买”等页面按钮元素减少转化率,在 DataTester 中只需通过简略几步即可实现更改。 下图中的橙色区域代表可在 DataTester 中编辑的页面元素示意。 通过火山引擎 DataTester 的可视化编辑器,企业可实现在网页主页、落地页等场景下的无代码 A/B 试验,不再局限于开发团队的带宽限度。企业可利用该性能放慢产品迭代速度,高效优化网站显示和流动策略,实现降本增效。 作为助力企业科学决策的 A/B 测试平台,DataTester 目前服务了包含美的、失去、凯叔讲故事等在内的上百家内部企业,为业务的用户增长、转化、产品迭代、经营流动等各个环节提供迷信的决策依据,将成熟的“数据驱动增长”教训赋能给各行业。 点击跳转 火山引擎A/B测试DataTester 理解更多

April 18, 2023 · 1 min · jiezi

关于大数据:从此告别写SQLDataLeap帮你零门槛完成数据探查

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群在日常数据处理工作中,产品、经营、研发或数据分析师常常会面临数据量大且凌乱、品质参差不齐的问题,须要破费大量工夫和精力校验表数据是否残缺、是否有空值,表数据是否有异样、主键是否反复等。 这种校验工作也被称为“数据探查”,即数据负责人在上线前对数据进行测试,保证数据合乎业务预期,防止上游用户因为数据谬误导致决策失误;或者数据使用者在启用数据表时,对表中数据的品质进行核查,尽早发现缺点并解决,增强数据品质保障。 一般来说,数据从业者会通过写SQL的形式来进行数据探查。 但作为数据库查问语句,SQL具备肯定业余门槛,并且反复操作、破费工夫。 火山引擎Dataleap推出的“数据探查”性能,可一举解决以上问题,帮忙数据从业者校验数据量、主键、空值、枚举值等数值。用户只有进行简略的勾选操作,就能轻松取得具体、精确的可视化校验报告,极大节约工夫老本,晋升工作效率。 具体来说,用户从DataLeap进入「数据品质」即可找到「数据探查」模块,从这一界面中点击「确定」按钮即可创立校验。除此之外,用户在DataLeap中创立EMR/LAS SQL相干类型工作之后,也能够通过工作面板上的「数据校验」button进入「数据探查」模块。 第一步:抉择数据源 依据引擎侧抉择探查对象,用户可在页面中抉择表和库,并设置分区,和对应的探查设置,随后提交确认。 第二步:抉择校验内容 如下图所示,在随后的具体设置页面中,使用者对表NULL值、0值、数值散布、字段枚举值、字段空值等须要校验的我的项目进行勾选。 第三步:高级参数设置 在参数设置中,反对以传参形式设置探查滤条件,点击确定,即可实现。 治理探查后果数据探查创立胜利后,能够执行查看探查报告、搜寻探查后果、查看运行日志等操作,点击探查后果列表前的折叠图标或点击全副开展按钮,开展列表信息 校验报告一览最初,用户通过「数据探查」可能失去什么信息呢?DataLeap将表中的数据信息以概览和图表的形式进行出现。 ①题目及概览用户能够高深莫测看到校验的基本参数:如谁发动的校验、探查实现工夫、分区字段及过滤条件等。 在校验概览中,用户能够看到整张表的探查规定上行数的枚举值散布,主键反复的行数,呈现空值的字段数。 ②字段枚举值左侧可抉择用户指定的枚举字段,右侧以列表展现该枚举字段下的所有枚举值及其呈现次数,以及在各个分组取值下的枚举值数量。 除了数据探查能力之外,作为大数据研发治理套件,DataLeap还能够提供数据集成、开发、运维、治理、资产、平安等能力,帮忙用户晋升数据研发效率、升高治理老本,减速推动企业的数字化转型。 点击跳转 大数据研发治理DataLeap 理解更多

April 17, 2023 · 1 min · jiezi

关于大数据:火山引擎云原生数据仓库-ByteHouse-技术白皮书-V10中

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群近日,《火山引擎云原生数据仓库 ByteHouse 技术白皮书》正式公布。白皮书简述了 ByteHouse 基于 ClickHouse 引擎的倒退历程,首次具体展示 ByteHouse 的整体架构设计及自研核心技术,为云原生数据仓库倒退,及企业数字化转型实战使用提供最新的参考和启迪。 以下为 ByteHouse 技术白皮书整体架构设计版块摘录。 点此查看ByteHouse技术白皮书(上) ByteHouse 整体架构设计ByteHouse 整体架构图 云原生数据仓库 ByteHouse 总体架构图如上图所示,设计指标是实现高扩展性、高性能、高可靠性、高易用性。从下往上,总体上分服务层、计算层和存储层。 服务层服务层包含了所有与用户交互的内容,包含用户治理、身份验证、查问优化器,事务管理、平安治理、元数据管理,以及运维监控、数据查问等可视化操作性能。 服务层次要包含如下组件: 资源管理器资源管理器(Resource Manager)负责对计算资源进行对立的治理和调度,可能收集各个计算组的性能数据,为查问、写入和后台任务动态分配资源。同时反对计算资源隔离和共享,资源池化和弹性扩缩等性能。资源管理器是进步集群整体利用率的外围组件。 服务节点服务节点(CNCH Server)能够看成是 Query 执行的 master 或者是 coordinator。每一个计算组有 1 个或者多个 CNCH Server,负责承受用户的 query 申请,解析 query,生成逻辑执行打算,优化执行打算,调度和执行 query,并将最终后果返回给用户。 服务节点是无状态的,意味着用户能够接入任意一个服务节点(当然如果有须要,也能够隔离开),并且能够程度扩大,意味着平台具备反对高并发查问的能力。 元数据服务元数据服务(Catalog Service)提供对查问相干元数据信息的读写。Metadata 次要包含 2 局部:Table 的元数据和 Part 的元数据。表的元数据信息次要包含表的 Schema,partitioning schema,primary key,ordering key。Part 的元数据信息记录表所对应的所有 data file 的元数据,次要包含文件名,文件门路,partition, schema,statistics,数据的索引等信息。元数据信息会长久化保留在状态存储池外面,为了升高对元数据库的拜访压力,对于拜访频度高的元数据会进行缓存。元数据服务本身只负责解决对元数据的申请,本身是无状态的,能够程度扩大。 平安治理权限管制和平安治理,包含入侵检测、用户角色治理、受权治理、拜访白名单治理、平安审计等性能。计算层通过容器编排平台(如 Kubernetes)来实现计算资源管理,所有计算资源都放在容器中。 计算组是计算资源的组织单位,能够将计算资源按需划分为多个虚构集群。每个虚构集群里蕴含 0 到多台计算节点,可依照理论资源需求量动静的扩缩容。 一个租户内能够创立 1 个或多个计算组,计算资源扩缩容的形式有两种,一种是调整计算组的 CPU 核数和内存大小实现疾速的纵向扩缩容,另一种形式是增减计算组的数量实现程度扩容,在存储计算拆散的架构下,计算资源与存储资源是解耦的且无状态的,扩缩容过程不须要迁徙和均衡数据,因此能够实现疾速弹性扩缩容。 计算节点次要承当的是计算工作,这些工作能够是数据写入、用户查问,也能够是一些后台任务。用户查问和后台任务,能够共享雷同的计算节点以进步利用率,也能够应用独立的计算节点以保障严格的资源隔离。用户能够依据计算工作的个性、优先级和业务类别不同,构建多个计算组,并设置不同的资源弹性策略,进步计算效率降低成本。 存储层采纳 HDFS 或 S3 等云存储服务作为数据存储层,用来存储理论数据、索引等内容。 ...

April 14, 2023 · 2 min · jiezi

关于大数据:星环科技自研技术加速大数据从持久化统一化资产化业务化到生态化

从2013年成立开始,星环科技就专一于大数据根底技术与企业数据业务的更好联合,同时面对中国更为简单的数据利用场景,研发了多种更贴合国内大数据利用需要的大数据管理技术,在大数据技术畛域有多项根底技术冲破。星环科技在保持技术自研的路线上,发明了多个世界级的技术成绩,本篇介绍星环科技大数据技术。 — 星环科技大数据技术概述 —为了应答新的数据业务化需要,解决原有的技术问题,星环科技从新设计大数据技术栈,建设一个高度对立的数据平台,可能无效的解决大数据的4个V问题,买通大数据价值输入的技术链条,从而减速大数据从长久化、统一化、资产化、业务化到生态化的价值门路,这就是星环科技大数据3.0技术体系。 星环科技2015年即实现了基于Hadoop的分布式剖析型数据库,是首个反对残缺的SQL规范、存储过程、分布式事务的分布式剖析型数据。同年推出低延时流计算引擎,在业界率先推出StreamSQL的SQL语言扩大,升高流利用开发的难度,同时推出延时低于5ms的计算引擎,远低于Spark Streaming的计算延时。 2017年在业内率先推出基于Docker和Kubernetes的大数据云服务,实现大数据产品更好的跨平台和云化能力,是业内最早采纳Kubernetes技术的厂商,而Cloudera到了2020年Q3才实现相干的研发工作。 2018年公布反对万亿级图点和边数据的分布式图数据库,提供了弱小的图剖析与存储能力,减速了认知智能的计算。同年公布基于闪存的新一代分布式剖析数据库,基于Raft协定和闪存自研的新一代列式存储,可能显著的晋升交互式剖析性能,满足数据仓库和全量数据交互式剖析的场景要求。 — 设计考量与总体架构 —在设计之初,咱们定义新一代的大数据技术必须具备以下特点:(1)对立交融的数据平台,取代混合架构目前的企业数据业务架构中,往往须要蕴含数据湖、数据仓库、数据集市、综合搜寻等不同数据系统,很多企业采纳简单的混合架构,不仅产生宏大的数据冗余,也重大限度了数据利用的时效性。新的大数据平台须要能一站式的满足所有需要,应答从疾速响应到海量剖析的各层级需要,淘汰混合架构的模式。(2)开发方式的交融,SQL作为对立接口SQL作为通过历史测验的结构化查询语言,具备宏大的用户群和灵活性,而以往通过API开发的形式存在利用兼容性差、开发难度低等问题。新一代大数据平台须要应用SQL来反对全副性能,包含数据仓库、在线交易、搜索引擎、时空数据库等,升高开发者门槛,放慢产品开发与上线速度。(3)大数据云化,推动大数据普惠化云计算的弹性和随处接入能够让更多的数据业务和开发者应用大数据技术,因而新的大数据技术须要可能提供云化的能力。在硬件层面上,大数据平台对CPU、GPU、网络、存储等资源进行对立治理和调配,基于容器技术实现云上的大数据利用对立部署,平台租户按需申请大数据的技术和产品。(4)大数据与利用生态的交融,撑持数据业务化和业务数据化数据业务化是大数据技术最终的价值体现,在数据层面上,平台所有数据对立存储,建设对立的数据仓库与数据资产目录,各业务部门依据需要调用;在模型层,通过建设模型市场,租户训练好的模型能够抉择一键公布至模型市场,其余租户间接调用。在应用层,平台内用户可将业务验证过的利用公布至企业级利用市场,共享给其余用户,所有运行的利用被对立治理。为了满足企业对大数据的更高的交融要求,同时可能撑持新型的数据存储和计算要求,星环科技整体上从新设计了大数据技术栈,同时尽量保障各个层级之间由通用的接口来买通,从而保障后续的可扩展性,防止了Hadoop技术的架构毛病,同时逐渐实现了大数据根底技术的自主研发,通过7年多的倒退,整体技术栈曾经根本实现了自研过程。 上图是星环科技大数据技术栈的逻辑架构图。自下而上,最底层是能够治理和调度各种计算工作的资源调度层,咱们抉择基于Kubernetes技术来打造。随着数据利用的倒退,计算工作不仅仅只是MapReduce,还可能是Spark、深度学习,甚至是MPI类的高性能计算工作,也能够是弹性的数据利用,因而专门为Hadoop设计的YARN就无奈满足需要。通过对Kubernetes和大数据底层的翻新,咱们的资源调度层不仅能够撑持各种计算工作,还能够与云计算底层买通,解决大数据云化的问题。 为了更好的适应将来的数据存储与剖析的需要,撑持各种新的存储引擎,咱们形象出了对立存储管理层,可能插拔不同的存储引擎来实现对不同类型的数据的存储、检索和剖析的申请。将来针对某些特定的利用可能都会有专用的分布式存储引擎来撑持,在应用对立的分布式块存储管理层之后,架构师们只须要设计一个单机版本的存储引擎或者文件系统,并接入存储管理层,就能够实现一个分布式存储引擎,反对分布式事务、MVCC、索引、SQL表达式下推等性能,这样能够极大的升高存储开发的复杂度。 在块存储管理层之下就是各个数据库内核或存储,包含用于剖析型数据库的列式存储、NoSQL的Bigtable、打造搜索引擎的全文索引、面向图计算的图存储引擎等,这些引擎接管下层的执行打算,而后生成对存储层的scan/put/write/事务等操作,实现特定的解决工作。在存储层之上就是对立的计算引擎层,咱们抉择了基于DAG的计算模式来反对大数据的各种计算。绝对于MPP模式,DAG计算可能更好的适宜大规模集群之间的各种通信和计算工作,并且有更高的可扩展性,可能满足包含图计算、深度学习在内的多迭代的计算个性,同时通过代码生成等技术,也能够将性能优化到十分靠近native代码的程度。 最下面是对立的开发接口层,对剖析数据库、交易数据库等,咱们通过规范的SQL开发接口提供给开发者,升高数据开发和剖析的复杂度。此外,通过欠缺的SQL优化器设计,能够做到无需非凡的优化,SQL业务也能有十分高的性能,甚至比间接API级编程更好,而无需理解底层架构的细节。对于图数据库,咱们提供Cypher语言接口,而优化器零碎则全副复用SQL优化器。此外,开发接口层还提供了对立的事务处理单元,从而保证数据开发都有残缺的事务保障,确保数据的ACID。 — 开发接口层 —对立的开发接口层的外围是SQL编译器、优化器和事务管理单元,它能够提供给开发者比拟好的数据库体验,无需基于底层API来做业务开发,保障对传统业务的反对水平,还能够更好的优化业务。 不同于传统的大数据SQL引擎(如Hive),咱们从新设计了SQL编译器,它蕴含了三个Parser,能够从SQL、存储过程或者Cypher语句生成语义表达式,以及一个分布式事务处理单元。一个SQL通过Parser解决后,会再通过4组不同的优化器来生成最佳的执行打算,最终将执行打算推送给向量化的执行引擎层。 lRBO(Rule-Based Optimizer)依据已有的专家规定进行优化,不同的存储引擎或者数据库开发者会提供专门的优化规定,目前咱们曾经积攒了数百条优化规定。其中,最无效的优化规定都是针对IO相干的优化,如过滤下推、隐式过滤条件折叠、基于分区或分桶的IO优化、Partition打消、多余字段打消等技术,将SQL中可能节俭掉的各种IO操作尽最大可能的打消,从而晋升整体性能。ISO(Inter SQL Optimizer)用于存储过程外部的优化,当一个存储过程外面有多个SQL存在相似的SQL查问或剖析的时候,它能够将这些操作合并在一起,从而缩小不必要的计算工作或者SQL操作。为了让存储过程有较好的性能,PL/SQL解析器会依据存储过程中的上下文关系来生成SQL DAG,而后对各SQL的执行打算进行二次编译,通过物理优化器将一些没有依赖关系的执行打算进行合并从而生成一个最终的物理执行打算DAG。因而,一个存储过程被解析成一个大的DAG从而stage之间能够大量并发执行,防止了屡次执行SQL的启动开销并保障了零碎的并发性能。MBO(Materialize-Based Optimizer)是基于物化视图或Cube的优化器,如果数据库中曾经有物化视图或Cube已构建好,而SQL操作可能基于这个物化对象来优化的话,MBO就会生成对相应的物化对象的操作,从而缩小计算量。CBO(Cost-Based Optimizer)即基于老本的优化器,它会依据多个潜在的执行打算的IO老本、网络老本和计算成本来抉择一个最佳的执行打算,而老本的估算则来自元数据服务。在将来,咱们还打算引入机器学习的能力,通过对历史执行SQL的统计信息的无效剖析,生成更加强壮的执行打算。一些十分无效的优化规定包含多表Join程序调优、JOIN类型抉择、工作并发度管制等。 SQL编译器和优化器对大数据技术栈十分要害,正如咱们在前序章节的剖析论断,它是可能决定整个技术的生态建设是否胜利的要害。除了SQL接口外,分布式事务和接口对大数据技术栈也是十分要害的组成。能够简单的零碎架构和容错设计下保证数据的一致性,以及有多种事务隔离级别的反对,从而可能拓展数据库去撑持更多的利用。 — 计算引擎层 —咱们的执行引擎抉择了基于DAG的模式,此外为了有更好的执行效率,咱们应用量化执行引擎技术来减速数据处理。量化执行引擎即每次计算对批量的数据进行解决,而不是一一记录。对列式的数据存储,向量执行引擎有十分高的提速成果。另外与学术界很多研究进展类似,星环科技也采纳的是同一个计算引擎反对实时计算和离线计算,从而更好反对流批对立的业务场景。  在解决数据库的计算性能的可扩展性的办法上,目前支流的计算框架有两种,一种是基于MPP(Massive Parallel Processing)的减速形式,另一种是基于DAG(Directed Acyclic Graph)。整体上来看,基于MPP的形式在容错性、可扩展性和对业务的适配上灵活性有余,不能满足咱们对将来多样化的数据服务撑持的需要,因而咱们抉择了基于DAG的计算模式,同时在它的根底上深度优化执行性能,既能反对更多样化的数据计算需要,也可能取得极致的性能。 从2018年开始,企业对实时计算的需要的增长十分迅速,此外因为实时计算多是生产零碎,绝对于剖析零碎在技术上也有更高的要求,包含: 高并发:霎时高并发的数据操作或者剖析低延时:要求毫秒级的解决响应工夫准确性:数据不丢不重、业务高可用业务连续性:在线对接生产的数据业务为了可能零碎的适应业务需要,咱们放弃了对Spark或者Flink等开源计划,而是残缺的设计了整个的实时计算产品。首先,咱们从新设计了流计算引擎的计算模式,保障其对数据流的计算延时可能低至5毫秒级别,同时必要残缺的设计了整个数据通路,确保其数据的不丢不重,以及整个链路的安全性。 此外,在计算模式上,流数据不仅能够跟其余工夫窗口的数据进行简单计算,还须要跟历史数据(长久化在各种数据库中的数据)进行计算,因而咱们引入了CEP引擎(Complex Event Processing Engine),可能对多个输出事件进行计算,执行包含简单模式的匹配和聚合计算等,也反对各种滑动窗口类计算,同时也能够与历史数据或长久化数据进行关联计算。 对于简单的利用业务,咱们设计了规定引擎(Rule Engine)来解决业务规定,并且能够兼容其余规定引擎设计的业务规定,从而能够实现简单的业务规定。最初为了更好的应答业务指标,咱们也在流引擎中减少了基于内存的分布式缓存,用于减速数据指标的高速存储和读取,同时反对数据的订阅与公布。 在SQL模型层,咱们定义了StreamSQL的SQL语言扩大,新增了Stream、Stream Application和Stream Job等对象。一个Stream用于接管从一个数据源传来的数据,能够是间接接管,也能够对数据进行肯定的转换操作。一个Stream Job定义了具体的流上的数据操作逻辑,如规定匹配逻辑、实时ETL逻辑等。一个Stream Application是一组业务逻辑相干的Stream Job的组合。 — 分布式块存储管理层 —对立的分布式块存储管理层,是咱们对新一代大数据技术做的重大革新。数据的一致性是分布式系统的根基,Paxos协定的呈现在实践上保障其可行性,而之后更加简洁的Raft协定在工程的实现上更加高效。而工程上多个开源分布式存储在实现数据高可用和数据一致性的形式上也有不少的有余。譬如Cassandra在架构上可能保障高可用,然而它会存在Replica数据不统一的问题,此外也无奈反对事务性操作;HBase底层应用HDFS保证数据长久化和一致性,然而HMaster采纳了主备的形式,切换过程可能比拟长,因而有单点故障问题,不能保障可用性;Elasticsearch也相似,分区内数据的一致性在生产中也是一个问题。  随着企业数据业务倒退的深刻,更多的专用存储引擎的需要会被引入,譬如专门面向地理信息的数据存储与剖析、图数据、高维度特色的存储与计算等专用场景,再加上对现有的4大类NoSQL存储的需要,针对每个场景去实现独自的存储引擎工作量十分大,也有反复造轮子问题。  为了解决这个问题,咱们将各个分布式存储的通用的局部形象进去放在存储管理层,包含数据的一致性、存储引擎的优化接口、事务的操作接口、MVCC接口、分布式的元数据管理、数据分区策略、容错与灾备策略等性能,通过自研的基于Raft的分布式管制层来协同各个角色。各个存储引擎只须要实现其单机的存储引擎,而后接入对立的存储管理层就能够成为一个高可用的分布式存储系统。 在实现上,咱们应用Raft协定来做各个存储之间的一致性保障,次要包含: 各个单机存储组成的tablet正本之间的状态机同步Master的选主和状态机同步事务协同组的选主和状态机同步存储服务的复原服务能力其余治理运维能力— 资源调度层 —相似于操作系统的调度模块,资源调度层是整个大数据平台可能无效运行的关键技术。下图是资源调度层的总体架构,最底层是Kubernetes服务,在其下层运行着咱们自研的产品或服务。其中配置核心用于实时的收集和治理云平台内运行的服务的配置参数;物理资源池是通过各个资源池化后的逻辑资源;云存储服务是基于本地存储开发的分布式存储服务,会长久化有状态服务的数据,保障利用数据的最终长久化和零碎灾备能力;云网络是自研的网络服务,提供利用和租户相似VPC的网络能力。在此之上是云调度零碎,它接管利用的输出,从配置核心、标签核心、云存储和网络服务中获取实时的运行指标,从资源池中获取资源的应用状况,从而依据运行时的信息进行准确的调度决策。调度零碎之上就是各类的应用服务,包含大数据、AI、数据库类,以及各种微服务,也就是云平台能够良好撑持的各种利用。 — 小结—本篇介绍了星环科技大数据技术,将来星环科技将持续欠缺这个新的大数据架构体系,减少更多的新型数据存储与计算能力,同时欠缺数据业务化的技术拼图,包含基于机器学习的数据治理、数据服务公布等能力,进一步夯实数据与业务之间的技术缺口,让大数据技术更好的施展出价值。

April 13, 2023 · 1 min · jiezi

关于大数据:北京-Meetup-邀你来|云上-StarRocks-极速湖仓

数据价值是一个经久不衰的话题,随着公司技术和业务的倒退,数据的品种愈发繁多,数据分析的需要愈发简单。当公司经营中产生的数据是海量的,同时数据类型和结构复杂且多元,传统的数据仓库就无奈满足剖析性能的需要,湖仓一体的技术架构应需而生。 为了可能满足更多用户对于极速湖仓剖析的需要,StarRocks 2.5 版本进一步加强数据湖能力,在数据源生态、查问速度、应用体验上都做了大量优化。在物化视图构建、刷新机制优化上也获得了新的停顿。作为合作伙伴,阿里云积极参与社区建设,深度参加到 StarRocks 数据湖剖析能力的打造中(可浏览本篇文章 阿里云 EMR StarRocks 极速数据湖剖析: https://www.mirrorship.cn/zh-CN/blog/Summit2022-07lakehouse)。 阿里云 EMR StarRocks 产品公布已过来近一年的工夫,同时随着 StarRocks 3.0 RC01 版本的面世,单方携手独特举办线下 Meetup。4 月 19 日(周三)下午,水滴筹、猿辅导、阿里云 EMR 团队和 StarRocks 社区的技术专家,将针对开源 OLAP 技术架构、 StarRocks 产品硬核技术及 EMR StarRocks 实战经验等一系列超干货内容,为大家带来诚意满满的技术盛宴,报名可扫下方二维码,分享内容详情见下方海报。

April 13, 2023 · 1 min · jiezi

关于大数据:电商流量分析怎么做试试这款数据工具-DataLeap

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群作为成熟的电商模式,货架场景能够让商家以更低的门槛入驻,让消费者实现更高销量的购买和复购。在这一场景下,经营人员每天都须要依据数据来做决策,精准辨认每一份流量的成果是最重要的日常经营洞察之一。 而每一个流量入口的用户后续转化状况,是评估流量坑位的外围数据指标。在亿级数据体量下,某电商平台基于火山引擎 DataLeap、DataFinder 等产品组合,通过以下三个步骤,实现从北极星指标、用户增长指标到转化漏斗等外围数据监测和剖析。 本文将聚焦在货架场景,揭秘电商平台流量剖析背地的数据建设全门路。 第一,确定指标并实现埋点。 货架场景可细分为商城剖析、猜喜(猜你喜爱)剖析、频道剖析等,在不同场景察看的指标体系也不雷同。 例如,在商城剖析中,拜访用户数、UV 渗透率、领取 GMV 等是外围指标。依据不同指标需要,由数据分析师或研发人员基于火山引擎增长剖析平台 DataFinder 录入、剖析埋点,并查看数据体现,最终依照剖析逻辑造成 Hive 表。 指标落表需要 第二,通过火山引擎 DataLeap 实现 Hive 表荡涤、开发和加工,这也是流量剖析中最外围、简单的工作。 该电商团队次要通过 DataLeap 数据开发性能实现疾速建表。该性能反对 SQL 解析,即主动填写字段和类型信息,在批改阶段,研发人员能够通过 Excel 表格模式批改字段信息,提高效率。除此之外,DataLeap 工作运行监测能力还能帮忙监测要害工作的执行状态,一旦出现异常,反对发动报警。 因为数仓表的数量宏大,分析师、经营、产品同学还面临“找表难”的问题,该电商平台次要通过 DataLeap 数据地图能力查看数据起源和去向,疾速理解指标对应数据的存储地位,以及表的名称、形容信息等内容,帮忙相干人员更好剖析数据。 在品质监控层面,该电商平台在工作中常常遇到这些问题:数据信息缺失,如某个字段呈现空值;数据指标异样稳定,如拜访 UV 忽然跌了 20%等。数据上游出现异常稳定,则会对上游数据生产造成影响。 火山引擎 DataLeap 则能解决数据品质问题。依据不同应用场景,该电商平台将报警分为弱报警和强报警,弱报警只告诉相干负责人有稳定,而强报警则通过 DataLeap 间接熔断经营中的工作,防止引起上游异样。 第三,数据实现加工、解决之后,通过 DataLeap 数据服务性能实现数据交付。 数据交付次要通过 DataLeap 数据服务能力实现。DataLeap 反对建设物理表、逻辑表,不须要手写数据服务,只须要简略配置,便能够自动生产和部署服务。 以“回调函数”举例,回调函数次要用来让上游感知数据是否生产胜利。对于数据研发人员来说,撰写回调函数逻辑简单,但接入 DataLeap 数据服务能力之后,只须要在平台上点击“是否产生回调函数”的按钮,即可实现,大大节俭研发人员工夫。 一旦呈现用户策略及指标调整、指标监控需要变更的状况,火山引擎 DataLeap 也能反对定制化数据需要地疾速落地。基于 DataLeap 分布式数据治理的思路,电商团队能将业务教训规则化、策略化、自动化,积淀为可复用的办法,撑持业务进一步摸索货架场景更多玩法。 据悉,火山引擎 DataLeap 是一站式大数据研发治理套件,自 2021 年 12 月私有云版本上线以来,不仅服务于电商畛域,也帮忙泛互联网、汽车、制作等其余行业晋升数据研发效率,升高运维治理老本。 点击跳转 大数据研发治理DataLeap 理解更多

April 13, 2023 · 1 min · jiezi

关于大数据:火山引擎数智平台协助洞察美图类-APP-新增长-付费用户转化超过-124

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群美图类 APP 的下一个增长点在哪里? 目前,国内市场上的美图类 APP 大多都遵循着根底性能收费应用、个性化热门性能免费应用的准则。即用户能够在 APP 内抉择根底的收费修图性能,比方「瘦脸瘦身」、「增高塑形」、「美白磨皮」等,也能够抉择进阶版的一键主动美颜、一键模板生成等性能,只是后者往往须要开明 APP 会员能力应用。 推出会员限定性能,是绝大多数美图类 APP 实现业务增长的门路。 然而,随着性能研发日趋同质化,固有的「一键傻瓜式」付费服务越来越难以感动既有用户,“一方面,用户对「美」的定义越来越有本人的想法,一键式修图并不能满足用户的个性化需要;另一方面,不同 APP 的付费性能大同小异,不足外围竞争力,用户明天能够用 A 产品,今天也能够抉择应用 B 产品,”负责某美图类 APP 用户经营的小吴介绍,“如果持续沿用原来那套围绕纯修图性能的策略,美图类 APP 很快就会陷入增长停滞的窘境。” 不止是小吴,包含美图秀秀、醒图、可可修图等国内支流美图类 APP 都曾经觉察这一讯号,并在积极探索求变办法。 其中,将场景化生产引入美图畛域,就是一次大胆尝试。 通过在中秋节、春节、情人节等特定节假日期间,推出相应的场景化修图性能,包含但不限于特定妆容一键生成、节假日限定装璜挂件、节日特色滤镜等……甚至局部 APP 还会在社交平台配合推出“打卡”流动,激励用户上传修图后的照片,进一步衬托节日气氛,满足用户既要过节又能分享的心理需要。 某头部美图类 APP 曾在去年引入火山引擎数智平台 VeDI 旗下的增长剖析 DataFinder,以继续洞察场景化修图性能为 APP 带来的用户增量。 据理解,火山引擎数智平台 DataFinder 能通过埋点形式对用户在 APP 内的全生命旅程进行实时洞察,同时产品自带多套数据分析模板可能反对 APP 产品、经营岗位员工对不同维度数据的收集、剖析,同时基于多种可视化数据看板出现,DataFinder 可能进一步升高 APP 经营人员的看数、用数门槛。 2022 年中秋节期间,该 APP 面向付费用户推出系列「中秋限定贴纸」,DataFinder 数据显示,这一系列贴纸为 APP 带来的付费用户转化超过 124%。 仿佛,场景化生产确实能够成为美图类 APP 实现业务增长的新方向。 点击跳转 火山引擎数智平台VeDI 理解更多

April 12, 2023 · 1 min · jiezi

关于大数据:火山引擎-DataLeap-推出全链路智能监控报警平台

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群随着大数据开发场景下须要运维治理的工作越来越多,在日常运维中开发者常常会面临以下几个问题: 1.工作多,依赖关系简单:很难查找到重要工作的所有上游工作并进行监控。如果监控所有工作,又会产生很多无用报警,导致有用报警被忽视; 2.配置运维老本高:每个工作的运行状况不一样,承诺实现工夫不一样,如果独自对每个工作设置监控,剖析及人工对齐工作服务级别协定(SLA)老本十分高; 3.报警模式多样性:对于小时级的工作,不同时段的报警及时性要求不同,一般监控无奈满足不同时段多样的报警需要。 为了帮忙企业开发者更好地解决这一问题,及时安稳实现日常运维、高效保障数据品质,字节跳动数据平台开发套件数据开发团队自研了基于依赖关系的全链路智能监控报警——基线监控,它能依据工作运行状况,智能决策是否报警、何时报警、如何报警以及向谁报警,贯通整条工作产出链路,避免出现环节缺失,保障链路完整性。目前基线监控已在字节跳动外部失去宽泛应用,笼罩抖音、电商、广告等 100+个我的项目,服务级别协定(SLA)工作的基线监控覆盖率超过 80%。 以后,该能力已通过火山引擎 DataLeap 向企业凋谢。企业能够通过火山引擎 DataLeap 的基线监控性能,无效升高监控配置老本、防止有效报警及报警泛滥。 图:火山引擎 DataLeap 监控范畴 火山引擎 DataLeap 默认监控的范畴包含:基线保障工作及保障工作上游的所有工作。如上图所示,保障工作 D,E 及它们所有的上游节点都会纳入基线监控范畴,而工作 C,F 不受基线监控。值得一提的是,火山引擎 DataLeap 的基线监控容许用户配置基线监控只笼罩“指定我的项目”下的工作,此时基线监控的范畴就只蕴含了保障工作及这些我的项目下的上游工作。 图:火山引擎 DataLeap 基线监控整体架构 火山引擎 DataLeap 基线监控整体架构基线治理模块、基线实例生成、基线埋点检测等形成,各模块具体来看: 1.基线治理模块:负责基线创立、更新、删除等操作,治理基线元信息,包含保障工作,承诺工夫,余量及报警配置等; 2.基线实例生成:火山引擎 DataLeap 每天定时触发生成基线实例,生成实例的同时依据保障工作,由下而上逐层遍历 (BFS)所有上游工作并生成基线监控埋点。 生成基线监控埋点的过程中,火山引擎 DataLeap 会计算每个工作节点的预测运行时长,承诺工夫,预警工夫,预警最晚开始工夫,承诺最晚开始工夫。此外,火山引擎 DataLeap 会给基线监控工作增加基线出错/变慢报警规定,当工作执行触发规定后,通过根底报警服务发送基线报警事件; 3.监控埋点校验:系统维护一个提早队列,火山引擎 DataLeap 会依据校验工夫点(预警最晚开始工夫,承诺最晚开始工夫以及破线加剧工夫校验点),同时火山引擎 DataLeap 会定时触发监控埋点校验工作实例运行状态,如果在工夫点实例未运行胜利,产生基线预警/破线报警事件,发送报警。 将来,火山引擎 DataLeap 的研发人员将持续针对基线监控进行优化,如基线要害路径分析、基线实例生成效率优化等,一直进步基线监控算法性能,欠缺基线链路剖析能力,晋升用户体验,向企业级市场提供更弱小的全链路监控经营服务。 点击跳转 大数据研发治理DataLeap 理解更多

April 12, 2023 · 1 min · jiezi

关于大数据:应用火山引擎-DataTester避坑抖音实现用-AB-实验快速试错

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群A/B 测试产品能够说是企业科学决策的根底“设施”,可能帮忙企业疾速迭代产品。 在字节跳动,每一个产品性能上线前,都会先在火山引擎 A/B 测试产品 DataTester 上进行小流量验证,联合业务逻辑对后果的剖析了解策略失效过程,而后再对计划进行修改、尝试翻新,推动整个产品和业务的继续迭代。 抖音上,晚期有一个性能“弹幕”性能构想,目标是强化熟人社交的互动性,产品团队心愿围绕熟人社交进行性能拓展,以激励用户多看视频、多发作品。 产品团队借鉴长视频的弹幕性能提出了一个想法——在抖音短视频中减少弹幕互动的性能,当用户观看熟人(好友)的短视频作品时,该视频的相干评论通过弹幕的模式展现,让用户有更多的互动机会并感触互动的高兴。 这个功能设计初衷是很好的,但它对于产品所带来的影响是正向还是负向,须要通过 A/B 试验进行评估验证。DataTester 就帮忙团队疾速试错,防止了不适合的性能上线后为产品带来的负向影响。 如图所示,该团队在DataTester中设计了这样一个试验: 图一是对照组,产品界面维持抖音原样,没有弹幕性能。图二是实验组 1,因为弹幕性能对抖音而言是大型改变,会间接影响产品主界面布局,所以产品团队在实验组 1 中做了一个激进的尝试,他们将视频的文字描述区域全副去掉,替换为弹幕互动性能;与此同时,为了界面的好看简洁,将抖音右侧本来的互动区支出了“更多”的按钮中。图三是实验组 2,为了缩小产品改变过大对用户带来的不确定影响,这个版本的产品设计保留了产品原有的互动等其它性能。从 DataTester 的试验后果数据看,两个实验组的互动率的确有着显著晋升,达到了功能设计时“晋升互动率”的初衷。但察看新计划对抖音大盘外围指标影响时发现,这个性能对抖音整体视频的浏览量、用户投稿率、用户整体留存率均有负向影响,上述指标均呈现了不同水平的降落。A/B 试验清晰地表明,这个性能尽管能晋升抖音的互动率,但却不利于用户的整体应用与留存。因而这个看上去很好的改变并未在抖音全量上线。 之后,抖音围绕弹幕类的产品优化摸索并未进行,通过更屡次的假如与 A/B 试验验证,这个性能起初退出了抖音的集体页地位中。当它被放在了失当的地位,也能为产品的指标带来正向的晋升。从这个案例中也能够看到,DataTester 起到了帮忙业务实现科学决策的能力,业务可能大胆翻新的同时,也能迷信验证每次翻新是否真正无效。 像这样的 A/B 试验,在字节跳动曾经开启了 150 多万次,每天都有 2000 多个新的试验上线,在 DataTester 上同时运行的试验有 3 万多个。作为字节跳动外部应用多年的 A/B 测试平台,DataTester 有反对多种简单 A/B 试验的能力和迷信的分流能力。 它可能深度耦合举荐、广告、搜寻、UI、产品性能等多种业务场景需要,为业务增长、转化、产品迭代,策略优化,经营提效等各个环节提供迷信的决策依据。 目前,火山引擎 DataTester 曾经对外服务了美的、失去、凯叔讲故事等在内的上百家标杆客户,将成熟的 " 数据驱动增长 " 教训赋能给各行业。 点击跳转 火山引擎A/B测试DataTester 理解更多

April 11, 2023 · 1 min · jiezi

关于大数据:低至-200-元-月火山引擎-DataLeap-帮你搭建企业级数据中台

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群企业数字化转型正席卷寰球,这不仅是趋势所在,也是企业倒退必然面对的考题。数字化不仅仅考验企业的技术“硬”实力,还考验选型、平台能力、数据部署形式等“软”技能。 企业数字化转型离不开数据工具的反对。大数据研发治理套件 DataLeap,是火山引擎数智平台 VeDI 旗下的 PaaS 层产品。 自 2021 年 12 月 Dataleap 私有云版上线至今,已为泛滥企业提供了数据集成、开发、运维、治理、资产、平安等数据中台解决方案,帮忙企业晋升数据研发效率,升高运维治理老本。 依据不同企业、行业需要,火山引擎 DataLeap 分为多个版本,目前正在炽热进行企业级特惠流动,其中: 面向数据开发场景的 DataLeap 数据开发特惠版,反对多引擎兼容,具备丰盛的数据源集成、数据开发、工作运维、资产检索、数据安全等治理性能。仅需 200 元/月,每天享受 20+收费实例资源。面向轻量级数仓建设的 DataLeap 大数据分析版,服务于企业一体化数据中台建设,具备数据品质规定预警、反对数据标准事先治理以及数据服务 API 共享能力,仅需 4000 元/月。面向多源异构数据集成场景的 DataLeap 大数据集成版,反对丰盛的数据源同步,具备增量 CDC 建设能力和分库分表同步治理能力,仅需 4000 元/月。如果企业对数据集成时效性要求高,则能够抉择 480 元/月的资源组,无缝反对离线实时集成同步,高吞吐并发稳固保障,海量数据日级同步。 在产品能力上,DataLeap 提供了事先预警、事中解决、预先复盘及举荐优化的全生命周期的数据治理能力,具备了数据中台建设和管理所需的各个功能模块。DataLeap 还翻新提出了分布式数据治理模式,该模式具备建设周期短,业务影响小,适配能力强,治理成果低等长处。 不仅能实现各级业务及集体的自驱治理,还能充沛依据业务阶段来制订治理的内容。据介绍,DataLeap 各个模块均可独立应用分布式治理模式,这让数据治理对业务的冲击和影响能够尽可能最小化。 通过 DataLeap 的分布式治理能力,企业能够将业余的治理常识积淀下来,实现产品化协同,并联合智能化举荐性能,晋升其执行效率。以失去 APP 为例,该企业通过引入火山引擎 DataLeap,在数据基建能力以及治理办法上晋升其数字化能力。 据失去团队介绍,DataLeap 开释了失去技术团队在繁多的开源组件和零碎自研上投入的研发资源和人力,并通过先进的治理工具和配套的价值交付,帮助失去建设了可继续的数据治理方法论,将失去整体的数据治理能力跃进了 3 年程度。 更多产品材料、使用指南、促销信息,欢送点击跳转火山引擎DataLeap进入官网获取。

April 10, 2023 · 1 min · jiezi

关于大数据:火山引擎云原生数据仓库-ByteHouse-技术白皮书-V10上

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群近日,《火山引擎云原生数据仓库 ByteHouse 技术白皮书》正式公布。白皮书简述了 ByteHouse 基于 ClickHouse 引擎的倒退历程,首次具体展示 ByteHouse 的整体架构设计及自研核心技术,为云原生数据仓库倒退,及企业数字化转型实战使用提供最新的参考和启迪。 以下为 ByteHouse 技术白皮书前两个版块摘录。 1.ByteHouse 简介ByteHouse 是字节跳动自主研发的云原生数据仓库产品,在开源 ClickHouse 引擎之上做了技术架构重构,实现了云原生环境的部署和运维治理、存储计算拆散、多租户治理等性能。在可扩展性、稳定性、可运维性、性能以及资源利用率方面都有微小的晋升。 截至 2022 年 2 月,ByteHouse 在字节跳动外部部署规模超过 1 万 8000 台,单集群超过 2400 台。通过外部数百个利用场景和数万用户锻炼,并在多个内部企业客户中失去推广应用。 产品个性ByteHouse 以提供高性能、高资源利用率、高稳定性、低运维老本为指标,进行了优化设计和工程实现,产品个性和劣势如下: 存储计算拆散:解决了全局元数据管理,过多小文件存储性能差等等技术难题。在最小化性能损耗的状况下,实现存储层与计算层的拆散,独立扩缩容。新一代 MPP 架构:联合 Shared-nothing 的计算层以及 Shared-everything 的存储层,无效防止了传统 MPP 架构中的 Re-sharding 问题,同时保留了 MPP 并行处理能力。数据一致性与事务反对。计算资源隔离,读写拆散:通过计算组(VW)概念,对宿主机硬件资源进行灵便切割调配,按需扩缩容。资源无效隔离,读写离开资源管理,工作之间互不影响,杜绝了大查问打满所有资源拖垮集群的景象。ANSI-SQL:SQL 兼容性全面晋升,反对 ANSI-SQL 2011 规范,TPC-DS 测试集 100%通过率。UDF:反对 Python UDF/UDAF 创立与治理,补足函数的可扩展性。(Java UDF/UDAF 已在开发中)自研优化器:自研 Cost-Based Optimizer,优化多表 JOIN 等简单查问性能,性能晋升若干倍。产品能力上,在引擎外提供更加丰盛的企业级性能和可视化治理界面: 库表资产治理:控制台建库建表,治理元信息。多租户治理:反对多租户模型,租户间相互隔离,独立计费。RBAC 权限治理:反对库、表、列级,读、写、资源管理等权限。通过角色进行治理。VW 主动启停,弹性扩大:计算资源按需分配,闲时敞开。升高总成本,进步资源使用率。性能诊断:提供 Query History 和 Query Profiler 性能,帮忙用户自助地排查慢查问的起因。实用场景ByteHouse 定位为一款数据仓库产品,次要用于 OLAP 查问和计算场景。在实时数据接入、大宽表聚合查问、海量数据下简单剖析计算、多表关联查问场景下有十分好的性能。 ...

April 10, 2023 · 1 min · jiezi

关于大数据:数据仓库11什么是大数据治理数据治理的范围是哪些

什么是数据治理,数据治理蕴含哪些方面?大数据时代的到来,给了咱们很多的时机,也有很多的挑战。最根底的调整也是大数据的计算和治理,数据治理是一个特地重要的大数据根底,他保障着数据是否被最好的利用,保障着数据的平安,治理等。那么数据治理到底能治什么,怎么治?数据治理次要蕴含七个方面。 主数据管理即数据自身的治理,对于数据自身,基于数据仓库,咱们做了数据的分层、数据域的划分、基于维度建模的架构、命名标准、对须要共享的数据建设对立视图和集中管理等,这些都是属于这个主数据管理的范畴。 元数据管理元数据,即数据的数据。蕴含两个个方面,技术元数据、业务元数据。用于买通了源数据、数据仓库、数据利用,记录了数据从产生到生产的全过程。元数据次要记录数据仓库中模型的定义、各层级间的映射关系、监控数据仓库的数据状态及 ETL 的工作运行状态。 在数据仓库零碎中,元数据能够帮忙数据仓库管理员和开发人员十分不便地找到他们所关怀的数据,用于领导其进行数据管理和开发工作,进步工作效率。 技术元数据技术元数据是存储对于数据仓库零碎技术细节的数据,是用于开发和治理数据仓库应用的数据。 数据自身技术元数据有:表、列、分区等信息。记录了表的表名。分区信息、责任人信息、文件大小、表类型,生命周期,以及列的字段名、字段类型、字段备注、是否是分区等信息。分布式计算零碎运行元数据,如集群上所有作业运行信息,相似于Hive Job 日志,包含作业类型、实例名称、输入输出、 SQL 、运行参数、执行工夫、最细粒度的Instance 执行信息等。数据同步、计算工作、任务调度等信息,包含数据同步的输入输出表和字段,以及同步工作自身的节点信息,计算工作次要有输入输出、工作自身的节点信息,任务调度次要有工作的依赖类型、依赖关系等,以及不同类型调度工作的运行日志等。数据品质和运维相干元数据,如工作监控、运维报警、数据品质、故障等信息,包含工作监控运行日志、告警配置及运行日志、故障信息等。业务元数据业务元数据从业务角度形容了数据仓库中的数据,它提供了介于使用者和理论零碎之间的语义层,使得不懂计算机技术的业务人员也可能懂”数据仓库中的数据。 企业业务元数据,有维度及属性、业务过程、指标等的规范化定义,用于更好地治理和应用数据。数据利用元数据,如数据报表、数据产品等的配置和运行元数据。数据规范数据规范建设提供全面残缺的数据规范治理流程及方法,用于决定和建设繁多、精确、权威的事实起源,实现大数据平台数据的完整性、有效性、一致性、规范性、开放性和共享性治理,并为数据质量检查、数据安全治理提供规范根据。比方,“客户类型”是一个数据项,应该有对立的业务含意,将客户归类为大客户、个别客户的规定是什么,数据项的取值是几位长度,有哪些有效值(如01,02,03)等。这方面有国际标准能够参考,如ISO11179,国内很多行业也制订了行业数据规范,如电子政务数据元、金融行业统计数据元等等。独特的问题是,规范定义进去之后,执行的状况怎么样?是否真正落实到IT零碎了,谁为数据的管理者等。 这里次要蕴含三个方面,技术定义、业务定义以及数据管理定义。 数据品质治理数据品质治理,蕴含五个局部,数据的唯一性、完整性、准确性、一致性、有效性。数据品质治理,就是通过特定的规定对数据的五个方面进行测试,查看,监控和告警。 唯一性:不存在无意义的反复数据完整性:数据残缺且间断一致性:数据在多数据源中意义统一有效性:这里次要指数据在剖析的工夫点是无效,而非过期或生效数据准确性:数据正当、精确,并合乎数据类型的规范数据安全治理数据安全治理贯通于数据治理全过程,提供对隐衷数据的加密、脱敏、模糊化解决、数据库受权监控等多种数据安全治理措施,全方位保障数据的平安运作。 数据计算治理对大数据集群每天存储资源、计算资源耗费等进行治理、监控、优化。如何升高计算资源的耗费,进步工作执行的性能,晋升工作产出的工夫。个别从系统优化和工作优化两个方面进行计算优化。 数据存储管理在大数据时代,对于数据爆炸式的增长,存储管理也将面临着一系列挑战。如何无效地升高存储资源的耗费,节俭存储老本,也是数据治理的一个指标。对于数据存储,目前业界的一些次要的解决形式,包含数据压缩、数据重散布、数据垃圾检测和清理、数据生命周期治理等。 须要数据仓库材料能够点击这个支付数据仓库(13)大数据数仓经典最值得浏览书籍举荐 参考文章:[数据仓库(11)什么是大数据治理,数据治理的范畴是哪些](https://zhuanlan.zhihu.com/p/467433967)

April 9, 2023 · 1 min · jiezi

关于大数据:尚硅谷大数据大shen班V9人生代代无穷已

download:尚硅谷大数据大shen班V9对于最近的国内汽车市场,最大的变动是品牌的提价潮,应该无他了。提价从新能源车开始,由特斯拉发动,逐渐蔓延到燃油车,形成30家汽车品牌加入价格混战。 在车市压缩大背景下,车企在混战中如何求存?其中头部车企又是如何抵挡竞争?刚巧赶上长城、吉利都已经公布最新的财报,而且两家在不久前都做出新的策略变革,非常适合带入问题来一起分析分析。 卖车“焦虑”背地,老牌车企依旧能赚 对于燃油车提价,有分析人士指出,是因为国六B排放即将实施,给了各大车企连忙卖车的压力。毕竟早在2019年国六A落地的时候,就有大面积的提价清库存景象。 但这段时间里市场提价消息不断,又涉及到数十家车企,以及旗下各种车型,提价背地的原因仿佛没有这么简略。 间接原因不难想到,提价潮本质是一场车企的“个体焦虑”。部分车企认为过来销量不佳或者担心当前销量下滑、客户散失。于是为了抢客户,谋求销量而就义利润,二线以至国外豪华品牌都在用不同程度的提价不断透支品牌力。 可能的区别在于,二线品牌日子过得更差,提价更激进,而海内豪华品牌的口碑基本盘摆在这,激进提价也少不了消费者买单。 只是采取这样短期的促销手段无奈解决长期问题。 一方面,销量本就不好的车企抉择提价,只能帮助自己“活久一点”,产品若无奈回归到正当的溢价和毛利率,车企始终拿不到利润,毕竟最大化利润才是未来求存的要害;另一方面,弥补技术和产品力不足才是未来高质量增长之道,暴力提价既自降身份又不可继续。 不过,咱们也发现市场里有一些踊跃的信号,来自国内的老牌车企。在数据上,以比亚迪、长城、吉利汽车为代表的三家不只没有受到“致命威胁”,反而一直作为民营车企“三强”,把“三足鼎立”的格局继续到新能源期间。 其中,比亚迪的体现可能说是“狂飙”。2022年,营收4240.61亿元,同比增长96.2%;同年,归母净利润166.22亿元,同比增长445.86%。 去年全年,比亚迪销量达到186.85万辆,同比增长152.46%;往年前两个月,累计卖出344,996辆车,同比增长84.98%。比亚迪一举成为国内销量第一的车企,喊了那么多年要赶超合资,平常在新能源赛道上实现了换道超车。 相较于比亚迪的“狂飙”,长城和吉利都体现“沉稳”,做好销量和利润两方面的平衡。 长城这边,去年营收1373.4亿元,归属于上市公司股东的净利润82.66亿元,同比增长22.90%;全年销量106.17万辆,智能化车型渗透率达到了86.17%。长城依旧施展稳固,是三家之中唯一间断三年净利润实现增长的车企。 吉利这边,营收高过长城,达到1480亿元;然而利润水平要比长城82.66亿元矮一截,归母净利润仅为52.6亿元。此外,吉利去年一共卖出靠近143.3万辆车,同比增长8%。 自主“三强”一直是汽车市场的头部,体现在业绩层面,不同于新势力处在巨额亏损,老牌车企在顺境中能够守住“基本盘”还能找到“增长盘”。经历燃油车期间,他们在技术、制作和品牌等方面有着深厚积累,诚然无奈判断他们的下限在哪,但上限却一点都不低。 “跟随者”求变,长城、吉利都渴望一场“狂飙” 步入新能源期间,比亚迪一举夺魁,成为红利最大的获得者。而长城、吉利,某种角度上来说是“跟随者”。 吉利间断5年拿下中国品牌乘用车的销冠,却在2022年让出头把交椅。在不久前的财报沟通会上,吉利高管坦言,2022年的体现不尽如人意。“咱们失去了中国乘用车市场第一的地位,被优良的同行(比亚迪)拉开了比较大的差距。” 长城魏建军在2016年也曾示意:“长城汽车只做新能源汽车的跟随者”。 但时至今日,谁都想站在舞台大幕的正地方,“跟随者”心田不会永远做跟随者。长城和吉利一直具备洞察力和前瞻的眼光,也一直在求变。在新能源车领域里,长城、吉利都渴望一场“狂飙”。 目前长城、吉利都各自实现了新能源策略的生态变革,全面转向新能源。 吉利再次强调了旗下各个品牌的在新能源领域的定位差异和产品布局。具体来说,吉利、领克、极氪将是吉利汽车自主业务最重要的三个品牌,而几何已经从独立的品牌回归为吉利品牌下的一个产品系列。通过梳理,翻新业务的合纵连横,吉利要再造一个“新吉利”。 长城这边同样是大刀阔斧,其智能新能源策略至多环绕这两个核心: 一是扎稳产品矩阵的基本盘。长城将欧拉和机甲龙、魏牌和坦克别离进行整合,提出了聚焦哈弗,从新回归大单品,专一主航道的策略路线。 过来哈弗H6是长城历史上最重要的一款车,也奠定了长城的江湖地位。极致的性价比加上不俗的品控能力,让哈弗H6成为SUV市场的国民神车,已经累计100个月夺得中国紧凑级SUV市场的销冠。 哈弗品牌是长城最能打的“王牌”,现在,哈弗品牌要持续成就下一策略转型阶段的长城汽车。 哈弗品牌也从新了梳理燃油产品与新能源产品之间的关系。搭载Hi4技术的插电混动产品将独自使用新的产品序列,与燃油车的H系和狗品类进行了划分。这无效地避免被当作是燃油版的附属,当消费者用同类型新能源车去对比时,能更加体现其技术和性价比劣势。 显然,这所展现出的一方面是长城必须在新能源市场“闯”进去的决心;另一方面也体现在转型上,长城有着精准的布局,强调整体去集中“炮火”抢占新能源市场。 二是晋升用户体验的增长盘。除了产品矩阵之外,长城则是把握用户需要,利用技术创新去服务好用户体验。 之前提到的Hi4智控四驱电混技术是代表之一。按照官网说法,这套电混技术可能识别不同形式的路况,并用智能模块来调整前后轴双电机、混动专用发动机,最终呈现出纯电两驱模式、纯电四驱、串联模式等9种模式的智能切换。 简言之,站在用户角度去感知,这是一套“四驱的体验、两驱的价格,四驱的性能、两驱的能耗”的技术。那么对于购车的人,那就是实打实地用更低成本换来更高的产品价值。 对于行业而言,长城这样的科技一方面不是“自嗨”,而是沉下心来的后果;另一方面这样的科技足够接地气,并非“虚头巴脑”,能真正扎进消费者心里去影响他们的心智。 在上月的长城汽车智能新能源干货大会上,智能化、智能座舱、智能驾驶技术等方面也是亮点频出。它们独特构建出长城汽车“科技”的全貌,而咱们只需认真就能意识到,所有“科技”的起点都是晋升用户体验。 构建“森林生态”,长城是否以长期主义制胜? “科技”也晋升着车企的核心竞争力,但它诚然不是一家车企的全貌。 在当下,提价潮叠加车市压缩,老牌车企作为“一艘巨轮”能依然持重,离不开对技术的保持,更离不开“体系化”作战的能力。咱们认为,唯有“体系化”才能实现外部多赢,一起协同向前,而不是此消彼长,永远在“瘸腿走路”。 这背地,“森林生态”是长城为此交出的一份答卷。当咱们又进一步挖掘“森林生态”区别于行业的潜质和差异时,大抵还是体现在“敢想”和“敢做”两个大方面。 “敢想”可能理解为产品本身的开拓上。长城已经形成了混动、纯电、氢能三轨并行,有哈弗、WEY、欧拉、坦克、长城皮卡五大整车品牌应答不同市场需求。 “敢做”则可能理解为产业生态上的口头。长城构建了“光伏+分布式储能+集中式储能”的能源体系,实现了“太阳能-电池-氢能-车用能源”的全价值链布局,其在钙钛矿光伏领域已经突破20%的光电转换效率。 产品、产业、技术多层面紧密相连,由此咱们可能看到,“森林生态”里存在着良性循环的“迭代链条”,最终使得彼此之间可能互相促进,独特发展,这也是森林生态的本质所在。 “既见森林,又见树木”,基于森林生态,长城能够真正破除内卷焦虑,和比亚迪、吉利长期“三足鼎立”,处在行业头部。 咱们也欣慰地发现,长期主义就是他们独特的特质。拒绝短期价格战,保持长期价值战,这样技术创新才能不断涌现,企业才能勇立潮头。 *本文图片均来源于网络 此内容为【螳螂观察】原创, 仅代表集体观点,未经授权,任何人不得以任何形式使用,包含转载、摘编、复制或建立镜像。 部分图片来自网络,且未核实版权归属,不作为商业用途,如有侵犯,请作者与咱们联系。 •泛财经新媒体。 •微信十万+曝文《“维密秀”被谁杀死了?》等的创作者; •重点关注:新商业(含直播、短视频等大娱乐)、新营销、新生产(含新零售)、上市公司、新金融(含金融科技)、区块链等领域。

April 7, 2023 · 1 min · jiezi

关于大数据:网易云微专业大数据开发工程师江畔何人初见月

download:网易云微业余-大数据开发工程师一眼魅族,因热爱而热爱这一次魅族回归比较“高调”,并且立下三年进入中高端市场前五的目标。魅族到底凭什么? “我认为咱们从新回到这个赛道,并且往上走,最重要的还是产品,我感觉产品是最重要的。因为任何事件产品是船,营销是帆。”星纪魅族团体董事长兼CEO沈子瑜示意。 一个二十年的科技品牌,汇聚了一批魅友,即使在沉寂的那几年里,魅友们也在期待魅族的振兴。魅友之所以能保持如此的激情,是因为魅族对产品的极致谋求,对细节的保持和翻新。 产品,是一个企业长期发展的根本。每一个长期主义的企业,都会把产品放在最首要的地位上。魅族,因为对产品的热爱,对用户的热爱,而不断谋求产品的极致。这一次魅族20系列公布,魅族又回到精品策略的轨道上,产品也带着浓浓的魅族风格----谋求优质设计和极致品质。正如沈子瑜所说:“咱们团队肯定会把整个产品做到共同性以及独有性,并且把产品的定位和调性以及品牌走上去。” 在精品策略疏导下,这一次魅族20 系列在设计、性能、配置等方面全系采纳超高水准。 首先,设计是魅族的一大特色。魅族20 PRO 在设计方面沿袭了家族化的无界设计,配合超感曲线镜耀直边,悬浮点胶 3.0 等设计,将机身做到了目前行业最薄的 7.8mm,分量只有 209g。 最令人惊艳的是魅族20 INFINITY无界版,定位超级旗舰。作为用极致科技探索无界美学的究极体,魅族创新性地正反两面都配备了号称手机宇宙“振金”的魅族泰坦玻璃,中框是超轻量不锈钢材质,玻璃盖中框,而不是包裹,给人的视觉感触是真的无际无界。魅族泰坦玻璃采纳独特的晶化工艺,配合微裂纹处理和超微喷砂处理技术,让这块玻璃触感像AG 玻璃一样顺滑,但观感却又像镜面玻璃一样平滑。这部手机,无论是看上去还是摸上去,都超有质感。 直屏设计、前后泰坦玻璃、“灵袖设计”的摄像头,这一次魅族带来了非常独特的设计语言。看上去不只美,还会让人感觉非常经典,非常独特。这样的设计,将魅族与诸多手机放在一起,一眼就能看出这是魅族。 其次是性能。用户对手机的依赖程度越来越大,对手机的性能申请也越来越高。为了让魅友有更好的体验,魅族20系列全系搭载第二代骁龙8 旗舰处理器,并且全系大内存、大屏幕、大电池,魅族将配置推到顶格。 还有就是品质。从新整合后的魅族,对手机品质有了全新的理解:肯定要以车规级品质来打造手机。所以,整合后的星纪魅族团体投入了大量资源,搭建全新的质量体系,新增1437项硬件标准,456项外观标准,43项可靠性标准,这使得产品在高耐用性、高稳定性和高可靠性上的体现优良。 向上捅破品质的天花板,魅族对产品更有自信,所以给出了参加魅族20 系列 1 元超前订用户还将享受行业独创的36个月质保服务的承诺,让用户在全产品周期中安心使用。 因为热爱,魅族回归这次拿出了足够诚意的产品。而这样的产品,天然也换来了魅友们的热爱,首销即爆,市场火热。 「 02 」用手机的翻新拉升车机的体验 用户与手机的关系最密切,厂商环绕手机的翻新投入最大。放眼整个科技产业,手机是科技翻新最集中、最领先的领域。汽车产业正处于产业升级的节点,从燃油车到电动车,从传统汽车到智能汽车,是当下翻新最活跃的一个领域,也是翻新空间巨大的一个领域,未来机会最大的一个领域。 从手机向车机跨界的好处在于,手机是疾速迭代的随身移动终端,是通过大量市场考据的软件翻新利用载体。所以车企纷纷布局手机业务,一方面是想让用户尽快分享翻新成绩,另一方面把安全、可靠的一部分翻新成绩移植到汽车中利用。 跨界,既可能拉升车机的体验,又可能通过手机与车机软件技术的紧密互动,实现智能终端疾速融合、自在连接、轻松分享。 正是基于这样的逻辑,2021年9月由李书福创办的星纪期间发表进军手机领域,去年策略投资魅族,今年初魅族科技与星纪期间整合,将单方的劣势资源共享,推动李书福的寰球智能出行科技生态落地。 整合后的星纪魅族团体,在这次发布会上带来了Flyme Auto,这是以手机圈极具口碑的Flyme为基础打造的车载软件交互体系,沿袭了Flyme的灵魂,将首先搭载在领克08 车型上。 Flyme Auto技术细节比较多,但在懂懂看来次要是两大劣势:一是无感互联互通,二是车机罕用常新。 手机和车机是两个独立的终端,但有些利用会在不同的场景中都被用到,所以买通不同场景将给用户带来极大的便当。这一点上,华为的鸿蒙生态中的融合买通已经做得比较好,vivo、OPPO等手机厂商也在与不同的车企合作,这是一个行业大趋势。这次公布的Flyme Auto在软件底层零碎买通,让用户真正可能在手机与车机间无感切换,体验更加顺畅。 现平常,手机的使用周期是三年左右,汽车的周期经常是六七年,以至十年。科技进步这么快,利用在不断更新,所以车机的更新成为一大挑战。Flyme Auto因为与手机买通,通过与魅族20系列算力共享,很多利用的计算都是在手机上实现,在车机上交互和展现。也就是说,换一台手机,就等于升级一台汽车,未来车机将是罕用常新。 显然,手机成为汽车的一部分,从而大大晋升了智能座舱的使用体验。为此,魅族提出了第六域——手机域的概念。传统汽车有五个域,能源域、底盘域、车身域、座舱域、主动驾驶域,而手机域是生产电子与汽车行业融合的产物,只做手机或是只做汽车的企业很难做好手机域,具备手机和汽车两大资源,才能更好的实现手机域,这也正是星纪魅族团体明天的天然劣势。 正如沈子瑜所说:“没有手机软件赋能的汽车厂商,都将逐渐掉队。” Flyme Auto与领克08的合作,只是跨界的开始,沈子瑜曾示意,第一步是让Flyme Auto 成为最佳的车载人机交互软件,第二步通过B2B的工程化能力,把 Flyme Auto 的核心能力利用到更多车型上。也就是说未来魅族将赋能更多品牌汽车打造“痴呆出行”。 「 03 」变道提速,从跨界到无界这一次归来,魅族提出了“未来三年回到国内中高端市场前五的目标”,这个目标在外界看来极具挑战。如果单纯的跟在别家厂商前面追赶,沿着别人走过的路减速跑,魅族追上的机会十分苍莽。 然而技术革新和消费者的新需要总会引发新的浪潮。在每一次产业升级、技术迭代的节点上,经常都是从新洗牌的机会,也是弯道超车的机会。魅族就是要抓住行业变革带来的机会实现一次自我进化。 当下,汽车与手机的跨界,已经成为一种常态。 未来智能汽车、智能手机两个行业将不再各行其道,而是独特面向用户的多终端、全场景、沉迷式体验的一体融合关系。 无论是手机厂商做汽车,还是汽车厂商做手机,都不是简略的加法,只是从跨界到无界的开始。随着技术的发展,用户对全场景智能连接的需要不断减少。不论是在家中、在路上、还是在办公室,痴呆将无处不在。而当用户在这些场景间切换时,利用也需要无缝切换。并且,未来随着智能连接的深入,还将会产生更多的新利用、新市场。 沈子瑜示意:“对于魅族而言,落下的工夫追回来,不只有靠极致的产品、对魅友的热爱,还要靠的是赛道的变动,对未来趋势的准确研判。”显然,跨界只是开始,背地还有魅族对于未来更大的野望,在赛道的变动中,未来没有天花板,就看你怎么做、做得如何,能不能让自己的未来真正“无界”。 这次魅族20系列、无界生态系统Flyme 10以及第一代 Flyme Auto 车载人机交互软件的公布,只是开始。此前沈子瑜曾走漏过,“无界之旅”将环绕三条曲线的核心策略减速前进: 一是手机及生产电子类产品,目标是中高端市场;同时Flyme 零碎和面向未来出行科技生态的Flyme Auto 也将失去疾速发展;二是看好XR,这是一条新赛道,有机会被从新定义和开拓;三是更多的前瞻技术,涵盖芯片研究、操作系统研究、新能源整车技术研究等。前不久是魅族成立20周年,计划开启“无界之旅”的魅族借机更新了Logo,红色代表着热爱,彩色代表着无界。在懂懂看来,谋求源于热爱的理念得以升级,它将助力魅族走向无界未来。通过不断对产品的热爱、对用户的热爱,魅族会把打造好产品当作工作。只需能保持打造好产品,魅族的未来也将更加无界。

April 7, 2023 · 1 min · jiezi

关于大数据:火山引擎数智平台拆解-APP改版场景中蕴含的数据思维

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群你有没有遇到过,关上一款常常应用的 APP,它却跳出一条须要你降级版本的提醒? 大多数状况下,用户可能会间接点击「当初降级」或「稍后揭示我」,如果抉择了后者,那接下来每一次应用 APP,用户就会再次收到这条提醒,在肯定水平上挫伤用户体验。 可你有没有想过,为什么 APP 会这么“不厌其烦”的让你降级版本? 综合来看,APP 降级不外乎两个起因:视觉设计须要改版,以及产品性能迭代。 大多数状况下,最后的 APP 开发上线都是基于产品经理的构想,先做出大抵性能——但集体的主观臆断与用户需要往往存在肯定差异性。因而在上线后,APP 须要通过版本迭代的形式,将打算内要追加的其余性能,以及在上线后通过用户反馈等伎俩洞察到的新需要性能进行追加,再次上线。 所以,上线对于一款 APP 来说并不是开发工作的完结,而是另一段开发旅程的开始。 如果 APP 版本升级不可避免,那有没有好的产品或者工具,可能帮忙 APP 在版本升级的过程中,把对用户的影响降到最低呢? 火山引擎数智平台 VeDI 旗下的增长剖析 DataFinder 和 A/B 测试 DataTester,正在帮忙 APP 们跑出一个可被复用的解决方案。 首先,增长剖析 DataFinder 能够通过埋点形式实时洞察用户在应用 APP 全链路过程中的潜在需要,比方有 APP 在初上线之后,发现个别二级页面的关上率显著偏低,这时候其实就能够应用 DataFinder 针对首页各二级页面入口 Tab 进行数据分析与洞察——可能会发现,从 APP 首页顶端 Banner 位到第一屏末端,从上至下扩散排列的 Tab 入口的用户点击数据顺次递加,其中数据最差的 Tab 呈现在首页左下角。 在进一步排查包含页面跳转生效、用户所处网络环境信号差等内部因素后,根本能够定位是「Tab 入口地位导致的流量升高」问题,即基于大多数用户的应用习惯,在关上 APP 首页时注意力会先被最核心地位的内容吸引(首页 Banner 位二级页面入口),其次是 Banner 位下方的系列入口 Tab,而位于最末端的 Tab 则很少被留神到。 因而,从为了晋升进入这个二级页面用户数的目标倒推,就须要对页面入口地位做出调整,这反映在 APP 上,就须要对 APP 首页进行改版。 但改版绝不是凭教训做事,同样须要从数据上吸取用户需要,做出科学决策。 个别状况下,APP 的产品经理会给出多个改版计划,在通过多轮外部评审后优选其中 2-3 个,目前局部走在市场前沿的 APP 会将最终选择权交给用户。 ...

April 7, 2023 · 1 min · jiezi

关于大数据:一文快速了解火山引擎-AB-测试平台

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群一. 概述A/B Testing 作为因果推断的「黄金规范」,是成果评估的利器。 火山引擎 A/B 测试(DataTester)是一站式大规模的在线 A/B Testing 和智能调优平台,它基于稳固牢靠的分流能力、迷信欠缺的统计引擎、智能的调优算法,提供了从制订优化指标,到实验设计、指标计算、统计分析,再到性能全量公布的贯通整个产品迭代周期的一站式服务。 笼罩产品性能迭代、举荐算法优化、技术性能优化、经营素材调优、广告投放营销策略优化等业务场景,激励企业在业务迭代的路上,大胆假如、小心求证,为从一线到管理者做高质量决策赋能,降本增效、助力企业稳固持续增长。 二. 性能简介全域试验 ,能够反对客户端(Android、iOS、Web、H5、WAP、微信小程序)、服务端(Java、Python、Go、Node.js)的试验。流量圈选,反对灵活多样的属性规定配置,让您精准圈选指标受众 。反对互斥试验,无效防止指标烦扰。比方想在同一页面运行多个测试,然而放心用户参加多个试验而影响后果准确性。互斥组能够让试验流量防止重叠,切断试验影响相关性。反对多维下钻,全面剖析让决策更理智。如果放心减少新性能按钮点击会升高支出,咱们能够同时剖析多重指标,掂量整体影响。报告多维下钻剖析,防止以偏概全,助力发现效果显著的用户群体,让业务决策更理智。三. 产品劣势试验无界 :不限度试验和版本数量,随时上新策略,继续疾速迭代。集成剖析 :深度集成「用户增长剖析」产品,一站式看板、指标和分群,让剖析更晦涩迅捷。指标丰盛 :反对 pv、uv、pv/uv、sum、sum/pv、sum/uv 六大类指标剖析,丰盛全面。灰度公布 :自动化变更流量权重,平滑上线新版本,保障重大问题即刻回滚、及时止损。新人试验 :针对新用户提供特型试验,继续优化拉新和留存。智能论断 :统计引擎自动化剖析试验成果,产出批示性试验论断,辅助科学决策。生态凋谢 :提供丰盛的 OpenAPI 反对定制化需要,您能够自主治理试验。四. 利用场景1. 产品 产品性能迭代 :头痛产品升级外围性能该采纳哪一版本?用小局部流量进行互斥 A/B 测试,让您在不影响用户体验的同时,从多种计划中找到最优解。用户门路设计 :多种用户门路设计方案,哪个版本转化成果更好?建设 A/B 测试,重点观测转化漏斗指标,计算用户门路转化过程中各个环节的转化率,将转化最好的计划全量公布至线上。UI&交互优化 :不同的页面布局、界面交互,哪个才是现实的计划?UI&交互大改版,可通过 A/B 测试,通过比照不同计划下点击、转化、留存等指标,找到最佳迭代版本。2. 经营 流动页面优化 :对流动落地页的文案、图片、按钮、色彩等进行继续优化,让各因素都最大水平上地进步流动转化和付费留存,帮忙经营人员进步整体投入产出比。 推送计划择优 :抉择推送文案/落地页,依附教训下判断未免存在偏颇。开启推送测试,小流量先验,依据剖析报告,做出迷信抉择。同时可设置不定时循环文案/落地页进行推送,升高枯燥性。 可视化编辑 :想进行 A/B 测试却没有研发人员反对?您可利用可视化编辑,以简略的拖移操作,实现页面图片/文本的替换与编辑、元素位移等操作,生成试验计划。无需更多代码工作。 3.研发 举荐算法优化 :优化后的算法是否能够晋升相应业务的数据指标?可通过 A/B 试验进行小规模验证,防止负向体现带来大范畴影响,实用于基于内容、协同过滤和关联规定的各类举荐算法优化。算法包含基于内容的举荐算法(依据用户的历史记录举荐类似内容)、基于协同过滤的举荐算法(依据有类似趣味用户的行为举荐相干内容)、基于关联规定的举荐算法(依据内容自身的相关性给用户举荐),最终进步用户应用黏性。灰度公布 :发版前的性能/性能测试盲区,极有可能留下隐性问题,影响用户体验甚至导致用户散失。火山引擎 A/B 测试与智能经营模块买通,提供灰度公布性能,让研发者可在性能迭代时逐渐放量,呈现问题一键回滚,及时止损。4.市场营销 投放落地页优化 :广告投放耗费高,线索转化却很低,如何解决?可通过可视化 A/B 测试,对落地页的题目、图片、文案、表单域及整体布局等进行可视化编辑,多版本投放,择优抉择,晋升营销效率。以单链接投放多个页面 :多个落地页通过不同广告打算投放,流量调配不均,数据比照艰难,无从择优。建设多链接测试,拜访同一链接的用户可分流至不同版本落地页,从而迷信地选出最佳投放页面。投放流量 :人工调配投放流量耗时耗力,成果也难达到最佳。您可开启智能化流量调优,它利用贝叶斯统计原理,可实时比照多页面指标,流量主动向体现最佳的页面歪斜,动静更新流量配置,稳固实现 ROI 最大化。点击跳转 火山引擎A/B测试DataTester 理解更多

April 6, 2023 · 1 min · jiezi

关于大数据:ByteHouse技术白皮书正式发布云数仓核心技术能力首次全面解读内附下载链接

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群近日,《火山引擎云原生数据仓库 ByteHouse 技术白皮书》正式公布。 在数字化浪潮下,随同着私有云的宽泛遍及,生于云、长于云、基于云原生架构的数据仓库百花齐放,疾速迭代。相比起传统数仓,云原生数据仓库凭借更灵便、更具弹性化的个性,以及无效升高资源、人力老本的能力,在云市场上受到越来越多的关注,逐步成为企业数字化基础设施中的要害“底座”。 《火山引擎云原生数据仓库 ByteHouse 技术白皮书》简述了 ByteHouse 基于 ClickHouse 引擎的倒退历程,首次具体展示 ByteHouse 的整体架构设计及自研核心技术,为云原生数据仓库倒退,及企业数字化转型实战使用提供最新的参考和启迪。 三“高”一“低”:ByteHouse 核心技术能力全面解读ClickHouse 作为近年来疾速崛起的 OLAP 数据库管理系统,以其优异的查问性能引人瞩目, 在寰球及国内泛滥大厂失去了大量的推广及利用。 云原生数据仓库 ByteHouse,通过多年字节跳动外部教训积淀,对开源 ClickHouse 引擎实现了大量技术架构重构和优化,并通过火山引擎对外服务。在字节跳动外部,ByteHouse 部署规模已超过 1 万 8000 台,单集群超过 2400 台,通过数百个利用场景和数万用户锻炼,并在多个内部企业客户中失去推广应用。 《火山引擎云原生数据仓库 ByteHouse 技术白皮书》共分为五个章节,具体介绍了 ByteHouse 产品简介、技术趋势挑战、整体架构设计、核心技术解析、将来总结瞻望等技术内容。 本次公布的 ByteHouse 技术白皮书,在内容上进一步聚焦于 ByteHouse 本身先进技术及实力劣势,深度分析 ByteHouse 在企业级数据仓库场景下的业务需要和挑战;在整体架构及核心技术层面,残缺出现 ByteHouse 引擎不同层级及执行流程,具体解析元数据管理、自研表引擎、简单查问执行模型等 ByteHouse 自研核心技术。 "高性能、高资源利用率、高稳定性、低运维老本"——是 ByteHouse 海量数据实时接入、有限扩大存储、实时合并计算和关联聚合查问等多个外围能力的最佳解读。 图:ByteHouse 实用场景 目前,ByteHouse 一直以字节和内部最佳实际输入给行业用户,帮忙企业更好地构建交互式大数据分析平台和云原生数据仓库。 中国地震台网核心、海王团体等已与火山引擎 ByteHouse 达成单干,率先通过海量数据实时剖析的极速体验,辅助决策落地,减速业务洞察,实现本身数字化降级的进一步减速。 点击链接,立刻下载残缺白皮书https://www.wjx.cn/vm/Ot0YJFq.aspx# 点击跳转 火山引擎云原生数据仓库ByteHouse 理解更多

April 6, 2023 · 1 min · jiezi

关于大数据:聚焦用户精细化运营场景极客邦科技与火山引擎数智平台达成合作

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群近日,北京极客邦科技有限公司(以下简称“极客邦科技”)与火山引擎数智平台 VeDI 达成单干,单方将聚焦用户经营场景下的数智降级开展系列合作。 极客邦科技以 KaaS 模式服务数字人才全面倒退,致⼒于通过独特的专家网络和优质内容生产体系,为数字人才提供全⾯的、⾼品质的资讯、课程、会议、培训等服务。 ⾃ 2007 年开展业务⾄今,极客邦科技已建设线上寰球软件开发常识与翻新社区 InfoQ,发动并成⽴技术领导者社区 TGO 鲲鹏会,间断多年举办业界出名技术峰会(如 QCon、ArchSummit 等),⾃主研发数字⼈才在线学习产品极客工夫 App,以及企业级⼀站式数字技术学习 SaaS 平台极客工夫企业版,在科技⼈群、科技驱动型企业、数字化产业当中具备⼴泛影响⼒。 2022 年,极客邦科技成立单数研究院,首倡“数字人才粮仓模型”,联合企业数字化转型门路,将共识的数字治理、数字利用、数字业余三类数字人才进一步细分为更加匹配企业架构的五层数字人才,即数字思维管理者、数字思维业务人才、业务架构人才、技术架构人才、专项技术人才,以帮忙企业数字化策略落地构筑更加扎实的人才体系。 极客邦科技产品经理刘凯悦通知记者,随着数据技术的一直变革,国内企业的数字化建设都进入了快车道,“越来越多的企业都意识到,基于数字化建设的精细化经营,是业务继续倒退的必然要求。” 对极客邦科技来说,精细化经营的着力点之一,在于对用户需要的充沛洞察和对应服务提供。以极客邦科技官网为例,当用户首次点击进入【极客工夫个人版】后,网页便会主动弹跳出一张表单,用户可依据本身状况进行对应内容抉择——而在用户受权后,官网便能实现围绕「用户个性化需要」的内容举荐体系构建,从而让优质内容能更快更便捷地被动曝光到有需要的用户背后。 刘凯悦介绍,极客邦科技此次抉择与火山引擎数智平台 VeDI 单干,正是看中了 VeDI 在数据技术上的多重能力和实践经验,“咱们心愿可能借助更迷信的办法,进一步理解用户的需要,最终通过降级服务让客户有更好的体验。” 现阶段,火山引擎数智平台 VeDI 曾经向极客邦科技输入包含增长剖析 DataFinder、实时数据仓库 ByteHouse 等在内的三款数据产品,外围解决数据洞察和数据存储、剖析三大问题。 其中,增长剖析 DataFinder 次要帮忙极客邦科技洞察用户全链路旅程,通过埋点伎俩,DataFinder 可能帮忙极客邦科技实时洞察不同内容对用户的吸引力,如什么类型的内容会更受用户欢送(能够体现在观看量上)、什么类型的内容适宜用户深度浏览(能够体现在观看时长上)、什么类型的内容会让用户重复观看(能够体现在观看频次上)……基于这些数据,极客邦科技可能对本身内容体系做出优化调整,同时也能进一步开掘不同用户群体的绝对个性化需要,实现真正意义上的精细化用户经营。 值得一提的是,在实际操作过程中,埋点验收对企业来说始终是难点,“过来罕用的做法是等埋点上线,在数据实现上报再逐条核查,很是费时费力;但 DataFinder 自带埋点验证性能,能够在验证环节就把可能会呈现的问题提前躲避掉,节俭了很大的人力和工夫老本。”刘凯悦补充道。 此外,洞察数据只是一方面,如何将包含用户、课程、流动等不同起源不同维度的海量数据进行高效存储和计算,对当下的极客邦科技来说同样是个挑战。 火山引擎数智平台 VeDI 旗下的 ByteHouse,起源于字节跳动从 2017 年就开始启用的开源数据引擎 ClickHouse,再通过多年实际和优化革新后,于 2021 年 8 月正式对外服务。 即使是在极客邦科技这类数据吞吐量大、业务模式绝对简单的场景下,ByteHouse 仍旧可能具备高效查问性能:丰盛的表引擎能反对数据的疾速写入去重、更新、删除与剖析;而在运维形式上,ByteHouse 也能满足企业对高效便捷的需要。 在产品性能之外,刘凯悦进一步解释了抉择火山引擎数智平台 VeDI 的理由,“包含服务能力在内的附加价值也是咱们的思考因素,比方 DataFinder 丰盛的帮忙文档可能给咱们的数据指标体系建设提供很多新思路,从而升高了咱们对产品的上手门槛,也在后续应用过程中帮忙咱们更好的解决问题。” 截至目前,火山引擎数智平台 VeDI 曾经服务金融、批发、汽车、文旅等多个行业的数百家标杆企业,在数据根底建设、数据存储与剖析、数据治理、数据利用等数据流转链路全流程中都有最佳实际,产品能力与服务备受认可。 点击跳转 火山引擎数智平台VeDI 理解更多

April 4, 2023 · 1 min · jiezi

关于大数据:DataLeap数据资产实战如何实现存储优化

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群背景DataLeap 作为一站式数据中台套件,会集了字节外部多年积攒的数据集成、开发、运维、治理、资产、平安等全套数据中台建设的教训,助力企业客户晋升数据研发治理效率、升高治理老本。Data Catalog 是一种元数据管理的服务,会收集技术元数据,并在其根底上提供更丰盛的业务上下文与语义,通常反对元数据编目、查找、详情浏览等性能。目前 Data Catalog 作为火山引擎大数据研发治理套件 DataLeap 产品的外围性能之一,通过多年打磨,服务于字节跳动外部简直所有外围业务线,解决了数据生产者和消费者对于元数据和资产治理的各项外围需要。Data Catalog 零碎的存储层,依赖 Apache Atlas,传递依赖 JanusGraph。JanusGraph 的存储后端,通常是一个 Key-Column-Value 模型的零碎,本文次要讲述了应用 MySQL 作为 JanusGraph 存储后端时,在设计下面的思考,以及在理论过程中遇到的一些问题。起因理论生产环境,咱们应用的存储系统保护老本较高,有肯定的运维压力,于是想要寻求代替计划。在这个过程中,咱们试验了很多存储系统,其中 MySQL 是重点投入调研和开发的备选之一。 另一方面,除了字节外部外,在 ToB 场景,MySQL 的运维老本也会显著小于其余大数据组件,如果 MySQL 的计划跑通,咱们能够在 ToB 场景多一种抉择。基于以上两点,咱们投入了肯定的人力调研和实现基于 MySQL 的存储后端。 计划评估在设计上,JanusGraph 的存储后端是可插拔的,只有做对应的适配即可,并且官网曾经反对了一批存储系统。联合字节的技术栈以及咱们的诉求,做了以下的评估。 各类存储系统比拟 因投入老本过高,咱们不承受本人运维有状态集群,排除了 HBase 和 Cassandra;从以后数据量与未来的可扩展性思考,单机计划不可选,排除了 BerkeleyDB;同样因为人力老本,须要做极大量开发革新的计划临时不思考,排除了 Redis。最终咱们筛选了 MySQL 来推动到下一步。 MySQL 的实践可行性能够反对 Key-Value(后续简称 KV 模型)或者 Key-Column-Value(后续简称 KCV 模型)的存储模型,汇集索引 B+树排序拜访,反对基于 Key 或者 Key-Column 的 Range Query,所有查问都走索引,且防止内存中重排序,效率初步判断可承受。中台内的其余零碎,最大的 MySQL 单表曾经达到亿级别,且 MySQL 有成熟的分库分表解决方案,判断数据量能够反对。在具体应用场景中,对于写入的效率要求不高,因为大量的数据都是离线工作实现,判断 MySQL 在写入上的效率不会成为瓶颈。总体设计 保护一张 Meta 表做 lookup 用,Meta 表中存储租户与 DataSource(库)之间的映射关系,以及 Shards 等租户级别的配置信息。StoreManager 作为入口,在 openTransaction 的时候将租户信息注入到 StoreTransaction 中,并返回租户级别的 DataSource。StoreManager 中以 name 为 Key,保护一组 Store,Store 与存储的数据类型无关,具备跨租户能力常见的 Store 有system_properies,tx_log,graphindex,edgestore等对于 MySQL 最终的读写,都收敛在 Store,办法签名中传入 StoreTransaction,Store 从中取出租户信息和数据库连贯,进行数据读写。对于单租户来说,数据能够分表(shards),对于某个特定的 key 来说,存储和读取某个 shard,是依据 ShardManager 来决定典型的 ShardManager 逻辑,是依据总 shard 数对 key 做 hash 决定,默认单分片。对于每个 Store,表构造是 4 列(id, g_key, g_column, g_value),除自增 ID 外,对应 key-column-value model 的数据模型,key+column 是一个汇集索引。Context 中的租户信息,须要在操作某个租户数据之前设置,并在操作之后革除掉。细节设计与疑难问题细节设计存储模型JanusGraph 要求 column-family 类型存储(如 Cassandra, HBase),也就是说,数据存储由一系列行组成,每行都由一个键(key)惟一标识,每行由多个列值(column-value)对组成,也会对列进行排序和过滤,如果是非 column-family 的类型存储,则须要另行适配,适配时数据模型有两种形式:Key-Column-Value 和 Key-Value。 ...

April 4, 2023 · 4 min · jiezi

关于大数据:如何打造企业专属-AB-平台火山引擎-DataTester-开放平台技术揭秘

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群企业为什么须要开放平台开放平台对于企业与业务来说,做到的不仅是能力的凋谢、生态的凋谢,与此同时还要能提供欠缺的业务解决方案,帮忙企业晋升效率。 与大规模利用 SaaS 平台的国外企业不同,中国的企业群体更加多元,从规模上,中小微企业和大型企业都有;从资格上,一部分是崛起不久的新秀,一部分是正在数字化转型路线上的老牌企业。 因而中国的市场需求相比国外企业而言,要更加多样化、多元化。无论在工业方面还是在软件方面,对立的规范会让很多中国的许多企业丢失灵活性和效率,而多样化意味着百花齐放,意味着弯道超车的可能性,但与此同时这也象征对于企业服务市场需求的碎片化。 如何解决企业的多元化需要?如何让企业以更低的老本用上更贴合的服务?开放平台不是所有问题的答案,但肯定是很多问题的解法。凋谢的 API 与工具,让企业可能系统地进行更灵便的配置、更不便的集成,甚至有时候无需开发人员染指就能够实现他们的指标。 认真拆分的话,开放平台能解决企业的以下问题: 1.整合资源:通过开放平台,不同的企业和机构能够将各自的资源进行整合,造成一个更大的资源池,从而实现资源的共享和反复利用。2.降低成本:通过开放平台,企业能够缩小开发和保护本人的服务和应用程序的老本,同时也能够缩小经营老本。3.提高效率:开放平台可能提供标准化的服务和接口,从而放慢应用程序的开发和部署速度,提高效率。 在这个背景下,火山引擎 A/B 测试 DataTester 推出了“开放平台”能力,致力于将企业个性化需要的共性抽取进去,而后在共性的根底上满足个性化诉求,通过成熟的产品化能力,大大降低企业服务的利用老本并晋升用户应用体验,建设集成化的全家桶解决方案。 DataTester 的开放平台设立,可能吸引更多的开发者和创新者参加到平台的生态系统中,从而为平台提供更多的翻新和新性能;企业也能通过开放平台与其余企业和机构建设更严密的单干关系,独特推动行业的倒退,实现单干共赢。 火山引擎 DataTester 如何做开放平台A/B 测试不仅是做增长的利器,也是企业优化效率、减少决策精确度的无效工具。 咱们心愿打造进去的 A/B 测试平台并不仅仅局限为一个工具,而是能作为一个能力,能够嵌入到企业中与业务场景深度贴合;能加强企业的一部分外围性能和服务;能在每个企业最外围的场景上,去实现价值的最大化。 火山引擎 A/B 测试(DataTester)作为一个辅助用户增长的工具,在理论应用场景中,曾经常常会遇到企业不满足于仅仅在咱们的试验平台下来应用规范品的 A/B 测试能力,他们常常还会有一些多样化的需要: 将 A/B 能力与客户本身零碎买通,进行一定量的定制将 A/B 能力集成到客户本身的网站下来,不须要登录火山引擎网站就能够开启试验、看报告在以往为了应答这些场景,咱们采纳的办法是堆人力去帮客户来做定向开发,这样岂但咱们的人力老本 hold 不住,同时因为咱们这边标准化缺失,产品策划和研发效率也被拉低。 而 DataTester 的开放平台就是来解决这些问题的。咱们提供了较高的平台化的定制能力,并且能够不便的将火山引擎 DataTester 的页面与利用集成到企业的网站中去,以满足企业多元化的需要。目前也曾经有逾百的内部企业,接入了火山引擎 A/B 测试的开放平台能力,有了更多的定制化产品的空间。 DataTester 的开放平台在技术上是如何实现的呢? 集成工作台设计思路 1.配置化能力开放平台最奢侈的思路是做配置化,DataTester 可能依据客户的须要,以本身已有的能力为根底,去做一些差异化的配置。比如说一些模块的显示/暗藏、默认选择项、文案等等的调整。最近,DataTester 又新增了一键配置主题色的能力: 但很显著,这种调整能解决最奢侈的配置的问题,然而对于多样化的需要,无奈很好的满足。起因在于咱们对于用户的输入,还是作为一个残缺的整体给到对方,对方如果心愿新增交互,比方与本身零碎联动获取数据,去填充试验名、版本、指标等字段,并依照本人所特有的 UI 去进行交互,这样的需要仅仅通过配置化能力是不能达到的。 2.搭建能力于是咱们设计了表单搭建能力来应答这种场景。 咱们齐全将咱们每个字段对应的视图组件进行了拆分,用户能够随便的打散、删除、配置,在咱们接口必填项束缚前提下进行随便的组装和调整。 用户还能够用咱们的命令行工具下载组件代码模版,依照本人的需要去开发组件,与本身数据进行对接,而后通过命令行上传到咱们的开放平台上,接入进咱们的搭建表单中作为一个搭建单元,嵌入到咱们的零碎中来。 搭建能力赋予了DataTester平台的可扩展性。 用户进行高度的定制的指标,肯定不会是仅仅在 DataTester 网站外部应用。既然曾经与本身零碎有所联动,这部分视图也必然是间接内嵌在本身零碎中最为适合,于是引出了咱们的嵌出能力。 3.嵌出能力DataTester 设计了欠缺的凋谢 SDK 和嵌出鉴权计划,保障用户通过流程化的能力,能快捷地将咱们的模块嵌入到本身的网站中,同时放弃了便利性和安全性。集成工作台能够通过欠缺的疏导,进行一站式的定制、公布、嵌出的能力。 以后配置化覆盖范围包含编程试验创编、列表、报告页;搭建笼罩编程试验创编反对全站主题色定制通过微前端形式进行嵌出,每一次公布都会积淀一份前端资源,保障在客户的应用场景下足够稳固,不会因为咱们的公布调整导致嵌出的局部生效前端提供凋谢 SDK 供客户嵌入资源,后端提供 OpenAPI SDK 供用户接入鉴权集成工作台架构 ...

April 3, 2023 · 1 min · jiezi

关于大数据:火山引擎-AB-测试产品DataTester-私有化架构分享

作为一款面向 ToB 市场的产品——火山引擎A/B测试(DataTester)为了满足客户对数据安全、合规问题等需要,摸索私有化部署是产品无奈绕开的一条路。 在面向 ToB 客户私有化的理论落地中,火山引擎A/B测试(DataTester)也遇到了字节外部服务和企业 SaaS 服务都不容易遇到的问题。在解决这些问题的落地实际中,火山引擎 A/B 测试团队积淀了一些流程治理、性能优化等方面的教训。 本文次要分享火山引擎A/B测试以后的私有化架构,遇到的次要问题以及从业务角度登程的解决思路。 火山引擎 A/B 测试私有化架构 架构图整套零碎采纳 Ansible+Bash 的形式构建,为了适应私有化小集群部署,既容许各实例对等部署,复用资源,实现最小三节点交付的指标,又能够做在线、离线资源隔离进步集群稳定性。集群内能够划分为三局部: 业务服务: 次要是间接向用户提供界面或者性能服务的, 例如试验治理、实验报告、OpenAPI、数据接入等。根底服务: 不间接面向用户,为下层服务的运行提供撑持,例如反对实验报告的计算引擎、为指标创立提供元信息的元信息服务;根底服务同时还会充当一层对基础设施的适配,用来屏蔽基础设施在 SaaS 和私有化上的差别, 例如 SaaS 采纳的实时+离线的 Lambda 架构, 私有化为了缩小资源开销,适应中小集群部署只保留实时局部, 计算引擎服务向下层屏蔽了这一差别。基础设施: 外部团队提供对立私有化基础设施底座 minibase,采纳宿主机和 k8s 联合的部署形式,由 minibase 适配底层操作系统和硬件, 下层业务间接对接 minibase。私有化带来的挑战挑战 1:版本治理传统 SaaS 服务只须要部署保护一套产品供全副客户应用,因而产品只须要针对单个或几个服务更新,疾速上线一个版本个性,而不须要思考从零开始搭建一套产品。SaaS 服务的版本公布周期往往以周为单位,放弃每周 1-2 个版本更新频率。然而,在私有化交付中,咱们须要确定一个基线版本并且绑定每个服务的小版本号以确保雷同版本下每套环境中的交付物等价,以加重后续降级运维老本。通常,基线版本的公布周期往往以双月为单位。 版本公布周期 因为私有化和 SaaS 服务在架构、实现、根底底座上均存在不同,上述的公布节奏会带来一个显著的问题: 团队要投入大量的开发和测试人力集中在发版周期内做历史 Feature 的私有化适配、私有化个性的开发、版本公布的集成测试,挤占其余需要的人力排期。 为了将周期内集中实现的工作扩散到 Feature 开发阶段,从新标准了分支应用逻辑、欠缺私有化流水线和上线流程,让研发和测试的染指工夫前移。解法:1、分支逻辑分支治理SaaS 和私有化均基于 master 分支公布,非私有化版本周期内不特地辨别 SaaS 和私有化。私有化公布周期内独自创立对应版本的私有化分支,公布实现后向 master 分支合并。 这样保障了 master 分支在任何状况下都该当能同时在 SaaS 环境和私有化环境中失常工作。 2、公布流水线性能上线流程公布流水线外部搭建一套私有化预公布环境,建设了一套流水线,对 master 分支的 mr 会触发流水线同时在 SaaS 预公布环境和私有化预公布环境更新最新 master 分支代码,并执行自动化回归和人工回归测试。这样做的益处在于: ...

March 31, 2023 · 1 min · jiezi

关于大数据:数据丢失不用怕火山引擎-DataLeap-提供排查解决方案

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群当一家公司的日均解决的数据流量在PB级别时,微小的任务量和数据量会对音讯队列(MQ)dump 的稳定性和精确定带来极大的挑战。针对这一问题,火山引擎数智平台推出的大数据研发治理套件DataLeap,能够为企业提供残缺解决方案,帮忙解决 MQ dump 在极其场景中遇到的数据失落问题。 例如,当HDFS(一种分布式文件系统)集群某个元数据节点因为硬件故障而宕机。那么在该元数据节点终止半小时后,运维工程师尽管能够通过手动运维操作将 HDFS 切到主 backup 节点,使得 HDFS 复原服务。 但故障复原后,MQ dump在故障期间可能有数据失落,产出的数据与MQ中的数据不统一的状况。此时,技术人员能够在收到数据不统一的反馈后,立刻借助火山引擎 DataLeap 进行故障排查。 目前,火山引擎 DataLeap 基于开源 Flink,曾经实现了流批一体的数据集成服务。 通过Flink Checkpoint的性能,Flink 在数据流中注入 barriers 将数据拆分为一段一段的数据,在不终止数据流解决的前提下,让每个节点能够独立创立 Checkpoint 保留本人的快照。 每个barrier都有一个快照ID ,在该快照ID之前的数据都会进入这个快照,而之后的数据会进入下一个快照。 在排查过程中,火山引擎 DataLeap 基于对 Flink 日志查看以及 HDFS 元数据查看,能够率先定位症结所在:删除操作的反复执行造成数据失落。进一步解释就是,在故障期间,写入数据前的删除操作在 HDFS NameNode 上反复执行,将写入的数据删除造成最终数据的失落。 溯源后,用户能够通过火山引擎 DataLeap 抉择应用文件 State(以后的 Checkpoint id 和 task id)解决该问题,应用文件 State 前后解决流程对比方下图所示: 应用文件State后,在Notify阶段与HDFS交互的metrics(打点监控零碎)的均匀解决工夫缩小了一半。 目前,企业均能够通过火山引擎 DataLeap 体验到上述 Flink Checkpoint 实际与优化计划,晋升数据价值交付中的效率和品质。 点击跳转 大数据研发治理DataLeap 理解更多

March 31, 2023 · 1 min · jiezi

关于大数据:解决方案-集采带来冲击数字化经营管理平台助药企破局

国家集采的制订和常态化发展、两票制、新医改等一系列措施的公布施行,都在挤药价水分,让利于民,药企的利润空间一直被压缩,药品高利润时代一去不复返。 在以后环境下,制药企业不得不采纳稳增长、寻转折的经营策略,尤其亟需量化企业经营状况,通过外围产品的业绩增长状况来确保增长劣势(销售增长率),通过个别产品的准入过程来寻求新的市场冲破(基药准入过程),促成企业数字化转型降级,以修改管理决策,促成决策晋升效率。 然而,在数字化转型过程中,药企不得不面对外部数据口径不对立、数据品质差、临时性汇总数据、决策效率低等数据处理及利用方面的问题。          基于以上现状和痛点,咱们通过构建制药数字化经营治理平台来解决!        解决方案咱们从晋升经营治理能力的思路来进行破局,对战略规划层面、研发治理、经营治理、撑持治理等方面进行深入分析,构建制药行业数字化经营治理平台,成为企业经营策略的重要抓手。 思迈特软件制药数字化经营治理平台,基于客户战略目标,以企业治理和业务属性构建整体经营管理体系,共创立五大治理域,18个剖析板块。 Smartbi提供制药行业剖析指标体系作为企业经营治理的重要抓手,以外围指标量化企业倒退经营状况,并能造成企业本身的行业指标库;同时基于以指标为外围的ABI平台实现指标治理及自增长,构建药企数字化经营治理平台,助力企业高效经营决策,促成企业转型降级。 点击收费下载《制药行业数字化经营治理平台计划》 疾速构建指标体系Smartbi提供可借鉴的欠缺的行业指标库,帮忙企业疾速构建适宜的指标体系。同时反对从决策层、管理层、执行层等角色对指标进行分级展现,缩小资源节约。 提供基于指标的ABI平台承接指标的落地和利用Smartbi提供一站式指标治理服务,它通过一个平台笼罩了指标治理从定义、建模、调度、公布、展现的全过程,实现对指标可视化对立创立和治理;同时通过业务和IT的最佳协同能帮忙企业构建自增长的指标体系;一站式的ABI平台还能提供丰盛的剖析性能实现指标利用等。 对于一站式以指标为外围的ABI平台的具体介绍能够点击这里查看        计划场景▍场景一:销售业绩剖析 -适应场景:在以后大背景下,药企如何实现销售业绩稳步增长,如何寻找新的市场转折,成为药企经营策略层面重要课题。 -外围指标:外围产品销售增长率、纯销实现状况、外围产品终端笼罩数、外围产品终端覆盖率、外围产品品种挂网;个别产品销售增长率、基药准入、个别产品终端笼罩数、个别产品终端覆盖率。 -价值体现:通过外围产品的增长状况来确保是否稳步增长,劣势持续保持;通过个别产品的增长状况和基药准入停顿状况,判断是否能呈现新的是市场转折,为企业带来新的增长点。 ▍场景二:市场准入剖析 -适应场景:集采常态化背景下,药企须要针对全国及各区域的挂网状况须要做全过程剖析,以助于整个营销工作的发展 -外围指标:种类挂网指标(已挂网数量、正在挂网、正在撤网、当年预计挂网数量、当年不能挂网数量);已挂网销售收入、挂网及撤网进度等。 -价值体现:通过种类挂网指标可视化出现,能明确通晓各种类在全国已挂网省份,正在挂网和撤网的状况,对各省份的销售工作有指导意义,领导可明确将资源正当的调配至不同区域进行开辟。 点击收费下载《制药行业数字化经营治理平台计划》 ▍场景三:集采中标后保供给 -实用场景:药企在中标后,应集采相干规定,必须保障药品及时供给,对药企来说,如何把控生产进度和供货显得尤为重要。 -解决方案:买通仓储和商务需货之间的数据,建设实时的供应链可视化剖析,建设缺货和积压的预警模型。 -价值体现:无效晋升药企供给治理能力,杜绝了断货带来的各项危险,升高了仓储老本。 计划劣势数字化经营治理平台最佳实际数字化经营治理平台已在多家药企搭建并胜利利用。咱们积攒了丰盛的教训,并提炼出最佳建设实际,可给用户参考并结合实际状况给出最佳建设计划。 欠缺的行业指标库依据多家企业的治理需要和平台的建设积攒,Smartbi造成了欠缺的行业指标库模板,能提供给用户进行借鉴,帮忙企业疾速构建适宜的指标体系。 一站式指标治理承接指标落地Smartbi以指标为外围的一站式的ABI平台能够一站式承接指标的创立落地。可视化向导式的界面操作以及业务IT最佳协同分工的形式能够实现指标自助构建,满足企业经营过程疾速响应。 一站式ABI平台承接指标利用提供丰盛的指标利用形式如报表、可视化、自助剖析、自然语言查问、数据挖掘来实现指标的利用,满足各部门的数据分析须要。 施行标准化Smartbi领有经验丰富的业余交付团队,提供和产品紧耦合的规范交付流程和解决方案,帮忙企业升高交付危险和老本,保障我的项目高效落地。 点击收费下载《制药行业数字化经营治理平台计划》  典型案例目前,Smartbi已帮忙泛滥药企,如西藏药业、汇仁药业、普正制药、白云山制药等进行了该计划平台的搭建,在制药行业积攒了一整套的行业经营指标体系,实现战略目标逐级拆解,通过指标量化落地,可能为医药客户提供业内最佳的实践经验。 某出名上市药企为践行“保劣势、寻转折、强治理”的战略方针,落实经营的道与术,通过经营治理平台的搭建施行,促成数据底层欠缺对立、保障数据及时精确为剖析提供服务;通过横纵两条剖析思路确保企业始终充斥踊跃持重的回升通道: 1)纵向比照看本身:外围药品的发展势头是否判若两人的无效增长、其它产品市场准入推动状态,寻求新的冲破; 2)横向比照看行业:竞争对手近三年的倒退状况比照剖析,找清本身定位,落后局部踊跃改善,当先局部劣势放弃。

March 30, 2023 · 1 min · jiezi

关于大数据:火山引擎-DataTester-推出可视化数据集成方案

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群随着数字化的长期演进,企业中往往存在多个运行在不同平台的数字零碎,这些数据源彼此独立,数据跨零碎间的交换、共享和交融均有隔膜。而今越来越多企业认可 A/B 实验所带来的价值,心愿将试验纳入整个业务流程中时常会面临这样的场景——想接入A/B试验平台,但有大量埋点数据须要反复建设。 如何缩小根底数据的反复建设,疾速将 A/B 测试平台嵌入业务成为很多企业的痛点。 近期,火山引擎 DataTester 推出可视化数据集成能力,能够帮忙企业实现对历史数据资产的间接复用。为了更低成本反对数据集成的需要,DataTester 还采纳了可视化数据集成的形式反对 Kafka 音讯订阅,企业可通过创立并执行数据集成工作,将已有的行为剖析数据上报至火山 DataTester 数据服务。 火山引擎 DataTester与客户平台交互方式 如果企业应用的 A/B 试验平台没有可视化数据集成时,往往会面对: 反复建设减少老本:企业曾经自有埋点零碎或应用了其余的零碎,埋点从新建设会减少老本;研发投入高:如果通过 ETL 反对的形式进行行为剖析数据接入,要约 8 人/天左右实现需要对接和开发反对,且保护老本高。而 DataTester 推出可视化数据集成中,蕴含“数据集成市场”、“数据集成治理能力”两大方面的能力,均可缩短数据集成的周期,大幅升高企业的接入老本。 “数据集成市场”能力反对企业自定义 Kafka 数据源,企业能够在页面设置数据源连贯、映射同步行为剖析数据;也能够上传配置,同步行为剖析数据;此外,企业如果同时应用内部其余厂商提供的服务,能通过 DataTester 的数据同步模板实现接入。“数据集成治理”能力能够反对企业通过可视化的繁难模式,连贯数据源、配置映射字段、保留工作。 DataTester是火山引擎数智平台旗下产品,可能深度耦合举荐、广告、搜寻、UI、产品性能等多种行业场景需要,为业务增长、转化、产品迭代,经营提效等各环节提供迷信的决策依据,让业务真正做到数据驱动。 目前,火山引擎DataTester曾经服务了美的、失去、凯叔讲故事等在内的上百家标杆客户,将成熟的 " 数据驱动增长 " 教训赋能给各行业。 点击跳转 火山引擎A/B测试DataTester 理解更多

March 30, 2023 · 1 min · jiezi

关于大数据:Tapdata-赋能敏捷转型头部知识付费应用如何搭载实时数据快速提升人效创造业务增长点

全员内卷时代,人们的常识学习需要也日益增长,而传统的常识获取形式曾经不能齐全满足需要,大量常识付费类 App 也随之涌现,为用户提供了一个更加便捷、高效的学习形式。 然而,常识付费行业同时也兼具疾速变动和不确定性较高的特点,用户对于内容和服务的需要会随着时代变迁和趋势变动而一直调整。因而,传统的线性式、预测式的经营模式逐步无奈适应行业的倒退须要,亟需引入麻利经营模式来适应变动,灵便应答这些“不确定”。 与传统经营模式相比,麻利经营更加重视数据驱动、用户体验、疾速迭代和灵便决策,可能更疾速地获取并响应用户反馈、调整经营策略和优化产品性能,从而进步用户满意度和盈利能力。除此之外,还能无效激发团队翻新和激情,进步团队凝聚力和执行力,从而带来长期的倒退劣势。这些,都是眼下诸多常识付费类 App 心愿真正实现冲破的问题。上面咱们就追随某头部常识付费类 App 的实在案例,来理解其是如何在保障内容品质和新性能稳步迭代的服务竞争力前提下,一步步晋升人效,促成麻利经营,激发团队潜能,集中资源发明业务增长点的。 一、翻新与迭代的另一面:繁冗的业务零碎,惨重的后端压力在一直新陈代谢,开翻新的内容板块与性能模式的过程中,该常识付费类 App 的业务零碎的数量也在一直攀升,逐步造成保护艰难的意大利面架构,数据同步的一致性和实时性都在面临挑战: ① 跨零碎同步难 面对现存的大量不同的零碎,尤其是其中一些彼此强关联的组合,或是分存在不同数据库中的某项业务数据,例如扩散寄存于不同零碎中的财务数据,一部分在 MongoDB 中,一部分在 MySQL 中,须要依赖异构数据同步能力来实现数据的跨零碎同步,在同步过程中还会须要进行建模与计算,在这类场景下,数据的一致性要求当属重中之重。但历史习用的跨零碎同步解决方案为数据库双写,在数据一致性及数据品质方面,难以提供稳固保障。 ② 后端保护压力大 随着后端团队须要保护的服务一直减少,无论是人员精简还是人员更替,都会带来新的问题,前者导致人均压力激增,难度更加突出;后者则易因为新人对历史代码不足了解,以及代码习惯的差别,导致保护复杂度再降级。因而,急需通过好用的工具来解决这一业务痛点,缓解人工压力,实现降本增效。 ③ 为用户体验造成负面影响 对于服务学习者的业余 App 而言,后端系统的经营保护压力,间接反馈在用户的日常体验之中。以举荐算法为例,该利用最后根据定时更新的数据为用户进行内容举荐,但这样操作的一个弊病就是两次更新距离内的数据变动无奈利用在举荐算法中,一方面可能导致把已下架内容举荐给用户的乌龙事件;另一方面还会因为用户浏览信息、行为记录不能实时推送给算法引擎,从而错过最佳举荐机会,导致商机散失。简言之,因为算法的引擎数据库和后端的数据脱离,导致数据提早,重大影响了举荐后果的准确性和及时性,使得用户体验降落。留言零碎与审核零碎也是如此,两个零碎互相独立,但鉴于审核反馈的时效性要求,两者间数据同步的一致性和实时性也都间接关系到用户体验。为了有效应对此类问题,团队外部对数据实时性的要求也越来越高。加之随着数据量的一直收缩,一天跑一次的全量更新形式耗时也在一直增多,逐步难以为继,急需寻找用以代替的实时同步计划。 为了从后端疾速买通各个系统,实现数据的实时、精准同步,在无效节约人力老本的同时,优化经营管理模式,为后续更多内容及模式优化积蓄能量,团队决定寻找一个兼具异构数据实时同步性能,及实时计算能力的工具,来搭建全新的数据底座解决方案——这也是促成该 App 与 Tapdata 最终牵手的起因。 二、Tapdata 助力搭建实时数据平台:让数据按需存储、随需流动正式抉择 Tapdata 前,咱们也比照剖析了市面上常见的一些同类工具,很遗憾都未能满足需要,特地是在数据源反对的宽泛度以及数据端到端的全链路实时能力方面,Tapdata 的劣势尤其突出,能够以绝对较高的性价比满足咱们的需要。与此同时,在单干的两年期间,无论是对需要的及时响应,还是其余售后服务上,咱们也都取得了十分不错的体验。——某头部常识付费类 App 作为一个以低提早数据挪动为外围劣势构建的实时数据集成和数据服务平台,Tapdata 的典型用例包含数据库到数据库的复制、将数据引入数据仓库或数据湖,以及通用 ETL 解决,无论是从功能模块的角度,还是实时、易上手等个性层面来看,都与该利用眼下的切实需要高度符合。 Tapdata 解决方案:量身打造实时数据平台 镜像层 Mongo:用于存放数据历史变更记录Kafka:对立为上游业务零碎提供数据接入整体规划如上图所示,Tapdata 实时数据解决方案助力数据资源按需存储,随需流动: 该利用团队方面心愿通过精准推送来升高用户经营老本,开掘用户付费。而精准推送考究时效性,依据外部研判,当用户产生首次交易后的 1 小时内,会有较高概率产生二次付费,这就须要举荐零碎在短时间内做出精准剖析,并推送匹配的常识内容。基于对上述业务需要的剖析与拆解,Tapdata 联合本身产品能力,将其落入可执行的技术计划如下。 首先,通过 Tapdata 对源端业务零碎库数据进行实时同步,这里蕴含了订单交易、商品状态、客户行为记录、留言零碎等外围业务数据。其后,数据落入镜像层,用于用于记录所有数据的历史变动,再通过 Tapdata 将镜像层数据实时推送到上游 Kafka。最初由举荐零碎通过 Flink 生产 Kafka 数据后,实现实时计算、剖析。 成绩反馈在 Tapdata 提供的实时数据平台解决方案的加持下,该 App 胜利突破瓶颈问题,从数据源头动手,真正实现了降本增效,助力经营治理疾速、轻松升级: 节俭人力老本:2-3 名的数据开发、运维等人员精简,推动人力向业务翻新流动;提供牢靠、可复用的数据后果,面对新需要无需写新代码,可间接配置应用,缩小代码保护压力。晋升数据同步效率,保障数据同步品质:基于 Tapdata 弱小的实时数据集成能力,在晋升数据同步效率的同时,也为数据品质提供保障,胜利解决数据一致性的历史难题优化用户体验,推动用户转化:个性化举荐的实时性更强,依据浏览记录浏览习惯,精准捕捉用户需要,实现实时举荐,无效缩小用户散失。为什么抉择 Tapdata?在技术选型阶段,该利用团队的规范和方向都十分清晰:一是在技术能力层面,须要完满解决传统数据双写计划遗留下的数据不统一问题。与此同时,思考到受历史倒退因素影响,该 App 外部存在大量不同的数据库类型,而很多同步工具反对的数据源却又比拟少,新计划在跨库同步与数据源反对广度方面,都须要有十分杰出的体现。二是在后续保护方面,新工具须要反对批量管数据同步链路,且操作简略,有助于加重后端压力,开释人力资源。 ...

March 30, 2023 · 1 min · jiezi

关于大数据:接通率维持-66-以上为什么火山引擎-VeDI-能让企业智能外呼不再难

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群智能机器人在企业级市场的利用更加深刻了。 随着人工智能技术的进一步倒退,包含智能外呼、财务审核、自助客服等在内的智能机器人服务正在企业外部实现进一步实际。 以财务机器人为例,依据 QYResearch 的数据报告显示,2020 年中国 RPA(Robotic Process Automation, 机器人流程自动化)市场规模仅有 3 亿美元,但到 2023 年,这一数字将以 64%的年复合增长率增至 10.2 亿美元。 在企业财务审核流程中,作为财务岗位工作人员的得力帮手,财务机器人能够实现「7 天 x 24 时 x 365 天」实时在线,保障企业员工随时随地发动审批流程并失去高效反馈。另一方面,鉴于机器算法的标准化和精准性,财务机器人的审核错误率可能被管制在最低范畴,帮忙企业尽可能减少财务损失。 而在面向前场业务的营销场景中,智能机器人也施展着同样重要的作用。其中,语音外呼机器人能够帮忙企业实现全程「零人工」染指的信息触达。 通过外呼机器人,企业能够面向目标群体进行智能呼叫,并使用语音辨认技术判断用户抉择,以此实现对应内容的推广;同时为了尽可能地防止打搅无关用户、晋升外呼转化,目前的外呼机器人还引入了包含火山引擎数智平台 VeDI 旗下客户数据平台 VeCDP 等在内的多款数据产品,在合规正当的前提下,以求更迷信地进行外呼人群设计和内容配置。 比方,通过火山引擎数智平台产品 VeCDP 中的人群标签导入,能够帮忙企业更好地甄别人群动向,以此避开不相干人群;同时,话术设计人员也能基于 VeCDP 输出的数据欠缺营销内容设计,最大限度满足用户在短时间内可能获悉核心内容。 在面对外呼过程中产生的无效信息时,通过语音辨认技术实现无效信息提炼后的数据可能反向导入 VeCDP,进行二次剖析和利用——企业员工在 VeCDP 产品内,就能实现外呼数据与现有数据的标签匹配剖析,并在此基础上造成新的人群画像,便于前期二次经营。 数据显示,仅在往年 2 月情人节期间,VeCDP+智能外呼策略计划的接通率可在 66%以上(个别为 30%-60%),其中动向率能维持在 12.9%左右。 现阶段,火山引擎数智平台产品 VeCDP 曾经面向企业全面凋谢接通智能外呼机器人的能力,并在多家企业实现实际,帮忙企业在营销场景下实现业务增长。 点击跳转 客户数据平台VeCDP 理解更多

March 29, 2023 · 1 min · jiezi

关于大数据:火山引擎-DataLeap-一招教你避坑数据开发中的资源隔离问题

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群在离线数仓开发过程中,研发人员须要依据业务变动,在开发/生产环境中一直切换、解析、调试。以往,企业个别通过人工形式核验,但因为数据量大且类型不同,导致研发人员资源、精力投入大。 如何使同构代码在不同环境正确运行,防止因调试过程中的误操作,对生产环境间接造成数据负面危险,成为很多企业数仓研发团队的痛点之一。 近期,火山引擎 DataLeap 推出“我的项目参数治理”能力,即通过自定义我的项目参数别离设置开发、生产环境参数值,参数反对配置多种类型,包含 Region、DB、shecma、table、date 以及自定义等,且反对工作级别援用,疾速帮忙研发团队实现资源隔离。 火山引擎 DataLeap“我的项目参数治理”能力 以湖仓一体剖析服务(LAS)引擎为例,介绍如何利用“我的项目参数治理”辨别不同环境库和工夫格局的查问。 在应用之前,因为 1 个业务需要经常波及 10+工作、30+参数,且不同环境 DB 中、table 基本一致,须要治理 2 套代码。数仓研发人员难以避免呈现测试代码在生产环境执行、表误删、数据误删等问题。 在应用之后,只须要 3 个步骤即可解决生产、测试环境数据隔离问题: 步骤一: LAS 有 2 套环境,包含测试环境库 test_dev、生产环境库 test_prod 。2 套环境都有雷同表名 LAS_table01、分区字段名 datetimes。开发环境分区字段为 yyyymmdd,生产环境分区格局为 YYYY-MM-DD。在 DataLeap 中设置日期参数 arg,开发环境参数值=${date}、生产环境参数值=${DATE}。设置库参数 env,开发环境=test_dev、生产环境=test_prod。步骤二:对于离线数据开发工作,研发人员能够间接在代码中应用我的项目参数,点击“解析”“调试”,零碎会主动替换为相应的开发环境参数值,并进行语法解析、权限查看等。 步骤三:点击“提交上线”、“工作例行执行”时,对于我的项目参数,零碎会主动替换为相应的生产环境参数值,而后进行相应的语法解析以及权限查看。从而无效晋升环境代码管理效率。据介绍,企业能够在以下场景应用火山引擎 DataLeap“我的项目参数治理”能力: 【场景 1】开发生产环境隔离以 HSQL 工作为例,为防止在开发测试阶段,因误操作影响生产库表的数据,研发人员能够在 HSQL 代码中应用我的项目参数。调试时,零碎会主动替换为开发环境参数值;上线后的工作例行执行,零碎将主动替换为生产环境参数值。同时,DataLeap 也反对代码统一,无需在上线前批量将开发环境的库表名称替换为生产环境的库表名称。【场景 2】跨区域/我的项目代码同构一般来说,不同 Region 下的库、表名不同。为了实现不同 Region、我的项目下代码同构,研发人员能够在 HSQL 代码中应用我的项目参数,来实现不同环境下,同一个工作的代码同构,无效晋升环境代码管理效率。火山引擎 DataLeap 让研发人员不再须要通过”调度设置-工作输出参数”的形式增加我的项目参数,只需定义一次参数即可轻松构建,并且实现生产、测试环境下的数据主动隔离,代码同构。除此之外,DataLeap 还具备数据集成、开发、运维、治理、资产、平安等数据中台建设能力,助力企业晋升数据研发效率、升高治理老本,为数字化转型提供撑持。 点击跳转 大数据研发治理DataLeap 理解更多

March 28, 2023 · 1 min · jiezi

关于大数据:精准水位在流批一体数据仓库的探索和实践

作者 |  浮生若梦的石头 导读  随着实时计算技术在大数据中的广泛应用,数据的时效性失去大幅度,然而理论利用场景中,除了时效性,还面临着更高的技术要求。 本文联合实时计算的水位技术在流批一体数据仓库中的摸索和实际,重点论述了水位技术的概念和相干实践实际,尤其就水位在实时计算零碎中的个性、边界定义和利用,最初重点形容了一种改良的精准水位的设计和实现。该技术架构目前在百度理论业务场景下体现成熟和稳固,借此分享给大家,心愿对大家有参考价值。 全文7118字,预计浏览工夫18分钟。 01 业务背景为了晋升产品研发、策略迭代、数据分析以及经营决策的效率,业务对数据的时效性要求越来越高。 尽管咱们很早就基于实时计算实现了实时数据仓库的建设,然而还是无奈取代离线数据仓库,实时和离线数据仓库各自一套开发和保护的老本高,最重要的是业务的口径还不能100%对齐。所以咱们始终在致力于建设一套流批一体数据仓库,在实现整体数据加工效率提速的同时,还能保证数据如离线数据那样牢靠,能反对100%业务场景,从而实现整体降本提效。 △流批一体数据仓库建设思路 02 流批一体数据仓库的技术难点要想端到端实现流批一体数据仓库,作为底层技术架构的实时计算零碎,面临着很多技术难点和挑战: 1、端到端数据的严格不重不丢,以保证数据的完整性; 2、实时数据的窗口和离线数据的窗口,蕴含数据是对齐的(99.9% ~ 99.99%); 3、实时计算须要反对精准的窗口计算,以保障实时反作弊策略的准招成果; 4、实时计算零碎和百度外部大数据生态买通,并有理论大规模线上稳固运行实际。 以上2和3点,都须要高牢靠的水位机制来确保实时数据的进度感知和精准切分。 于是本篇文章就精准水位在流批一体数据仓库中的摸索和实际的教训,分享给大家。 03 水位概念和通用实现的现状3.1 水位的必要性在介绍水位(Watermark)的概念之前,须要先插入2个概念: Event time, 事件产生工夫。咱们个别了解为用户实在行为产生的工夫,具体对应是日志中记录用户行为产生的工夫戳。Processing time, 数据处理工夫。咱们个别了解为零碎解决数据的工夫。那水位(watermark)具体有什么用途? 在理论实时数据处理过程中,数据是无边界的(Unbounded), 那么基于Window这种窗口计算或其余相似场景就面临一个理论的问题: 怎么晓得某个窗口的数据是残缺的?什么时候能力触发窗口计算()? 大多数状况下,咱们应用Event Time来触发窗口计算(或者数据分区切分,对标离线)。然而理论的状况是实时日志总有不同水平的提早(在日志采集、日志传输和日志解决等阶段),即如下图所示,实际上会产生水印的歪斜(即数据会呈现乱序)。在这种状况下 , Watermark机制就很有必要存在,来确保数据的完整性。 △水位歪斜景象 3.2 水位的定义和特点水位(watermark)的定义目前业界没有对立的说法,联合Streaming  Systems一书(作者是Google Dataflow 研发团队)中定义,集体认为比拟确切: The watermark is a monotonically increasing timestamp of the oldest work not yet completed. 从定义咱们能够概括出水位的2大根本个性: 水位是间断递增的(不可回退)水位是一个工夫戳然而在理论生产零碎中,水位如何去计算,以及理论的成果是什么样子?联合目前业界不同的实时计算零碎,对于水位的反对还是不一样的。 3.3 目前水位现状和面临的挑战在目前业界的实时计算零碎中,比方Apache Flink(Google Dataflow的开源实现)、Apache Spark(仅局限Structured Streaming框架)中,都是反对水位的,上面就以社区最火爆的Apache Flink列举一下水位的实现机制: 然而以上水位的实现机制和成果,在日志源端呈现大面积日志提早传输的状况下,水位还依旧会更新(新旧数据乱序传输)推动,会导致对应的窗口数据不残缺,窗口计算不精确。因而,在百度外部,咱们基于日志采集和传输零碎、实时计算零碎摸索了一种改良的、绝对精准的水位机制,以确保实时数据在窗口计算、数据落地(sink 到AFS/Hive)等利用场景下,窗口数据的完整性问题,以满足实现流批一体数据仓库的要求。 △Flink中水位生成策略 GEEK TALK ...

March 28, 2023 · 3 min · jiezi

关于大数据:基于指标管理系统建设的BI工具

在大数据时代,数据对企业来说是十分重要的资产,而如何施展数据的价值最大化,数据指标这个环节必不可少。咱们明天就来零碎理解一下,数据指标是什么,对企业来说有什么用。  从定义上来看,数据指标(data metric)是用来掂量某个特定数据集或零碎体现的量化测量指标。它们用于帮忙人们了解数据的个性、剖析和比拟不同数据集之间的差别,以及确定任何改良或优化的须要。 数据指标能够是各种模式,包含数量、比率、百分比、频率、工夫等等。 通常,数据指标用于形容数据集的属性、特色或性能,例如数据集的大小、复杂度、准确性、可用性、速度等等。 在理论利用中,数据指标在数据分析、数据挖掘、数据可视化、机器学习、人工智能等畛域都扮演着重要的角色。它们能够帮忙人们从数据中提取有用的信息,并领导业务决策和战略规划。  对于企业来说,企业须要做数据指标治理,因为数据指标能够帮忙企业更好地了解和治理本人的业务和数据资产,从而实现业务决策反对、晋升业务效率、管制业务危险等。 有些优良的企业,他们想为数据分析提供正确、统一的高质量可信数据,就必须对指标进行对立的布局从而造成规范的指标体系。其实这也是BI的下一阶段——以指标为外围的可视化剖析、加强剖析。  思迈特软件提供以指标为外围的一站式ABI平台Smartbi,帮忙企业建设以数据为依靠、业务为核心、指标体系为治理抓手的数据化经营体系。 以指标为外围的一站式ABI平台Smartbi建设思路包含:基于客户顶层视角的指标梳理、以指标为外围的ABI平台承接指标落地和利用、标准化交付服务。  1、指标梳理咱们从客户的角度登程,对业务需要进行剖析和梳理,并建设一个指标体系来满足治理和经营的需要。同时,咱们会利用分析模型或行业教训不断完善这个体系,进行迭代改良。  2、指标治理咱们能够通过Smartbi平台的指标治理性能,实现指标的落地,并为用户提供对立可信的高质量数据。同时,咱们能够利用IT和业务的协同作用来打造一个自增长的指标体系,解决以IT为主体构建时治理需要响应不及时的问题,并积淀企业的数据资产。  3、指标利用ABI平台能够实现指标的利用,让用户可能不便地应用指标来反对业务决策。同时,平台还提供了弱小的加强剖析性能,能够帮忙用户更深刻地剖析指标数据,从而扩大指标利用的广度和深度,提供更全面的业务洞察和决策反对。  4、施行标准化咱们采纳一套严密与产品耦合的施行方法论,在施行过程中实现标准化交付,以帮忙企业升高技术门槛和老本,并保障我的项目高效落地。  Smartbi是一个以指标为外围的一站式ABI平台,不仅能够帮忙企业对立数据口径、解决反复开发问题和升高IT开发和保护老本,还能为决策管理者和业务人员提供高质量和可信的数据。 同时,通过业务和IT的最佳协同作用,解决了以IT为主体构建指标体系时治理需要响应不及时的问题,并帮忙企业打造自增长的指标体系,积淀企业数据资产。

March 27, 2023 · 1 min · jiezi

关于大数据:个推谈数智运营数据驱动运营增长助力APP运营效率提升

当下数据作为重要资产,曾经成为企业优化经营策略、降级产品体验、开掘增长后劲的重要驱动力。对于互联网企业来讲,数据在APP的整个生命周期中,都能施展出巨大作用。借助数据能力,APP产品经营人员可能将人群、场景、流程做差异化细分,同时联合市场、渠道、用户行为等数据分析,更加高效地发展精细化经营。 探索期:数据驱动APP找准定位比方在产品的探索期,数据是产品和经营人员用来开掘用户实在需要、验证产品功能定位及商业模式的重要依据。一款全新的APP到底是否击中用户痛点?它的功能设计和同类型产品相比竞争力如何?产品和经营人员正是通过收集、剖析种子用户的反馈数据,同时联合行业大盘数据,来领导新产品的功能设计和降级迭代。 成长期:数据驱动APP高效拉新通过探索期的重复尝试和验证,APP的市场定位、产品模式曾经根本成型,并正式打入市场,进入成长期。在这个阶段,如果产品不能疾速获取用户,就会被竞品超过,甚至被市场淘汰。而具备了数智化经营的能力,APP更容易透过简单变幻的市场环境,疾速找到发力点,抢占市场先机,高效获客,博得增长。以APP获客为例,数据的驱动作用次要体现在两方面,一是晋升获客的品质,二是晋升获客的效率。具体来看,首先APP可能通过丰盛的标签数据,剖析种子用户的画像,明确指标用户客群的多维度特色。这样一来在后续的投放过程中,APP可能更加对症下药,把广告真正投给对的TA。其次,通过对不同渠道起源的用户数量、画像等投放后效数据进行比照剖析,APP还可能从中筛选出高性价比和高TA浓度的获客渠道,帮忙升高后续的获客老本。值得一提的是,依靠智能的算法模型,APP还能够将数据的力量进一步开释。尤其是对于美妆、母婴、金融、汽车等垂直行业的APP来讲,借助种子用户数据和类似人群扩量模型,这些细分行业的APP可能在程序化广告投放中,智能辨认并高效触达公域流量池里的潜在用户,实现爆发式增长。 成熟期:数据驱动APP高效促活挪动APP畛域已进入竞争白热化状态。即使APP通过砸广告、铺渠道等形式,在短时间内获得了用户规模的增长,那么这些破费了昂扬老本而获取来的新用户是否真正留下来呢?所以当APP步入成熟期,产品经营人员必然要关注存量用户的经营维系,用户留存率和用户活跃度成为APP在该阶段的外围经营指标。目前不少互联网企业曾经在用户留存和促活场景中使用相应的数智化经营策略。比方一些新闻资讯类APP基于标签和特色层数据训练举荐算法,为不同的用户群体主动举荐他们感兴趣的新闻资讯,借助高度智能化的内容散发,晋升用户粘性和活跃度。再比方一些金融理财类APP为了更好地留住用户,会借助第三方端外数据,洞察用户在静止健身、学习教育、游览出行等其余方面的需要,而后通过丰盛产品性能或联动相应行业的APP策动异业流动等形式,继续激发用户的好奇心,激励用户更加频繁地关上和应用APP。 衰退期:数据驱动用户LTV晋升而在衰退期,因为市场高度饱和、新产品/替代品涌现,所以APP不可避免地将面临更加严厉的用户缄默和散失问题。在存量时代,获取新客的老本要远高于留住老客,而老客一旦散失就很难回来。那么有没有可能在用户散失之前,就采纳干涉措施来缩小用户的散失呢?目前一些APP通过构建用户散失预警体系来实现该指标。具体的实现形式个别有两种:第一种是进行用户分层。比方电商行业的APP基于RFM(Recency Frenquency Monetary )等模型,对用户分层,挖掘出须要重点关注和挽留的高价值客户,针对性地进行防散失干涉,从而缩短用户LTV(Life Time Value,生命周期总价值),放大流量价值。第二种则是基于用户活跃度、用户缄默时长等数据指标构建用户散失预测模型,帮忙APP产品经营人员提前预判用户散失危险,做好经营干涉。可见,用户散失预警体系的构建不仅须要数据,同时也要求APP具备肯定的数据治理和算法模型搭建能力。通过对端内外数据进行交融剖析,应用AI模型对用户的多维度特色进行机器学习,APP方能构建出更加智能的预警体系,对用户散失偏向做到“成竹在胸”,从而制订出更加迷信无效的用户经营策略。 综上,具备了数智化经营思维和能力,APP可能在探索期、成长期、成熟期、衰退期等各生命周期阶段,更加高效地发展精细化经营,继续晋升市场竞争力。

March 27, 2023 · 1 min · jiezi

关于大数据:ByteHouse-MaterializedMySQL-增强优化

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群前言社区版 ClickHouse 推出了MaterializedMySQL数据库引擎,用于将 MySQL 中的表映射到 ClickHouse 中。ClickHouse 服务作为 MySQL 正本,读取 Binlog 并执行 DDL 和 DML 申请,实现了基于 MySQL Binlog 机制的业务数据库实时同步性能。 这样不依赖其余数据同步工具,就能将 MySQL 整库数据实时同步到 ClickHouse,从而能基于 ClickHouse 构建实时数据仓库。 ByteHouse 是基于 ClickHouse 加强自研的云原生数据仓库,在社区版 ClickHouse 的 MaterializedMySQL 之上进行了性能加强,让数据同步更稳固,反对便捷地解决同步异样问题。 社区版 MaterializedMySQL 简介ClickHouse 社区版通过 DDL 语句在 ClickHouse 上创立一个 database,并将 MySQL 中的指定的一个 database 的全量数据迁徙至 ClickHouse,并实时读取 MySQL 的 binlog 日志,将 MySQL 中的增量数据实时同步至 ClickHouse 中。 具体介绍:https://clickhouse.com/docs/en/engines/database-engines/materialized-mysql 同步示例同步一个 MySQL 库至 ClickHouse 的示例创立语句如下: CREATE DATABASE db_name ENGINE = MaterializedMySQL(...)SETTINGS materialized_mysql_tables_list='user_table,catalog_sales'TABLE OVERRIDE user_table( COLUMNS ( userid UUID, category LowCardinality(String), timestamp DateTime CODEC(Delta, Default) ) PARTITION BY toYear(timestamp)),TABLE OVERRIDE catalog_sales( COLUMNS ( client_ip String TTL created + INTERVAL 72 HOUR ) SAMPLE BY ip_hash)性能劣势MaterializedMySQL 数据同步计划的劣势有: ...

March 27, 2023 · 3 min · jiezi

关于大数据:火山引擎-DataTester构建增长闭环35-人即可搭建企业增长团队

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群增长是一个陈词滥调的话题,对许多企业而言这个词都很相熟,但在实际过程中依然有很多的疑难,比方指标体系应该怎么搭建?如何通过数据分析找到要害瓶颈?找到之后下一步应该怎么做等。 近日,火山引擎数智平台专家鲍文霞在 DataFunTalk 做了演讲分享,介绍了字节跳动在企业增长方面的教训。 企业的增长闭环是如何构建的?一个残缺的增长流程次要由四个步骤形成: 1.组建增长团队:一个残缺的增长团队,由产品经理、数据分析师、程序开发三种职能的人员组成,一个最小可行性的增长团队,只须要 3~5 集体即可组建。这样的独立的增长团队也能够以虚构小组的模式呈现,从企业各职能部门抽调相应人手,即能够实现组建。 2.构建指标体系 :在增长团队组建实现后,下一步须要围绕企业业务,构建一套贴合业务的指标体系。要记得,任何生意都能用简略的数学模型来形容,这也意味着业务都能够用数据指标拆解和量化。做指标体系首先须要找到业务的北极星指标,也就是惟一重要指标,它指引全公司向同一个方向倒退。 举例而言,问答类社区的北极星指标就是问题答复数;像音乐类 app 的北极星指标就是总听歌时长;电商类产品的北极星指标就是总 GMV 等。 在找到北极星指标之后,需进一步将关联因素做逐渐拆解。如”沉闷用户数“能够拆成“新增沉闷用户”和“已有沉闷用户”,“新增沉闷用户”又能够拆分成为“访客流量✖️新用户激活率”,“已有沉闷用户”能够拆分为“已有用户数✖️老用户留存率”等。依照这样一个思路构建和拆解下来,业务的指标体系能够跃然纸上。 在指标体系建设实现之后,咱们通过数据看板,就能看到各个环节的数据指标体现状况,哪个指标是现阶段最紧迫要晋升、要优化的,就是从这里找到,也定位到了业务的增长瓶颈。 3.设计策略增长优化找到了业务的增长瓶颈,下一步就要设计对应的策略,实现增长优化了。对于设计策略的思维,能够参考目前公认的 A/B 测试计划最迷信、利用最宽泛的模型——Lift 模型,来自《测出转化率》一书。 Lift 策略迭代有 6 大准则:首先是价值主张,即产品策略给用户提供了什么样的价值;相关性和清晰度,指的是产品界面出现给用户的信息是否与价值主张相干、是否与用户诉求相干,以及视觉出现上是否清晰; 注意力和焦虑感,指页面无过多芜杂因素扩散用户的注意力,无多余事件会引起用户焦虑感,导致用户的跳出或者散失;紧急度,指策略可重视营造出一种机不可失的感觉。咱们的每一次产品策略的设置和迭代,背地都离不开 Lift 模型的深层起因。 4.A/B 试验验证成果在产品的迭代策略确定之后,咱们则要聚焦这一畛域去开启 A/B 测试,定期去做试验相干的复盘会议,并继续迭代优化产品计划。当经验了一段期间后,前阶段聚焦畛域晋升的收益已不大时,则能够更换新的方向,开始增长的新循环。 在这个流程中,A/B 试验是最为要害的一步,正当无效的试验推动,能产生一直叠加的正向反馈。如果应用成熟度比拟高的 A/B 试验平台,如火山引擎 DataTester,企业的增长流程运行起来会十分高效。能够说,好的 A/B 试验平台,是企业降低成本、晋升效益的利器。 火山引擎 DataTester 具备四个显著特点: 10 年打磨迷信牢靠:字节外部累计试验总量 150 万次,利用经典假设检验框架,多年继续优化降级字节增长教训加成:深度服务字节外部 500 多个业务线,积淀了大量增长教训试验丰盛性能全面:领有多种特型试验和智能调优试验以及弱小的配置公布能力灵便部署应用便捷:反对在线应用、本地部署、嵌入业务零碎等多种应用形式作为字节跳动外部应用多年的 A/B 测试平台,DataTester 能反对多种简单 A/B 试验并可能进行精准迷信的分流,能够深度耦合举荐、广告、搜寻、UI、产品性能等多种业务场景需要,为业务增长、转化、产品迭代,策略优化,经营提效等各个环节提供迷信的决策依据。 目前,火山引擎 DataTester 曾经服务了美的、失去、凯叔讲故事等在内的上百家标杆客户,将成熟的 " 数据驱动增长 " 教训赋能给各行业。 点击跳转 火山引擎A/B测试DataTester 理解更多

March 27, 2023 · 1 min · jiezi

关于大数据:2023最新版360度无死角大数据学习路线

demo软件园每日更新资源,请看到最初就能获取你想要的: 互联网浩瀚无际,你能来到这里,是时机也是缘分,时机,就像我的题目一样,你找到了一份 360度无死角的 大数据 学习路线,而缘分让咱们相遇,注定给你的学习之路搭上一把手,送你一程。 帮忙同学明确好从零到大佬的学习路线,提供最残缺、最具体的教程 上面是学习门路: 阶段一:大数据入门Linux学习步入大数据殿堂之前,必须具备大数据的必备技能:Linux的操作应用 Java相干常识必须具备之前java门路中基础知识以及数据库相干局部的常识技能,学完阶段一: Java零根底入门、阶段二: Java数据库开发即可 大数据框架Hadoop入门Hadoop是大数据开创者,引领者,学习大数据必经之路 Hadoop之HDFS的应用把握HDFS的常见Shell操作以及Java代码操作 Hadoop之HDFS外围过程分析HDFS中外围过程NameNode、SecondaryNameNode、DataNode详细分析 Hadoop之中的MRMapReduce的思维,理解MapReduce的执行流程,并且通过开发WordCount案例加深了解。 阶段二:PB级离线数据计算剖析存储计划hadoop中常见问题企业级解决方案小文件的解决方案、数据歪斜的解决方案、YARN调度器的应用、以及Hadoop在CDH和HDP中的应用 Flume框架Flume是一个分布式、高牢靠、高可用的零碎,可能无效的收集、聚合、挪动大量的日志数据,在数据采集畛域,属于中流砥柱 数据仓库Hive解决频繁的开发MapReduce是十分繁琐的,Hive为解决这个而生 NoSQL数据库HBaseHBase是一个高牢靠 、高性能 、面向列 、可伸缩的NoSQL数据库,解决了HDFS无奈实现批改删除的问题,适宜利用在高并发实时读写的利用场景中。 数据分析引擎ImpalaImpala是应用C++实现的基于内存的分布式计算引擎,能够提供低提早,高性能的计算能力。 阶段三:Spark框架Scala语言Scala的函数式编程受到很多框架的青眼,例如Kafka、Spark、Flink等框架都是应用Scala作为底层源码开发语言 Spark框架重点Spark中的Transformation算子和Action算子应用,RDD长久化,共享变量应用 Spark性能优化Spark中的宽依赖、窄依赖、Stage、Shuffle机制、Spark中的checkpoint机制 Spark3.x扩大内容Spark3.x中的新个性,并且扩大SparkSQL相干内容 阶段四:高频实时数据处理+海量数据全文检索计划音讯队列KafkaKafka是一个反对高吞吐、持久性、分布式的音讯队列,非常适合海量数据的实时生产和生产,重点学习Kafka的外围原理、代码实战、性能优化,以及Kafka的企业级利用。 内存数据库RedisRedis是一种面向键值对的NoSQL内存数据库,能够满足咱们对海量数据的读写需要,在这里咱们学习Redis中的五种罕用数据类型以及Redis中的一些高级个性 Flink框架根底理解Flink的基本原理和外围特点,把握Flink中流数据和批数据的编程思路和代码实战,Flink中Standalone集群、ON YARN集群的装置部署,以及Flink中外围API的应用。 Flink框架高级进阶重点学习Window和Time的应用,Watermark的实战利用,并行度的设置,Kafka Connector的具体利用,以及SparkStreaming的个性和应用。 Flink1.15新个性及状态的应用把握基于新版本的代码开发,并且对Flink中的State(状态)的应用与治理进行深度扩大。理解状态的容错与一致性 FlinkSQL(1.15)根底次要波及Flink SQL中的表、列、数据类型、DML语句、滚动+滑动窗口、Watermark、Catalog、HiveModule、SQL Client等性能 FlinkSQL双流JOIN详解基于Flink1.15版本的双流JOIN的用法,次要波及到一般Join、工夫区间Join、快照Join、维表Join、数组炸裂、表函数Join、窗口Join等Join类型的原理 全文检索引擎ElasticsearchElasticsearch是一个基于Lucene的分布式全文检索引擎,解决了海量数据下数据多条件疾速简单查问的痛点。 阶段五:综合我的项目练习次要是举荐零碎+数据中台 最下方分享配套学习门路的教程,可收费无套路取得 相干链接 官网:https://www.demosoftware.cn 分享博客:https://blog.demosoftware.cn 休闲浏览:https://novel.demosoftware.cn 写作素材:https://article.demosoftware.cn 实时新闻:https://news.demosoftware.cn 工具地址:https://tools.demosoftware.cn

March 27, 2023 · 1 min · jiezi

关于大数据:申菱环境CIO吴斌后疫情时代制造企业加速数字化蜕变下

春节之后,随着制造业企业的停工复产,不少中央政府陆续发展了制造业数字化转型口头,只有疾速实现数字化的降级和转型,能力继续的在风高浪急的新场面中放弃“中国制作”的劣势。 然而,依据工信部国内经济技术单干核心的调研后果看,企业若想实现全方位转型,须要冲破四个困局:一是制订战略目标;二是找准切入点,开掘施行场景;三是均衡效率韧性,晋升响应速度和抗危险能力;四是共创翻新生态,增强与生态系统的互动。 制作企业数字化转型的“难题”不仅仅体现在外部的战略规划、落地利用上,还体现在内部的生态圈的联动性和对简单环境的忍受性上。尽管数字化转型很艰难,大部分制作企业依然在转型降级的路线上,数据猿也留神到,曾经有企业胜利“上岸”,开始享受数字化制作带来的“红利”。 以后,中国制造业企业的数字化转型还处在初级阶段,不少制造业企业甚至还处在张望状态,尤其是中小企业,面临的难题还很多,具体而言,大抵有以下六个难题: 企业决策者没有意识到数字化转型的重要性和必要性;疫情之后,很多制造业企业更关注企业的生存问题,数字化转型后期投入高、有危险,短期难以有成果,所以重要水平被后置;企业用了很多软件系统,然而彼此不交融,造成了信息孤岛,进一步整合的难度较大;不少制造业企业自身利润率很低,短少足够的资金推动数字化转型;很多细分畛域短少成功经验,企业决策者不会转型;很多制造业企业短少数字化技术方面的人才。这六个问题归根结底就是“想不想做、能不能做、怎么做”的问题,如果再深挖一层,这六个问题更底层的起因可能跟中国的大环境无关。吴斌认为,大多数中国制作企业在整个产品链中,仍是属于低中端产品供给及组装,很少有高端产品,高端产品肯定是智能产品,所以这对企业数字化的水平要求也就更高。 点击链接,收费下载《制作企业剖析指标体系建设白皮书》 中国制造业在过来几十年始终在吃“人口红利”,而最近几年开始,中国的“人口红利”缓缓缩小,如果还想持续吃“人口红利”,企业只能搬迁到东南亚等国家,所以中国制造业的产品必须由低中端向高端降级, 中国制造业的制作能力也必须由低端制作向智能制作过渡。因而,中国的制造业企业数字化转型火烧眉毛! 中国与欧美国家的制造业企业在数字化转型上有所不同。首先,欧美国家的起步较早,所以从工夫维度上比中国企业要早;其次,因为各个国家的体制机制、倒退阶段和产业根底不同,所以在数字化体系上也有所不同,推动产业数字化的侧重点也不同,比方:英美国家从“自在摸索”向“政府干涉”转变,德法两国通过政府间接引领,营造优越的产业数字化生态系统,而日韩等国则以问题为导向,器重根底钻研和技术研发,中国则立足外国的优势产业,寻求数字化新改革。 只管中国在数字化转型降级上起步晚,但并不代表没有劣势。 一方面,中国制造业企业的“人口红利”还未齐全耗尽,而且搬迁到东南亚国家的制造业企业也须要一段时间的稳固和积淀,所以这段时间恰好是进行数字化转型的极佳机会,也可能是“最初的良机”,所以制造业企业还有“变质”的机会。 另一方面,中国领有全世界最齐备的产业链体系,制造业企业的数字化转型并不仅仅是企业外部的转型,还须要与内部客户、供应商实现买通,试想一下,如果能与上下游的渠道通过数字化买通,这无疑将进一步增强中国制造业的“护城河”,真正实现智能制作、工业强国。 不得不说,疫情在无形中放慢了数字化转型的步调。对于绝大多数制造业企业来说,数字化转型是一道“必选题”,外表上看数字化转型是引入各种零碎、工具,但本质上,它是企业本身的一场“改革”,而且做得好就能够实现“富丽转身”,产品、效率、业务、利润进一步晋升,如果做不好,可能将面临市场的“淘汰”。 随着疫情对生产和生存的负面影响逐步消退,中国经济的复苏势头远超预期,制造业企业的信念正在逐渐复原,数字化转型的新机遇正在被越来越多的“鸭先知”抓住。 而企业的数字化转型还须要一款优良的BI软件,帮忙经营者作出更为精准无效的决策。Smartbi是国内当先的BI品牌,自2011年成立至今,始终保持BI产品的研发和翻新,致力于为企业客户提供一站式商业智能解决方案。凭借过硬的产品实力和欠缺的服务体系,目前,Smartbi曾经取得金融、制作、医疗、批发、教育等行业5000+家头部客户的认可。 将来,Smartbi也将与更多优良的中国企业携手共进,帮忙企业实现数字化转型,助力更多中国企业博得世界注目。 点击链接,收费下载《制作企业剖析指标体系建设白皮书》

March 24, 2023 · 1 min · jiezi

关于大数据:申菱环境CIO吴斌后疫情时代制造企业加速数字化蜕变中

随着数字化时代的到来,泛滥传统行业迎来了转型的新机遇,这在制造业畛域尤为显著,越来越多企业抉择乘着大数据的浪潮,然而机会昙花一现,数字化转型除了须要企业一把手的高瞻远瞩外,更须要IT的撑持。 不少公司在进行数字化转型过程中,从内部洽购或者自研很多零碎或者软件,给各个职能部门、一线员工和车间设施装了不少数字化工具,可最终的成果并不好,管理者也很难把握到业务的停顿状态、设施的运行状态等。 申菱环境在转型的过程也遇到了相似的问题。例如,申菱环境上线了MES生产零碎、EHR零碎、SAP零碎等,这些零碎撑持着公司产研销供一体化业务的运作,但各个系统之间却是绝对割裂,无奈集中展现和剖析。而且,工厂生产作业管理还是用传统的电子看板和报表,难以直观、实时展示业务状态。 为此,申菱环境决定与思迈特软件携手,基于其智能BI平台——Smartbi,搭建生产指挥调度核心,通过对生产过程实时数据收集、治理、跟踪、统计分析,实现生产制作执行过程的精细化治理,满足申菱环境数字化降级需要。 点击链接,收费下载《制作企业剖析指标体系建设白皮书》 Smartbi的引入使得申菱环境的数字化转型往前迈了一大步。 首先,Smartbi给不同岗位的人员提供了与之匹配的工作视角。比方:基层管理者能够间接看到本小组的工作进展情况,中高层管理者也依据权限不同,能够理解到更加具体的经营治理剖析报表。它的益处是,当某一台设施或者某个业务环节呈现问题时,管理者能够十分形象、间接的看到问题的起源、解决的停顿过程等,让管理者更具备广阔的视角。 其次,Smartbi带来的现场管控度很强,就是它能动静的展现生产车间的情况。申菱环境在此基础上专门成立了生产指挥调度核心,通过这个指挥调度核心,管理者能实时理解到每个工单的生产状况、设施运行状况、现场的环境情况等,这样就大大减少了以往的巡视治理形式,用被动治理代替被动式治理。 BI我的项目建成后,助力申菱的整个经营过程实现可视化、可预警、可监控、可改革与翻新,促使局部订单产品研发周期缩短了42%,生产效率晋升28%,为公司经济效益的进一步晋升打下了松软的根底。 点击链接,收费下载《制作企业剖析指标体系建设白皮书》 其实,智能工厂车间数据可视化大屏BI解决方案在国内也有很多厂商在布局发力,然而能满足申菱环境简单需要的厂商很少,这也是Smartbi的劣势所在。申菱环境CIO吴斌提及,申菱环境在考查抉择合作伙伴上通过了三思而行,也调研过思迈特软件的其余合作伙伴的应用情况,最终抉择与思迈特软件单干次要是基于Smartbi的三个劣势。 第一,Smartbi是一款轻量级的一站式大数据分析平台,从企业的投入产出比来看,非常适合制作型企业的需要利用。 第二,大多数制造业企业的IT技术人员数量比拟无限,申菱环境也是如此,这也就意味着企业不可能在开发上投入太多资源,更心愿平台零碎能让IT技术人员疾速上手应用,而思迈特软件的产品简略易用、免培训的个性十分合乎让IT人员疾速上手,实现各种报表的生成。 第三,也是是十分要害的因素——Smartbi能够反对多个数据源。申菱环境在数字化过程中引入了很多零碎,比方HR、CRM、ERP等,除此之外,还有各种生产设施上的数字化工具,也在一直的产生各种类型的数据,所以这种多数据源、数据量宏大、数据类型丰盛的状况对大数据分析平台的要求会更高,毕竟从数据采集、数据处理和数据建模剖析的难度都很大,而Smartbi恰好能够无效的对接申菱环境的各类数据源,突破数据孤岛,对立整合数据,而且还能将数据疾速进行解决和剖析,实现不同管理者的需要。 不得不说,Smartbi对于申菱环境的反对买通“任督二脉”,一方面将海量数据实时处理出现进去,另一方面在业务优化、业务决策过程中反对申菱环境在数据化经营中不断进步。 点击链接,收费下载《制作企业剖析指标体系建设白皮书》

March 24, 2023 · 1 min · jiezi

关于大数据:申菱环境CIO吴斌后疫情时代制造企业加速数字化蜕变上

随同着疫情影响的逐步削弱和国际竞争的一直加剧,寰球制造业的数字化转型正在减速推动。中国作为寰球的制造业大国、寰球供应链体系最齐备的国家,只有疾速实现数字化的降级和转型,能力继续的在风高浪急的新场面中放弃“中国制作”的劣势。 以后,不少企业曾经意识到数字化转型的重要性和迫切性,也从多个方面开始布局和摸索企业的数字化转型。广东申菱环境零碎股份有限公司(以下简称:申菱环境)就是一家曾经胜利实现数字化转型降级的制造业企业。在申菱环境CIO吴斌的眼中,数字化转型并非欲速不达,须要分阶段进行。 图 | 申菱环境CIO吴斌 他认为,企业数字化转型分为三个阶段:透明化、数字化和智能化。透明化是指企业通过一直的搭建各种信息化零碎,撑持整体的经营体系和研产销的运作;数字化是指企业开始把数据当作生产资料,通过各部门数据的剖析和解决,帮忙企业进行生产治理和整体的经营治理;智能化是指依附数字化的IT能力,为公司的治理降级、经营模式降级和产品的智能化降级提供反对和帮忙。 由此可见,申菱环境对于数字化转型的了解并不是自觉的搞技术装备降级,或者简略的设施更迭或者“上云”,而是有一套残缺且逻辑严密的降级框架和策略方向。落实到业务推动上,更能看出这种思考背地弱小的支持力。 申菱环境此前的业务是生产、研发、销售特种温控设施,也就是特种环境的空调等产品。站在传统的视角来看,把产品卖给客户就算实现了交付,售后服务与客户的粘性并不强。而在数字化转型降级后,申菱环境对产品的认知晋升了更高的维度,客户须要的可能不仅仅是一套寒冷的设施,更须要的是一套节能节费的治理计划,也就是除了对温度、湿度等管制之外,还想要更节能、更省钱。 基于此,申菱环境研发出了“菱碳云”AIOT平台,这套计划的落地不仅解决了客户的治理需要,联合申菱的节能设施零碎布局,整个的经营老本也比传统修建楼宇的经营老本降落80%。目前申菱环境曾经演变成了一家集计划布局、零碎设计、设施定制、集成施行、调试交付、智能群控、智慧运维于一体的现代化企业 从寒冷的设施到和煦的解决方案,从被动的检测查看到被动的观测和调参,数字化转型降级减少的不仅仅是科技含量,更多的是帮忙客户降本增效的服务和反对。让申菱环境与上游客户的关系不再是基于“钱货”的“一锤子买卖”,而是基于信赖的生态共建关系。 这种角色和视角的转变得益于企业数字化的转型,而企业数字化转型的要害,在于企业一把手的器重水平。吴斌认为,企业的数字化转型是“一把手工程”,须要公司老板躬身入局,继续的推动能力有可能顺利完成。当然,这并不是要让一把手做项目经理,老板须要有本人的想法,是不是想把企业变成一个数字化、科技含量高的企业,这一点很重要。 其次,企业在数字化转型过程中,中基层力量不可短少,然而很多企业的中基层人员都是跟着企业一起成长,对于数字化治理的能力大多有所或缺,所以他们是决定治理好坏的决定性作用。 第三,不同企业间面临的情况并不一样,其数字化所处的阶段也不尽相同,很难用某一个规范来掂量企业数字化的过程和最终的实现成果,所以这就须要企业一把手必须当好“掌舵人”,依据公司特点来确定数字化的策略。 拿申菱环境来说,公司很早就造成了本人的数字化工厂模型,在公司副总裁崔梓华博士的率领下,申菱环境的数字化建设获得了重大功效,造成了从客户需要到产品设计、工艺、制作、检测、物流以及交付的全流程数字化利用。 同时,申菱环境在智能制作方面取得了省、市相干立项及荣誉认可,比方2017年广东省省级工业和信息化专项——制造业与互联网交融倒退试点示范我的项目,2018年广东省智能制作试点示范我的项目、2022年取得佛山市智能制作示范我的项目二级工厂认定等,这些都离不开崔博士的引领和付出。 由此可见,企业一把手对于企业数字化转型降级的成败起到至关重要的作用,他就是企业数字化转型的“总指挥”,须要为数字化转型指明方向和纠偏,使得转型策略能顺利执行和落地。毕竟如果方向呈现偏差,越致力成果越差。 除此之外,企业的数字化转型还须要一款优良的BI软件,帮忙经营者作出更为精准无效的决策。Smartbi是国内当先的BI品牌,自2011年成立至今,始终保持BI产品的研发和翻新,致力于为企业客户提供一站式商业智能解决方案。凭借过硬的产品实力和欠缺的服务体系,目前,Smartbi曾经取得金融、制作、医疗、批发、教育等行业5000+家头部客户的认可。 将来,Smartbi也将与更多优良的中国企业携手共进,帮忙企业实现数字化转型,助力更多中国企业博得世界注目 点击链接,收费下载《制作企业剖析指标体系建设白皮书》

March 24, 2023 · 1 min · jiezi

关于大数据:火山引擎-DataTester抖音的设计团队是如何用-AB-测试实现高效优化的

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群对 C 端产品而言,产品的每一个细节设置都或多或少影响着用户的产品体验,本文介绍字节跳动的 A/B 试验文化的同时,也将分享抖音设计团队通过火山引擎 A/B 测试 DataTester 实现产品优化的案例。 该试验最后起源自抖音 UI 团队一位设计同学提出的想法:用户刷短视频的时候会有肯定的视觉疲劳——“是否能够通过视频蒙层让文字更加分明,让用户浏览视频不再费眼,应用体验更好?” 其实,这个构想在产品上的改变非常简单,调整两个参数就能够改善视频文案整体的突出水平,一个参数是蒙层,另一个参数是蒙层的透明度。两个不同蒙层的产品版本,成为了 DataTester 中 A/B 试验的实验组和对照组,UI 设置如下图: 试验后果十分惊喜,DataTester 的试验数据显示“文字更加突出”组的用户停留时间更长,抖音的人均 App 应用时长显著减少了 0.2%,这个数据对于用户量数以亿计的抖音而言,是一个较大的晋升,最终该策略也决定推全上线。 在抖音外面,像这样的小改变撬动大收益的翻新十分多,而这些细节全部都是通过 A/B 试验精打细磨,最终找到的最优计划。在这背地除了有欠缺的试验平台 DataTester 撑持之外,也有字节传承下来的试验理念和文化。 字节跳动的 A/B 试验文化提倡:“决策与改变要用相信后果来谈话,产品决策从不自嗨。”基于这个理念,产品经理们即便失去了试验验证,在日常的产品更新改变上,也不会“唯数据论”,还会持续通过对用户的了解、对业务的判断、正当的数据拆解来进行解读。 当从 A/B 试验中失去论断后,再通过大量试验积淀下来的教训反哺业务、加深对业务过程的了解和洞察,在业务实际的过程中一直积攒更多的业务教训。从企业收益的角度看,A/B 测试不仅能够激发翻新,让企业在小步快跑的同时,取得收益上的晋升。 如果利用 DataTester 这样欠缺的 A/B 试验平台,还能帮忙企业显著晋升人效,大幅升高试错老本。此外,当每个决策都能通过 A/B 试验来量化收益时,对企业治理而言,A/B 测试也成为了一种稳固、成果可量化的赋能伎俩。 作为助力企业科学决策的 A/B 测试平台,DataTester 目前服务了包含美的、失去、凯叔讲故事等在内的上百家内部企业,为业务的用户增长、转化、产品迭代、经营流动等各个环节提供迷信的决策依据,将成熟的“数据驱动增长”教训赋能给各行业。 点击跳转 火山引擎A/B测试DataTester理解更多

March 23, 2023 · 1 min · jiezi

关于大数据:Alluxio跨集群同步机制的设计与实现

一、Alluxio 利用场景和背景Alluxio 跨集群同步机制的设计和实现确保了在运行多个 Alluxio 集群时,元数据是统一的。 Alluxio 位于存储和计算层之间,在不同的底层文件系统(UFS)下层提供高性能缓存和对立的命名空间。尽管通过 Alluxio 对 UFS 进行更新可使 Alluxio 与 UFS 保持一致,但在某些状况下, 例如在运行多个共享某一个或多个 UFS 命名空间的 Alluxio 集群时,后果可能并非如此。为了确保这种状况下的一致性,Alluxio 曾经实现了跨集群同步机制,本文将对该机制进行具体介绍。 1. 背景介绍随着数据量的增长,这些数据的存储和拜访形式也变得越来越简单。例如,数据可能位于不同的存储系统中(S3、GCP、HDFS 等),也可能存储在云上或本地,或是位于不同的天文区域,还可能因为隐衷或平安爱护,被进一步隔离。此外,这些复杂性不仅体现在数据存储上,还包含如何将数据用于计算,例如,数据可能存储在云上,而计算则在本地进行。 Alluxio 是一个数据编排平台,通过在 UFS 上提供对立的拜访接口来升高此类复杂性,并通过提供数据本地性和缓存来进步计算性能。 对于许多组织而言,运行一个 Alluxio 集群可能就足够了,但有些组织须要运行多个 Alluxio 集群。例如,如果计算是在多个区域运行,那么在每个区域运行一个 Alluxio 集群可能会带来更大的劣势。此外,某些组织可能出于数据隐衷爱护的思考,须要运行独立的集群,或是心愿通过运行多个集群来进步可扩展性。尽管局部数据空间可能被隔离在某个集群中,但其余数据能够在多个集群之间共享。例如,一个集群可能负责提取和转换数据,而其余几个集群可能会查问这些数据并进行更新。 因为每个 Alluxio 集群可能会复制(即挂载)UFS 存储空间的某些局部,Alluxio 会负责放弃其正本与 UFS 的一致性,以便用户查问到最新的文件正本。在本文中,咱们将介绍在一个或多个集群中确保 Alluxio 数据与 UFS 统一所用到的组件。 2.Alluxio 数据一致性在分布式系统中保持数据的一致性是很简单的,其中有几十个不同的一致性级别,每个级别都容许不同的用户在特定工夫查问和批改数据的不同状态。这些一致性级别造成了一个从弱到强的范畴区间,一致性越强限度越多,通常越容易在下面搭建应用程序。Alluxio 也不例外,它会依据配置和应用的 UFS 提供不同的一致性保障(详细信息见 Alluxio 的数据一致性模型)。 为了简化对于一致性的探讨,咱们将做如下假如:● 对于任何文件,UFS 都是文件的 "惟一数据源"。 这意味着 Alluxio 中的每个文件都对应于 UFS 上的一个文件,并且 UFS 中总是有该文件的最新版本。如果 Alluxio 存储的文件正本与 UFS 中的文件不同,那么 Alluxio 中的文件版本是不统一的。(这里咱们假如 UFS 自身确保了强一致性,即某种程度的线性一致性(linearizability)或内部一致性(external consistency)。从高层次来看,这容许用户把 UFS(即使零碎是由许多分布式局部所组成) 当作相似实时按程序执行操作的繁多的文件系统来拜访。 ...

March 23, 2023 · 3 min · jiezi

关于大数据:互动福利|免费试用阿里云端TuGraph图数据库还有GoProfilco键盘苹果HomePod-mini等你拿

想要对数据关系进行 更好的数据可视化? 更高效的数据处理? 更精准的数据分析? 更快的查问速度? 来试试图数据库吧! 为激励更多用户摸索利用图数据库,TuGraph联结阿里云计算巢,凋谢限量收费试用名额,试用期间相干资源全副收费,一站式体验性能卓越的图数据库。 基于阿里云环境,用户无需额定洽购硬件,简略配置云主机即可分钟级实现部署,通过可视化工具进行操作,帮忙用户疾速搭建图利用,实现图数据库业务摸索。 流动工夫 即日起至2023年5月31日 试用体验工夫:长达 30天收费试用 流动权利权利一:参加试用、胜利创立实例,即可取得TuGraph定制保温杯一个。反馈试用体验、产品改良倡议,还将取得蚂蚁睡眠眼罩一只。 权利二:参加技术征文,取得对应奖项一等奖1名,奖品:GoPro Hero10 静止相机二等奖3名,奖品:filco 二代圣手 键盘三等奖5名,奖品:大疆 DJI Osmo Mobile SE OM手持云台入围奖若干,奖品:蚂蚁庄园咕咕小鸡盲盒特别奖若干(最佳人气奖等),奖品:苹果HomePod mini除以上奖品外,所有入围作者都将取得由TuGraph社区颁发的获奖证书 (示意图,以实物为准) 投稿要求 可围绕TuGraph应用体验、功能模块分析、对产品的改良倡议、实战案例等内容进行写作,方向仅作参考,也欢送大家凋谢翻新、自由发挥。文章需为原创,不得应用ChatGPT类工具生成;) ,公布在任一支流社区平台(如知乎、CSDN、InfoQ、开源中国、掘金、思否、墨天轮等),需为流动期间(3月15日-5月31日)公布。不少于800字。每位作者投稿数量不限。评优规范:文理清晰,有技术了解,图文并茂,点赞量等。评比完结,获奖作者及作品将在TuGraph社区公众号颁布。征文活动、试用流动均可独立参加。 报名流程 关注“TuGraph”公众号,输出“大展宏图”,按小助手疏导参加流动。 立刻参加 扫码关注公众号报名 计算巢试用阐明 您可在试用期间体验TuGraph-DB的图谱创立,模型定制,可视化操作等性能,遇到相干问题,均可在试用群外面询问技术专家。审核通过后,能够创立实例进行体验。阿里云计算巢提供默认7天收费试用,最高可达 30 天。试用完结,计算巢将销毁参与者创立的相干资源和数据,重要数据请做好备份。收费试用名额有限,激励大家尽早申请。流动最终解释权归TuGraph所有。更多资源TuGraph阿里云部署文档:https://aliyun-computenest.github.io/quickstart-tugraph/ TuGraph产品文档:https://tugraph.antgroup.com/doc TuGraph产品FAQ:https://github.com/TuGraph-family/tugraph-db/discussions 征询 电话:400-903-0809邮箱:tugraph@service.alipay.com社区 官网:https://tugraph.antgroup.comgithub:https://github.com/TuGraph-family/tugraph-dbgitee:https://gitee.com/tugraph/tugraph-dbEND 往期回顾 → 蚂蚁图数据库再获LDBC权威测试世界第一 → 蚂蚁团体开源图数据库TuGraph,成立图计算开源委员会 → 金融图数据库选型工具“LDBC-FinBench” ▼ 关注蚂蚁图计算,理解最新资讯

March 23, 2023 · 1 min · jiezi

关于大数据:火山引擎-VeDI-零售行业解决方案-聚焦精准营销场景提升品牌转化

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群你晓得,为了能让你买到适合的商品,品牌商们有多致力吗? 精准营销并不是一个新词,但近年来,随着营销渠道/平台的更加丰盛,精准营销的利用场景也正在经验新一轮的拓展,比方在短视频畛域,凭借更灵便的展示模式(挪动端)、更丰盛的内容表白,以及可实现一键跳转商品详情页等劣势,短视频和直播正成为品牌们最欢送的营销主场之一。 而精准营销的利用,也延长至此。 以直播场景为例,对品牌商来说,对一场直播带货最关怀的指标无非就是品牌影响力的晋升和商品售卖转化,但这两个指标实现的前提,都在于直播间的受众(粉丝)是否能与品牌(商品)指标消费市场能有最大限度的重合,即找准真正适宜品牌的直播间。 在 3 月刚完结的第 8 期火山引擎数智平台 VeDI「增长课堂」流动上,火山引擎数智平台介绍了面向营销场景的“达人直播优选”场景的解决方案,帮忙品牌商从数据角度登程,开掘商品与直播间的最强关联点,并以此为根底驱动品牌实现商品与直播间的精准”人-货“匹配。 据理解,该项解决方案可能买通品牌商包含商品在内的多维度数据,并引入第三方平台等公域数据,精准勾画商品指标市场;同时在达人侧,基于品牌商拟定的达人名单,进行公域数据洞察,从达人直播间受众剖析、历史带货数据分析、直播场均体现等多个维度,还原更直观的达人状况。 在这之后,火山引擎数智平台达人直播优选计划还将帮品牌商实现单方受众的匹配度计算,为品牌商提供更为精准的达人直播间举荐。 此外,针对品牌商持张望态度的“跨行业抉择达人直播间”问题,火山引擎数智平台也给出了本人的观点:抉择跨行业直播间,是直播场景下的营销新机会。 以美妆品牌跨行业抉择静止博主为例,静止达人直播间的受泛滥以户外运动趣味人群为主,但这类人群往往并非只带有“户外运动”属性,他们往往同时还关注“哪些妆容适宜户外运动”“如何放弃静止后不脱妆“等话题,因而这类人群将是美妆品牌的市场新增长点。 上述计划也同样能够为有跨行业达人抉择需要的品牌商,提供系列数据反对与达人优选计划。 目前,火山引擎数智平台曾经推出面向批发行业、汽车行业、金融行业在内的多套垂直行业解决方案,并帮忙诸多标杆企业实现实际。 点击跳转 火山引擎数智平台VeDI 理解更多

March 22, 2023 · 1 min · jiezi

关于大数据:一种基于实时大数据的图指标解决方案

作者:京东科技 尚建平 1. 现有技术在电商、金融风控畛域,应用图来建模,将大量的人员和事件编织成一张宏大的图关系网络,构建图指标来辨认异样人员和群体危险行为,目前图指标现有实现形式是基于离线数据或t+1数据构建图关系网络,图指标由业务人员或需要人员依据业务须要提出具体需要由开发人员长期开发、测试、部署、上线。 2. 现有技术的毛病第一,图指标时效性差,无奈实时更新图关系数据,在某些时效性强的场景下图指标不可用。 第二,创立、批改图指标流程繁琐,业务及需要人员无奈独自实现,需开发人员长期开发。 第三,图指标相干元数据没有对立治理及分类,无奈查看、批改、复用、追溯。 3. 本发明技术计划3.1 本发明所要解决的技术问题(即创造目标)第一,接管实时大数据流,实时构建图关系网络,图指标可基于实时图关系数据查问。 第二,业务及需要人员对图指标可视化创立、测试、上线,无需开发人员参加。 第三,图指标相干元数据进行对立治理及分类,可灵便查看、批改、复用、追溯。 3.2 本发明的残缺技术计划3.2.1 零碎原理图、构造阐明图或流程图 图1-零碎原理图 3.2.2 技术计划详细描述如图2-零碎流程图所示,计划详细描述如下: 步骤1:实时图指标平台获取用户设计图指标相干的元数据信息,包含数据源、图模型、图指标等元数据。数据源信息形容了接入数据源类型和数据源字段信息,图模型信息形容图关系网络的构建模型及构建数据的字段映射信息,图指标信息形容图指标计算逻辑信息。 步骤2:实时图指标平台依据数据源信息接管内部实时流数据。数据源次要是可构建图关系网络的人员及事件信息,包含用户登入、注册、订单交易、危险决策等数据源。 步骤3:实时图指标平台将接管的实时流数据进行荡涤、转换、分流。将接管的数据源中有效的数据及非法数据革除,并依据不同图模型数据要求对数据进行转换、分流。 步骤4:实时图指标平台依据图模型信息及数据字段映射信息,将实时数据流转换生成可插入图关系数据的类SQL。将人员及事件信息转换成用类SQL示意的用户、设施等节点及用户与设施节点之间关联的登入、注册等边数据。 步骤5:实时图指标平台通过对nebula图数据库各图空间执行类SQL将图关系数据插入更新至nebula图数据库。通过实时插入更新类SQL示意的节点及关联边数据,将大量的人员和事件编织成一张宏大的图关系网络,并实时更新。 步骤6:实时图指标平台接管内部零碎查问图指标后果申请及入参,查问用户可视化配置的图指标相干元数据信息。如查问用户x近30天内应用过的所有设施关联的注册金白条用户数量。 步骤7:实时图指标平台将可视化配置的图指标元数据信息转换成用类SQL示意的图指标计算逻辑。如从用户x节点查找近30天登入、注册等边关联出的所有设施,再反向查找这些设施被多少注册过金白条的用户应用过。 步骤8:实时图指标平台通过对nebula图数据库执行查问类SQL,获取图指标查问后果,依据业务状况调整图指标阈值,辨认异样人员和群体危险行为。如用户x近30天内应用过的所有设施关联的注册金白条用户数量大于5时,那么辨认出用户x是危险用户。 图2-零碎流程图 3.3 本发明心愿爱护的技术创新点本发明通过接管实时大数据流,实时构建图关系网络,实现图指标数据实时查问。 本发明通过可视化配置保护图指标相干信息,实现图指标及相干元数据对立治理、疾速部署上线。

March 22, 2023 · 1 min · jiezi

关于大数据:ByteHouse基于-ClickHouse-的实时计算能力升级

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群ByteHouse 是火山引擎数智平台旗下云原生数据分析平台,为用户带来极速剖析体验,可能撑持实时数据分析和海量离线数据分析;便捷的弹性扩缩容能力,极致的剖析性能和丰盛的企业级个性,助力客户数字化转型。 ByteHouse 在字节跳动的倒退历程从 2017 年开始,字节外部的整体数据量一直上涨,为了撑持实时剖析的业务,字节外部开始了对各种数据库的选型。通过屡次试验,在实时剖析版块,字节外部决定开始试水 ClickHouse。 2018 年到 2019 年,字节外部的 ClickHouse 业务从繁多业务,逐渐倒退到了多个不同业务,实用到更多的场景,包含 BI 剖析、A/B 测试、模型预估等。在上述这些业务场景的一直实际之下,研发团队基于原生 ClickHouse 做了大量的革新,同时又开发了大量的优化个性。 2020 年, ByteHouse 正式在字节跳动外部立项,2021 年通过火山引擎对外服务。 截止 2022 年 3 月,ByteHouse 在字节外部总节点数达到 18000 个,而繁多集群的最大规模是 2400 个节点。 能够设想,2400 台服务器同时堆在一起是怎么一副壮观的现象。ByteHouse 撑持的最大数据量可达 700 个 PB,自上线以来,反对了 80%大家十分耳熟能详的字节跳动业务。 抉择 ClickHouse 作为实时剖析的基建抉择起因那么,字节为什么会抉择 ClickHouse 作为外部剖析型数据库的根底呢? 2017 年,基于泛滥的业务场景以及海量剖析数据,字节外部对于实时数仓的要求也越来越高。 事实上,要同时满足图上所示的这些要求有着相当大的难度。 首先,要解决数据量大的问题,同时这个数据量还会一直地增长,2019 年,字节外部每天新增的数据量就达到了 100 个 TB。 其次,在数据量大的根底上,仍要保有蕴含以下三个方向十分强的灵活性: 1.数据源头的灵活性。 也同时去反对批示数据和流式数据的导入,实现批流一体。 2.查问性能的多样性。 心愿同时可能反对到明细数据和聚合查问,不心愿在数据库当中只存聚合的数据。 3.交互式剖析需要的灵活性。 数千个维度都要可能达到秒级的疾速响应。 最初,在满足前述两点根底上,还要做到老本可控。最开始,团队外部其实也列出了很多开源解决方案,例如 Redis、Apache 等等,这些计划其实都能够实现上述要求的一点到两点。 但如果要去保护不同的开源数据库,老本就会变得十分高,团队心愿尽量抉择一款能够防止老本有限扩大的计算引擎。与此同时,团队也心愿数据整体老本可控的,服务器老本的减少是线性的,而不是指数的。 线性: 数据存储都通过磁盘来进行指数: 指数通过内存来进行(快但贵) 最初,团队发现作为开源产品的 ClickHouse,居然可能同时满足所有的要求—— 性能强劲,灵便反对,次要依赖磁盘,老本绝对可控,真正做到了 All In One。 ...

March 21, 2023 · 2 min · jiezi

关于大数据:ByteHouse基于-ClickHouse-的实时计算能力升级

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群ByteHouse 是火山引擎数智平台旗下云原生数据分析平台,为用户带来极速剖析体验,可能撑持实时数据分析和海量离线数据分析;便捷的弹性扩缩容能力,极致的剖析性能和丰盛的企业级个性,助力客户数字化转型。 ByteHouse 在字节跳动的倒退历程从 2017 年开始,字节外部的整体数据量一直上涨,为了撑持实时剖析的业务,字节外部开始了对各种数据库的选型。通过屡次试验,在实时剖析版块,字节外部决定开始试水 ClickHouse。 2018 年到 2019 年,字节外部的 ClickHouse 业务从繁多业务,逐渐倒退到了多个不同业务,实用到更多的场景,包含 BI 剖析、A/B 测试、模型预估等。在上述这些业务场景的一直实际之下,研发团队基于原生 ClickHouse 做了大量的革新,同时又开发了大量的优化个性。 2020 年, ByteHouse 正式在字节跳动外部立项,2021 年通过火山引擎对外服务。 截止 2022 年 3 月,ByteHouse 在字节外部总节点数达到 18000 个,而繁多集群的最大规模是 2400 个节点。 能够设想,2400 台服务器同时堆在一起是怎么一副壮观的现象。ByteHouse 撑持的最大数据量可达 700 个 PB,自上线以来,反对了 80%大家十分耳熟能详的字节跳动业务。 抉择 ClickHouse 作为实时剖析的基建抉择起因那么,字节为什么会抉择 ClickHouse 作为外部剖析型数据库的根底呢?2017 年,基于泛滥的业务场景以及海量剖析数据,字节外部对于实时数仓的要求也越来越高。 事实上,要同时满足图上所示的这些要求有着相当大的难度。 首先,要解决数据量大的问题,同时这个数据量还会一直地增长,2019 年,字节外部每天新增的数据量就达到了 100 个 TB。 其次,在数据量大的根底上,仍要保有蕴含以下三个方向十分强的灵活性: 1.数据源头的灵活性。 也同时去反对批示数据和流式数据的导入,实现批流一体。 2.查问性能的多样性。 心愿同时可能反对到明细数据和聚合查问,不心愿在数据库当中只存聚合的数据。 3.交互式剖析需要的灵活性。 数千个维度都要可能达到秒级的疾速响应。 最初,在满足前述两点根底上,还要做到老本可控。最开始,团队外部其实也列出了很多开源解决方案,例如 Redis、Apache 等等,这些计划其实都能够实现上述要求的一点到两点。 但如果要去保护不同的开源数据库,老本就会变得十分高,团队心愿尽量抉择一款能够防止老本有限扩大的计算引擎。与此同时,团队也心愿数据整体老本可控的,服务器老本的减少是线性的,而不是指数的。 线性: 数据存储都通过磁盘来进行指数: 指数通过内存来进行(快但贵) 最初,团队发现作为开源产品的 ClickHouse,居然可能同时满足所有的要求—— 性能强劲,灵便反对,次要依赖磁盘,老本绝对可控,真正做到了 All In One。 ...

March 21, 2023 · 2 min · jiezi

关于大数据:跟着字节AB工具DataTester5步开启一个实验

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群 火山引擎A/B测试平台DataTester孵化于字节跳动业务外部,在字节跳动,“万事皆A/B,所有可度量” 的试验理念广为流传,小到一条站外推送的音讯,大到整个技术底层架构的优化批改,都会做A/B测试,甚至今日头条、抖音、西瓜视频等诸多产品的取名,也都和 A/B测试无关。 那么如何应用A/B测试平台开启一个试验呢?不同于外界对于A、B试验操作简单的认知,其实应用火山引擎DataTester开启A/B试验的操作非常简略:试验初始时,接入A/B测试,在接入实现之后,开启试验共有9个环节,其中最初 5 个环节,均能够交由DataTester一站式智能化解决实现。  具备字节特色的DataTester总结下来有以下六大亮点: 1.DataTester是一站式的通用的平台,不限试验的数量,并且能够反对正交和互斥两类的试验,同时还提供了一些高级性能,比如父子试验,还有些动静流量的一些智能试验。 2.DataTester能够适配十分多通用的场景模板。同时为了升高试验的门槛,衍生了一系列试验模板,能够通过可视化配置来进行试验的配置。同时DataTester还有一些垂类场景模板,用户能够间接应用,大大降低了试验或学习的老本。 3.DataTester有稳固牢靠的分流机制。只有迷信的随机分流或较稳固牢靠的分流的后果,能力保障试验论断的可信度,因而牢靠的分流机制非常重要。 4.DataTester具备弱小灵便的人群定向的能力,能够反对 SDK 上报的属性事件流,还有用户画像标签的人群筛选,能够通过这些来进行人群定向。 5.DataTester除了实验报告之外,还额定提供了剖析工具,能够帮忙用户疾速评估试验,用更好的论断来进行决策。 6.DataTester的实验报告和剖析能力都是基于迷信智能的评估策略的。 DataTester应用的统计策略跟字节跳动外部应用的是完全相同的,有两套分场景利用的评估框架并行在应用,而一般的A/B测试都是基于经典假设检验的。 目前,在内部客户的服务上,DataTester已笼罩举荐、广告、搜寻、UI、产品性能等业务场景,提供从实验设计、试验创立、指标计算、统计分析到最终评估上线等贯通整个试验生命周期的服务。来自失去、美的、凯叔讲故事APP等企业客户,曾经通过火山引擎DataTeser开启了用数据驱动科学决策的路线。 点击跳转 火山引擎A/B测试DataTester 理解更多

March 21, 2023 · 1 min · jiezi

关于大数据:kafka-stream的自定义时间段窗口实现

最近零碎须要做一个平安审计的日志平台,对所有接入的零碎进行日志的统计分析,把频繁查问、操作类型的日志进行监控预警,因为之前用的是kafka来实现各业务系统日志接入对立日志平台的,所以想到了间接应用kafka官网自身提供的一个实时计算框架kafka stream。kafka stream的工夫窗口有两个重要的属性:窗口大小和步长(挪动距离),滚动窗口Tumbling Time Window:步长等于窗口大小,滚动窗口是没有记录的重叠;跳跃窗口Hopping Time Window:步长不等于窗口大小。咱们的需要是要求预警每天从0点到24点时间段内产生操作或查问次数过多的记录,之前我用的是滚动窗口,窗口大小为一天,不过我看了kafka的默认实现,窗口设置在.windowedBy(TimeWindows.of(Duration.ofDays(1))),TimeWindows对象外面次要的办法就是public Map<Long, TimeWindow> windowsFor(final long timestamp) {},依据记录的工夫戳来判断是属于哪个窗口,默认代码为 @Overridepublic Map<Long, TimeWindow> windowsFor(final long timestamp) { long windowStart = (Math.max(0, timestamp - sizeMs + advanceMs) / advanceMs) * advanceMs; final Map<Long, TimeWindow> windows = new LinkedHashMap<>(); while (windowStart <= timestamp) { final TimeWindow window = new TimeWindow(windowStart, windowStart + sizeMs); windows.put(windowStart, window); windowStart += advanceMs; } return windows;}该实现的窗口时间段是从8点到第二天的8点为一天,而不是需要要求的0点到24点,于是我从新实现了一个类OffsetTimeWindows @Overridepublic Map<Long, TimeWindow> windowsFor(final long timestamp) { long windowStart = timestamp - (timestamp + offset) % sizeMs; //获得以后工夫戳那天0点的工夫戳 final Map<Long, TimeWindow> windows = new LinkedHashMap<>(); while (windowStart <= timestamp) { final TimeWindow window = new TimeWindow(windowStart, windowStart + sizeMs); windows.put(windowStart, window); windowStart += advanceMs; } return windows;}其中减少了一个offset的参数,能够在初始化这个类的时候进行赋值,以达到自定义任意时间段的成果,我是须要0点,所以该offset我设置为28800000,通过测试,可能完满实现该成果。在实现该需要的过程中,我发现flink的客户端有间接提供设置偏移量的窗口类TumblingEventTimeWindows,而kafka自身是没有实现的,目前看起来flink是性能更齐备一些的。 ...

March 20, 2023 · 1 min · jiezi

关于大数据:火山引擎-DataLeap数据秒级生产揭秘电商实时数仓最佳实践

更多技术交换、求职机会,欢送关注字节跳动数据平台微信公众号,回复【1】进入官网交换群一年一度的「三八大促」刚刚落下帷幕,各大电商平台纷纷推出补贴、营销等玩法,力求推动持续增长。 而电商平台持续增长,离不开数据驱动,特地是实时性数据的采集、治理、监测和剖析。 例如,主播如何实时获取直播带货数据?经营如何监控促销流动流量?商家如何监控大促期间交易额以及货品库存变动?本篇文章将带你走进某电商实时数仓团队,揭秘电商场景下实时数仓教训。 实时数仓建设为电商场景精细化经营提速“对于传统离线数仓,时效性根本为 T+1,最快也为小时级,而业务方心愿‘所见即所得’,以满足精细化经营和实时经营决策的诉求”,某电商实时数仓团队这样介绍。 除此之外,从传统离线数仓到实时数仓,也面临着不少技术难题。实时数仓依靠的流计算技术、Flink 等数据引擎技术仍然在不断完善中。在数据治理层面,实时数仓依赖的组件也十分多,从计算引擎 Flink,数据存储 MQ、在线存储 Abase、Redis 、服务查问 ClickHouse,各种存储及组件都在治理范畴内导致实时数仓的建设和管理工作异样简单。 为了解决以上问题,电商实时数仓团队引入火山引擎 DataLeap 实现对数据工作托管,笼罩代码编写、调试、自测、上线以及运维等开发阶段。一方面升高了开发成本,以往流表的 DDL 须要自定义编写,DataLeap 数据地图能力使用户能够罢黜 DDL 的编写,把精力专一在业务逻辑;另一方面,在数据测试环节,DataLeap 也反对构建测试用例,使得测试逻辑更加便捷。 电商实时数仓需要对接流程图 通过准确到秒级的数据精准、疾速采集,撑持了海量电商的实时性需要,满足电商生态上下游在实时监控、实时剖析、实时营销等方面的诉求。 对于商家,能够实时监测直播带货数据成果,以此调整货品上架及促销策略;对于经营人员,实时监控促销流动成果,更好进行人-货运营,辅以相干策略晋升 GMV;对于用户,实时获取价格变动信息、购买信息、物流信息,取得更好购物体验和售后反对。火山引擎 DataLeap 赋能电商场景数据标签建设电商体系不仅波及的数据量级大,数据品种更是庞杂,包含销售、库存、广告、财务等多种类型。构建数据标签体系可能迷信地组织电商数据,无效萃取和精炼数据服务,并对数据分类进行反向优化。 如何能力构建一套无效的业务标签体系? 首先,从业务视角对数据进行梳理,并将各渠道、各类型的数据进行采集和汇聚,从中提炼出标签元素,大抵由以下几个局部组成:利用场景、模型分层、主题域,每个标签由若干枚举值组成。其次,依据工作的行为元素给工作打上相应的“标签”,这也是标签建设的难点。通过人工打标无疑须要巨额工作量,同时也存在人工操作误差。电商实时团队基于火山引擎引擎 DataLeap 打造了一套数据血统利用平台,在数据溯源的过程中找到工作与工作之间的分割,上游节点工作标签将主动继承给上游工作,由此实现疾速、精确标记工作。最初,引入火山引擎 DataLeap 数据开发能力实现工作标签高效治理。电商实时团队通过 OpenAPI 接口疾速接入标签治理能力,对已上线工作进行疾速标记,实现工作分类。 火山引擎 DataLeap 工作标签治理随着数字化转型提速,每一家企业都迫切希望可能变得更加高效,更加麻利,以便可能做出更理智的决策,提供更优质的服务,这也对数据处理的实效性有了更高的要求。 实时数仓作用在业务经营的诸多典型场景中,如实时报表、实时大屏、经营监控、实时营销、实时风控等。将来火山引擎 DataLeap 也将积淀更多高效、易用、便捷反对实时数仓场景的工具和能力。 点击跳转 大数据研发治理套件 DataLeap 理解更多

March 17, 2023 · 1 min · jiezi