关于大数据:Sophon-Base-31-推出MLOps功能为企业AI能力运营插上翅膀

48次阅读

共计 1717 个字符,预计需要花费 5 分钟才能阅读完成。


在国内政策疏导、企业产业智能降级的原生需要和疫情等多重因素作用下,中国的人工智能产业化利用在过来的 5 年间呈现出无可比拟的增长速度。然而随着人工智能和机器学习在企业各个业务层面的利用日渐深入,模型类型和数量也都呈快速增长态势。因为不同模型之间的训练框架、部署模式、输入输出都不雷同,导致异构模型难以被对立治理。同时,各部门间短少对立的模型从开发到上线的标准化流程标准,导致模型资产散落在各个业务部门,难以被对立纳管为企业数据资产。一直减少的模型治理老本和运维复杂度,以及生产环境的不可控危险,给企业模型治理带来了一系列挑战。

为解决 AI 落地难的问题,星环科技的 AI 团队从用户需要端登程,倾力研发了一款基于云原生架构的企业级 AI 能力经营平台 Sophon MLOps,助推 AI 模型落地。Sophon MLOps 是基于云原生架构构建的企业级 AI 能力经营平台,聚焦于机器学习模型全生命周期中的模型治理、模型部署、模型监控预警、模型评估和模型迭代等关键环节。通过对立纳管、对立运维、对立利用、对立监控、对立评估、对立解释,赋予企业客户易用、高效且安全可靠的 AI 能力经营服务,帮助客户规模化治理日益增长的机器学习模型,晋升模型应用效率,升高模型集成治理老本,管制模型生产环境危险。

Sophon MLOps 针对企业 AI 经营的痛点,围绕企业 AI 模型接入、经营治理、继续训练的全生命周期,别离提供规模化集成治理、高效模型推理、模型监控预警、模型性能评估、隐衷平安保障等性能,为企业的 AI 日常经营插上翅膀。

此次更新,MLOps 降级至 v1.1 版本,在已有性能上新增性能如下:

  • 新增模型服务批量预测性能:欠缺了利用场景,性能覆盖范围从原有的仅反对在线实时预测,降级为同时反对在线与离线两种模式。离线批量预测性能反对通过间接连贯数据库,获取批量数据进行模型预测,并将后果写回相应库表内,实现闭环;
  • 新增模型服务数据偏移指标监控性能:强化了模型服务在监控预警方面的能力,致力于帮忙用户更全面把握机器学习模型服务的运行状态,并通过自定义监控指标及时发现解决异常情况,躲避因数据偏移等起因引起的危险;
  • 新增模型服务监控指标配置及告警性能;
  • 新增服务公布审批流程治理;
  • 新增可解释机器学习 XAI 模块 (MVP 版):可解决数据分析过程中的相关性解释、过程性解释、推理性解释和因果性解释问题。用户能够精密地剖析特色与后果之间的影响关系,帮忙用户精准地晋升 DataCentric-AI 数据治理能力,针对性优化模型精度,帮忙用户疾速定位、优化影响业务后果的重要因子,从而促使业务胜利。

在金融科技行业,随着监管政策的一直收紧,银保监会于 2020 年 7 月正式出台了《商业银行互联网贷款治理行方法》,要求商业银行落实模型从开发测试、评审、监测到退出的全生命周期的风险管理。一方面为满足监管合规要求,另一方面晋升行内危险模型的管理效率,银行要求对模型全生命周期进行对立治理。此外,随着行内业务的继续倒退,大量异构 AI 模型资产散落在各部门,一旦须要应用,调参和部门间协调均使得模型部署周期拉长。

Sophon Base 3.1 应用 MLOps 搭建了全行对立的 AI 模型治理平台,疾速接入行内积攒的不同框架或平台训练生成的大量模型文件,按版本集成治理模型资产;并建设标准化流程,对立构建模型推理逻辑的形式,反对零代码一键部署模型利用。基于云原生基础架构,买通模型全生命周期流程,实现了银行对模型利用的对立运维和监控。

平台上线后,Sophon Base 集成了全行多种算法框架生成的数百个机器学习模型。部署模型利用的均匀工夫由 1.5 天降至 0.5 小时,配置老本升高近 80%,使模型的均匀迭代周期由 1 月降至 1 周。模型效率方面,反对上百个模型预测服务同时在线,单条数据实现毫秒级响应。

Sophon MLOps 买通了 AI 的全生命周期,为企业的各类用户角色搭建了对立的 AI 合作平台。对于企业而言,MLOps 规模化集成治理了多源异构的机器学习模型,并提供高效且保障隐衷平安的模型推理、监控预警及性能评估服务;对用户而言,能感触到操作上的快捷,AI 利用与部署更是锦上添花。将来,MLOps 将持续迭代更加丰盛的性能,赋能企业 AI 更快、更好地落地。

正文完
 0