关于函数:冷启动延时缩短5080阿里云函数计算发布冷启动加速技术

34次阅读

共计 1427 个字符,预计需要花费 4 分钟才能阅读完成。

简介: 近日,阿里云函数计算重磅公布冷启动减速技术,将本来属于开发者的镜像优化累赘转由函数计算承当,进一步帮忙开发者进步生产效率,专一业务翻新。该技术源于阿里团体超大规模和场景高度简单的容器环境,对镜像存储、减速技术有深厚的积攒,并杰出地承当了 3 年双十一,双十二,春节等大促秒杀场景的严苛的挑战。

容器镜像因其颠覆式翻新成为云原生时代利用部署格局的事实标准。头部云厂商 FaaS (Function-as-a-Service) 服务如阿里云函数计算、AWS Lambda 也相继在 2020 年反对应用容器镜像部署函数,全面拥抱容器生态。
自公布以来,开发者陆续将机器学习、音视频解决、事件驱动离线数据处理、前端自动化等多个场景应用镜像疾速无服务器化,提高效率、降低成本。然而,冷启动始终是 Serverless 无奈绕开的问题。容器镜像须要将数据通过网络近程下载并解压,对于 GB 级别的镜像,拉取工夫可能高达分钟级别,主观上放大了冷启动副作用,妨碍实时利用的 Serverless 演进。

函数计算冷启动减速性能

近日,阿里云函数计算重磅公布冷启动减速技术,将本来属于开发者的镜像优化累赘转由函数计算承当,进一步帮忙开发者进步生产效率,专一业务翻新。该技术源于阿里团体超大规模和场景高度简单的容器环境,对镜像存储、减速技术有深厚的积攒,并杰出地承当了 3 年双十一,双十二,春节等大促秒杀场景的严苛的挑战。据悉,函数计算已将该技术上线至:杭州、北京、上海、美东、美西等 region。

减速成果

咱们在抉择了外部生产环境和开源社区的工作负载,笼罩机器学习、人工智能、前端自动化、Web 利用等 7 种镜像大小、IO 拜访模式、启动命令的不同组合作为 benchmark,部署在 FC 北京区域。如下图所示,函数计算开启镜像减速性能后减速广泛超过 50%,对于机器学习场景中常见的臃肿镜像(如多个团队共享根底镜像, ml-small-import, ml-large-import, ai-cat-or-dog)减速成果更为显著(约 70%-86%),镜像越大优化空间往往越高。

性能特点

FC 镜像减速具备以下特点:

  1. 应用简略:只需在函数上开启镜像减速,函数计算会主动制作减速镜像和缓存,转换实现后(5 分钟以内),函数主动采纳减速镜像缓存。
  2. 专一业务翻新:开发者无需破费工夫刻意精简优化镜像大小或严格辨别 Serverless 和 Serverfull 利用镜像的构建形式,FC 负责依照利用理论应用数据拉取和解压。
  3. 减速收费,应用门槛低:镜像减速开启不产生额定费用,也不须要开发者额定购买或降级任何其余服务。事实上因为镜像拉取工夫变短,相应的申请费用也随之升高。
  4. 极速弹性、缩容到 0、事件触发:FaaS 联合容器镜像曾经极大简化了利用迁徙至 Serverless,减速性能进一步解锁了实时、准实时工作负载,已经须要分钟级别的容器启动当初能够几秒内疾速启动,真正实现缩容到 0。

将来布局

此次函数计算公布的冷启动减速技术,通过按需读取和更高效的解压技术在不同场景下减速 50%-80%,即便 GB 级别的镜像也能够在几秒内实现端到端启动。减速性能联合函数计算极致弹性和事件触发的特点,解锁了更多对实时要求高的工作负载。容器利用能够更容易地享受 Serverless 个性,真正做到缩容到 0 以及疾速大规模扩容。FC 在将来会继续优化冷启动各个环节提供极致弹性,承当更多用户责任,使开发者专一业务翻新。

附录:试验场景数据

原文链接
本文为阿里云原创内容,未经容许不得转载。

正文完
 0