乐趣区

关于开源:业界首个高性能交互式自动标注工具EISeg正式开源

在人工智能行业有这么一句话:“深度学习有多智能、背地就有多少人工”。这句话间接说出了深度学习从业者心中的痛处,毕竟模型的好坏数据占着很大的因素,然而数据的标注老本却让很多从业者感到头疼。在标注中,矩形框标注还绝对简略,然而对于像素级别的宰割标注,往往须要大量的点将指标轮廓抠出来,这须要大量的工夫和人力老本去实现。

近期 PaddleSeg 团队公布了业界首个高性能的交互式宰割主动标注工具—EISeg,什么是交互式宰割呢?它其实就是先用预训练模型对图像进行预标注,对于标注不精准、有误差的中央,再通过一系列绿色点(晚点)和红色点(负点)对指标对象边缘进行精准的调整,从而实现精细化标注,高效而实用。

具体的产品体验链接,请参考:

https://github.com/PaddlePadd…

当然大家会好奇,交互式宰割算法是怎么实现的?在这里和大家介绍一下:

交互式宰割以用户的标注作为领导信息,依据用户的需要选取所需的前景或物体区域,并通过屡次交互的形式失去灵便的标注后果,为图片标注提供了一种半自动化标注策略,与语义宰割相比,交互式宰割不仅仅须要传入图片和标签,还须要输出交互信息来进行训练。

为了给大家带来更好的标注体验,开发团队在多个模型上一直尝试如何获取高精度的标注后果。通过大量测试发现,HRNet+OCRNet 模型构造可能更好的将交互点击信息传入到深层的特色中,并且保留宰割后果的细节信息,从而使模型对交互信息的反馈更准确、更灵便。值得一提的是:为了同时保障模型的高精度和轻量化,EISeg 的交互式宰割算法采纳 HRNet18 和 NRNet18-Small 两种 Backbone,而 OCRNet 的通道也能够进行不同数量的配置,失去计算量大小不同的模型,更好的满足用户不同场景的需要。

模型结构图

当然 EISeg 提供的不仅有预训练算法和交互式宰割操作形式,更多功能逐个为大家揭晓!

反对多种图像及标注格局 满足多种视觉工作

EISeg 不仅仅反对输入 mask 掩膜输入,还反对多边形等多种标注生成。同时反对伪黑白图、灰度图,以及 json、coco 等数据格式,用户还可对角点进行增删和部分修改。这样标注进去的数据,不仅仅能够做语义宰割,还能够用做实例宰割工作,两全其美!!!

超多人性化操作快捷键 让标注效率一提再提!

为了进一步提高标注效率,EISeg 提供了超多人性化设计的快捷键:

那到底标注效率有多快呢?咱们具体来做个测试

传统办法 1 分 7 秒 

EISeg 9 秒

能够看到,传统办法应用的标注工夫是 1 分 07 秒,EISeg 应用的只有 9 秒!应用的工夫是传统形式的 1/7 还不到!EISeg 的交互式宰割模型的标注效率是远远超过传统标注的!

丰盛的标注模型适宜多种场景

EISeg 凋谢了在 COCO+LVIS 和大规模人像数据上训练的四个标注模型,满足通用场景和人像场景的标注需要。其中模型构造对应 EISeg 交互工具中的网络抉择模块,用户须要依据本人的场景需要抉择不同的网络结构和加载参数。

另外,为了更好的满足用户宰割场景的多样性,PaddleSeg 团队还在继续建设其余垂类畛域的交互式模型,例如医疗和遥感图像标注。期待有相干需要的开发者们一起参加开源共建中来!

心动不如口头,大家能够间接返回 Github 地址取得残缺开源我的项目代码,记得 Star 珍藏反对一下哦:

https://github.com/PaddlePadd…

百度 AI 开发者社区 https://ai.baidu.com/forum,为全国各地开发者提供一个交换、分享、答疑解惑的平台,让开发者在研发路上不再“孤军奋战”,通过一直地交换与探讨找出更好的技术解决方案。如果你想尝试各种人工智能技术、开辟利用场景,赶快退出百度 AI 社区,你对 AI 的所有畅想,在这里都能够实现!

扫描下方二维码,增加小助手微信「京东卡、小度定制周边、神秘礼盒、行李箱」等更多福利你来拿~

退出移动版