关于深度学习:深度学习与强化学习的两大联姻DQN与DDPG的对比分析

本文首发于:行者AIQ学习(Q-Learning)算法是提出工夫很早的一种异策略的时序差分学习办法;DQN 则是利用神经网络对 Q-Learning 中的值函数进行近似,并针对实际问题作出改良的办法;而 DDPG 则能够视为 DQN 对连续型动作预测的一个扩大;本文将从定义比照剖析 DQN 和 DDPG ,更好地了解二者的算法区别与分割。 本文首先通过简介 DQN 和 DDPG 波及的常见概念,接着从 DQN 开始剖析了解其算法流程,而后进一步地剖析 DDPG ,最初总结二者的区别与分割。本文次要分为以下三个局部: (1)相干概念简介 (2)DQN 的算法剖析 (3)DDPG 的算法剖析 1. 相干概念简介DQN 和 DDPG 解决的问题不同,DQN 用于解决离散动作问题,而 DDPG 则是在其根底上扩大用于解决间断动作问题;所以首先咱们须要明确连续型动作和离散型动作的区别,以及二者在工程上是如何实现的。 1.1 离散动作简略的了解,离散动作是能够被分类的动作,比方向上、向下、停火、停火等动作;在理论工程中,咱们应用分类类型的激活函数去示意它们,比方 softmax : 如上图所示,输出 x 通过任意神经网络后,最初一层网络层应用 softmax 激活函数,将网络输入分为 n 个动作类;这样就能够输入离散的动作了。 1.2 间断动作离散动作是可被分类的动作,那么间断动作就是一个间断的值,比方间隔、角度、力度等示意确切的值。间断动作不可分类,因而在理论工程中,咱们应用返回值类型的激活函数去示意它们,比方 tanh : 如上图所示,输出 x 通过任意神经网络后,最初一层网络层应用 tanh 激活函数,将网络输入为一个区间化的值 value ;这样就能够输入间断的动作了。 2. DQN2.1 DQN面临的问题DQN 是利用神经网络对 Q-Learning 中的值函数进行近似,并针对实际问题作出改良的办法。然而咱们并不能进行简略的代替,比方定义一个分类神经网络: 而后在定义一个相似 Q-learning 的 loss 函数,比方:$Q(s, a) \leftarrow Q(s, a)+\alpha\left(r+\gamma \max _{a^{\prime}} Q\left(s^{\prime}, a^{\prime}\right)-Q(s, a)\right)$,而后再间接进行优化。这样的形式是行不通的。 ...

February 5, 2021 · 2 min · jiezi

关于深度学习:TensorFlow学习记录1

一、神经网络实现过程1、筹备数据集,提取特色,作为输出喂给神经网络2、搭建NN(Neural Network)构造,从输出到输入(先搭建计算图,在用会话执行)(NN前向流传算法→计算输入)3、大量特色数据喂给NN,迭代优化NN参数(NN反向流传算法→优化参数训练模型)4、应用训练好的模型预测和分类 二、前向流传参数W的维数为:前行后列(即后面一层的个数为W的行数 前面一层的个数为W的列数) 前向流传代码示例:import osos.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' #暗藏输入正告import tensorflow as tf#定义输出和参数用placeholder定义输出 (sess.run喂入一组或多组数据)#tf.Variable示意生成随机数 shape(a, b)示意数据类型为a行b列x = tf.placeholder(tf.float32,shape=(None, 2)) #多组数据的话应用none示意w1 = tf.Variable(tf.random_normal([2, 3], stddev=1, seed=1))w2 = tf.Variable(tf.random_normal([3, 1], stddev=1, seed=1))#定义前向流传过程a = tf.matmul(x, w1)y = tf.matmul(a, w2)#调用会话计算结果 (变量初始化,计算图节点运算,都要用会话(with构造)实现)with tf.Session() as sess:#变量初始化init_op = tf.global_variables_initializer()#计算图节点运算:在sess.run函数中写入带运算的节点sess.run(init_op) #用tf.placeholder在后面占位,在sess.run函数中用feed_dict喂入数据print("the result of 前向流传 is :n", sess.run(y,feed_dict={x:[[0.7, 0.5], [0.2, 0.3], [0.3, 0.4], [0.4, 0.5]]}))print("w1:", sess.run(w1))print("w2:", sess.run(w2))三、反向流传1、反向流传的作用:训练模型参数,在所有参数上用梯度降落办法,使NN模型在训练数据上的损失函数最小2、损失函数(loss):用于预测值(y)和已知标准答案(y_)的差距3、均方误差MSE:可用TensorFlow的函数示意:loss = tf.reduce_mean(tf,square(y_ - y))4、反向流传训练方法有三种:都是以减小loss值为优化指标 train_step = tf.train.GradientDescentOptimizer(0.001).minimize(loss)train_step = tf.train.MomentumOptimizer(0.001, 0.9).minimize(loss)train_step = tf.train.AdamOptimizer(0.001).minimize(loss)5、学习率:决定参数每次更新的幅度 ...

February 1, 2021 · 4 min · jiezi

关于深度学习:华为云登顶HotpotQA多跳知识推理问答评测

日前,华为云在常识计算畛域的多跳常识推理问答获得重大进展。基于自然语言解决畛域的当先技术积攒,华为云语音语义翻新Lab联结华为诺亚方舟实验室在国内权威的HotpotQA评测Fullwiki Setting赛道荣登榜首,在答案含糊准确率和联结含糊准确率(Joint F1)等指标上均达到第一。 HotpotQA评测(Fullwiki Setting赛道)最新榜单(截至2021年1月20日) 作为企业重要的信息载体,数字化文档记录了大量企业常识,如何疾速帮忙企业员工从数字化文档中取得答案,是企业文档保护人员的痛点。为解决此问题,一方面须要较强的浏览了解技术,另一方面还须要构建一套简单的凋谢域问答流程。 HotpotQA评测数据是斯坦福、CMU和蒙特利尔大学联合推出的新型问答数据集,由斯坦福的Manning传授和深度学习三巨头之一的Bengio牵头构建,该数据集由多跳简单问题以及对应的答案组成,同时蕴含佐证证据用来解释答案的起源。在斯坦福此前颁布的SQUAD评测工作中,机器曾经屡次超过人类,该评测仅须要从单个篇章中找到与问题无关的答案即可,故绝对简略。然而,HotpotQA评测须要从整个wikipedia或者多篇文章中找出问题相干的答案,同时要求返回问题到答案的推理链,难度大大增加更具备挑战性。该评测也吸引了来自谷歌、微软、Facebook等出名钻研机构以及CMU、Stanford、华盛顿大学、清华大学、北京大学等出名高校。 挑战多跳常识推理技术高点HotpotQA评测的难点在于机器要联合多篇文章进行多跳推理能力得出答案,并返回佐证证据。该评测分为Distractor Setting和 Fullwiki Setting两个赛道。Fullwiki Setting相较于Distractor Setting更为简单也更靠近实用价值,须要从整个维基百科文档中抽取文档,而后再从文档中提取段落,最初从段落中抽取答案,而Distractor Setting赛道会提供10篇备选的篇章。如何从大量文档段落中去多跳搜寻候选,而后了解候选段落的内容提取佐证证据成为较量的要害。 华为云联结华为诺亚方舟实验室,提出了新的检索指标hop,用于收集维基百科中暗藏的推理证据,解决简单多跳问题,同时联合beam search对答案进行排序和交融。 从维基百科文本图谱中检索跳转(Hops) 现在,企业面临着数字化、知识化转型,知识化转型重要的关键技术就是常识的了解和推理,该技术对企业常识转型具备重大的意义和推动作用。2020年华为云推出常识计算解决方案,企业能够基于华为云常识计算解决方案打造本人的常识计算平台,用于研发、生产、经营、销售、售后服务等企业外围流程。目前,该计划已在石油、汽车、医疗、化纤、煤焦化、钢铁、交通等行业率先实际。 点击关注,第一工夫理解华为云陈腐技术~

January 21, 2021 · 1 min · jiezi

关于javascript:MMSkeleton-快速开始使用-WebCam-测试

本文将疏导疾速应用 MMSkeleton ,介绍用摄像头测试实时姿势预计。 MMSkeleton: https://github.com/open-mmlab...装置首先装置 MMDetection ,可见 MMDetection 应用。 而后装置 MMSkeleton , # 启用 Python 虚拟环境conda activate open-mmlab# 下载 MMSkeletongit clone https://github.com/open-mmlab/mmskeleton.gitcd mmskeleton# 装置 MMSkeletonpython setup.py develop# 装置 nms op for person estimationcd mmskeleton/ops/nms/python setup_linux.py developcd ../../../现有模型,视频测试配置configs/pose_estimation/pose_demo.yaml: processor_cfg: video_file: resource/data_example/ta_chi.mp4 detection_cfg: model_cfg: ../mmdetection/configs/cascade_rcnn/cascade_rcnn_r50_fpn_1x_coco.py checkpoint_file: ../mmdetection/checkpoints/cascade_rcnn_r50_fpn_1x_coco_20200316-3dc56deb.pth bbox_thre: 0.8选用的检测模型,如下: Cascade R-CNN, R-50-FPN, 1x configmodel运行# verify that mmskeleton and mmdetection installed correctly# python mmskl.py pose_demo [--gpus $GPUS]python mmskl.py pose_demo --gpus 1后果将会存到 work_dir/pose_demo/ta_chi.mp4。 ...

January 19, 2021 · 2 min · jiezi

关于深度学习:跨越全场景统一架构三大挑战MindSpore亮出四招

摘要:本文重点分析全场景对立的AI框架的挑战和MindSpore的解决思路。2020年的最初一天,MindSpore公布了1.1版本,1.1中很重要的个性是构建了端边云全场景对立的基础架构: https://gitee.com/mindspore/m... 所以本文重点分析全场景对立的AI框架的挑战和MindSpore的解决思路。 全场景对立AI框架的挑战所谓全场景AI,是指能够将深度学习技术疾速利用在云边端不同场景下的硬件设施上,包含云服务器、挪动终端以及IoT设施等等,高效运行并能无效协同。 对于框架而言,波及三大挑战:疾速部署、高效运行、端云协同。 疾速部署如何将训练好的模型疾速地部署到云服务器、挪动终端以及各种IoT设施上进行推理甚至增量训练? 云服务器上推理通常以Service的形式进行部署,训练好的模型间接通过近程接口调用(gRPC/REST)推送到云服务器上,用户调用云推理服务接口进行推理。 对于挪动终端和IoT设施,因为硬件资源限度,云侧的模型和推理运行框架体积太大,无奈间接部署,因而模型的压缩和运行框架的轻量化成为挪动终端和IoT设施上部署的要害。 面向挪动终端和IoT设施轻量化的挑战,提供独立的轻量化的端侧AI框架是比拟好的解决方案,同时这样的轻量化框架可能还不止一种状态,比方相似于智能手机这些富终端和相似耳环这些瘦终端面临的挑战就不一样,富终端个别存储空间还是比拟富余的,有肯定的算力;瘦终端的条件则要刻薄的多,底噪要求管制在百K级别,这样你就不能放一个运行时进去,同时还要思考给AI开发者一个通用的解决方案。 有了轻量化的端侧框架以及好的模型压缩转换技术是否就能够实现疾速部署的目标?其实还有问题,因为如果咱们端侧的架构与云侧的架构是拆散的、实现是不统一的,如模型的IR不同、算子的定义不同、推理的API接口不同,那很可能导致云侧训练的模型无奈顺利的转换到端侧去执行,云侧的推理代码无奈在端偏重用。 个别框架的从云侧训练模型到端侧部署的流程如下: 这种形式目前存在一些问题: 第一个问题:两套模型定义很难保持一致,比方云侧和端侧的算子常常会呈现一方缺失的问题,导致模型转换失败。 第二个问题:云和端都须要的性能会反复开发,并可能有不统一,比方为了晋升推理性能而进行的fusion优化须要端云两边都做一遍,数据处理的不统一导致精度问题等。 第三个问题:云侧训练好的模型在端侧进行在线训练须要绝对简单的转换。 对于拆散的端云框架的不统一问题,是否能够通过如ONNX这样的规范去解决?很难,起因在于,AI产业的疾速倒退,新的算子类型疾速涌现,规范实际上很难跟得上,所以解决的路径还是应该着落在AI框架上。 高效运行全场景的高效运行,合成下来就是高效的算子、高效的运行时以及高效的模型,实现异构硬件的最大算力,晋升AI算法的运行性能和能效比。 算子的性能,须要从算法和底层指令优化多个层面进行优化。比方卷积,Winograd算法相比于Im2Col+GEMM,在很多经典卷积神经网络上性能就有很好的性能晋升。 然而,并不是所有的场景下Winograd的算法都优于Im2Col+GEMM。在上面的图中,当shape为224x224x3x64时,Winograd的性能反而有所好转。因而,在不同条件下抉择最优的算法对性能至关重要。 算法层面的优化,更多的是通过缩小运行时的计算次数(乘法)来晋升性能,而指令层面的优化则是为了更充沛的利用硬件的算力。对于CPU硬件,影响指令执行速度的关键因素包含了L1/L2缓存的命中率以及指令的流水,通用的优化办法有: 抉择正当数据排布,如NHWC、NC4HW4等等寄存器的正当调配,将寄存器依照用处,能够划分为feature map寄存器、权重寄存器和输入寄存器,寄存器的正当调配能够缩小数据加载的次数。数据的预存取,通过prefetch/preload等指令,能够提前将数据读到cache中。指令重排,尽量减少指令的pipeline stall。向量化计算,应用SIMD指令,如ARM NEON指令,X86 SSE/AVX指令等。这些优化须要对硬件架构有深刻的理解。 端侧运行时的性能次要面临异构和异步并行的挑战,从模型角度看,大部分模型在推理的时候看上去是串行执行的,不过如果把算子外部关上,变成细粒度的kernel,整体执行流还是一个dataflow的图,存在不少异步并行的机会,同时端侧存在大量的异构设施,如果一个模型在执行的时候应用多种类型的设施,两头也存在不同的流水线。 模型的性能,次要还是靠离线的优化和tuning,这一块业界也曾经许多实际了,总的思路次要是规则化的交融pass和离线的算子tuning联合。 端云协同端云协同次要波及三块:云侧训练-端侧推理、云侧训练-端侧增量训练-端侧推理、云/端的联邦学习 云侧训练-端侧推理,重点须要解决怎么生成最适宜端侧的模型,包含模型压缩和自适应模型生成。模型压缩技术咱们后面曾经做了介绍。对于神经网络主动搜寻(NAS),通常被用来生成满足肯定限度条件(例如,微控制器上极致的内存限度)的模型,NAS技术最大的问题在于如何缩短搜寻模型的工夫。 云侧训练-端侧增量训练,重点须要解决云和端的模型高效转换的问题,这个后面章节曾经介绍。 联邦学习,目前业界次要有两个技术流派,一个是横向联邦学习,数据上进行聚合,典型的利用场景是,挪动设施上的隐衷爱护问题,像广告等场景须要建设数百万挪动设施之间的联邦模型,防止用户隐衷数据上传到数据中心。第二个是纵向联邦学习,维度上进行聚合,比拟看重跨机构跨组织大数据单干场景,尤其是银行金融场景的数据安全和隐衷爱护问题。 跨机构跨组织大数据单干架构 联邦学习在技术上还有许多挑战,比方跨设施的零碎异构以及算法迭代过程中的通信,将会影响最终联邦聚合的效率和精度;联邦学习的过程中的模型加密办法,因为即便通过权重也能够揣测出局部隐衷信息,以及客户端的投毒攻打、反抗样本等;另外一个挑战次要是架构上的,目前联邦学习还没有一个对立的架构,同时反对横向联邦学习和纵向联邦学习。 MindSpore全场景对立架构的解决方案端云对立内核MindSpore在框架的设计上进行了分层设计,将端云共用的数据结构和模块解耦进去,在满足端侧轻量化的同时,放弃了端云架构的一致性,真正实现一次训练无缝部署、端云训练共模型。 【对立IR】 MindSpore core的对立IR,保障了端云模型/算子定义的一致性,使得云侧训练的模型能够无缝的部署在端侧。同时,对于端侧训练,能够和云侧应用统一的IR进行模型的重训。 对立IR定义了模型的逻辑构造和算子的属性,并且与模型的长久化是解耦的。开源我的项目中用于长久化数据的形式,应用最为宽泛的,就是protobuffer和flatbuffer。两者相比,protobuffer性能更为弱小,应用也更加的灵便,然而相应的,也更加的重量级。flatbuffer更加的轻,反序列化的速度也更快。MindSpore将对立IR的逻辑数据长久化成不同的物理模式,云侧长久化成protobuffer格局,端侧长久化成flatbuffer,兼顾了数据的一致性与部署的轻量化。 【公共pass】 为了晋升性能,训练好的模型在执行推理前,须要提前做一些优化伎俩,这些优化包含了交融、常量折叠、数据排布的调整等等。对于端云共享的优化,同样也是蕴含在MindSpore core模块中,只不过对于云侧推理,这些优化是在线推理时去执行的,而对于挪动终端这些优化在执行推理前离线实现。 【对立接口】 MindSpore设计了提供端云对立的C++接口。对立的C++接口的用法尽量与Python接口放弃了统一,升高了学习老本。通过对立接口,用户能够应用一套代码在不同的硬件上进行推理。 轻量化技术【MindSpore for micro】 相比于挪动终端,IoT设施MCU芯片资源更加的无限,因而,如何在IoT设施上部署深度学习模型将更具备挑战。 下面的表中,右边示意了云、手机、MCU上内存和存储的大小,左边示意了ResNet-50、MobileNet-V2、int8量化的MobileNetV2占用的存储和内存。 针对IoT设施,MindSpore设计了MindSpore for micro的计划。 部署在云服务器和挪动终端上的推理框架,通过模型解释的形式来进行推理,这样的形式能够反对多个模型以及跨硬件平台,然而须要额定的运行时内存(MCU中最低廉的资源)来存储元信息(例如模型构造参数)。MindSpore for micro的CodeGen形式,将模型中的算子序列从运行时卸载到编译时,并且仅生成将模型执行的代码。它不仅防止了运行时解释的工夫,而且还开释了内存使用量,以容许更大的模型运行。这样生成的二进制大小很轻,因而具备很高的存储效率。 MindSpore for micro的个性将会在1.2的版本中开源。 【量化】 MindSpore自适应混合低比特量化技术:依据模型构造和指标压缩率主动搜寻出对应层量化bit数,无需量化专家深度参加。量化因子可训练,在低比特量化场景下可极大晋升训练效率和缩小量化损失。在图像分类/指标检测模型上验证压缩8~10倍场景下,精度优于以后业界量化算法。 ...

January 13, 2021 · 1 min · jiezi

关于深度学习:基于密度图的航空物体检测理论与代码实现

作者 | lcl编辑 | CV君报道 | 我爱计算机视觉(微信id:aicvml)本文来谈一下基于深度学习的航空物体场景下的物体检测。航空物体这类场景个别由无人机空拍来收集数据,而后进行后处理来满足特定的工作场景,有些状况下要求实现实时反馈,甚至多任务。 这里探讨的航空物体检测是其中的一个分支,这类论题最近两年慢慢火起来。具体来说,从2017年开始,属于这类工作相干,且有较大影响的论文在CVPR,ICCV,ECCV等国内计算机视觉顶级期刊中出镜率越来越高,波及相干题目的比赛也越来越多。 和通用物体检测一样,航空物体检测也经验了从无到有的过程。乍一看,这两类工作都属于物体检测(object detection)的领域,而以后通用物体检测器曾经十分的多,不论是双阶段的fast rcnn系列还是单阶段的yolo系列,貌似办法是能够拿来间接套用的。然而,航空物体检测因为其特殊性,附带有下列挑战: 数据收集的过程由无人机拍摄执行。因为是低空拍摄,收集到的物体相比拟于个别物体尺度更小,整体散布稠密。相机随着焦距变换,导致数据会有肯定水平的扭曲效应,具体表现为前后图片尺度不一 收集的数据受光照,地理位置及地形,气象等天然因素影响,像素散布简单,导致数据集物体检测难度显著回升 受到拍摄角度的影响,密集物体场景下物体会有遮挡或梗塞的状况,这些物体的真值不全,不利于模型训练 天然场景下无奈保障每一类物体平衡呈现于数据集中,因此数据集类散布不平衡为了读者更好地了解上述挑战,上面的一组图比照了天然物体与航空物体的利用场景。 天然物体(左图) VS 航空物体(右图) 这些问题叠加在一起对航空场景下的物体检测提出了较高的要求。为了能很好的解决这个问题,最近几年的主会和workshop都提出了解决方案。 主会中比方2019年ICCV的ClusDet “Clustered Object Detection in Aerial Images”提出应用聚类形式做图像切分,尽可能地通过聚类合并前景像素来生成高质量的切块,以防止检测器节约过多工夫在背景上。同时为了改正生成的切块的尺度,追加了scalenet来均衡。 再比方强调用检测器来发现检测弱点,进一步学习并从新检测,心愿基于艰难区域检测(DREN)的网络“How to fully exploit the abilities of aerial image detectors”这些计划都是十分有启发性的,也获得了较好的精度。 然而这些计划的精度还是不够令人满意。此外除了检测网络,额定追加了两个子网络来帮忙晋升精度, 导致整体速度被拉慢。 为了提出更进一步的解决方案,这里笔者介绍一篇来自CVPR2020 workshop的论文"Density map guided object detection in aerial images",该论文应用密度图的办法来解决航空物体检测的问题。 相比拟于上述计划,应用了更少的子网络,获得了更进一步的精度和更快的检测速度。论文代码已开源。上面一张图简略展现了基于密度图的办法是如何切分出前景的。 密度图办法切分出前景(foreground) 相比于之前的办法,应用密度图去做航空图像检测能够更快的检测航空图像中的物体。密度图的办法来源于一个相近畛域的利用,也就是人流计数(crowd counting)。人流计数中物体高度密集,散布集中,单个物体的尺度小,和航空物体数据集在这方面高度类似。 在人流计数中一个支流的利用是应用密度图。密度图也能够视为热力求,能够和很好的反馈物体在单个图片中的散布,而背景对密度图没有奉献,所以这种办法其实能够很好的辨别前景和背景。这也是这篇论文想到把密度图引入航空物体检测的一个起因。 基于密度图的航空物体检测(以下简称DMNet)分为三个大的局部 密度图预计基于密度图宰割输出航空图像并生成前景应用生成的前景进行物体检测 DMNet的网络框架 以下是对三个局部的具体介绍密度图预计密度图(density map)预计和人流计数中的密度图预计相近。给定输出航空图像,咱们心愿估测并针对每一类物体的尺度,领导深度学习模型学习其对应的密度,以便在测试数据上生成 绝对应的密度图。常见的人流技术框架(比方MCNN, CSRNet)应用高斯核卷积来生成密度图,依据原理不同,有进一步分成动静核和动态核两种。因为人流计数中应用动静核须要满足肯定的假如,而航空图像中不满足(比方假如物体尺寸和其相邻物体间间隔成比例), DMNet应用的是动态核(fix kernel)来生成密度图。动态核的sigma值取全副训练数据集的平均值。 然而,应用动态核办法并没有齐全思考到各个类之间物体的差异性。比方某些物体(公交车, 汽车)的尺度比拟大,而某些较小(比方行人)。应用同一个sigma无奈贴切的刻画这种差异性。 所以DMNet进一步提出基于类别的动态核办法。应用这种办法能够更加粗疏的辨别同一类的前景和背景。下图能够看到这种办法的劣势。 基于类别的动态核办法 在DMNet中,作者应用MCNN来生成密度图。MCNN是十分经典的人流计数框架,应用了三种不同尺度的卷积来尽可能捕获特色。应用已有框架间接生成密度图,尽管很直观,然而仍旧有一个问题要探讨。 MCNN中有两层池化层,所以间接应用MCNN会导致生成的特色图缩水。一种解决方案是间接把特色图插值回原尺度,另外则是加两层升采样层解决。 ...

January 11, 2021 · 1 min · jiezi

关于深度学习:30CrNi4MoA

合金构造钢棒30CrNi4MoA是一种高纯净度钢。次要用于hangkong工业制作重要选材;执行GJB/6478-2008规范。30CrNi4MoA冶炼形式可√189-1708-1101。采纳电弧炉+电渣重熔或感应炉+电渣重熔办法冶炼。30CrNi4MoA淬透性很高。30CrNi4MoA淬火低温回火后可在大截面上取得平均的强度、高的塑性、韧性、疲乏强度,低的冷脆转变温度和缺口敏感性。30CrNi4MoA无显著回火脆性,切削性能中等,冷变形塑性和焊接性较差。对白点的造成敏感,锻后尽量缓冷。30CrNi4MoA宜作截面较大的整机,如轴类整机、对接接头、齿轮等。30CrNi4MoA化学成分:碳C:0.26~0.34;硅Si:0.10~0.35;锰Mn:0.45~0.70;磷P:≤0.025;硫S:≤0.020;铬Cr:1.10~1.40;镍Ni:3.90~4.30;钼Mo:0.20~0.35;钒V:—铜Cu:≤0.20.30CrNi4MoA力学性能:抗拉强度Rm/N/mm2:≥1540;非比例延长强度R/N/mm2:≥1130;断后伸长率A%:≥8;艾氏冲击AK J:≥20;布氏硬度值HBW:388~444。30CrNi4MoA热处理制度:1)、淬火(℃):810~840℃;2)回火(℃):200~250℃空冷。30CrNi4MoA交货状态:以退火或低温回火并革除氧化铁皮状态交货。30CrNi4MoA交货硬度/布氏硬度HBS:≤285。

January 5, 2021 · 1 min · jiezi

关于深度学习:视频人员重识别关系引导空间注意力-时间特征提取模型

作者 | Ass编辑 | CV君报道 | 我爱计算机视觉(微信id:aicvml) 2020 年顶会论文中,很多都会将关系退出到注意力机制的获取中。 除了该文,还有 2020 年 CVPR 的基于视频的 Multi-Granularity Reference-Aided Attentive Feature Aggregation for Video-based Person Re-identification、基于图像的Relation-Aware Global Attention 等。 该办法都会在这些论文中有着很好的成果,可见这是在行人重辨认畛域一大倒退。 论文名称:Relation-Guided Spatial Attention and Temporal Refinement for Video-Based Person Re-Identification(基于关系疏导的空间注意力和工夫特征提取的基于视频的行人再辨认)第一作者:Xingze Li通信作者:Wengang Zhou作者单位:CAS Key Laboratory of Technology in GIPAS, EEIS Department,中国科学院电子工程与信息科学系 University of Science and Technology of China(中国科学技术大学)看点RGSA(relation-guided spatial attention)模块:每个 spatial 地位的注意力由它的特色和与所有地位的关系向量决定(也就是关系疏导),并最终交融为一个frame的特色,它可能捕获部分和全局信息,同时定位特色区域而克制背景信息。同时作者提出,感触野要尽量的小,能力提取出更加具备区别性的特色。RGTR(relation-guided temporal refinement)模块:所有帧与帧的关系信息使得各个帧之间可能互相补充,有助于加强帧级特色示意。RM 关系模块:计算特色之间的关系应用的办法不再是 dot 或 inner,而是本人开发了一种 RM 关系模块来生成两个特色的关系向量。GRV(global relation vector):通过计算每个 spatial 地位的的关系和各个frame 之间的关系,生成 spatial-level 和 frame-level 的 GRV。并别离用在了RGSA 和 RGTR 模型中。PS:Spatial feature:指的是以(i, j)每个像素为单位的特色。为 1x1xC 维度。 ...

January 4, 2021 · 3 min · jiezi

关于深度学习:30CrNiWA

30CrNiWA是一种hangkongpao用钢,执行军标GJB/933-90;次要用于hangkongpao次要整机部位。30CrNiWA钢按资料加工法分两大类:a压力加工用钢;b切削加工用钢。可√189-1708-1101。30CrNiWA化学成分:碳C:0.27~0.34;锰Mn:0.30~0.60;硅Si:0.17~0.37;铬Cr:0.60~0.90;镍Ni:1.25~1.65;钨W:0.50~0.80.30CrNiWA力学性能:抗拉强度mpa/≥980;屈从强度mpa/≥780;伸长率%/≥9;断面收缩率%≥45;冲击功AK J/≥63。30CrNiWA交货状态:钢材应以退火或低温回火状态交货;交货状态应在合同中注明。硬度:布氏硬度HB/≤255。30CrNiWA冶炼办法:采纳电弧炉或电弧炉+电渣重熔冶炼;特级优质钢必须经电渣重熔冶炼。

December 31, 2020 · 1 min · jiezi

关于深度学习:30SiMnCrMoVE-D406A钢号

30SiMnCrMoVE是低合金超高强度钢材质,钢代号D406A。30SiMnCrMoVE执行军标GJB规范,不一样型号执行不同GJB规范;可√189-1708-1101技术标准GJB3324-98 航天固体火箭发动机用超高强度钢板标准;GJB3325-98 航天固体火箭发动机用超高强度锻件标准;GJB3326-98 航天固体火箭发动机用超高强度钢棒标准。30SiMnCrMoVE低合金超高强度钢D406A钢次要用于非凡及特定设施耐压壳体及大型鼎力结构件用钢以及航天固体低合金超高强度钢。30SiMnCrMoVE低合金超高强度钢D406A钢冶炼工艺:采纳电渣+双重真空冶炼或电炉+精炼+真空+氩气爱护电渣工艺。30SiMnCrMoVE低合金超高强度钢D406A钢根本个性:屈从高达1350,抗拉至1600左右。

December 29, 2020 · 1 min · jiezi

关于深度学习:pytz格式化北京时间多出6分钟问题的解决方法

起步 在django框架中,用的是 pytz 库解决时区问题,所以我也尝试用这个库来解决。但发现了一个奇怪的问题: 1 2 3 4 import datetime import pytz <p>dt = datetime.datetime(`2019,6,20,` `12, tzinfo=pytz.timezone('Asia/Shanghai'))<br data-filtered="filtered"`> print`(dt) # 2019-06-20 12:00:00+08:06</p>` 为什么多出了 6 分钟来? 起因 这是因为 pytz 里保留是本地工夫。 1 2 3 fmt = '%Y-%m-%d %H:%M:%S %Z%z' dt = datetime.datetime(`2019,6,20,` `12, tzinfo=pytz.timezone('Asia/Shanghai'))` print`(dt.strftime(fmt)) # 2019-06-20 12:00:00 LMT+0806` LMT 即 Local Mean Time 本地工夫,也就是说 'Asia/Shanghai' 这个地区比utc多了8小时零6分钟,并不是北京工夫。 解决 所以 pytz 提供了 normalize() 办法来纠正这个问题,但传入的得是不带时区的日期对象: 1 2 3 4 5 ...

December 29, 2020 · 1 min · jiezi

关于深度学习:30W4Cr2VA

30W4Cr2VA弹簧钢因为钨铬钒的作用,此钢有良好的室温暖低温力学性能和不凡高的淬透性,回火稳定性佳,热加工性能良好。在调质状态下应用,用作工作温度≤ 500℃以下的耐热弹簧,如锅炉主安全阀弹簧、汽轮机汽封弹簧等。30W4Cr2VA弹簧用钢可√189-1708-1101圆棒、冷拉钢丝、板。30W4Cr2VA执行GB/T 1222-1984规范,本标准规范了30W4Cr2VA弹簧用钢化学成分、性能、特点、用处、冶炼工艺等参数。 30W4Cr2VA化学成分:碳 C :0.26~0.34;硅 Si:0.17~0.37;锰 Mn:≤0.40;硫 S :≤0.030;磷 P :≤0.030;铬 Cr:2.00~2.50;镍 Ni:≤0.35;铜 Cu:≤0.25;钒 V :0.50~0.80;钨 W :4.0~4.5。30W4Cr2VA力学性能:抗拉强度 b (MPa):≥1470(150);条件屈从强度 0.2 (MPa):≥1323(135);伸长率 5 (%):≥7;断面收缩率 (%):≥40;硬度 :热轧 热处理,≤321HB;冷拉 热处理,≤321HB。 注 :除抗拉强度外,其余性能参数检验后果供参考。 30W4Cr2VA热处理标准及金相组织: 热处理标准:淬火1050~1100℃,油冷;回火600℃±50℃(不凡须要时,±30℃)。 30W4Cr2VA交货状态:热轧钢材以热处理或不热处理状态交货,冷拉钢材以热处理状态交货。

December 28, 2020 · 1 min · jiezi

关于深度学习:难以置信的目标检测小妙招多训练几个epochs平均一下就能获得更好的模型

作者 | CV君报道 | 我爱计算机视觉(微信id:aicvml)随着深度学习技术的成熟,设计新的算法在支流的指标检测数据集比方COCO上晋升精度曾经很难了,但总有一些涨点技巧,比方谷歌前几天颁布的 简略粗犷“复制-粘贴”数据增广,简略又无效,让人措不迭防。 明天要跟大家介绍一篇新文章 SWA Object Detection ,可能是最简略、计算成本最低、入手老本最低的。 同样的,这篇文章全文无公式、无算法流程图,不改模型构造,不减少模型复杂度、推断工夫,也不对数据进行增广。但将其简略利用于支流的指标检测算法,可广泛在COCO数据集上取得 ~1 个AP的精度晋升!而且神奇的是原始模型精度越高晋升幅度越大。 该文昨天刚颁布,作者信息: 作者来自澳大利亚昆士兰科技大学、昆士兰大学。 简略一句话介绍办法:将模型在数据集上多训练几个epochs,将多个epochs失去的checkpoints 进行简略均匀,取得最终模型。该办法启发于 Stochastic Weights Averaging(随机权重均匀,SWA,来自论文 Averaging weights leads to wider optima and better generalization. UAI, 2018),其原本是为了改良深度学习模型的泛化能力。 SWA实践认为均匀多个SGD优化轨迹上的多个模型,最终模型泛化性能更好。如下图: W1、W2、W3为模型优化过程中不同的checkpoint,SWA认为在其张成的空间中,中心点具备更好的泛化能力。故取checkpoint均匀。 问题来了,训练多少个epoch再均匀?如何调整学习率? 在SWA原实践中模型再训练时应用固定学习率或者循环余弦退火学习率。 循环余弦退火学习率调整示意图: 其实很难用实践答复,所以作者的做法很间接,屡次试验,看后果总结法则。 作者应用Mask RCNN 在COCO上做了试验,固定学习率和循环余弦退火学习率调整都试了。 请看下表: 取得了很神奇的后果!checkpoints均匀后取得了比之前训练门路上所有模型都更好的后果,循环余弦退火学习率调整取得的后果更好,bbox AP 和 mask AP都能够取得超过 1 个AP的晋升!而且相比于6个、24个、48个checkpoints的均匀,12是一个足够好的数字。 为验证此办法具备通用性,作者在不同的算法上进行验证。 将SWA用于Mask RCNN  与 Faster RCNN上的后果: 精度都有晋升,而对于自身精度更高的Mask RCNN 晋升更显著。 将SWA用于RetinaNet 与 FCOS 上的后果: ...

December 28, 2020 · 1 min · jiezi

关于深度学习:F2防弹钢号-32Mn2Si2A防弹钢板

防护零部件用防弹钢32Mn2Si2A,其钢代号为F-2;执行GJB3166-98规范。本标准规范了材质32Mn2Si2A化学成分、性能、用处、冶炼工艺、防弹检测标准及厚度4mm-20mm;可√189-1708-1101。32Mn2Si2A用于XX防护整机用热轧钢板,厚底个别在4.0-7.0;冶炼办法可采纳电弧炉。32Mn2Si2A化学成分:碳 C :0.29~0.35(容许偏差-0.01);硅 Si:1.50~1.90(容许偏差±0.05);锰 Mn:1.60~2.00(容许偏差±0.05);硫 S :≤0.030(容许偏差±0.05);磷 P :≤0.030;铜 Cu:≤0.30。32Mn2Si2A交货硬度:热处理(淬火+回火)415~555HBS 10/300,32Mn2Si2A交货状态:钢板经软化退火状态交货。

December 23, 2020 · 1 min · jiezi

关于深度学习:几个深度学习常见metrics

顺手记——几个深度学习常见metricskappa公式$$kappa = \frac {p_o-p_e} {1-p_e}$$ 其中 $$p_o=\frac {分类正确的样本数} {所有样本数} = (混同矩阵中的)\frac {对角线元素之和} {所有元素之和}$$ $$p_e = \frac {\sum{y_{pred}的第i类样本数 \times y_{true}的第i类样本数}} {(所有样本数)^2} \\ = (混同矩阵中的) \frac {\sum {第i行元素和 \times 第i列元素和}} {(所有元素之和)^2} $$ 例子y_true = [2, 0, 1, 2, 0, 1]y_pred = [0, 0, 2, 2, 0, 2]依据以上y_true和y_pred构建的混同矩阵如下 0(y_true)1(y_true)2(y_true)0(y_pred)2011(y_pred)0002(y_pred)021接着计算$p_o=(2+1)/6=\\frac {1}{2}$,$p_e=(3\\times 2+0\\times 2+3\\times 2)/(6\\times 6)=\\frac {1}{3}$ 最终 $$kappa = \frac{\frac{1}{2}-\frac{1}{3}}{1-\frac{1}{3}} = 0.25$$ 代码验证 from sklearn.metrics import cohen_kappa_scorekappa_value = cohen_kappa_score(y_true, y_pred)输入后果 0.250000设计目标为了解决类别不均衡问题,kappa依附$p_e$在类别越不均衡就越大的特点,使得类别不均衡时kappa分数会更低。 ...

December 22, 2020 · 1 min · jiezi

关于深度学习:32Mn2Si2MoA-F3防弹钢

32Mn2Si2MoA附属高强度防弹钢,其代号F-3。32Mn2Si2MoA低劣防弹性能,其钢板经淬火加高温回火后,有良好抗弹性能. 压力加工和切削性能好。32Mn2Si2MoA作高强度防弹用钢;实用于各类XX装甲防弹构造用钢板。32Mn2Si2MoA组织构造:淬火加高温回火状态组织为回火马氏体及残余奥氏体。32Mn2Si2MoA生产规范:YB1208-80(32Mn2Si2MoA高强度防弹钢板)可√189-1708-1101~32Mn2Si2MoA高强度防弹钢代号F-3。32Mn2Si2MoA高强度防弹钢板F-3系列热处理后硬度达450-550,其规范热处理后布氏硬度445-555。

December 21, 2020 · 1 min · jiezi

关于深度学习:33Cr23Ni8Mn3N

内燃机气阀用钢33Cr23Ni8Mn3N附属奥氏体耐热钢。33Cr23Ni8Mn3N执行GB/T12773-2008规范;本标准规定了内燃机气阀用钢分类、订货内容、尺寸、形状及分量、技术要求、试验办法、测验规定、包装等;具体对本产品的成分、性能、冶炼、热处理等做出了要求。33Cr23Ni8Mn3N轧制圆钢 33Cr23Ni8Mn3N锻制圆钢可√189-1708-1101。33Cr23Ni8Mn3N化学成分:碳C:0.28~0.38;硅Si:0.50~1.00;锰Mn:1.50~3.50;磷P:≤0.040;硫S:≤0.030;镍Ni:7.00~9.00;铬Cr:22.00~24.00;钼Mo:≤0.50;钨W:≤0.50;氮N:0.25~0.35;钒V:-;铌Nb:-;铜Cu:≤0.30;33Cr23Ni8Mn3N热处理制度(规定):非比例延长强度Rp0.2/MPa:550;抗拉强度Rm/MPa:850;断后伸长率A/%:20;断面收缩率Z/%:30;硬度:HB:-,HRC:≥25。交货状态:33Cr23Ni8Mn3N热处理(固溶):≤360。

December 20, 2020 · 1 min · jiezi

关于深度学习:ApacheCN-深度学习译文集-20201218-更新

新增了四个教程: Python 人工智能中文版 0 前言1 人工智能简介2 人工智能的根本用例3 机器学习管道4 特征选择和特色工程5 应用监督学习的分类和回归6 集成学习的预测剖析7 通过无监督学习检测模式8 构建举荐零碎9 逻辑编程10 启发式搜寻技术11 遗传算法和遗传编程12 云上的人工智能13 应用人工智能构建游戏14 构建语音识别器15 自然语言解决16 聊天机器人17 序列数据和工夫序列剖析18 图像识别19 神经网络20 将卷积神经网络用于深度学习21 循环神经网络和其余深度学习模型22 通过强化学习创立智能体23 人工智能和大数据Python 无监督学习实用指南 零、前言一、无监督学习入门二、聚类根底三、高级聚类四、实用的档次聚类五、软聚类和高斯混合模型六、异样检测七、降维和成分剖析八、无监督神经网络模型九、生成反抗网络和 SOM十、习题生成反抗网络我的项目 零、前言一、生成反抗网络简介二、3D-GAN -- 应用 GAN 生成形态三、应用条件 GAN 进行人脸老化四、应用 DCGAN 生成动漫角色五、应用 SRGAN 生成真切的图像六、StackGAN - 真切的文本到图像合成七、CycleGAN - 将绘画变成照片八、条件 GAN - 应用条件反抗网络的图像到图像翻译九、预测 GAN 的将来TensorFlow 智能挪动我的项目 零、前言一、挪动 TensorFlow 入门二、通过迁徙学习对图像进行分类三、检测物体及其地位四、以惊人的艺术风格变换图片五、理解简略的语音命令六、用自然语言形容图像七、应用 CNN 和 LSTM 辨认绘画八、用 RNN 预测股价九、应用 GAN 生成和加强图像十、构建相似 AlphaZero 的手机游戏利用十一、在挪动设施上应用 TensorFlow Lite 和 Core ML十二、在 Raspberry Pi 上开发 TensorFlow 利用

December 18, 2020 · 1 min · jiezi

关于深度学习:互联网时代现在当网红还有机会吗

2020年以来,受疫情影响,线下门店交易大幅膨胀,以互联网电商平台为主的线上新型生产迅速补位,出现多个新趋势。 从直播带货、网络下单到送货上门、社区团购,成为了消费市场上的一抹亮色,互联网生产,正成为人们日益生产的新形式。 往年6月底,“互联网营销师”正式纳入《国家职业分类大典》。互联网营销从业者,取得了“官网认证”,迎来了标准倒退的新期间。 据不齐全统计,我国目前从事网红相干业务的企业有1700多家,2017年以来新增了885家,占比50.5%。 从地区散布来看,我国的网红相干企业较多集中在北京市、广东省和浙江省,简直占据了网红江湖的“半壁江山”。其中,北京和广东两省均领有超过300家从事相干业务的企业。 网红万千,但背地的资本才是最大受益者,斗鱼、虎牙在18年胜利上市,抖音快手更是以微小的流量取得有数资本的疯狂追捧,就连置身事外的B站也在18年美国上市后实现了股价翻翻。 资本是可恶的,它让一个站在风口的普通人一飞冲天,但资本又是有情,他会毫不犹豫的远离给他带不了收益的所有。 那些在资本的助推下懵懵懂懂飞上天空的网红们,在资本意识到他们带来的流量缩小后,就会果决的摈弃他们,于是这些网红们在低空自由落体,摔得遍体鳞伤。 而更残暴的是,曾经享受过了翱翔的快感的他们,必须从新学会走路。 这是个交换变得越来越顺畅的时代,将来还会有更多各式各样的网红涌现,然而,那种靠土味、恶搞、好奇而走红的传统网红注定要面对“常识、技术型”网红的挑战。 当初当网红,还有机会红吗?答案是必定的。 对于网红来说,这是个好时代,也是个坏时代。 如何让本人“红”得久一点,应该是每个想成为网红的人认真思考的问题。

December 17, 2020 · 1 min · jiezi

关于深度学习:训练报错-forward-missing-1-required-positional-argument-‘x

问题如题,pytorch yolov3训练本人的数据集时报错,test.py报错TypeError: forward() missing 1 required positional argument: ‘x’,发现是因为我的val验证数据集有5个,batch-size是16,不是整除关系导致的,这样无奈调配输出图片,我把val图片总数改成整除关系张数即可了

December 17, 2020 · 1 min · jiezi

关于深度学习:921A正品钢

舰艇钢921A你想样品?还想切割L921A整板10CrNi3MoV ?自瓦格良号航母回家,成为咱们的辽宁舰之后,扬我大国之威。国产921A、907A、945、980舰艇钢你还不信赖吗? 军舰制作和民用船只制作的用处不同,所以用的钢材10CrNi3MoV性能也有很大区别。军舰执行的工作可能蒙受炮弹、鱼雷攻打,所以用钢要思考的是强度、抗裂纹敏感、如果是航母甲板用钢还要思考耐高温、还有就是钢板的宽度尺寸。 民用船只只用来运输人员和货物,思考的是平安舒服、稳定性和载荷、经济性等因素,所用钢材个别都要求合乎几个次要船级社的要求就能够。 舰船在高速前进时,螺旋桨和舵板均有可能蒙受含砂淡水的冲刷及磨蚀.在进行运行时。则存在着淡水中的动态侵蚀,各种因素独特作用的后果。决定了部件的使用寿命.对于螺旋桨资料的冲刷侵蚀、空蚀及磨蚀。 国内外钻研较多.然而对于舵板资料的钻研比拟少.L907A、921A是罕用的舵板材. 潜艇耐压壳体结构钢,钢板厚度为5-70毫米厚。 10CrNi3MoV   代号921A   实用厚度10-35毫米。 10CrNi3MoCu 代号922A   实用厚度36-70mm。 10CrNi2MoCu 代号923A   实用厚度5-9毫米。 921A化学成分: 碳 C :0.07~0.14   硅 Si:0.17~0.37 锰 Mn:0.30~0.60   硫 S :≤0.015 磷 P :≤0.020      镍 Ni:2.60~3.00 铬 Cr:0.90~1.20   钼 Mo:0.20~0.27                     钒 V :0.04~0.10 Shanghai GaoGao Company is s a high-tech enterprise integrating scientific research, production and sale , specialize in various bulletproof vest, ballistic helmet, hard armor plate, soft armor panel, ballistic shields, bomb/ballistic blanket,anti stab/cut products. We can provide a wide range of Military & Police supplies at affordable factory price. ...

December 16, 2020 · 1 min · jiezi

关于深度学习:防弹钢-防护装甲钢

防弹钢个别利用在防护性防弹用钢板利用场合如靶场设施,防弹门,防弹头盔,防弹衣,防弹盾牌;银行柜台,机要保险柜;防X车,防弹运钞车,装甲运兵车,战车,潜艇,登陆艇,缉私艇,直X机等。防弹钢按系列分:NP550、NP600、FD53、FD56、FD79、FD85、FD95、FD1、FD2、FD3、BHFD1、BHFD2、BHFD3以及BP装甲防护钢可√189-1708-1101进行BP系列高性能装甲防护钢,厚度范畴为2-12mm。BP系列防护钢抗枪弹性能优越,抗破坏性冲击能 力强。参照的次要规范有:GA 164-2005、GJB 1694A2000和GJB 59.18-1988。603装甲钢 30CrMnMoRE 规范GJB 31A-2000616装甲钢 22SiMn2TiB 规范GJB 1496B-2014617装甲钢 30CrNi2MnMoRE 规范GJB 31A-2000675装甲钢 30CrNi3MoV 规范GJB 31A-2000685装甲钢 30MnCrNiMo 规范GJB 8223-2014 Q/ASB 108-2010695装甲钢 42CrNiMoV 规范GJB 8486-20156211装甲钢 30CrNiMoNb 规范GJB 8486-201528Cr2Mo GY5低压防弹装甲钢 规范GJB 1496B-201426SiMnMo GY4装低压甲防弹钢 规范GJB 1496B-201432Mn2Si2A F-2火炮防弹钢 规范GJB 3166-1998

December 16, 2020 · 1 min · jiezi

关于深度学习:论文阅读-FGCN

Feedback Graph Convolutional Network for Skeleton-based Action Recognition作者 | Hao Yang, Dan Yan单位 | NUCTECH Company Limited论文地址|https://arxiv.org/abs/2003.07564摘要 近年来,许多学者利用图卷积网络(GCN)对骨架序列进行端到端优化建模。然而,传统的gcn是前馈网络,浅层不能拜访到深层的语义信息,在这篇论文中,提出一个新的网络,称为反馈图卷积网络(FGCN) 这是首次将反馈机制引入GCNs和动作辨认中 与传统的gcn相比,FGCN具备以下长处 设计了一种多阶段的工夫采样策略,以从粗到精的渐进过程提取动作辨认的时空特色提出了一种基于浓密连贯的反馈图卷积块(FGCB)来引入反馈连贯,它将高层语义特色传递到底层,并逐级传递工夫信息,逐渐建设全局时空特色模型,用于动作辨认FGCN模型提供了晚期预测。在晚期阶段,模型接管到对于动作的局部信息。当然,它的预测绝对毛糙。将粗预测视为先验常识,领导前期特色学习,实现准确预测在NTU-RGB+D、NTU-RGB+D120和Northwestern-UCLA的数据集上进行了大量的试验,结果表明所提出的FGCN对动作辨认是无效的。它在三个数据集上达到了最先进的性能 引言 近年来,从不同终端上传的视频数量曾经减少。这推动了对基于视频内容的人类行为剖析的迫切需要。尤其是与RGB和光流等其余模式相比,骨架人体行为辨认因其对动静环境和简单背景的影响具备较强的适应性而吸引了许多计算机视觉研究者。晚期应用骨骼进行动作辨认的深度学习办法通常将骨骼数据表示为关节坐标向量序列或伪图像,而后别离由RNN或CNN建模 然而,这些办法并没有显式地利用相干关节之间的空间依赖性,即便空间依赖性对于了解人类行为是有用的。最近,一些办法依据间断帧的天然连贯和工夫边缘来结构时空图。而后他们利用GCN来模仿时空特色。然而,传统的gcn都是单个前馈网络,由整个骨架序列当作输出。这些办法很难提取出无效的时空特色,因为这些有用的信息通常被暗藏在与静止无关或未辨别的片段中。例如,在“踢某物”动作中,大多数片段是“直立站立”,而在“穿鞋”动作中,大多数片段都是坐在椅子上。因而,对于低层,单通前馈网络无法访问深层语义信息。同时,输出整个骨架序列减少了模型的计算复杂度。 基于这一点,提出了一种新的神经网络,称为反馈图卷积网络(FGCN),以粗到精的渐进过程从骨架数据中提取无效的时空特色,用于动作辨认。FGCN是第一个将反馈机制引入GCNs和动作辨认的工作。与传统的gcn相比,FGCN具备多阶段的工夫采样策略,该策略将输出的骨架序列在时域内分为多个阶段,并从时域对输出的骨架片段进行稠密采样,防止了整个骨架序列的输出。对每一级输出的空时图像进行部分卷积提取。提出了一种基于反馈图卷积块(FGCB)交融部分特色的全局时空特色建模办法。FGCB是一个部分浓密图卷积网络,每个级到下一级都有横向连贯,它将反馈连贯引入到传统的gcn中。从语义角度看,它是自上而下的工作形式,这使得低层卷积层可能在每个阶段拜访高层的语义信息。在时域上,FGCB的反馈机制具备一系列因果关系,前一级的输入流入下一级,以调节其输出。 FGCN的另一个长处是它能够在总推理工夫的一小部分工夫内提供输入的晚期预测。这在许多利用中都很有价值,例如机器人或主动驾驶,在这些利用中,延迟时间是十分要害的。晚期预测是所提出的多阶段从粗到细逐渐优化的后果。在晚期阶段,FGCN只提供了一部分骨架序列,而且无关该行为的信息无限,因而其推断绝对毛糙。这些推理被视为在当前阶段领导特色学习的先验常识。在前期阶段,该模型接管到更残缺的行为信息和先前推理的引导者信息,从而输入更准确的推理。提出了几种时域交融策略,将部分预测交融到视频级预测中。这些策略使网络在渐进过程中失去优化。 办法反馈图卷积网络 传统的基于GCNs的动作识别方法都是在一个前馈网络中输出整个骨架序列。然而,当输出整个骨架序列时,有用的信息通常暗藏在与静止无关且无差别的片段中。单通前馈网络不能在浅层拜访语义信息。为了解决这些问题,提出了一种反馈图卷积网络(FGCN),该网络通过多级递进过程提取时空特色。具体地说,FGCN设计了一种多阶段的工夫采样策略来从骨架数据中稀疏地采样一系列输出片段,而不是间接对整个骨架序列进行操作。这些片段首先被输出到图的卷积层中以提取部分时空特色。而后,提出了一种反馈图卷积块(FGCB),通过将前一级的高级信息传输到下一级来调制其输出,从而交融来自多个工夫阶段的部分时空特色。最初,提出了几种工夫交融策略,将所有工夫阶段的部分预测进行交融,给出一个视频级的预测。 反馈图卷积块(FGCB) 反馈模块FGCB是FGCN模型的外围局部。一方面,FGCB将高层语义信息传回低层,以细化其编码特色。另一方面,前一级的输入流入下一级,以调节其输出。为了使FGCB可能无效地将信息从高层传输到低层,以及从前一个阶段传输到下一个阶段,提出了一个密集连贯的部分图卷积网络,它减少了从每一层到所有后续层的连贯 试验设计了四个融化试验来评估不同超参数、构造和输出对FGCN模型性能的影响。这些融化试验都是在NTU-RGB+D上进行的 试验细节 所有试验均采纳PyTorch深度学习框架实现。训练过程中采纳随机梯度降落(SGD)优化器,batch-size为32,momentum为0.9,初始学习率为0.1。在第40和60 个epoch,学习率除以10。训练过程在第80 epoch完结 输出的视频在工夫上分为五个阶段,每个阶段随机抽取64个间断的帧组成一个输出片段。十个图卷积层重叠在反馈块FGCB的后面,这些层具备与ST-GCN中的图卷积层雷同的配置。FGCB有四个图形卷积层(即L=4),将它们的时空核大小和输入通道别离设置为ks=3、kt=3和m=256

December 16, 2020 · 1 min · jiezi

关于深度学习:Temporal-Extension-Module-for-SkeletonBased-Action-Recognition

Temporal Extension Module for Skeleton-Based Action Recognition作者 | Yuya Obinata and Takuma Yamamoto单位 | FUJITSU LABORATORIES LTD论文地址|https://arxiv.org/abs/2003.08951ICPR2020在st-gcn的根底上开发了一个模块,在帧与帧之间相邻的关节点之间也增加连贯,益处在于和其余网络联合起来很不便,对于性能也有肯定的进步 但其实很多sota的模型都曾经思考过帧间关节点的链接,同时扩大到了多个尺度,不仅仅是帧间街坊关节点相连 办法提出了一个用于基于骨架的动作辨认的的时域扩大模块 现有的办法试图在帧内示意更适合的空间图,但疏忽了帧间工夫图的优化 具体来说,这些办法只连贯帧间同一关节对应的顶点。在这篇论文中,着重于在帧间增加与相邻多个顶点的连贯 是提取人体静止中多个关节的相干特色的一种简略而无效的办法 次要奉献如下 提出了一个工夫扩大模块,用于帧间时态图的扩大。该模块在提取人体静止中连贯的多个相邻关节的相干特色时简略而无效。在融化试验中的展现了TEM有效性达到了SOTA相干工作时空图卷积网络(ST-GCN)是第一个应用GCN对骨架序列进行动作辨认的办法 ST-GCN包含一个空间图和一个工夫图,间接输出一个骨架序列,并从帧内和帧间的关节处提取特色 在这项工作中,着重于扩大工夫图,连贯相邻的多个顶点以及帧间(右)上的同一个顶点。在帧内提出了更适合的空间图,性能失去了显著进步。然而,这些办法疏忽了帧间工夫图的优化 传统的GCN办法将只对应于同一关节的顶点之间的工夫维连接起来,该办法对于提取同一关节轨迹特色具备肯定的成果,然而,因为过于简略不太可能提取帧间各关节间相干静止的特色 钻研指标优化空间图和工夫图,以进一步提高性能TEM模块不仅间接将边增加到同一个顶点,而且还间接向相邻的多个顶点增加边,并基于帧间雷同的多个顶点计算卷积 工夫扩大模块在ST-GCN中退出了这个办法的模块,ST-GCN包含多层时空图卷积操作,将TEM放在空间卷积和工夫卷积层中 以同样的形式很容易地TEM模块实现到基于时空图卷积的网络中 试验加上这个模块后有肯定的性能晋升

December 10, 2020 · 1 min · jiezi

关于深度学习:Ultra-HighResolution-Image-Inpainting

Contextual Residual Aggregation for Ultra High-Resolution Image Inpainting作者 | Zili Yi, Qiang Tang, Shekoofeh Azizi, Daesik Jang, Zhan Xu单位 | 华为技术有限公司(加拿大)代码 | https://github.com/Ascend-Huawei/Ascend-Canada/tree/master/Models/Research_HiFIll_Model论文地址|https://arxiv.org/abs/2005.09704备注 | CVPR 2020 Oral图像修复主动填充图像中缺失局部 利用调整指标地位移除不想要的元素修复损坏的图像 以后的办法通过复制来填充 从缺失局部左近“借”像素来进行填充e.g., PatchMatch, diffusion-based通过建模来填充 数据驱动的形式来学习缺失的像素e.g., PixelRNN,FCN联合下面两种 e.g., DeepFill, Patch-Swap这篇文章的办法以后基于学习的办法的有余不可能去解决高分辨率图像 训练艰难GPU/NPU内存的限度短少高分辨率的训练数据集 论文办法提出了一种上下文残差聚合(CRA)机制,该机制能够通过对上下文补丁中的残差进行加权聚合来生成失落内容的高频残差,因而网络的训练仅须要低分辨率即可 因为神经网络的卷积层仅须要在低分辨率的输出和输入上进行操作,因而升高了内存和计算能力的老本 此外,还加重了对高分辨率训练数据集的需要 通过3阶段的pipeline实现高分辨率图像的修复 由生成器(Generator)失去低分辨率的修补好的图像通过残差聚合模块失去高频残差合并高频残差和低分辨率修补后果失去高分辨率修补图像网络结构 生成器(Generator)两阶段的coarse-to-fine网络 coarse network输出下采样到256×256的带mask图像,会产生粗略的缺失内容 fine network 通过Attention Computing Module (ACM)和Attention Transfer Module (ATM)失去缺失局部内外的关系得分,输入512×512的修复后果 试验 这篇论文的办法在图片分辨率大于1K的状况下修复效率和品质达到了最好 应用预训练好模型的测试后果后果在缺失局部很大,且上下文环境简单的状况下,成果看起来并没有很好 在背景繁多的风光照中成果很不错 总结提出了一种新鲜的上下文残留聚合技术,可对超高分辨率图像进行更高效和高质量的修复把大图下采样到 512×512 ,在分辨率为512×512的小图像上进行图像修复,而后在高分辨率图像上进行推理失去修复成果良好的大图与其余数据驱动办法不同,分辨率和孔尺寸的减少不会升高修补品质,也不会显着减少咱们框架中的解决工夫到目前为止,是惟一可能在超高分辨率图像(4K至8K)上进行端到端修复的基于学习的技术 

December 9, 2020 · 1 min · jiezi

关于深度学习:深度学习在物理层信号处理中的应用研究

摘要:本文次要介绍基于深度学习的物理层利用,并提出一种基于深度Q网络(DQN)的MIMO零碎地位信息验证计划,接收者在多变未知的信道环境下利用深度Q网络不断更新。01引言随着挪动流量出现的爆发式增长、高可靠性和低时延的通信场景给以后网络带来了更大的复杂性和计算挑战。据IBM报道,挪动数据量到2020年将超过40万亿Gbits,比2009年减少44倍,连贯总设施量将达到500亿。为了满足这一需要,须要新的通信实践和翻新技术来满足5G零碎的需要。近些年深度学习范式的倒退使引起了学术界和工业界对基于深度学习的无线通信技术的钻研,钻研后果证实了深度学习技术能够进步无线通信零碎的性能,并有后劲利用在物理层进行烦扰调整、信道预计和信号检测、信号处理等方面。 02深度学习范式 深度学习的概念源于人工神经网络(ANN)的钻研,由Hinton等人于2006年提出。如图1所示,深度学习通过建设具备阶层构造的ANN,往往蕴含一个输出层、多个暗藏层和一个输入层。每个层之间采纳不同的权重与邻层之间进行连贯,通过对输出信息进行逐层提取和筛选,能够实现端到端的监督学习和非监督学习 。深度神经网络包含前馈神经网络(FNN)、循环神经网络(RNN)、卷积神经网络(CNN)、反抗生成网络(GAN)和深度信念网络等。其中基于门控的RNN,例如长短期记忆(LSTM)网络对于输出有肯定的记忆性能,因而常被用于物理层信号处理和信道状态信息估计等。此外,深度学习也可参加构建强化学习(RL)零碎,造成深度强化学习,例如深度Q网络(DQN)[1],能够用于对物理层信号处理策略制订的优化。 1)长短期记忆网络作为RNN的一个变体,长短期记忆网络能够无效解决简略循环神经网络的梯度爆炸或隐没问题。RNN通过隐状态来存储历史信息。在简略的RNN中,隐状态的每个时刻都会被重写,因而能够看作是一种短期记忆。而在LSTM网络中,记忆单元保留要害信息的工夫要长于短期记忆。LSTM网络引入门机制来管制信息传递的门路。门机制取值在0到1之间,来管制信息通过的比例。LSTM网络次要包含了3个门,其中忘记门管制上一个时刻的外部状态须要忘记多少信息;输出门管制以后时刻的候选状态保留多少信息;输入门管制以后时刻的外部状态有多少信息须要输入给内部状态。 2)深度Q网络DQN将CNN与Q学习联合起来,采纳Q 学习的目标值函数来结构深度学习的指标函数,利用记忆回放机制来解决数据之间的关联性问题,并采纳迭代更新解决零碎稳定性问题。假如环境在时刻所处的状态为,代理依据肯定的策略 来采取动作,并取得处分。而后,环境在时刻转移到以转移概率转移到了下一个状态。在DQN中,代理通过一系列口头与环境进行交互,目标是最大化累积处分。 同时,采纳基于卷积神经网络的教训回放来进行Q函数的一直近似。在教训回放中,代理每一步应用-greedy来抉择动作,并将每个时刻的学习教训保留在教训池中。在算法的参数更新循环里,对记忆池里的样本进行随机采样或批量随机采样,通过Q学习对模型进行参数更新。并通过CNN来依据之前的教训,一直近似最大的Q值。CNN的损失函数就是近似的Q值与实在Q值之间的偏差,通过梯度降落算法一直调整神经网络的权重,就可一直缩小损失函数的值。 03 基于深度学习的物理层信号处理利用近年来,学术界和工业界曾经呈现了一些深度学习利用于物理层的相干工作,钻研后果发表深度学习能够进步物理层性能。本大节从物理层信号处理的角度,从信道状态信息(CSI)预计、信号编解码、烦扰调整和信号检测四个方面对目前已有的相干工作进行举例和阐明。 1)基于深度学习的CSI预计 准确的CSI获取对于保障无线通信零碎的链路性能至关重要。无线网络依据信道预计状态来抉择具体的信号管制计划,例如,当CSI较低时,物理层采纳低阶调制计划来反抗顽劣的通信状态从而升高误码率。5G通信零碎采纳多输出多输入(MIMO)、毫米波和非正交多址接入(NOMA)等技术,使得通信单方领有更多的传输信道,信道预计问题也变得更加简单。传统的CSI预计计划须要执行具备高复杂度的矩阵运算,受到了计算资源和时延的限度。 利用深度学习来失去CSI信息时空和上下行之间的关联性,曾经被证实能够进步CSI预计的效率,并缩小所需上下行参考信息的数据量[2]。如图2所示,论文[3]提出将历史CSI数据通过一个二维卷积神经网络提取频率特色矢量,再利用一个一维卷积神经网络来从频率特色矢量中提取状态特色矢量。最初,一个LSTM网络用来进行CSI状态预测。因为二维卷积神经网络最后是用来解决图片数据的,因而,作者将CSI原始数据宰割成单元格,每个单元格对应一个图片像素。每个频带的CSI和辅助信息对应的像素组成一个频道。因而,N个频带的数据将被转换成N个频道的像素信息,并输出到学习框架中。 2)基于深度学习的编解码深度学习在信源编码和信道编码方面的利用,也证实了其能够进步编码效率并升高网络的BER。基于深度学习框架的联结编码方案能够通过循环神经网络实现对本文的源编码(结构化),而后将结构化的信息输出双向的LSTM网络,并最终输入最终传输的二进制数据流。在接收端,LSTM用来进行解码解决。论文[4]提出了就有全连贯深度神经网络的编码器,用来进步基于相信流传算法的HPDC解码效率。O’Shea等人在[5]中将整个物理层建模为一个蕴含了调制、信道编码和信号分类性能的自编码器,并利用卷积神经网络来对自编码器进行训练。如图3所示,在多密集层神经网络的学习框架中,输出信号被编码为独热编码(One-hot encoding),无线信道建模为一个噪声层。穿插熵损失函数和随机梯度降落算法用来训练模型,在输入端将最高概率的输入信号作为解码后果。 3)基于深度学习的烦扰调整MIMO零碎中的烦扰调整通过线性预编码技术来调整发射信号,使得接收端的干扰信号能够管制在一个降维子空间里,从而冲破MIMO零碎烦扰问题带来的吞吐量限度。现有工作中曾经有钻研结果表明,利用深度学习能够进步烦扰调整网络中的吞吐量,并获得优化后果。He等人在[6]中提出了采纳DQN来取得烦扰调整下最优的用户抉择策略。在该机制中,地方调度器用来收集所有信道状态和每个用户的缓存状态,并将信道资源分配给每个用户。信道的时变过程用一个无限状态马尔科夫模型来进行建模,零碎的状态定义为每个用户的信道状态和缓存情况。地方调度器用来为零碎训练处最佳策略,对应的零碎动作定义为是否为每个用户调配信道资源来进行数据的传输,来最大化烦扰调整网络的吞吐量。DQN也可被用于认知无线电网络中次用户与主用户之间的烦扰打消,次用户利用跳频和移动性来抵挡烦扰者[7]。 4)基于深度学习的信号检测基于DL的检测算法能够显著进步通信零碎的性能,尤其适当传统的解决模块须要联结优化或是信道无奈用常见的分析模型来表征时。论文[8]提出了一个五层全连贯的DNN框架嵌入到OFDM接收器中来进行联结信道预计和信号检测。将接管到的信号以及对应的传输数据和导频作为输出,DNN能够推断出信道信息,而且能够用来预测发送的数据。在MIMO中检测中,基于贝叶斯最优检测器的迭代办法曾经被证实有较优的性能和中等的计算复杂度。但在很多更简单的环境下,未知的信道散布条件将限度这种检测器的成果。利用深度学习算法,能够依据肯定的输出数据来复原模型参数,从而进步检测器的自适应能力。同时,在一些状况下,深度学习算法还能够利用一些语义信息,例如接收器的地位和四周车辆节点的信息,来进行波束预测,从而进步零碎性能。 04 基于DQN的信号检测机制在基于位置服务的场景中,车辆或者用户须要一直发送信标音讯来报告本人的地位,从而进步位置服务和网络性能。但有些车辆或用户会抉择发送虚伪的地位来获取更多的资源,影响了网络服务的效用。 在MIMO零碎中,传输信号往往蕴含了丰盛的信息(达到角、接管功率等)能够在接收端利用信号检测技术对信标音讯进行地位验证。咱们提出基于DQN的信号检测机制,能够用于MIMO零碎中发送者的地位信息验证和对信息伪造者的检测。次要的思维为,接收端对接管的信号采纳最大似然预计进行假设检验,当接管到的信号通过检测测验时,则认为发送信号来自于发送者上报的地位。否则,认为发送者上报了虚伪的地位信息。为了进步在多变的信道状态下的检测性能,在接收端基于DQN来预测采纳不同的检测阈值能够获得的收益,并选取最优的检测阈值。零碎框架如图4所示。 1)零碎模型 假设检验中的零假如定为发送节点上报实在地位信息,备择假如为发送节点上报了虚伪地位信息。在每个时刻,接收端收到发送端的信号都与发送端与接收端之间的实在地位、信道状态和信号达到角无关。在已知发送信息和发送功率的条件下,接收端能够利用最大似然检测来对接管到的信号进行假设检验。 2)最大似然检测 接收端采纳最大似然检测算法来验证接管到的信号,检测规定定义为: 其中代表检测阈值,取值范畴为。和代表检测后果别离为失常和虚伪上报。和别离为观测信号在零假如和备择假如下的后验散布。依据[9]可得,假设检验的后果(误报率和失落率)与发送者的理论地位、上报地位、信道情况和检测阈值无关。对于接收端来说,发送者的理论地位、上报地位以及信道状态属于未知或局部已知的环境变量,在与发送者之间一直的信息交互过程中,本文提出接收端能够基于DQN来一直优化检测阈值的抉择,从而进步信号检测的准确率。 3)基于DQN的检测阈值优化 在本文提出的机制中,将接收端的状态空间分为两个维度,第一个维度是发送端到接收端的信道状态,第二个维度是信道检测的后果。信道状态空间包含量化后的一系列信道指标,并假如信道的状态转移合乎马尔科夫过程,即信道在以后时刻的状态都只与上一个时刻的状态无关。后果状态空间包含四种:实在数据检测后果为真、实在数据检测后果为假;虚伪数据检测后果为真以及虚伪数据检测后果为假。在每次动作过程中,接收端的间接处分与检测后果无关,当检测后果正确时取得正收益,当检测后果谬误时取得负收益。接收端的动作定义为进行信号检测的阈值,动作空间包含一系列量化的检测阈值。在每个片刻,接收端的混合策略为抉择不同检测阈值的概率。基于本文第二章介绍的DQN原理,接收端在每次经验后,将本人抉择的测验阈值、对应的状态后果和收益存储到教训池,利用CNN对Q函数进行训练预测,一直优化对检测阈值的抉择。 05 总结与将来倒退倡议在本文中,咱们通过现有工作和案例证实了深度学习在物理层通信中的微小利用后劲。除了以上介绍的几种利用方向,深度学习在端到端通信零碎中也失去了肯定的利用。不过,目前还尚未有论断基于深度学习的端到端通信零碎性能是否会最终超过传统通信零碎性能。另外,基于深度学习的物理层利用须要数据驱动,为了进步深度学习模型的训练效率,能够将须要长时间训练的模块进行交融,并须要思考在良好的性能和训练效率之间的衡量。深度学习利用的衰亡次要归功于各种可用的数据集,但目前用于无线通信相干的数据集依然较少。数据的平安和隐衷问题进一步限度了在真实世界对通信数据的拜访性能。但为了基于深度学习的通信利用,须要一些开放性电信数据集的公布和共享。最初,5G复杂多变的通信环境,包含MIMO、毫米波通信以及NOMA技术等,也为深度学习的利用带来了微小的后劲。 参考文献 [1] Mnih, Volodymyr, et al. "Human-levelcontrol through deep reinforcement learning." Nature 518.7540(2015): 529. https://www.nature.com/articl... [2] A. Mousavi and R. G. Baraniuk, “Learning toInvert: Signal Recovery via Deep Convolutional Networks,” Proc. IEEE Int’l.Conf. Acoustics Speech Signal Process. (ICASSP’17), New Orleans, LA, Mar. 2017,pp. 2272–76. ...

December 8, 2020 · 2 min · jiezi

关于深度学习:本地浏览器查看远程服务器的tensorboardhttplocalhost6006

我在上一篇博文中介绍了yolov3如何训练本人的数据集,想看这篇博文能够转https://segmentfault.com/a/11...。胜利后控制台通知我说能够在http://localhost:6006/监控训练状况,然而我拜访不了,因为其实他指的localhost是我近程服务器,而我用的是本人的本地笔记本拜访的,解决方案如下: 1、首先ssh登陆你的近程服务器,进入你yolov3我的项目文件夹,输出命令: tensorboard --logdir=runs --port 6006 # 留神这里我填runs是因为我的项目默认把运行监控文件放在我的项目根目录下的runs这个文件夹下,这个你们视状况批改2、而后你在新建一个你本地笔记本的终端命令行窗口,并输出 ssh -L 16006:127.0.0.1:6006 username@my_server_ip # 前面是你近程服务器的用户名和ip输出近程明码,而后你再在本人的本地浏览器拜访http://localhost:6006/,就能够拜访到了

December 7, 2020 · 1 min · jiezi

关于深度学习:40CrNi3MoA

40CrNi3MoA是航空用高纯净度合金构造钢棒。40CrNi3MoA执行GJB/6478-2008规范,本标准规范了材质成分、性能、用处、冶炼形式、交货状态、热处理标准等。40CrNi3MoA冶炼工艺:电炉+炉外精炼或电弧炉+电渣重熔。40CrNi3MoA 化学元素成分含量(%):碳C:0.36~0.44;硅Si:0.1~0.35;锰Mn:0.45~0.7;磷P:- 0.025;硫S:- 0.02;铬Cr:0.5~0.8;镍Ni:2.3~2.8;铜Cu:- 0.2;钼Mo:0.45~0.65。40CrNi3MoA航空用高纯净度合金构造钢棒可√189→1708→1101轧制、锻造圆棒10mm-150mm。

December 7, 2020 · 1 min · jiezi

关于深度学习:50Mn18Cr4WN

50Mn18Cr4WN奥氏体无磁钢的根底上加钨、氮失去。钨使钢中碳化物积淀较慢,氮扩充和稳固奥氏体,使钢进一步强化;固溶解决后,进行半热变形强化或冷变形强化,以满足不同强度要求。用于汽轮发电机无磁性护环锻件及其他要求无磁性的零部件。50Mn18Cr4WN圆钢 50Mn18Cr4WN钢板 50Mn18Cr4WN扁钢 50Mn18Cr4WN锻件 50Mn18Cr4WN环件。50Mn18Cr4WN化学成分:碳 C :0.40~0.60;硅 Si:0.30~0.80;锰 Mn:17.00~19.00;硫 S :≤0.025;磷 P :≤0.080;铬 Cr:3.00~5.00;氮 N :0.08~0.12;钨 W :0.70~1.20。50Mn18Cr4WN力学性能:抗拉强度 b (MPa):I级,≥895; 条件屈从强度 0.2 (MPa):I级,≥760;伸长率 5 (%):I级,≥25;断面收缩率 (%):I级,≥35。热处理标准及金相组织:50Mn18Cr4WN热处理标准:1)热成形后和变形强化前固溶解决;2)变形强化后以≤40℃h的速率,加热到320~350℃,保温8~12h,以≤40℃h速率缓冷至100℃以下,以打消残余应力。

December 5, 2020 · 1 min · jiezi

关于深度学习:60Cr2Ni2MoA

60Cr2Ni2MoA炮弹用合金圆棒,执行GJB/397A-1998规范。60Cr2Ni2MoA轧圆 60Cr2Ni2MoA锻圆60Cr2Ni2MoA交货状态:退火交货。60Cr2Ni2MoA冶炼形式:电炉+电渣重熔冶炼。炮弹用合金圆棒60Cr2Ni2MoA可√189→1708→1101。炮弹用合金圆棒牌号:60Cr2Ni2MoA60SiMn2MoVA21MnNiMoA35Cr3NiMoA35CrMnSiA60Cr2MoA制作弹体及零部件用钢。(热轧,锻造,冷拉)60Cr2Ni2MoA本牌号必须采纳电渣重熔冶炼。可热顶锻。

December 3, 2020 · 1 min · jiezi

关于深度学习:6252防弹钢

新型装甲防弹钢6252你晓得吗?国内某钢研所研发的代号6252新型防弹钢,当初以量产。6252装甲防弹钢,厚度4-12mm,硬度平均值500HBW。6252抗弹性能高高,综合性能稳固,已列装。603装甲钢 30CrMnMoRE 规范GJB 31A-2000616装甲钢 22SiMn2TiB 规范GJB 1496B-2014617装甲钢 30CrNi2MnMoRE 规范GJB 31A-2000675装甲钢 30CrNi3MoV 规范GJB 31A-2000685装甲钢 30MnCrNiMo 规范GJB 8223-2014 Q/ASB 108-2010695装甲钢 42CrNiMoV 规范GJB 8486-20156211装甲钢 30CrNiMoNb 规范GJB 8486-201528Cr2Mo GY5低压防弹装甲钢 规范GJB 1496B-201426SiMnMo GY4装低压甲防弹钢 规范GJB 1496B-201432Mn2Si2A F-2火炮防弹钢 规范GJB 3166-1998 装甲钢6252库存有:415006000,4.514505100,616505500.

December 2, 2020 · 1 min · jiezi

关于深度学习:65Si2MnWA

缓冲簧65Si2MnWA是一种硅锰弹簧钢;具备强度高,较好的弹性、易脱碳。用于一般机械的较大弹簧。执行规范GJB1957-94时具体对资料硬度、低倍组织、高倍组织、蓬松度、脱碳、夹杂物、外形尺寸、冶炼等都做了具体要求。65Si2MnWA硅锰弹簧钢该簧因为产品构造的起因,其缠绕比小(缠绕比=弹簧中径/钢丝直径),仅为2.29,因而在冷绕成形时,常呈现破断景象,有时因热处理软化工艺不当,破断比例高达50%以上.按惯例设计要求,缠绕比应在4~25之间.为解决这一问题,咱们对螺旋弹簧断裂起因进行了剖析,并对缠绕前的热处理工艺及显微组织进行了钻研.65Si2MnWA硅锰弹簧钢用于军工产品缓冲簧和缓冲器簧以及蝶形弹簧等,均系高强度高淬透性的合金弹簧钢65Si2MnWA制件.化学成分:碳C 0.56~0.64;硅Si 1.50~2.00;锰Mn 0.60~0.90;硫S≤0.035;磷P≤0.035;铬Cr≤0.35;镍Ni≤0.35;铜Cu≤0.25;硬度:45~50。65Si2MnWA硅锰弹簧钢这些弹簧的次要作用是缓冲减震;其特点是负荷重,硬度要求高(HR50~54),缭绕比特地小,其工作负荷为28812~32340N(2940~3300kgf),而缭绕比为1.75,个别弹簧的缭绕比为4≤C≤14.对于重负荷下工作的,要求Si元素妨碍碳化物析出的作用,对65SiMnWA钢进行适当热处理,取得无碳化物析出的下贝氏体组织,通过透射电镜剖析了贝氏体基体衍射花色特色,进而考查其碳含量。65Si2MnWA硅锰弹簧钢该钢下贝氏体转变初期存在碳原子调幅合成及有序化过程,其碳原子行为与马氏体回火晚期阶段碳原子行为类似,阐明该钢下贝氏体基体含碳量是过饱和的.

December 2, 2020 · 1 min · jiezi

关于深度学习:616装甲防弹钢

装甲防弹钢616钢号其材质为22SiMn2TiB;执行GJB/1496A-2000规范。本标准规范了616装甲防弹钢22SiMn2TiB材质化学成分、性能、用处以及厚度范畴为4mm~22mm。616装甲防弹钢化学成分:碳 C :0.19~0.25; 硅 Si:0.70~1.00; 锰 Mn:1.50~1.85; 硫 S :≤0.025; 磷 P :≤0.020; 硼 B :0.0005~0.0035;钛 Ti:0.01~0.06。 616装甲防弹钢交货硬度:热处理后388~514℃。 616装甲防弹钢冶炼形式: 采纳转炉加炉外精炼或电弧炉冶炼。 616装甲防弹钢交货状态: 钢板经低温回火状态交货。

November 30, 2020 · 1 min · jiezi

关于深度学习:675装甲钢号-675装甲防弹钢

675是装甲防弹钢钢号,其材质为30CrNi3MoV;执行GJB/31A-2000规范。本规范蕴含装甲防弹钢钢号有:603(30CrMnMoRE);617(30CrNi2MnMoRE);675(30CrNi3MoV);675装甲防弹钢板本标准规范了材质30CrNi3MoV的成分、性能、用处及厚度范畴为:45mm~80mm。675装甲防弹钢个性及适用范围:675装甲防弹钢是在原Cr-Ni-Mo系低合金超高强钢的根底上进行V微合金化,并适当调整其它合金元素含量而倒退起来的。30CrNi3MoV高强度钢是某兵器型号专用的难加工资料,30CrNi3MoV钢的铣削性能较差。30CrNi3MoV高强度钢是我国新研制并投入使用的高强度钢新品种,次要作为构造资料用于某重大兵器型号的要害零部件。675装甲防弹钢机械性能:硬度HRC40~42,抗拉强度为1280MPa。675装甲防弹钢化学成分:碳C :0.26~0.32 硅Si:0.15~0.35 锰Mn:0.30~0.50 磷P :≤0.015硫S :≤0.010铬Cr:0.60~1.00 镍Ni:2.80~3.20 钼Mo:0.40~0.50 钒V :0.06~0.013。675装甲防弹钢冶炼形式:钢应采纳电弧炉加VHD或与其相当的炉外真空精炼。经供需双方协商,并在合同中留神,也可采纳能保障本标准各项要求的其余办法冶炼。675装甲防弹钢交货状态:钢板以低温回火状态交货。冶炼办法:钢应采纳转炉加炉外精炼或电弧炉冶炼,675装甲防弹钢采纳电弧炉加VHD或与其相当的炉外真空精炼。经供需双方协商,并在合同中注明,也可采纳能保障本标准各项要求的其余办法冶炼。

November 28, 2020 · 1 min · jiezi

关于深度学习:685装甲钢号-685装甲防弹钢

685装甲钢是一种中碳高强度低合金钢,其材质为30MnCrNiMo。685装甲钢执行GJB8223-2014规范685装甲防弹钢GJB标准规范了材质成分、性能、用处以及装甲防弹钢板厚度范畴4mm-30mm。685装甲防弹钢化学成分:碳 C :0.26~0.31;硅 Si:0.20~0.40;锰 Mn:0.75~1.10;硫 S :容许残余含量≤0.010;磷 P :容许残余含量≤0.015;铬 Cr:0.75~1.10;镍 Ni:1.05~1.30;钼 Mo:0.25~0.45;铜 Cu:≤0.25。交货状态:规格 硬度值 压痕直径 mm HBW10/3000 mm终热处理:4~30 ≤302 ≥350; <25 445~514 2.70~2.90; ≥25 495~429 2.75~2.95;685装甲防弹钢板交货状态:单扎钢板以低温回火状态交货,钢带以热轧状态交货,交货状态应在合同中注明。

November 27, 2020 · 1 min · jiezi

关于深度学习:服务商快速创建的小程序如何开通云开发

背景第三方服务商进行开发时,利用微信开放平台接口能够疾速创立小程序,实现疾速商业化。 当初,服务商疾速创立的小程序也能够开明云开发了,具体操作步骤如下: 一、更新信息服务商须要告知小程序所有者,返回微信公众平台mp.weixin.qq.com,应用微信扫描登录框中二维码,抉择创立的小程序,受权登录。 进入小程序管理后盾之后,点击成员治理,在管理员处点击批改按钮: 在弹出框中应用微信扫码认证: 认证过后,点击手机号更新按钮,写入管理员手机号,并再次微信扫码验证身份,提交。 通过上述操作后,创立的小程序就绑定了手机号,服务商能够持续依照本人的开发模式进行开发了。 二、开明云开发服务商第三方代开发模式下,能够通过 API 接口疾速开明云开发并创立云开发环境。 当然,小程序管理员自身也能够自行登录小程序开发者工具开明云开发。之后服务商能够通过获取云开发环境接口获取云开发环境相干信息。 有对于服务商开发的相干的问题,能够返回开放平台服务商专区发帖交换。 产品介绍云开发(Tencent CloudBase,TCB)是腾讯云提供的云原生一体化开发环境和工具平台,为开发者提供高可用、主动弹性扩缩的后端云服务,蕴含计算、存储、托管等serverless化能力,可用于云端一体化开发多种端利用(小程序,公众号,Web 利用,Flutter 客户端等),帮忙开发者对立构建和治理后端服务和云资源,防止了利用开发过程中繁琐的服务器搭建及运维,开发者能够专一于业务逻辑的实现,开发门槛更低,效率更高。开明云开发:https://console.cloud.tencent.com/tcb?tdl_anchor=techsite产品文档:https://cloud.tencent.com/product/tcb?from=12763技术文档:https://cloudbase.net?from=10004技术交换加Q群:601134960最新资讯关注微信公众号【腾讯云云开发】

November 24, 2020 · 1 min · jiezi

关于深度学习:922A潜艇钢

922A钢号是潜艇钢,其材质10CrNi3MoCu属高强度可焊接合金结构钢;钢应通过充沛脱氧和细化晶粒解决;实用于潜艇耐压壳体及其他构造用厚度为5~70mm的钢板。922A潜艇用钢板执行GJB1663-93规范。922A潜艇钢冶炼形式:采纳电弧炉加炉外精炼(脱气;细化晶粒解决)。922A潜艇钢化学成份:碳 C :0.07~0.14;硅 Si:0.17~0.37;锰 Mn:0.30~0.70;硫 S :≤0.015;磷 P :≤0.020;镍 Ni:2.20~2.50;铬 Cr:1.20~1.60;钼 Mo:0.20~0.27;铜 Cu:0.80~1.10。922A潜艇钢力学性能:抗张强度 b (Mpa);屈服点 s (Mpa):510~665;伸长率 (%):≥16;收缩率 (%):≥50;冲击排汇功 Akv(J):≥80;纤维断面率 FA(%):≥100。922A潜艇钢交货状态:以淬火加低温回火状态交货;也可做热处理交货(需在合同中注明),未注明视不做。

November 23, 2020 · 1 min · jiezi

关于深度学习:王昊奋知识图谱笔记

CSDN上有up主本人做了相干的读书笔记,码一下,就不本人看书了 01 常识图谱概论:https://lookme.blog.csdn.net/...02 常识图谱常识示意与常识建模:https://lookme.blog.csdn.net/...02.1 常识图谱工具 Protege的下载安装与应用:https://lookme.blog.csdn.net/...03 常识图谱 常识抽取:https://lookme.blog.csdn.net/...实际篇(1)筹备数据和本体建模:https://lookme.blog.csdn.net/...实际篇(2):关系数据库到RDF:https://lookme.blog.csdn.net/...实际篇(3)RDF查询语言SPARQL:https://lookme.blog.csdn.net/...实际篇(4):Apache jena SPARQL endpoint及推理:https://lookme.blog.csdn.net/...实际篇(5):基于REfO的简略常识问答:https://lookme.blog.csdn.net/...

November 22, 2020 · 1 min · jiezi

关于深度学习:李宏毅强化学习完整笔记开源项目LeeDeepRLNotes发布

Datawhale开源 外围贡献者:王琦、杨逸远、江季 提起李宏毅老师,相熟强化学习的读者敌人肯定不会生疏。很多人抉择的强化学习入门学习材料都是李宏毅老师的台大公开课视频。 当初,强化学习爱好者有更欠缺的学习材料了! Datawhale开源我的项目组成员总结了李宏毅的强化学习视频,实现了视频教程的残缺梳理和复现,再也不必放心强化学习。 目前,我的项目已齐全开源,包含课程内容、配套的习题和我的项目,供大家应用。 1. 李宏毅深度强化学习简介李宏毅老师现任台湾大学电气工程系副教授,次要钻研方向是机器学习,特地是深度学习。他有一系列公开的强化学习课程视频,也是很多人入门的教程。 李宏毅老师的课程包含很多常见的强化学习算法,比方策略梯度、PPO、DQN、DDPG、演员-评论员算法、模拟学习、稠密处分等算法。此外,咱们还补充了马尔可夫决策过程、Q-learning、Sarsa、REINFORCE 等强化学习常见的算法及概念。 「策略梯度」课程中的 PPT,解释了策略梯度的过程 「近端策略优化算法」课程中的 PPT,展现了重要性采样的问题 李宏毅老师的《深度强化学习》是强化学习畛域经典的中文教程之一。李老师风趣有趣的上课格调让艰涩的强化学习实践变得轻松易懂,他会通过很多乏味的例子来解说强化学习实践。比方老师常常会用玩 Atari 游戏的例子来解说强化学习算法。 此外,为了课程的完整性,咱们整顿了周博磊老师的《强化学习大纲》、李科浇老师的《百度强化学习》以及多个强化学习的经典材料作为补充。 对于想入门强化学习又想看中文解说的人来说相对是十分举荐的。 然而,思考到很多强化学习爱好者对于课程笔记的需要,咱们不仅仅须要的是教学视频。咱们须要一份课程笔记,可能引领学习者的思路,帮忙疏导他们进入这个畛域。因而,就诞生了这款《LeeDeepRL-Notes》李宏毅深度强化学习笔记。 2.《LeeDeepRL-Notes》李宏毅深度强化学习笔记LeeDeepRL-Notes 是 Datawhale 自《李宏毅机器学习笔记》后的又一开源学习我的项目,由团队成员王琦、杨毅远、江季历时四个月合作而成,实现了李宏毅老师深度强化学习课程内容的 100% 复现,并且在此基础上补充了有助于学习了解的相干材料和内容,对重难点公式进行了补充推导。 期间,Datawhale 组织了《深度强化学习根底》学习,在泛滥学习者独特的致力下,对该内容进行了迭代和补充。上面,让咱们来具体理解下工作详情吧。 具体工作: 2020 年 6 月 -- 2020 年 7 月:笔记整顿初级阶段,视频 100% 复现;2020 年 7 月 -- 2020 年 10 月:增加相干的习题和我的项目,对笔记内容及排版迭代优化;2020 年 10 月 -- 2020 年 11 月:组队学习《深度强化学习根底》并对内容进行迭代欠缺;2020 年 11 月:最初内容修改,正式推广。 10月《深度强化学习根底》组队学习中学习者的评估 3.《LeeDeepRL-Notes》学习笔记框架3.a 亮点这份学习笔记具备以下长处: ...

November 22, 2020 · 1 min · jiezi

关于深度学习:945舰艇钢

舰艇钢945是舰艇用钢板的一种钢号;此钢具备超强的强度,实用于建造舰艇、潜艇船体构造用钢板。945钢采纳Ni、Cr、Mo、V合金系,碳当量较高,焊接难度大,建造老本低等劣势。945舰艇钢执行GJB/5537-2006规范。945舰艇用钢板厚度轧制范畴:3-32毫米(超出此范畴就属于非标)。945舰艇钢冶炼工艺:采纳氧气转炉+炉外精炼。945舰艇钢交货状态:个别交货以低温回火为主,也可调至解决。945舰艇钢作为冶金部新设计的一种低碳、低合金高强度钢,是我国新研制的舰船资料。确定该钢的再结晶温度,对于迷信地制订其热处理工艺保障肯定的退役性能具备重要意义。945舰艇钢在含泥沙淡水中的冲刷腐蚀性能,测试介质为青岛左近海域人造淡水并退出不同含量的石英砂模仿淡水泥沙,别离采纳电化学办法检测资料的抗冲刷腐蚀性能、失重法测量侵蚀速率、扫描电子显微镜(SEM)表征金属表面侵蚀产物形貌,并采纳X射线衍射仪(XRD)、电子能谱仪(EDS)剖析侵蚀产物成分.结果表明,含砂量0.3wt%条件下945钢的阻抗最大,冲刷侵蚀作用最低,随含砂量由0.15wt%减少到1.0wt%,侵蚀产物中的SiO2含量逐步减少.当淡水流速由1 m/s增大到5 m/s时,945钢的阻抗逐步减小,侵蚀状况更加重大,侵蚀产物成分次要为FeO(OH).945舰艇钢内控成分C的规格比拟窄,而且是低碳钢,电炉冶炼难度较大,因而操作上采取管制起点碳小于005%,同时增强脱氧,避免过氧化,保障碳在内控范畴之内。精炼炉出钢前喂入铝丝,保障钢中Als达到0015%~0035%。4后果采取以上措施后,945钢共生产了50余炉,其冶金品质大大提高。945舰艇钢理论化学成分管制稳固,基本上靠近目标值,P含量全副管制在0011%以下,S含量全副管制在0005%以下,这为后续的轧钢、热处理。

November 22, 2020 · 1 min · jiezi

关于深度学习:yolov2阅读笔记

概括:yolov2论文次要依据yolov1体现的一些毛病和局限性作出了一些改良:论文称达到了better、fatser、stronger从上图能够看出yolov2做的优化改良以及对应晋升的mAP。(题外话:mAP是掂量指标检测准确度的指标:越高越精准,这个定义解释简单点,可另件我的博文,FPS是掂量检测速度的指标:越高速度越快,了解成每秒能够解决多少帧/张图片)上面从这些改良里一一剖析: Batch Normalization: 简略解释一下Batch Normalization,下图是一个样本量为N,通道为C,尺寸WH的特色,留神蓝色区,能够简略了解成批归一化操作时该蓝色区块沿着通道方向挪动,每次计算雷同通道上特色的均值和方差,所以解决后会失去一个1C的均值向量和1*C的方差向量有了上述概念,再用下图一个简略例子举例说明,假如用批归一化解决手写数字图片特色输出,有6个样本,特色通道是3,图片尺寸是2828,把每个通道的2828特色转为一维,则输出能够形容为(6,3,784),每个通道都有(6,784),通过Batch Normal解决失去均值向量u和方差向量sigema,如下图z公式解决,是的解决后的z满足N(0,1)散布,从而实现对特色的归一化解决批归一化操作有助于解决梯度零散的问题,并升高对一些参数的敏感性,对于参数很多的模型,对参数就很敏感,因而易产生过拟合的景象,所以批归一化解决同样对克制过拟合有成果,因而yolov2在网络结构中减少了Batch Normalization层,因而代替了yolov1的dropout解决过拟合的解决方案,并且成果体现晋升了超过2%mPA 高分辨率分类器: 这个须要先去理解:ImageNet的图像分类样本采纳$ 224*224$ 作为输出,支流的指标检测算法包含yolo都会在ImagetNet进行预训练,所以预训练时图片输出尺寸只能是$224*224$,因为这样的分辨率绝对较低,不利于检测模型,所以yolov1在检测图像时输出是448*448的输出,然而这样间接切换输出分辨率,不利于网络模型适应新分辨率输出,因而yolov2对此进行了改良。改良计划:yolov2在ImageNet数据集上减少了一些448448的输出图片,先用224224的输出从头开始训练网络,大略160个epoch(循环训练所有数据160趟),再将输出调整到448448,训练10个epoch,这样网络能有工夫去适应调整其过滤器,在这样渐进的适度下,yolov2在进行检测数据集上检测时,对于其448448的输出切换的反馈就不会那么忽然,适应性比拟好,并且yolov2的网络结构在检测时依然会进行微调。这样的解决论文示意晋升了4%mAP。 采纳先验框: yolov1是从最初的卷积层输入通过全连贯层解决间接失去的预测边框的坐标值和长宽,yolov2与之不同,yolov2网络结构去掉了全连贯层,并采取了先验框的思路,从先验框中预测最初边框,这样解决后解决了yolov1定位误差大的毛病,召回率晋升至88%,然而准确度降落了一点点0.2%mPA,相比起来还是值得的,一个grid有几个先验框是能够设定的,yolov2论文用试验表明设置5个最为适合。 维度聚类(来确定先验框):作者发现应用先验框存在两个须要解决的问题:1是先验框如何确定,手工确定的形式显然不是最好的;2是模型存在不稳固问题;针对问题一yolov2交代了怎么确定先验框,与faster R-CNN等采取手工确定先验框不同,yolov2采纳k-means聚类确定先验框,论文说到yolov2的先验框一开始就抉择更好的先验框,再随着网络适应调整,这样能够使网络更快更好的学习到检测后果,这里先简略介绍一下k-means聚类: 已上图依据身高体重分成两类的例子为例介绍步骤流程:1、确定好分成k=2类;2、确定初始化群中心点,如图中的蓝色和红色点;规范做法是计算每个点到两个群心的欧式间隔,最小的举例则属于对应群心那类,已此办法从新聚类;3、从新确定群中心点,反复2操作;回到yolov2先验框的聚类确定,因为先验框对于咱们来说真正关系的是他的置信度,或者是IOU,IOU越大阐明这个先验框预测成果越好,IOU其实与先验框的尺寸没有关系,所以并不采纳规范的欧式间隔去聚类,而是依据公式:$d(box,centroid)=1-IOU(box,centroid)$下面说到yolov2先验框个数也就是k类选的是5,这里是作者将k值设定类很多种值试验得来的后果,因为在k>5当前尽管IOU更高,然而模型必然会随着k的增大而更简单,计算量也更大,而k=5时曾经有比拟好的IOU,再此之后IOU升高速度也很慢,所以5是模型复杂度和高IOU的折衷取值。看一下试验比照成果:和yolov1一样,这里要解释一下最初输入的先验框里都含有那些张量,这里论文没有解释,yolov2最初输入是13*13,论文设置先验框k=5,和yolov1一样每个先验框含有(tx,ty,tw,th,confidence)五个张量,不同的是,yolov1的类别概率是一个grid有20个(因为voc数据集有20类),而yolov2是每个先验框含有C个类别概率,而不是依据grid计算,所以网络最初的总张量是$13*13*5*(5+C)$ 间接地位预测: 这里是对先验框第二个问题的解决方案的答复,先解释一下为什么说模型存在不稳固的问题:作者用SSD算法的bbox边框核心预测公式来作出解释:式中(x,y)是要求的bbox的核心坐标,tx,ty是先验框绝对于bbox核心的offset,先验框的地位是(xa,ya,wa,ha),因为tx,ty的取值在原公式里没有限度,这样会导致最终x,y的后果不在对应负责的那个grid cell内,这显然是不正确的,因而也是体现里此模型对于yolo来说这样解决的不稳定性,解决方案是首先将offset定义更改,改成绝对于对应的那个grid的左上角的offset,tx,ty便是先验框中心点绝对于所在grid左上角的偏置量,(tw,th)是先验框宽高的偏置量,(cx,cy)是绝对于以后gird左上角绝对于图片左上角的间隔,(pw,ph)是先验框的宽高,最初要求的是bbox核心坐标(bx,by)以及该边框的宽高bw,bh;这样的定义再加上一个激活函数对tx,ty的限定,从而达到预测边框中心点不会跑出对应grid cell里,论文给出求边框和对应置信度的公式:这样的解决精度晋升5%mAP。 细粒度性能: 了解的艰深一点就是在后续网络解决中还会用到早起的特色,因为早起的特色图解决的少,图像细节更多,这里这样优化对小指标物体检测敌对,原论文对此做了解释,但不好了解,我用下图解释:文中说的早起2626的特色是从图中虚线框出那层模型的输入里失去的,将其通过passthrounth层来实现扭转尺寸,使其与最初输入1313的尺寸统一,这样才能够合并,简略介绍一下passthroungth层工作原理:这样的细粒度解决晋升来1%mAP。 多尺度训练: yolov2在训练时采纳输出图片随机变动不同尺度进行训练的形式,因为yolov2的网络结构更改了,没有全连贯层,所以输出尺寸其实并不是向yolov1那样受限了,那yolov2是怎么扭转训练图片输出尺寸的呢,yolov2有一个倍数因子是32,输出图片只有满足32的整数倍都能够,所以输出图片的尺寸就能够是:{320,352,...,608},训练集中提供这些尺寸的输出图片,并在训练时每10个batch就随机更换一种尺寸,这样能使yolov2的网络模型适应各种大小输出图片的检测,这里的原理和后面的高分辨率分类器解决是一样的。 Faster(翻新了darknet-19网络结构)上述的优化次要是进步检测精度和召回率,此段次要介绍yolov2如何实现更快的,次要是齐全扭转了网络结构,废去了yolov1的网络结构,借鉴了名为darknet-19的网络结构:

November 21, 2020 · 1 min · jiezi

关于深度学习:HARDOX400

悍达耐磨钢HARDOX400耐磨钢板双金属复合耐磨钢板由低碳钢板和合金耐磨层两局部组成,抗磨层个别占总厚度的1/3-1/2。工作时由基体提供抵制外力的强度、韧性和塑性等综合性能,由耐磨层提供满足指定工况需要的耐磨性能。HARDOX400是布氏硬度400HB的耐磨钢板,具备良好的冷弯性,次要利用于抗磨损工况。HARDOX悍达400具备十分好的可焊性。 HARDOX400悍达耐磨钢利用:破碎机,筛板,入料器,给料漏斗,提升机,X板,输送机,挖斗,X板,齿轮,自卸车,铲运机,工业卡车,铁路货车,推土机,挖掘机。输浆管,螺旋输送机,压力机等。HARDOX400悍达耐磨钢是:《细晶粒化钢》。HARDOX400悍达耐磨钢硬度:370-430HBW。HARDOX400悍达耐磨钢机械性能:屈从强度Re=1000MPa。抗拉强度Rm=1250MPa。延伸率A5=10%(20毫米厚度钢板典型值)。HARDOX400悍达耐磨钢冲击韧性:试验温度:-40(-40F)℃。冲击功Charpy-V纵向=45J(20毫米厚度钢板典型值)。HARDOX400悍达耐磨钢交货状态:淬火。HARDOX400悍达耐磨钢执行规范:EN 10 204 - 3.1。HARDOX400产品利用:因为兼具高硬度、高强度以及高韧性,对于那些磨损重大的场合,HARDOX悍达耐磨板显然是现实之选。钢板的高耐磨性缩短了自卸车车身、挖掘机的铲斗、破碎机以及相似设施的使用寿命。HARDOX400钢板的硬度是通过咱们水淬火线上无效的淬火工艺取得的。这一办法既可取得较高的硬度,又可放弃钢材中较低的合金成分。产出的耐磨板易于机加工、蜿蜒和焊接。

November 21, 2020 · 1 min · jiezi

关于深度学习:922A和-923A钢

922A材质10CrNi3MoCu是舰艇钢,和代号923A牌号10CrNi2MoCu一样,都隶属于舰船钢,一个是厚板牌号一个是薄板钢号,同执行于GJB 1663A -2005规范。921A与922A、923A成分,性能,应用部件都略有不同。潜艇耐压壳体结构钢,钢板厚度为5-70毫米厚。10CrNi3MoV 代号921A 实用厚度10-35毫米。10CrNi3MoCu 代号922A 实用厚度36-70mm。10CrNi2MoCu 代号923A 实用厚度5-9毫米。当然,还是921A实用最广,用量也最大。并且921A也开发出5-9毫米的薄板。921A(10CrNi3MoV)化学成分:碳 C :0.07~0.14 硅 Si:0.17~0.37 锰 Mn:0.30~0.60 硫 S :≤0.015 磷 P :≤0.020 镍 Ni:2.60~3.00 铬 Cr:0.90~1.20 钼 Mo:0.20~0.27 钒 V :0.04~0.10舰艇钢,适应深海残酷环境,耐腐蚀,耐微生物,耐压,防爆,抗冲击,高强度,高韧性。高高:举荐中国921A、922A、923A、907A...

November 20, 2020 · 1 min · jiezi

关于深度学习:论文阅读DDGCN

DDGCN: A Dynamic Directed Graph Convolutional Network for Action Recognition作者 | Matthew Korban, Xin Li单位 | 路易斯安那州立大学论文地址 | https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123650749.pdf会议 | ECCV 2020摘要提出了一种动静有向图卷积网络(DDGCN),从人体行为的骨架示意登程,对人体行为的时空特色进行建模 DDGCN由三个新的特色建模模块组成: 动静卷积采样(DCS)动静卷积权重(DCW)有向图时空(DGST)特征提取DCS和DCW模块能够无效地捕获动静的非相邻关节之间的时空相关性 DSTG特征提取模块,通过蕴含时空的有序信息来加强动作的特色 网络架构动静卷积采样(DCS)人体非相邻的子局部在人类行为中往往是互相关联的,且这种关联是动静的 DCS算法能够总结如下 依照骨架模板初始化动态图$G_S$,并相应地初始化所有节点的索引初始化街坊采样:对于∀vi∈GS,分两步创立其初始有序近邻汇合pi(B(Vi)) 创立包含图中所有其余节点的有序节点汇合Oi,该有序节点汇合Oi包含依据图到vi的图间隔排序的图中的所有其余节点。 当两个节点Vj和Vr具备雷同的图间隔(例如,都离Vi有r跳间隔)时,则依据它们的初始化索引对它们进行排序给定核大小r,从Oi中选取前r个节点,这些节点在此步骤pi(B(Vi))中造成有序的邻集更新采样邻域:∀vi,通过学习缩小辨认损失的最优偏移量∆pi来更新索引偏移量和邻域采样最初,在$G_{ST}$上,通过如下公式(1)的图形卷积计算特色图$f_{ST}$ $$f_{S T}\left(v_{i}\right)=\sum_{v_{j} \in B\left(v_{i}\right)} w\left(v_{i}\right) \cdot\left(p_{i}\left(v_{j}\right)+\Delta p_{i}\left(v_{j}\right)\right)$$ 其中i和j别离是核心采样节点和相邻采样节点的索引,B是动静相邻采样节点汇合,w是动静权重函数,pi是动静相邻采样函数,∆pi是偏移采样函数 动静卷积权重(DCW)DCW权重调配模块动静地将权重$w_i$调配给$v_i$的相邻节点 应用动静工夫规整(DTW)算法来计算$P_v=DTW_{path} (W,B(v))$ $P_v$中的第一列定义了W中元素的排序索引,第二列示意所选元素及其在$B(V)$中的程序 有向时空图(DSTG)特色 骨骼特色 $f_{i}^{B}=\\overline{f_{i-1} f_{i}}=f_{i-1}-f_{i}$ 工夫特色 $f_{i}^{T}=f_{i}^{t}-f_{i}^{t-1}$ 串联失去节点v_i的特征向量 $F_{i}=\\left\\{f_{i}^{J}, f_{i}^{B}, f_{i}^{T}\\right\\}$ 试验在NTURGB-D 60和Kinetics数据集上性能均优于其余办法 融化试验DSTG模块对于性能晋升最大,残缺的DDC模块可失去最高的准确率 辨认不残缺的动作对失落帧的动作辨认进行的试验,分为以下3中状况 静止开始时失落帧静止完结时失落帧序列中随机失落的帧论断是静止开始时的序列存在大部分特色 总结提出了一种基于骨架图的动静有向图卷积网络(DDGCN)动作辨认算法 DDGCN由三个新模块组成,动静卷积抽样(DCS)、动静卷积权重调配(DCW)和有向图时空(DGST)特征提取 这些新模块有助于更好地捕获时空依赖关系,骨架的层次结构和时序特色。 试验表明,DDGCN在多个公共数据集上的动作辨认准确率优于最先进的算法

November 17, 2020 · 1 min · jiezi

关于深度学习:HARDOX600

悍达耐磨钢HARDOX600是世界上目前最硬的耐磨钢板,硬度值达至600HBW。它个别利用于磨损极其重大的场合,并且次要用来代替铸钢、铬合金铸铁以及表明软化金属。HARDOX600具备良好的机加工、焊接和切割性能和具备相当高的冲击韧性。HARDOX600能够广泛应用在工程机械、建筑机械、冶金机械、矿山机械等。HARDOX600特地适宜极其磨损场合,能被切削和焊接,是高性能利用的现实抉择。厚度范畴为6-65mm,个别2000mm宽度,厚板公差合乎HARDOX立体度D类规范。悍达耐磨钢HARDOX系列按硬度分:HARDOX400、HARDOX450、HARDOX500、HARDOX550、HARDOX600系列耐磨钢板。

November 17, 2020 · 1 min · jiezi

关于深度学习:深度学习训练如何更快些GPU性能的IO优化你试过吗

本来,有多少人曾经筹备好最新显卡,足够的硬盘空间,甚至请好年假,只为十天后去那个企慕已久的赛博朋克世界里体验一番…… 后果他们又发了一张「黄色背景图」,通知大家要跳票……再一次…… 好吧,你有了大量闲工夫,但又没事可做?那就干点闲事吧,玩一玩深度学习,即打发工夫,增长常识,还能把你的新显卡先无效利用起来。 GPU可能显著放慢深度学习的训练速度,无望将训练周期由几个星期缩短至数小时。但要全面施展GPU资源的弱小性能,还须要考量以下因素: 优化代码以保障底层硬件失去充分利用。应用最新高性能库与GPU驱动程序。优化I/O与网络操作,确保数据可能以与计算能力相匹配的速率被送至GPU。在多GPU或分布式训练期间,优化GPU之间的通信。Amazon SageMaker是一项全托管服务,可能帮忙开发人员与数据科学家疾速、轻松地构建、训练并部署任意规模的机器学习(ML)模型。在本文中,咱们将重点介绍在Amazon SageMaker上进行训练时,可能切实进步I/O以优化GPU性能的通用型技术。这些技术办法具备良好的普适性,不对基础设施或深度学习框架自身做出任何要求。通过优化I/O解决例程,整个GPU训练中的性能晋升最多可晋升至10倍程度。 基础知识繁多GPU每秒可执行万亿次浮点运算(TFLOPS),意味着其运算执行速度可达到一般CPU的10到1000倍。为了让GPU失常执行这些运算,数据必须寄存在GPU内存当中。将数据加载至GPU内存中的速度越快,运算执行速度也就越快。其中的挑战在于如何优化I/O或网络操作,保障GPU在计算当中不用重复期待数据的传入。 下图所示,为I/O优化架构。 将数据搁置进GPU内存通常波及以下操作步骤: 网络操作 —— 从Amazon Simple Storage Service(Amazon S3)下载数据。磁盘I/O—— 将数据从本地磁盘读入CPU内存。这里的本地磁盘是指实例存储,相干存储容量位于物理接入主机的磁盘之上。Amazon Elastic Block Store(Amazon EBS)存储卷不属于本地资源,其中波及网络操作步骤。数据预处理 —— 一般来说,数据预处理工作次要由CPU负责实现,包含转换或者调整大小等。这些操作可能包含将图像或文本转换为张量模式、或者调整图像大小等。数据传输至GPU内存 —— 将解决后的数据从CPU内存复制到GPU内存。以下各节将对优化步骤做出具体解说。 优化网络中的数据下载操作本节将介绍一些技巧,探讨如何通过网络操作(例如从Amazon S3下载数据、应用Amazon EBS以及Amazon Elastic Files System(简称Amazon EFS)等文件系统)优化数据传输。 优化文件大小大家可能以低成本将大量数据存储在Amazon S3当中,其中包含来自应用程序数据库的数据,例如通过ETL过程提取为JSON或CSV格局的图像文件。而Amazon SageMaker运行中的第一步,就是从Amazon S3下载文件 —— 这种默认输出模式被称为文件模式。 即便是并行下载或上传体积极小的多个文件,其速度也要低于总大小雷同的多数较大文件。举例来说,如果领有200万个文件,单个文件的大小为5KB(总大小 = 10GB = 200万 x 5 x 1024KB),则下载大量小型文件可能须要消耗几个小时。但如果这10GB数据量来自2000个单个大小为5MB的文件(总大小 = 10GB = 2000 x 5 x 1024 x 1024KB),那么下载只须要几分钟就能实现。假设用于大文件与小文件的总存储容量与用于数据传输的线程数量大致相同,同时假如传输块大小为128KB,那么面对仅为5KB的理论文件大小,每个传输块的理论数据传输量也将仅为5KB—— 而非128KB。 在另一方面,如果文件太大,则无奈应用并行处理放慢文件的数据上传或者下载速度 —— 除非应用Amazon S3 Range gets等选项并行下载多个不同的数据块。 ...

November 11, 2020 · 2 min · jiezi

关于深度学习:轻松使用-TensorFlow-进行数据增强

当咱们没有大量不同的训练数据时,咱们该怎么办?这是在TensorFlow中应用数据加强在模型训练期间执行内存中图像转换以帮忙克服此数据阻碍的疾速介绍。 图像分类的胜利至多在很大水平上受到大量可用训练数据的驱动。临时不思考过拟合之类的问题,训练的图像数据越多,建设无效模型的机会就越大。 然而,如果咱们没有大量的培训数据,咱们该怎么办?立刻想到一些针对此特定问题的宽泛办法,尤其是迁徙学习和数据加强性能。 迁徙学习是将现有机器学习模型利用于最后并非预期的场景的过程。这种利用能够节俭训练工夫并扩大现有机器学习模型的实用性,这些模型可能具备可用的数据和计算,并且曾经在十分大的数据集上进行了很长时间的训练。如果咱们在大量数据上训练模型,则能够优化后果以对大量数据无效。 数据裁减是现有训练数据集的大小和多样性的减少,而无需手动收集任何新数据。通过对现有数据执行一系列预处理转换,能够获取此加强数据,对于图像数据,这些转换能够包含程度和垂直翻转,歪斜,修剪,旋转等。总而言之,与仅复制雷同的数据相同,这种裁减的数据可能模仿各种轻微不同的数据点。这些“附加”图像的细微差别应该足以帮忙训练更鲁棒的模型。同样,这就是想法。 本文的重点是在TensorFlow中第二种办法的理论施行,以加重大量图像训练数据(数据加强)的问题,而稍后将对转移学习进行相似的理论解决。 图像增强如何帮忙当卷积神经网络学习图像特色时,咱们心愿确保这些特色以各种方向呈现,以便使经过训练的模型可能辨认出人的双腿能够同时呈现在图像的垂直和程度方向。除了减少数据点的原始数量之外,加强性能在这种状况下还能够通过采纳诸如图像旋转的变换来帮忙咱们。作为另一个示例,咱们还能够应用程度翻转来帮忙模型训练辨认猫是直立的猫还是被倒置拍照的猫。 数据加强不是万能药;咱们不心愿它能解决咱们所有的小数据问题,然而它能够在许多状况下无效,并且能够通过将其作为一种全面的模型训练方法的一部分,或者与另一种数据集扩大技术(例如,转移学习) TensorFlow中的图像增强在TensorFlow中,应用ImageDataGenerator类实现数据裁减。它十分易于了解和应用。整个数据集在每个期间循环,并且数据集中的图像依据抉择的选项和值进行转换。这些转换是在内存中执行的,因而不须要其余存储(只管save_to_dir如果须要,该参数可用于将加强的图像保留到磁盘)。 如果您正在应用TensorFlow,则可能曾经应用了ImageDataGenerator简略的办法来缩放现有图像,而没有进行任何其余裁减。可能看起来像这样: ImageDataGenerator执行加强的更新可能如下所示: 这是什么意思呢? **rotation_range**-随机旋转的度数范畴;在上述示例中为20度**width_shift_range**-总宽度的一部分(如果值<1,在这种状况下),以随机地程度转换图像;上例中为0.2**height_shift_range**-总高度的一部分(如果值<1,在这种状况下),以垂直方向随机平移图像;上例中为0.2**shear_range**-逆时针方向的剪切角,以度为单位,用于剪切转换;上例中为0.2**zoom_range**-随机缩放范畴;上例中为0.2**horizontal_flip**-用于程度随机翻转图像的布尔值;在下面的例子中为真**vertical_flip**-布尔值,用于垂直随机翻转图像;在下面的例子中为真**fill_mode**-依据“常数”,“最近”,“反射”或“盘绕”填充输出边界之外的点;在以上示例中最靠近而后,您能够应用该ImageDataGenerator flow_from_directory选项指定训练数据的地位(以及抉择是否进行验证,如果要创立验证生成器),例如,应用选项,而后应用fit_generator在训练过程中流向您网络的这些加强图像来训练模型。此类代码的示例如下所示: 如果你喜爱本文的话,欢送点赞转发!谢谢。看完别走还有惊喜! 我精心整顿了计算机/Python/机器学习/深度学习相干的2TB视频课与书籍,价值1W元。关注微信公众号“计算机与AI”,点击下方菜单即可获取网盘链接。

November 4, 2020 · 1 min · jiezi

关于深度学习:论文阅读Which-Is-Plagiarism

Which Is Plagiarism: Fashion Image Retrieval Based on Regional Representation for Design Protection作者 | Yining Lang, Yuan He, Fan Yang, Jianfeng Dong, Hui Xue单位 | 阿里;浙江工商大学;AZFT 会议|CVPR2020 paper地址 概述在服装畛域,尽管打假始终一直,但盗版剽窃问题仍旧普遍存在,而且从线上线下,剽窃伎俩越来越刁钻。目前来看,服装畛域的剽窃有以下三类 •图片盗用 剽窃老本很低,很容易被平台的图片检索系统锁定 •创意盗版 剽窃老本稍高,但基于类似度度量的算法,能够对它们进行召回和治理 •对服装的某些区域进行批改 剽窃老本高,须要人工审核发现,打假老本也高 两组盗版示例,其中每组中左图为正版服装,右图为盗版服装盗版服装检索的难点盗版服装的模式层出不穷,有些盗版服装跟原图比拟类似,然而有些并不类似 而且有些盗版服装与原创服装属于不同的类型,进步了网络训练时的要求 盗版服装的定义作为盗版服装检索畛域的首次工作,作者对盗版服装的定义是整体上剽窃原版服装设计和格调,服装批改的部分区域数小于等于2 将图像中的服装分为五个区域,包含领子、胸部、腰部和两个袖子区域办法基于三元组的损失函数(for 相似性检索)$$\begin{array}{c}\mathcal{L}_{t r i}\left(I, I^{+}, I^{-}\right)=\sum_{r=1}^{R} \max \left(D_{r}^{I, I^{+}}-D_{r}^{I, I^{-}}+m, 0\right) \\\mathcal{L}_{t r a}=\sum_{n=1}^{N} \mathcal{L}_{t r i}\left(I, I^{+}, I^{-}\right)\end{array}$$ 基于三元组的损失函数(for 盗版检索)$$\begin{array}{c}\mathcal{L}_{t r i}^{\prime}\left(I, I^{+}, I^{-}\right)=\sum_{r=1}^{R} \max \left(D_{r}^{I, I^{+}}-D_{r}^{I, I^{-}}+m, 0\right) \cdot \lambda_{r} \\\alpha_{t r i}=\frac{\operatorname{avg}\left\{\left\|f_{r}(I)-f_{r}\left(I^{+}\right)\right\|_{2} ; r=1,2, \ldots R\right\}}{\max \left\{\left\|f_{r}(I)-f_{r}\left(I^{+}\right)\right\|_{2} ; r=1,2, \ldots R\right\}} \\\mathcal{L}_{p l a}=\sum_{n=1}^{N}\left[\mathcal{L}_{t r i}^{\prime}\left(I, I^{+}, I^{-}\right) \cdot \alpha_{t r i}\right]\end{array}$$ ...

November 3, 2020 · 1 min · jiezi

关于深度学习:PCrNi3MoVA

PCrNi3MoVA属于中碳低合金调质钢。大多用于制作各类X炮身管、炮尾、闩体等要求高强韧性的重负荷整机。执行GJB/3783-1999规范生产、验收。冶炼工艺采纳电炉+炉外精炼或电渣重溶满足材质性能。PCrNi3MoVA化学成分:碳 C :0.34~0.41;硅 Si:0.17~0.37;锰 Mn:0.25~0.50;硫 S :容许残余含量≤0.015;磷 P :容许残余含量≤0.020;铬 Cr:1.20~1.50;镍 Ni:3.00~3.50;铜 Cu:容许残余含量≤0.020;钼 Mo:0.35~0.45;钒 V :0.10~0.25。PCrNi3MoVA力学性能:抗拉强度 b (MPa):≥980;屈从强度 s (MPa):≥885;伸长率 5 (%):≥10;断面收缩率 (%):≥30;冲击功 Akv (J):≥27。PCrNi3MoVA热处理标准及金相组织:热处理标准:淬火870℃,油冷;回火650℃,油或空冷。PCrNi3MoVA交货状态:钢棒已退火或低温回火状态交货。

October 26, 2020 · 1 min · jiezi

关于深度学习:40Mn18Cr4无磁钢冷切割下料

无磁钢其余咱不懂,高锰无磁钢系列40Mn18Cr3、40Mn18Cr4V、50Mn18Cr5、45Mn17Al3等钢号,多做电机部件消磁钢。有不少敌人反馈,说高锰钢下料艰难,有的还说特地艰难。近日一敌人反映,下料40Mn18Cr4V无磁圆钢,直径65的。按说也不算细小,可一只没下完,锯条曾经冒烟,简直报废。之后还专门测过40Mn18Cr4V无磁钢的硬度,并不高啊。为什么下料那么艰难呢? 无磁钢,高锰无磁钢系列,不论是成品圆钢、扁钢还是环件,想要冷切割下料,自身就不是很容易的事。比方40Mn18Cr4资料硬度是不高,可机械性能强度高,资料自身还具备加工硬化个性。下料天然就吃力点了,想资料性能很高,又想资料下料很容易,如同是矛盾的。高高倡议:买最好的锯条下料无磁钢40Mn18Cr4。那么你又要说,冷下料吃力是不是能够热切割?高锰无磁钢系列对温度都比拟铭感,适度范畴不大,温度过高或者是不达都容易引起资料开裂,造成品质问题。

October 22, 2020 · 1 min · jiezi

关于深度学习:Android中Bitmap保持宽高比缩放

需要形容深度学习模型在Android挪动端部署的时候,对于采集到的的摄像头画面须要放弃宽高比的将Bitmap缩放到模型输出的大小,缩放后较指标尺寸像素缺失的局部采纳灰度填充形式, 以避免指标产生显著形变影响辨认成果。在本例中,深度模型是以MobileNetV2为Backbone网络的YOLOv3,并基于MNN挪动端推理框架部署。其中模型输出图像的尺寸大小为(320,320)。 实现public static Bitmap scaleImage(Bitmap bm, int newWidth, int newHeight){ if (bm == null) { return null; } int width = bm.getWidth(); int height = bm.getHeight(); float scaleWidth = ((float) newWidth) / width; float scaleHeight = ((float) newHeight) / height; // 放弃宽高比缩放,以长边为主 float scaleRatio = Math.min(scaleHeight, scaleWidth); Matrix matrix = new Matrix(); matrix.postScale(scaleRatio, scaleRatio); Bitmap newBm = Bitmap.createBitmap(bm, 0, 0, width, height, matrix, true); // 创立指标大小Bitmap Bitmap scaledImage = Bitmap.createBitmap(newWidth, newHeight, Bitmap.Config.ARGB_8888); Canvas canvas = new Canvas(scaledImage); // 绘制背景色彩 Paint paint = new Paint(); paint.setColor(Color.GRAY); paint.setStyle(Paint.Style.FILL); canvas.drawRect(0, 0, canvas.getWidth(), canvas.getHeight(), paint); // 确定画面地位 float left = 0; float top = 0; if (width > height){ top = (float)((newBm.getWidth() - newBm.getHeight()) / 2.0); } else{ left = (float)((newBm.getHeight() - newBm.getWidth()) / 2.0); } canvas.drawBitmap( newBm, left , top, null ); if (!bm.isRecycled()){ bm.recycle(); } return scaledImage;}成果摄像头捕捉到的原始画面Bitmap: ...

October 21, 2020 · 1 min · jiezi

关于深度学习:基于智能设备管控平台的方案解析

互联网和数字信息技术的迅速倒退,让智能制作大范畴的推广成为可能。基于智能物联网设施,以“平台+终端+利用”全方位降级社区,基于AI、物联网、SaaS平台等前沿技术为智慧社区建设和家居信息化提供智能化撑持。 让住户体验到更舒服、更便捷、更个性化的服务。通过全方位信息整合和大数据分析,集多种设施操控、场景定制、产品于一体,打造出多样的智能化场景,让顾客体验到更舒服、更便捷、更个性化的服务。 通过全方位信息整合和大数据分析,对社区实现无效的治理,从而进步社区营收和顾客满意度。 平台意义 基于智能设施管控平台为社区提供了一种平安、舒服、不便、快捷和凋谢的信息化生活空间,通过SaaS平台大数据分析帮忙社区实时监管,实现社区治理、运行的高效、互动和快捷。为智能社区提供深度剖析及须要的日常物业管理的大数据信息,展示平台能力和服务内容。 本我的项目课题钻研的重要意义次要有以下几点: (一)展现日常物业管理的数据信息,晋升物业作业的效率,缩小经营老本和人工成本,进步物业管理的经济效益。 (二)理解智能设施目前的市场趋势、社区行业发展趋势,理解新增市场及存量市场。 (三)实现智能设施的“全跟踪、全管控、全追溯、全笼罩”。 (四)实现智能设施营销市场化取向改革和消费者数据库提供牢靠的数据撑持。 (五)对社区实现无效的治理,从而进步社区营收和顾客满意度。 (六)标准经营行为和专卖治理智能化决策提供数据撑持和强有力的保障。 (七)基于智能物联网设施,使得智能设施市场化向改革和“平台+终端+利用”行动计划的进一步施行,让智能制作大范畴的推广成为可能。 性能介绍 1. 智能设施市场趋势 理解智能设施目前的市场趋势,理解新增市场及存量市场,增长继续购买力。 对以后社区数据和社区行业综合景气指数进行剖析。基于智慧社区相干大事件,改良营销形式(智能养护喂宠社区,AI人工智能管制酒店)。 1)总览 对智能设施的经济收益、复购率、覆盖率及好评率进行年份比照。 2. 设施推广经营数据 实现设施全国散布、社区设施经济收益数据统计和收益数据关联,提供全国地图查问接口,反对各种及时剖析。同时反对报表能力。提供多种计算形式,适应不同社区场景需要。 用户只需保护最细粒度的实时剖析数据,数据流更清晰,低成本保护。同时为今后数据经营、数据分析、用户画像等业务提供撑持。 1)地图散布 通过地图展现的设施散布区域,获取设施无关信息及把握散布地区的无效信息。对设施销量数据进行可视化图表剖析。 3. 社区智能设施数据 零碎提供各设施销量数据、智能设施在线状况、智能设施应用频率、各设施排名、设施产品特点的可视化看板,获取智能设施的相干信息。确认各个设施数据的回传,对异样设施进行预警,不便相干人员进行保护与解决。 1)预警展现 依据智能设施的异常情况,以地图的模式展示社区内智能设施的解决报警次数及在线状况,实现异样设施的监管及解决; 2)设施详情总览 对各个智能设施的在线数、销量、应用频率及报警次数进行排名剖析; 3)预测剖析 对各个智能设施的报警次数进行预测,保障智能设施的日常保护及解决。 4. 智能家庭场景治理 零碎提供各设施销量数据、智能设施在线状况、智能设施应用频率、各设施排名、设施产品特点的可视化看板,获取智能设施的相干信息。 确认各个设施数据的回传,对异样设施进行预警,不便相干人员进行保护与解决。 5. 面向家庭画像剖析 对数据进行直观剖析,统计群体特色数据,如:性别、年龄、兴趣爱好、优质评语---客户反馈热点词云、社区客户复购率(客户人群,社区忠诚度,前期生产习惯跟踪)、社交媒体点评反馈。 1)家庭应用设施散布、户型 通过零碎后盾对家庭应用设施数量及各户型应用占比进行数据挖掘,充沛收集家庭画像、热点词云等相干数据,并加以汇总剖析,对智能设施的复购率进行预测。 技术实现 从第三方APP和云端数据库采集数据,建设本人的MySQL数据仓库,应用springboot解决后端逻辑,把用户,设施,场景等相关联。 通过数据分析,在前端展现从小区到户再到房间的设施应用状况,实现展现,预警,解决等多种不同性能。 平台价值 基于智能设施管控平台集多种设施操控、场景定制、产品于一体,为社区提供深度剖析及须要的日常设施治理的大数据信息,展示平台能力和服务内容,从而进步设施作业效率、提供稳固平安保障,缩小经营老本和人工成本,进而进步设施治理的经济效益。 通过全方位信息整合和大数据分析,对社区实现无效的治理,从而进步社区营收和顾客满意度。

October 20, 2020 · 1 min · jiezi

关于深度学习:数镜使用手册

1、开始应用开始学习第一章,注册账号和登录操作。 *账号未登录超过三个月的,账号相干数据将被删除。数镜反对手机号、账号等形式注册 1.1注册账号*举荐应用 Chrome浏览器拜访数镜 *目前数镜反对手机号、账号等形式注册 1.2登录账号 能够通过账号与明码、手机号与验证码进行登录 1.3遗记明码 点击“遗记明码”进入明码重置页面,通过手机号验证码进行身份验证后进行明码重设。重设后再次登录即可。 2、个人信息个人信息包含账户信息、个人资料,可进行昵称及批改明码等设置。 2.1 昵称更改 点击用户名后间接批改名称,点击保留即可批改胜利。 2.2 批改头像 点击头像抉择本地图片,即可更换 *仅限上传2M及2M以下大小图片 2.3 批改明码 点击明码后“批改明码”按钮,进入明码批改页面进行更改 2.4 更改手机号 点击手机号后“更改”按钮,进入手机号批改页面进行更改,通过手机短信验证码验证胜利,即可更改胜利。 2.5绑定或更改微信号 点击微信号后“绑定”/“更改”按钮,进入批改页面进行更改,通过微信扫码认证短信绑定或更改胜利。 2.6会员充值 ①点击“续费会员”按钮,可进入会员充值页面,依据需要进行会员充值 ②点击“资源核心”-“会员中心”即可进入会员充值页面,依据需要进行会员充值 2.7会员充值记录 点击“续费会员-会员充值页面-充值记录”点击“会员充值记录”即可查看账号充值记录 2.7订单记录 点击“资源核心”-“订单核心”进入订单页面,可查看在数镜的订单记录。 3、我的数据3.1 新增数据 点击底部“新增”按钮,呈现上传数据弹框。依据需要抉择本地上传或数据库直连 *项目名称不可反复 *反对CSV、EXCEL格局数据文件,反对MySQL、SQLServer、Oracle等支流数据库 *数据库如连贯失败请将ip:59.110.161.114 退出白名单中 3.2 删除数据 勾选需删除数据表后点击“删除”按钮,呈现删除弹框,点击确认即可删除选中数据表。 3.3 数据增加至我的项目 勾选需增加的数据表后抉择“增加至我的项目”按钮,呈现数据增加弹框,抉择所增加的我的项目,点击确认即增加胜利。 4、我的我的项目 我的我的项目中,蕴含“数据源”“探索者”“观察者”,可进行我的项目新建、我的项目批改、我的项目编辑操作。 4.1新建我的项目 点击“+”按钮,新增我的项目,须要填写项目名称,可对我的项目水印展现进行调整。 *项目名称不可反复 4.2编辑和删除我的项目 点击编辑(笔)按钮对我的项目信息进行批改,可对项目名称进行编辑。点击删除按钮可删除我的项目。 *项目名称不可反复 4.3数据源 数据源包含上传数据、编辑数据以及进行数据管理。数据上传、接入后后盾自动识别数据类别,生成数据列表。 4.3.1 新增数据 点击左侧栏新增数据后“+”按钮,呈现上传数据弹框。输出数据名称、抉择本地文件进行上传。 4.3.2 新增虚构字段 点击“新增虚构字段”按钮,可手动输出虚构字段进行增加。 点击“查看示例”即查看相干字段函数列表 *字段名称请应用 `` (反引号)包裹,语法参考mysql。 ...

October 20, 2020 · 1 min · jiezi

关于深度学习:W18Cr4V

W18Cr4V是应用最宽泛的钨系通用型高速钢,硬度、红硬性及低温硬度较高,易于磨削加工。实用作工作温度在 600℃以下仍能放弃切削性能的刀具,如车、刨、铣、铰、拉刀、钻头、各种齿轮刀具及丝锥、板牙等,适于加工软的或中等硬度 (300~320HB以下) 的资料。及制作低温耐磨机械零件。W18Cr4V执行GB/T 9943-1988规范:W18Cr4V化学成分: 碳 C :0.70~0.80(容许偏差:±0.01); 硅 Si:0.20~0.40(容许偏差:±0.05); 锰 Mn:0.10~0.40(容许偏差:+0.04);硫 S :≤0.030; 磷 P :≤0.030;铬 Cr:3.80~4.40(容许偏差:±0.05); 镍 Ni:容许残余含量≤0.30; 铜 Cu:容许残余含量≤0.25; 钒 V :1.00~1.40(容许偏差:±0.05); 钼 Mo:≤0.30(容许偏差:尺寸≤6,±0.05;尺寸>6,±0.10); 钨 W :17.50~19.00(容许偏差:尺寸≤10,±0.10;>10,±0.20)。 W18Cr4V力学性能: 硬度 :交货硬度:(其余加工办法)≤269HB; (退火)≤255HB。试样热处理制度及淬回火硬度:≥63HRC。W18Cr4V圆钢热处理标准:淬火,820~870℃预热,1270~1285℃(盐浴炉)或1270~1285℃(箱式炉)加热,油冷,550~570℃回火2次,每次1h。 W18Cr4V交货状态:热轧、锻制、冷拉钢棒以退火状态交货,热轧、锻制钢棒以退火+其余加工办法(剥皮、轻拉、磨光或抛光等)加工后交货。

October 20, 2020 · 1 min · jiezi

关于深度学习:X120Mn12

X120Mn12高锰钢和国内的Mn13高锰钢相比的确有很大区别。有很大的共同点。首先X120Mn12也是高锰无磁耐磨钢,执行的是欧标,Mn13执行的是国内企业规范。都是十分好的抗冲击的耐磨钢种。咱们都晓得,磨损分冲击磨损,摩擦磨损以及悬浮磨损。Cr铬是抵制磨损磨损,也就是接触磨损最佳原材料。Mn锰是抵制冲击磨损最佳原材料。X120Mn12成分里含高锰成分的同时还增加局部Cr铬元素,让资料的抗磨损性能达到最佳。X120Mn12高锰钢具备高锰无磁抗冲击耐磨损。实用于高冲击磨损行业。抛丸机,路面机械,特种工程,矿山、冶金、煤炭、机械、电气等地。X120Mn12化学成份:碳 C :1.10~1.30;硅 Si:0.30~0.50;锰 Mn:11.00~14.00;硫 S :≥0.040;磷 P :≤0.100;铬 Cr:1.50。X120Mn12力学性能:抗拉强度 b (Mpa):880~1130;屈从强度Re(Mpa):≥410;伸长率 (%):≥40;冲击吸收率Akv(J):124(常温);硬度 :≤229HB。X120Mn12热处理标准及金相组织:热处理标准:固熔解决<水韧解决>,1060~1100℃,水冷。X120Mn12钢板、X120Mn12圆钢、X120Mn12薄板、X120Mn12锻件、X120Mn12扁钢、X120Mn12异型钢。

October 18, 2020 · 1 min · jiezi

关于深度学习:50Mn18Cr4V

50Mn18Cr4V是典型的和应用最广泛的锰铬系无磁性奥氏体护环钢。固溶解决后,进行半热变形强化或冷变形强化,以进步钢的强度,以满足不同护环类别的强度要求。用作汽轮发电机无磁性护环锻件及其他要求无磁性的零部件。执行JB/1268-1993规范也可√轧制、锻造扁钢、钢板、圆钢、锻件等.50Mn18Cr4V化学成分:碳 C :0.40~0.60;硅 Si:0.30~0.80;锰 Mn:17.00~19.00;硫 S :≤0.025;磷 P :≤0.080;铬 Cr:3.00~5.00。50Mn18Cr4V力学性能:抗拉强度 b (MPa):I级,≥895;条件屈从强度 0.2 (MPa):I级,≥760;伸长率 5 (%):I级,≥25;断面收缩率 (%):I级,≥35。50Mn18Cr4V热处理标准及金相组织:1)热成形后和变形强化前:固溶解决;2)变形强化后:以≤40℃/h的速率,加热到320~350℃,保温8~12h,以≤40℃/h速率缓冷至100℃以下,以打消残余应力。

October 17, 2020 · 1 min · jiezi

关于深度学习:45Mn17Al3无磁钢

917低磁钢45Mn17Al3在某些须要消磁性能的修建或者设施,近年来更开发出917低磁薄板,低磁厚板,低磁扁钢,低磁圆钢,45Mn17Al3无磁球扁钢。《高高》球扁钢是一种次要利用于造船和造桥畛域的中型材其中船用球扁钢是造船用辅助中型材,是船用型钢中最重要的一种,作为船板的加强筋使 用 ,相当于人的“肋骨”。近年来随着造船业的迅猛发展 ,船用球扁钢需要旺盛,球扁钢逐步成为船用 球扁钢的专称,45Mn17A13低磁钢系高合金单相奥氏体锰钢,在无磁修建、无磁机械 、选矿探矿设施及军事等畛域有着宽泛的利用。依据市场调研,预计随着造船业的迅猛发展,球扁钢的需求量将一直攀升 ,产品开发。造船用球扁钢45Mn17Al3是非凡型钢的一种,由扁平的腹板和球状的球头形成,是不对称型钢,具备低磁性、耐磨性、加工硬化偏向大、受热膨胀系数大、电阻率大以及热导率低等物理个性。挤压厂首次开发试制,通过钻研917挤压工艺,达到保障产品形态并合乎产品尺寸的要求,为生产相似型材极限规格的产品开发提供重要的技术借鉴。

October 16, 2020 · 1 min · jiezi

关于深度学习:50Mn18Cr5无磁护环钢

50Mn18Cr5无磁钢次要做电机护环。随着我国发电机组一直的飞速发展;做电机护环及无磁零部件加工得于充分利用。也可轧√扁钢、圆钢、钢板等,执行JB/1268-1993规范。50Mn18Cr5奥氏体无磁护环钢次要用于生产变压器、电机,电炉制作行业以及无磁零部件加工等失去十分宽泛的利用、其产品采纳热处理固溶。50Mn18Cr5是常见的无磁专用护环钢,该资料用于小规格电动机护环的强度指标要求高,屈从性能指标要求s640MPa,而一般热锻的屈从性能指标只能达到s<400MPa,无奈满足要求,且用户需要数量较大。该类护环尺寸规格特点属于大壁厚、小高度的圈类锻件,不能通过惯例汽轮发电机护环的冷变形强化工艺来制作,高于再结晶温度热锻不能满足其较高强度要求,低于再结晶温度的温锻技术。无磁钢50Mn18Cr5护环钢要求洁净度高、晶粒细小平均、表面质量好等,因为性能的要求最终体现在对化学成分的要求上,50Mn18Cr5钢的冶炼要求稳固管制碳、硅、硫、磷、锰等要害元素,且对化学成分管制要求严格,杂质元素含量要低。热处理后的力学性能需满足抗拉强度b≥1 000 MPa;屈从强度0.2≥870 MPa;伸长率5≥12%;≥45%;AKu≥70 J;FATT50≤12 ℃。电炉冶炼要管制出钢时成分、温度在要求的范畴内。钢包内加铝饼、硅铝钡钙进行预脱氧,严禁退出硅铁、硅铁粉等脱氧剂;包内退出预熔渣,出钢条件要满足:碳含量调至w(C)≤0.10%,w(P)≤0.005%,残余元素合乎内控要求,出钢温度1 660~1 680 ℃。电炉采纳偏心炉底出钢,留钢操作,以避免钢液下渣,出钢时保障要求钢液量。因为50Mn18Cr5合金带入的磷较多, 因而要求电炉出钢保障w(P)≤0.005%。炉前应管制好钢液温度,加大流渣、换渣操作。此外,精炼钢液回磷跟下渣量无关,下渣量越多,LF精炼过程中钢液回磷量越多。因而50Mn18Cr5电炉出钢过程严禁下渣。

October 16, 2020 · 1 min · jiezi

关于深度学习:45Mn17Al3低磁钢917钢

45Mn17AL3低磁钢又称917无磁钢。生产执行GJB规范:GJB938-90高锰铝低磁钢锻件规范,GJB934-90低磁钢板规范,GJB935-90低磁型钢规范。45Mn17Al3低磁钢系高合金单相奥氏体低磁锰钢。具备塑性好、韧性高、加工硬化偏向大、受热膨胀系数大、电阻率大、热导率低和磁性低等物理个性。在无磁修建、无磁机械、选矿探矿设施及军事等畛域有着宽泛的利用。还能够用于制作非凡舰船、码头及消磁设施等用。45Mn17Al3低磁钢917无磁钢现已宽泛应用于许多电气产品中:1.大中型变压器油箱内磁屏蔽、铁芯拉板、线圈夹件、螺栓等漏磁场的结构件;2.起重电磁铁吸盘、磁选设施简体、选箱以及除铁器;3.非凡冶炼电炉内衬、炉盖、电极夹板及电子搅拌安装结构件.45Mn17Al3低磁钢917无磁钢以电弧炉冶炼,亦可用经单方协商批准的其余办法冶炼。45Mn17Al3舰艇用低磁钢板钢代号917.执行规范GJB/934-1990个性及适用范围:本规范实用于舰船及其它低磁结构件用厚度为2-20MM的45Mn17Al3(917)低磁钢热轧钢板。45Mn17Al3化学成份:碳 C :0.40~0.50硅 Si:≤0.60锰 Mn:16.0~18.0硫 S :≤0.030磷 P :≤0.040铝 Al:2.4~3.6锰 Mn:容许偏差为±0.25%铝 Al:容许偏差为-0.2%45Mn17Al3力学性能:组别1:抗拉强度 b (MPa):≥600屈从强度 s (MPa):300~450伸长率 5 (%):≥25组别2:抗拉强度 b (MPa):≥600屈从强度 s (MPa):≥400伸长率 5 (%):≥2545Mn17Al3(917)舰艇用低磁钢板交货状态:钢板以热轧状态交货,也能够热处理状态交货,热处理制度由供方自定。

October 16, 2020 · 1 min · jiezi

关于深度学习:40Mn18Cr4V

40Mn18Cr4V是电机专用高锰无磁资料,具备强度高(1200MPa以上)、足够的韧性以及低的磁性(绝对磁导率≤1.02)等特点;可制作水电发电机组齿压板、定子铁芯压指、汽轮发电机无磁性护环、穿心螺杆。40Mn18Cr4V化学成份:碳 C :0.30~0.55;硅 Si:0.30~0.80;锰 Mn:17.00~19.00;硫 S :≤0.05;磷 P :≤0.08;铬 Cr:3.00~5.00。40Mn18Cr4V力学性能:抗拉强度 b (MPa):Ⅰ,≥735; Ⅱ,≥843; Ⅲ,≥883;条件屈从强度 0.2 (MPa):Ⅰ,≥637;Ⅱ,≥735;Ⅲ,≥785;伸长率 5 (%):Ⅰ,≥20;Ⅱ,≥18;Ⅲ,≥16;断面收缩率 (%):Ⅰ,≥35;Ⅱ,≥30;Ⅲ,≥30;试样尺寸:护环类别:Ⅰ、Ⅱ、Ⅲ。40Mn18Cr4V热处理标准及金相组织:1150℃固溶,空冷;590℃×3h时效,积淀软化解决。40Mn18Cr4V通过电炉熔炼→LF精炼→VD真空解决→轧制→锻造→固溶强化→矫直=40Mn18Cr4V扁钢、40Mn18Cr4V圆钢、40Mn18Cr4V方钢、40Mn18Cr4V锻件、40Mn18Cr4V环件。

October 16, 2020 · 1 min · jiezi

关于深度学习:基于视频的的公共安全方案解析

产品概述 基于视频的的公共安全计划是以县、乡、村三级综治核心为指挥平台、以综治信息化为撑持、以网格化治理为根底、以公共安全视频监控联网利用为重点的“群众性治安防控工程”。 它通过三级综治核心建设把治安防范措施延长到大众身边,动员社会力量和广大群众独特监看视频监控,独特参加治安防备,从而真正实现治安防控“全笼罩、无死角”。 平台定位 从天网到公共安全视频 功能模块 基于视频的的公共安全计划充分运用信息科技伎俩构建起农村治安监控网络,织密乡镇、村治安防控网。依照“圈、块、格、线、点”的布局要求。 在区域内次要走道、公共区域装置高清网络枪机,以实现对人员流动走向无效监控;在广场、密集楼宇拐角处装置高清网络球机,以实现对人员密集区灵便无效监控防备,进一步革除了监控盲区、放大点位间距,视频监控全笼罩、无缝隙,确保人过留像、车过留牌,以无效晋升社会治安防控体系的整体防控效力。该公共安全视频重视于社会治安综合治理、综治网格化治理、城市平安治理与视频服务。分为四块核心建设:全面监控、智能预警、协同部署、准确打击。 1.1. 全面监控:监控城市笼罩、人车物的监控、视频与人脸识别的联合、轨迹跟踪。 1.2.  智能预警:视频智能监测剖析、态势预判、人物动作状态剖析。 1.3. 协同部署:指挥扁平化、调度可视化、协同信息化。 1.4. 准确打击地理信息、定位信息。 该平台将家庭、商铺、街道等社会扩散监控资源接入综治眼平台,实现扩散社会监控资源疾速整合。平台反对互联网APP及有线电视网机顶盒实现问题上报及视频点播,最终实现综治工作的可视化治理。 建设计划 1.1. 公共安全视频联网架构1.2. 总体建设计划1.3. 社会面资源整合1.4. 建设场景1.5. 社会面视频联网解决方案1.6. 互联网综治平台1.7. 两个分中心—综治分中心建设+利用1.8. 综治实战建设内容1.9. 重点事件监控1.10. 视频智能检测1.11. 视频调阅查证1.12. 群防群治1.13. 一键报警1.14. 事件上报1.15. 视频点播1.16. 综治信息公布:智能云一体机1.17. 综治信息公布:智能云一体机1.18. 可视化指挥协同1.19. 综治大数据展现1.20. 人脸大数据利用 | 实时重点人员预警1.21. 社区动静人像卡口+重点人员管控1.22. 智慧型小区人员管控 1.23. 尾随及可疑人员预警 1.24. 人脸云助力社区型流动人口社区管控零碎 1.25. 人脸大数据利用 | 人像频次剖析利用1.26. 解析核心实战利用1.27. 人员车辆辨认

October 15, 2020 · 1 min · jiezi

关于深度学习:10CrNi3MoV

921A舰艇用10CrNi3MoV钢最新规范主办单位:冶金工业信息规范研究院。主编单位:鞍钢股份有限公司;中船重工725所;海军驻鞍山钢铁集团公司军事代表室;中船重工438厂;中船重工431厂;钢铁钻研总院;冶金工业信息规范研究院。规范号:GJB 1663A-2018.规范名称:舰艇用 10CrNi3MoV、10CrNi3MoCu和10CrNi2MoCu 钢板标准.外文名:Specification for 10CrNi3MoV,10CrNi3MoCu and 10CrNi2MoCu steel plates for military ship. 适用范围:本标准规定了10CrNi3MoV(代号921A)、10CrNi3MoCu(代号922A)和0CrNi2MoCu(代号923A)钢板的具体要求。 本标准实用于舰艇用厚度为5mm~mm(923A)、10mm~35mm(921A)和36mm~70mm(922A)的钢板。

October 6, 2020 · 1 min · jiezi

关于深度学习:用树莓派4b构建深度学习应用四PyTorch篇

前言上回咱们装置了OpenCV 4.4,置信对源码编译库文件有了肯定的理解,这篇咱们进一步在树莓派上编译并装置 Pytorch 的最新版本。 PyTorch 1.6 的新个性PyTorch 1.6 版本减少了许多新的 API、用于性能改良和性能剖析的工具、以及对基于分布式数据并行(Distributed Data Parallel, DDP)和基于近程过程调用(Remote Procedure Call, RPC)的分布式训练的重大更新。局部更新亮点包含: 原生反对主动混合精度训练(AMP, automatic mixed-precision training),只需减少几行新代码就能够进步大型模型训练50-60% 的速度。为 tensor-aware 减少对 TensorPipe 的原生反对在前端 API 减少了对 complex tensor 的反对新的剖析工具提供了张量级的内存耗费信息针对分布式数据并行训练和近程过程调用的多项改良和新性能减少替换内存(可选)编译 torch 须要破费大量的内存,在低于 2g 或以下内存的树莓派上,能够通过减少虚拟内存来避免OOM,4g 或 8g 的版本的树莓派可跳过这步。 1. 批改配置文件sudo nano /etc/dphys-swapfil设置 4g 的替换内存,文件内容如下: # /etc/dphys-swapfile - user settings for dphys-swapfile package# author Neil Franklin, last modification 2010.05.05# copyright ETH Zuerich Physics Departement# use under either modified/non-advertising BSD or GPL license# this file is sourced with . so full normal sh syntax applies# the default settings are added as commented out CONF_*=* lines# where we want the swapfile to be, this is the default#CONF_SWAPFILE=/var/swap# set size to absolute value, leaving empty (default) then uses computed value# you most likely don't want this, unless you have an special disk situationCONF_SWAPSIZE=4096保留退出,重启服务失效。 ...

October 6, 2020 · 2 min · jiezi

关于深度学习:滴滴ETA论文解读CompactETA

引言paperCompactETA: A Fast Inference System for Travel Time Prediction读后感外围就是将graph attention network利用到ETA中。 核心内容问题 对于WDR来说,只有起起点不同,那么link序列就不同,整个recurrent局部都要从新计算。WDR的recurrent结构复杂,所以,WDR整体耗时十分重大。本文要解决的问题是:如何进步ETA计算的响应速度。 场景特点 空间汇集性:选派司机时,link重合度十分高工夫汇集性:短时间内通过多轮派单尝试,对应ETA query在工夫上十分靠近。初始思路 把端到端整体预测的形式改为对每个link独自预测工夫而后求和的形式。缺点:link误差累积,导致误差较大 改良思路对每个link抽取高层级的示意(high level representation),而后对示意向量求和而不是间接对工夫求和。 相比WDR它有几个根本性的改良: (1)移除了wide和deep局部。 间接把全局特色输出到最终的MLP(3-layer)中,这在一些状况下会对精度有少许影响。其中$r_{l_t}$示意link $l_t$的向量示意,$g$为转换后的全局特色。$l_t$的取值通过查问table b表来获取。table b表的更新与query无关,只与路况更新周期无关。(通常是5分钟) (2)Graph Attention Network取代了LSTM的地位。 在WDR中,邻近link的依赖关系通过LSTM的序列学习能力来建设;而在CompactETA中,link之间的依赖关系通过学习路网的拓扑构造来建设。 用一个one-hot向量表征节点i与节点j之间的连贯关系:并且定义$_{ii}=[0,0,1]$。 We build our graph attention network by stacking 3 graph attention blocks. Let ???? = 1, 2, 3 be the block index。$????????????^{(????)}$示意单隐层MLP,$u^{(????-1)}_i$、$u^{(????-1)}_j$别离示意节点i和j的在第k-1个block的输入。 应用softmax函数将向量依照neighbors维度计算散布,其中,$N_i$指代节点i及其街坊节点。针对$N_i$加权求和,更新$l_i$的状态。 在first attention block之前,咱们采纳仿射变换(Affine Transformation)为残差链接(residual connection)对立 input 和 output的size大小。其中,$x_{l_i}$为link $l_i$的特色,$W_{af}$、$b_{af}$为转换参数。针对第k个block,$u_{i}^{(k)}$能够取得k-hop街坊的信息。k值越大,对应层级的神经元能够看到更多的信息(有点相似于CNN的部分感触野)。感触野越大,通常预测准确性越高,计算耗时也越大。折中起见,这里将k取值为3。 (3)减少了地位编码。 LSTM耗时重大,曾经采纳Graph Attention Network替换掉,所以这里通过减少地位编码尽可能地保留link的序列信息。借鉴了Transformer的解决方案,用三角函数生成了一系列对于地位的编码。但与Transformer不同的是,间接把PE加到示意向量上对于求和操作仍然没有任何作用,所以这里采纳了更加激进的乘法形式来应用地位编码。其中,pos为link在行走门路中的地位,取值从1到T;$dim$为link表征的dimension index,$d_{rep}$为link表征的维度大小。 ...

October 5, 2020 · 1 min · jiezi

关于深度学习:用树莓派4b构建深度学习应用一硬件篇

前言最近树莓派4b公布了8gb的版本,这么大的内存用在嵌入式设施上,几乎是为了深度计算而生,果决动手了一块,遂开启了一轮踩坑之旅。为了防止反复网上已有的树莓派教程,后续系列文章,我尽量以2020年为基准,先打造一个最新最稳固的软硬件开发环境,再在其上构建AI利用。比方抉择构建OpenCV 4.4,pyTorch 1.6和1.7,Tensorflow 2.1,而后在下面跑yolo v5利用,用intel NCS2减速等等… 这篇咱们先来选用一些必要的硬件设施,其中表明必备的,则是运行零碎所要求的,型号规格尽量保持一致,可选的局部可依据理论AI利用抉择即可。 <section mpa-from-tpl="t" style="white-space: normal;" data-mpa-powered-by="yiban.io"> <section mpa-from-tpl="t" style="margin-top: 10px; margin-bottom: 10px; text-align: center;"> <section mpa-from-tpl="t" style="padding-right: 6px; padding-left: 6px; display: inline-block; vertical-align: middle;"> <section mpa-is-content="t" mpa-from-tpl="t" style="padding-right: 10px; padding-left: 10px; border-bottom: 2px solid rgb(0, 122, 170);"> <span style="font-size: 18px; color: rgb(0, 122, 170);"><strong mpa-from-tpl="t"> 树莓派4b(必备,4gb或8gb)<mpchecktext contenteditable="false" id="1601710626254_0.06194475821511003"> </mpchecktext></strong></span> </section> <section mpa-from-tpl="t" style="margin-top: -4px;"> <section mpa-from-tpl="t" style="margin-left: -6px; float: left; width: 6px; height: 6px; background-color: rgb(0, 122, 170);"> <br> </section> <section mpa-from-tpl="t" style="margin-right: -6px; float: right; width: 6px; height: 6px; background-color: rgb(0, 122, 170);"> <span style="font-size: 15px; text-align: justify; text-indent: 2em;"></span> <br> </section> </section></section></section></section> ...

October 5, 2020 · 8 min · jiezi

关于深度学习:滴滴ETA论文解读WDR模型

引言paper:Learning to Estimate the Travel Time 读后感:整体中规中矩,将WD模型和LSTM相结合,解决理论的业务问题。 备注:ETA 是 Estimate Travel Time 的缩写,即,达到工夫预估。这个问题形容是,在某一个时刻,预计从 A 点到 B 点须要的工夫。对于滴滴,关注的是司机开车把乘客从终点送到起点须要的工夫。显然,ETA 就是一个时空相干的回归问题。 Learning to Estimate the Travel Time规定用规定模型计算 ETA 是此前地图行业通用做法之一。即别离计算各段路的行驶工夫,全副加起来再依据红绿灯工夫做一个偏移修改。用数学来形容,预估工夫能够表白为: 其中,$t_i、c_j$别离示意第i个路段、第j个红绿灯的耗时时长。思考到路段的通行状态每时每刻都在动态变化,利用最新的历史数据(比方,刚刚过来的 5 分钟)来预计路段的实时通行工夫,而把历史均匀通行工夫作为默认值来填充信息缺失的路段。红绿灯耗时时长计算亦然。 长处:计算量小,易于实现毛病:依赖人工教训,可扩展性差,难以利用多种多样的特色 惯例模型滴滴将 MAPE(mean absolute percentage error)抉择为指标函数,对应于 MAPE 的优化问题为: 为了避免过拟合,还加上了正则项: 在具体到模型层面,滴滴先后采纳了两种业界比拟支流的办法:Tree Based model 和 Factorization Machine。 Tree Based model 其中,树模型的最终输入是多棵树的集成后果,能够写成如下模式,其中,T示意树的颗数:每一棵树都会依据输出特色进行判断,决定输出数据所属的叶子节点,而后将叶子节点对应的分数作为单棵树的输入:$f_t(x)=w_{t}u(x)$。其中,$w_{t}$代表了第 t 棵树全副叶节点形成的分数向量;$u(x)$是一个映射函数(通过一系列条件判断),决定了$x$应该归属的叶子节点序号。 针对于第t颗树,对应的正则项能够表白为如下模式,其中L为叶子节点的数目,第二项通过 L2 范数来对叶子节点的输入 score 进行管制, $$是超参数: 具体到GBDT模型,最终优化指标形式化表述为:因为mape是不可微分函数,尽管指标函数是凸函数,然而指标函数是非平滑的。咱们能够应用huber loss近似mape函数,或者,采纳次梯度办法(subgradient method)求解该优化问题。 Factorization Machine FM的具备预测准确性高、特色工程灵便两个长处,广泛应用于举荐零碎和在线广告零碎畛域。FM模型的外围思路是将特色交互的权重矩阵进行合成,表白为向量内积的模式,以此来缩小参数数量。二阶 FM 示意为: 其中d是特色维度,通常在千万级别甚至更高;而参数向量v的维度 m 绝对很小,通常在几十的量级便能达到较好的预测精度。 ...

October 4, 2020 · 1 min · jiezi

关于深度学习:ApacheCN-深度学习译文集-20209

协定:CC BY-NC-SA 4.0骄傲地采纳谷歌翻译 不要放心本人的形象,只关怀如何实现目标。——《准则》,生存准则 2.3.c 在线浏览ApacheCN 面试求职交换群 724187166ApacheCN 学习资源目录TensorFlow 1.x 深度学习秘籍 零、前言一、TensorFlow 简介二、回归三、神经网络:感知器四、卷积神经网络五、高级卷积神经网络六、循环神经网络七、无监督学习八、自编码器九、强化学习十、挪动计算十一、生成模型和 CapsNet十二、分布式 TensorFlow 和云深度学习十三、AutoML 和学习如何学习(元学习)十四、TensorFlow 处理单元应用 TensorFlow 构建机器学习我的项目中文版 一、摸索和转换数据二、聚类三、线性回归四、逻辑回归五、简略的前馈神经网络六、卷积神经网络七、循环神经网络和 LSTM八、深度神经网络九、大规模运行模型 -- GPU 和服务十、库装置和其余提醒TensorFlow 深度学习中文第二版 一、人工神经网络二、TensorFlow v1.6 的新性能是什么?三、实现前馈神经网络四、CNN 实战五、应用 TensorFlow 实现自编码器六、RNN 和梯度隐没或爆炸问题七、TensorFlow GPU 配置八、TFLearn九、应用协同过滤的电影举荐十、OpenAI GymTensorFlow 深度学习实战指南中文版 一、入门二、深度神经网络三、卷积神经网络四、循环神经网络介绍五、总结精通 TensorFlow 1.x 一、TensorFlow 101二、TensorFlow 的高级库三、Keras 101四、TensorFlow 中的经典机器学习五、TensorFlow 和 Keras 中的神经网络和 MLP六、TensorFlow 和 Keras 中的 RNN七、TensorFlow 和 Keras 中的用于工夫序列数据的 RNN八、TensorFlow 和 Keras 中的用于文本数据的 RNN九、TensorFlow 和 Keras 中的 CNN十、TensorFlow 和 Keras 中的自编码器十一、TF 服务:生产中的 TensorFlow 模型十二、迁徙学习和预训练模型十三、深度强化学习十四、生成反抗网络十五、TensorFlow 集群的分布式模型十六、挪动和嵌入式平台上的 TensorFlow 模型十七、R 中的 TensorFlow 和 Keras十八、调试 TensorFlow 模型十九、张量处理单元TensorFlow 机器学习秘籍中文第二版 ...

September 28, 2020 · 2 min · jiezi

关于深度学习:AI小白必读深度学习迁移学习强化学习别再傻傻分不清

摘要:诸多对于人工智能的风行词汇萦绕在咱们耳边,比方深度学习 (Deep Learning)、强化学习 (Reinforcement Learning)、迁徙学习 (Transfer Learning),不少人对这些高频词汇的含意及其背地的关系感到困惑,明天就为大家理清它们之间的关系和区别。一. 深度学习:深度学习的胜利和倒退,得益于算力的显著晋升和大数据,数字化后产生大量的数据,可通过大量的数据训练来发现数据的法则,从而实现基于监督学习的数据预测。 基于神经网络的深度学习次要利用于图像、文本、语音等畛域。 2016年的 NIPS 会议上,吴恩达给出了一个将来AI方向的技术倒退图: 监督学习(Supervised learning)是目前商用场景最多,成熟度最高的AI技术,而下一个商用的AI技术将会是迁徙学习(Transfer Learning),这也是 Andrew 预测将来五年最有可能走向商用的AI技术。 二. 迁徙学习:迁徙学习:用相干的、相似数据来训练,通过迁徙学习来实现模型自身的泛化能力,是如何将学习到常识从一个场景迁徙到另一个场景。 拿图像识别来说,从白天到早晨,从冬天到夏天,从辨认中国人到 辨认外国人…… 借用一张示意图(From:A Survey on Transfer Learning)来进行阐明: 迁徙学习的价值体现在: 1.一些场景的数据根本无法采集,这时迁徙学习就很有价值; 2.复用现有常识域数据,已有的大量工作不至于齐全抛弃; 3.不须要再去破费微小代价去从新采集和标定宏大的新数据集; 4.对于疾速呈现的新畛域,可能疾速迁徙和利用,体现时效性劣势; 对于迁徙学习算法的实际总结: 通过原有数据和大量新畛域数据混同训练;将原训练模型进行宰割,保留根底模型(数据)局部作为新畛域的迁徙根底;通过三维仿真来失去新的场景图像(OpenAI的Universe平台借助赛车游戏来训练);借助反抗网络 GAN 进行迁徙学习 的办法;三. 强化学习:强化学习:全称是 Deep Reinforcement Learning(DRL),让机器有了自我学习、自我思考的能力。 目前强化学习次要用在游戏 AI 畛域,最闻名的应该算AlphaGo的围棋大战。强化学习是个简单的命题,Deepmind 大神 David Silver 将其了解为这样一种交叉学科: 实际上,强化学习是一种摸索式的学习办法,通过一直 “试错” 来失去改良,不同于监督学习的中央是 强化学习自身没有 Label,每一步的 Action 之后它无奈失去明确的反馈(在这一点上,监督学习每一步都能进行 Label 比对,失去 True or False)。 强化学习是通过以下几个元素来进行组合形容的: 对象(Agent) 也就是咱们的智能主题,比方 AlphaGo。 ...

September 25, 2020 · 1 min · jiezi

关于深度学习:一分钟带你认识深度学习中的知识蒸馏

摘要:常识蒸馏(knowledge distillation)是模型压缩的一种罕用的办法一、常识蒸馏入门1.1 概念介绍常识蒸馏(knowledge distillation)是模型压缩的一种罕用的办法,不同于模型压缩中的剪枝和量化,常识蒸馏是通过构建一个轻量化的小模型,利用性能更好的大模型的监督信息,来训练这个小模型,以期达到更好的性能和精度。最早是由Hinton在2015年首次提出并利用在分类工作下面,这个大模型咱们称之为teacher(老师模型),小模型咱们称之为Student(学生模型)。来自Teacher模型输入的监督信息称之为knowledge(常识),而student学习迁徙来自teacher的监督信息的过程称之为Distillation(蒸馏)。 1.2 常识蒸馏的品种 图1 常识蒸馏的品种 1、 离线蒸馏 离线蒸馏形式即为传统的常识蒸馏,如上图(a)。用户须要在已知数据集下面提前训练好一个teacher模型,而后在对student模型进行训练的时候,利用所获取的teacher模型进行监督训练来达到蒸馏的目标,而且这个teacher的训练精度要比student模型精度要高,差值越大,蒸馏成果也就越显著。一般来讲,teacher的模型参数在蒸馏训练的过程中放弃不变,达到训练student模型的目标。蒸馏的损失函数distillation loss计算teacher和student之前输入预测值的差异,和student的loss加在一起作为整个训练loss,来进行梯度更新,最终失去一个更高性能和精度的student模型。 2、 半监督蒸馏 半监督形式的蒸馏利用了teacher模型的预测信息作为标签,来对student网络进行监督学习,如上图(b)。那么不同于传统离线蒸馏的形式,在对student模型训练之前,先输出局部的未标记的数据,利用teacher网络输入标签作为监督信息再输出到student网络中,来实现蒸馏过程,这样就能够应用更少标注量的数据集,达到晋升模型精度的目标。 3、 自监督蒸馏 自监督蒸馏相比于传统的离线蒸馏的形式是不须要提前训练一个teacher网络模型,而是student网络自身的训练实现一个蒸馏过程,如上图(c)。具体实现形式 有多种,例如先开始训练student模型,在整个训练过程的最初几个epoch的时候,利用后面训练的student作为监督模型,在剩下的epoch中,对模型进行蒸馏。这样做的益处是不须要提前训练好teacher模型,就能够变训练边蒸馏,节俭整个蒸馏过程的训练工夫。 1.3 常识蒸馏的性能1、晋升模型精度 用户如果对目前的网络模型A的精度不是很称心,那么能够先训练一个更高精度的teacher模型B(通常参数量更多,时延更大),而后用这个训练好的teacher模型B对student模型A进行常识蒸馏,失去一个更高精度的模型。 2、升高模型时延,压缩网络参数 用户如果对目前的网络模型A的时延不称心,能够先找到一个时延更低,参数量更小的模型B,通常来讲,这种模型精度也会比拟低,而后通过训练一个更高精度的teacher模型C来对这个参数量小的模型B进行常识蒸馏,使得该模型B的精度靠近最原始的模型A,从而达到升高时延的目标。 3、图片标签之间的域迁徙 用户应用狗和猫的数据集训练了一个teacher模型A,应用香蕉和苹果训练了一个teacher模型B,那么就能够用这两个模型同时蒸馏出一个能够辨认狗,猫,香蕉以及苹果的模型,将两个不同与的数据集进行集成和迁徙。 图2 图像域迁徙训练 4、升高标注量 该性能能够通过半监督的蒸馏形式来实现,用户利用训练好的teacher网络模型来对未标注的数据集进行蒸馏,达到升高标注量的目标。 1.4 常识蒸馏的原理 图3 常识蒸馏原理介绍 个别应用蒸馏的时候,往往会找一个参数量更小的student网络,那么相比于teacher来说,这个轻量级的网络不能很好的学习到数据集之前暗藏的潜在关系,如上图所示,相比于one hot的输入,teacher网络是将输入的logits进行了softmax,更加平滑的解决了标签,行将数字1输入成了0.6(对1的预测)和0.4(对0的预测)而后输出到student网络中,相比于1来说,这种softmax含有更多的信息。好模型的指标不是拟合训练数据,而是学习如何泛化到新的数据。所以蒸馏的指标是让student学习到teacher的泛化能力,实践上失去的后果会比单纯拟合训练数据的student要好。另外,对于分类工作,如果soft targets的熵比hard targets高,那显然student会学习到更多的信息。最终student模型学习的是teacher模型的泛化能力,而不是“过拟合训练数据” 二、入手实际常识蒸馏ModelArts模型市场中的efficientDet指标检测算法目前曾经反对常识蒸馏,用户能够通过上面的一个案例,来入门和相熟常识蒸馏在检测网络中的应用流程。 2.1 筹备数据集数据集应用kaggle公开的Images of Canine Coccidiosis Parasite的辨认工作,下载地址:https://www.kaggle.com/kvinic...。用户下载数据集之后,公布到ModelArts的数据集治理中,同时进行数据集切分,默认依照8:2的比例切分成train和eval两种。 2.2 订阅市场算法efficientDet进到模型市场算法界面,找到efficientDet算法,点击“订阅”按钮 图4 市场订阅efficientDet算法 而后到算法治理界面,找到曾经订阅的efficientDet,点击同步,就能够进行算法训练 图5 算法治理同步订阅算法 2.3 训练student网络模型起一个efficientDet的训练作业,model_name=efficientdet-d0,数据集选用2.1公布的曾经切分好的数据集,抉择好输入门路,点击创立,具体创立参数如下: 图6 创立student网络的训练作业 失去训练的模型精度信息在评估后果界面,如下: 图7 student模型训练后果 能够看到student的模型精度在0.8473。 2.4 训练teacher网络模型下一步就是训练一个teacher模型,依照efficientDet文档的形容,这里抉择efficientdet-d3,同时须要增加一个参数,表明该训练作业生成的模型是用来作为常识蒸馏的teacher模型,新起一个训练作业,具体参数如下: ...

September 23, 2020 · 1 min · jiezi

关于深度学习:外事不决有某度内事不决问-Kendra自建企业级搜索引擎方法很简单

面对互联网上浩如烟海的数据,如何疾速找到本人须要的信息?搜索引擎!输出关键字,回车一下,海量后果等你来检阅。 但在企业环境中,面对形形色色的 IT 零碎、文档库,以及其余品种各异的数据源,如何疾速找到须要的内容?搜寻就行。但假如你须要的信息散布在几个甚至十几个不同的利用或零碎中,除了别离在这些中央进行搜寻(前提是这些零碎反对搜寻),还有什么更好的方法吗? 如果能有一种服务,就像互联网上的搜索引擎那样,能够给企业外部的各类数据源创立索引,并让咱们在一个地位,通过一次搜寻操作,全面搜寻内网中的各类数据源,并将后果对立出现在一起,那该多不便! Amazon Kendra 请理解一下Amazon Kendra 是一项易于应用的企业级搜寻服务,可帮忙咱们向应用程序中增加搜寻性能,保障最终用户得以轻松从企业外部存储的不同数据源中查找信息(包含收据、业务文档、技术手册、销售报告、公司外部词汇表以及外部网站等)。除了搜寻外部数据,咱们还能够从Amazon Simple Storage Service(Amazon S3)和 OneDrive 等存储解决方案当中获取信息,甚至反对 SalesForce、SharePoint 及 Service Now 等应用程序,以及Amazon Relational Database Service(Amazon RDS)等关系数据库执行搜寻。 在输出查问关键字时,该服务将应用机器学习(ML)算法了解上下文,并返回相关度最高的后果,其中可蕴含精确答案或残缺文档。更重要的是,该服务无需具备任何机器学习教训即可实现操作。Amazon Kendra 还为大家提供了可能轻松与新应用程序或现有应用程序相集成的代码。 本文将介绍如何应用 Amazon Kendra 性能创立企业外部搜寻零碎,借此构建解决方案以创立并查问本人的搜寻索引。在本文的示例中,咱们将应用 HTML 格局的 Amazon.com 帮忙文档作为数据源,但 Amazon Kendra 也反对微软 Office(.doc、.ppt 等)、PDF 以及其余多种文本格式。 解决方案概述本文将向大家介绍如何应用 Amazon Kendra 在 AWS 上创立企业搜索引擎。大家能够在一个小时之内配置起新的 Amazon Kendra 索引,且无需把握深度技术或者丰盛的机器学习教训。 本文还将演示如何通过增加常见问题答案,在自定义应用程序中部署 Amazon Kendra 与同步数据源,借此配置定制化 Amazon Kendra 应用体验。后文将具体论述并解答这些问题。 先决条件在本轮演练中,须要做好如下筹备: 一个 AWS 账户。理解 AWS 基本知识。一个用于寄存文档的 S3 存储桶。对于更多详细信息,请参阅创立一个存储桶以及 Amazon S3 是什么?创立并配置文档库首先须要将文档上传至 S3 存储桶中,而后能力在 Amazon Kendra 中创立索引。本节将介绍如何创立 S3 存储桶,随后获取文件并将其加载至存储桶当中。实现本节中所有步骤后,便领有了可供 Amazon Kendra 应用的数据源。 ...

September 22, 2020 · 3 min · jiezi

关于深度学习:树莓派内网穿透建站与维护使用内网穿透无需服务器

树莓派内网穿透建站与保护pi 概述[](http://neiwangchuantou.cn/arc... "章节链接")如题,咱们明天次要讲利用网云穿官网提供的内网穿透性能来外网拜访树莓派上的网站,以及通过 ssh 进行远程管理。 树莓派[](http://neiwangchuantou.cn/arc... "章节链接")树莓派是基于博通出品的 arm 架构处理器的微型电脑,价格低廉,目前最新版本为 4B,笔者应用的是 3B+,过后是二百元左右。 3B + 版本的配置如下: 主频 1.4GHz,64 位 4 核的 ARM Cortex-A53 CPU1GB LPDDR2 内存2.4GHz 和 5GHz IEEE802.11.b/g/n/ac 无线网卡,蓝牙 4.24 个 USB2.0HDMI这配置跑一个动态网站是入不敷出了,毕竟阿里云便宜的也就 1 核 1G 而已(主频会稍高一些)。 建站[](http://neiwangchuantou.cn/arc... "章节链接")nginx树莓派官网提供了基于 Debian 的 Raspberry Pi OS,所以装置软件与大家相熟的 Ubuntu 一样,首先装置 nginx 作为 web server: sudo apt install nginx装置完启动: # 启动nginx,没有输入就示意启动胜利了sudo nginx # 也能够被动查看过程ps -ef | grep nginx查看过程输入相似如下成果: nginx 默认 nginx 是有配置文件间接失效的,能够通过浏览器拜访树莓派的局域网 ip,例如我的是 192.168.199.175,能看到这个页面,就示意 web server 曾经失常提供服务。 ...

September 22, 2020 · 1 min · jiezi

关于深度学习:2019年Philip-S-Yu团队的图神经网络综述

应用graph来示意对象之间的简单关系和依赖关系,然而graph数据的简单已有的机器学习算法很难解决,所以应用深度学习办法来解决。A Comprehensive Survey on Graph Neural Networks论文回顾图神经网络(GNN)在文本开掘和机器学习畛域的倒退,将GNN划分为递归图神经网络、卷积图神经网络、图自编码和时空图神经网络四类。此外还探讨图神经网络跨各种畛域的利用、总结开源代码、数据集和图神经网络评估指标。最初给出可能的钻研方向。 作者提到基于欧氏间隔计算的数据能捕捉隐含模式,然而随着利用数量的减少,开始应用graph示意数据,例如,它能够利用用户和商品之间的交互来进步举荐准确率;将化学分子建成graph,生物活性在药物发现中失去鉴定;在引言网络中,通过援用关系建设文章之间的分割,将他们分成不同的类别。然而graph与图像不同,节点无序、尺寸不一、街坊节点数量变动,这减少了graph的计算难度。此外ML算法是基于样本独立性假如的,与graph的构建机理矛盾。 图左:2D卷积。将图像看作graph,就是每个红色点与周围点建设关联,且权重雷同 图右:图卷积。街坊节点数量不固定 ♕倒退历史 1、递归图神经网络(RecGNNs) 1997年起,以迭代的形式并通过传递街坊节点信息来学习指标节点示意,直到稳固点。此类办法计算复杂度高,一些研究者钻研如何升高复杂度。如,“Gated graphsequence neural networks,ICLR2015”,“Learning steadystates of iterative algorithms over graphs,ICML2018”. 2、卷积图神经网络(ConvGNNs)分为基于谱办法(最早2013)和基于空间办法(最早2009) 3、图自编码(GAEs) 4、时空图神经网络(STGNNs) ♕图嵌入 vs. 网络嵌入 次要区别:GNN是一组神经网络模型来解决不同工作,网络嵌入涵盖了针对同一工作的各种办法。通过图自编码器框架GNNs可能解决网络嵌入问题。 graph embedding :以端到端的形式解决图关系工作,抽取高阶示意 network embedding: 低维向量示意网络节点,同时放弃网络拓扑构造和节点内容信息。因而,任何后续的图形剖析工作,如分类、聚类和举荐,都能够应用简略的现成的机器学习算法轻松地执行。网络嵌入还蕴含非深度学习办法,如矩阵合成和随机游走。 ♕图神经网络 vs. 图内核办法 图内核:是解决图分类问题次要技术。应用核函数度量图对之间的类似度,如svm。通过映射函数将图和节点映射到向量空间。采纳两两对类似度计算,计算复杂度高 图神经网路:间接依据抽取的图表征执行图分类,比图核办法更无效。通过映射函数将图和节点映射到向量空间。 ♕办法定义 图:G=(V,E),V是节点,E是边 有向图:邻接矩阵是有符号时 时空图:G(t)=(V,E,X(t)) ♕办法分类 recurrent graph neural networks (RecGNNs):假如节点和其街坊节点继续变动,直到达到稳态 Graph Neural Network (GNN*2) Graph Echo State Network(GraphESN) Gated Graph Neural Network (GGNN) Stochastic Steady-state Embedding (SSE) ...

September 20, 2020 · 1 min · jiezi

关于深度学习:Copy攻城狮辛酸史含泪一分钟跑通MindSpore的LeNet模型

摘要:一个Cope 攻城狮用切身实例通知你: Cope代码体验一时爽,BUG批改花半天。前言:此文为r0.7-beta的操作实际,为什么我的眼里常含泪水,因为我对踩坑这件事爱得深厚。谨以此文献给和我一样踩坑的小伙伴,留念踩坑时刻。 ↑开局一张图,故事全靠编。 有时候经常问本人:我一个前端开发,没有python根底,竟然敢尝试应用深度学习框架?谁给的勇气,是梁静茹吗?有时候也经常暗示本人“技多不压身”,活得像周树人笔下的阿Q一样洒脱,不过事实就像--我是钻井工,钻了一个又一个的井,因为没有保持,一次又一次地和宝藏擦肩而过最终空手而归;有时候也经常告慰本人:“Just DO IT”,IT这么吃香,不干IT还无能啥?不就是换个地儿搬砖吗?定个小指标,先跑通MindSpore的LeNet模型! 装置优良的全场景深度学习框架开源我的项目,应该提供Docker装置镜像;先康康我的运行环境: Ubuntu 18.04.5 LTSDocker version 18.09.6这次装置的是CPU版本的,命令: docker pull mindspore/mindspore-cpu:0.7.0-betadocker run -it mindspore/mindspore-cpu:0.7.0-beta /bin/bash 一步到“胃”,间接进入到home目录,接下来Copy攻城狮要开始表演粗劣的Copy*,跑通MindSpore的LeNet模型。 Fork代码为啥要Fork代码呢?您指望一个毫无核心技术的Copy攻城狮手写一个深度学习框架MindSpore?代码千千万,Fork第一条!不啰嗦,先fork一下MindSpore官网仓库,一键领有深度学习框架。当然Fork之后,咱们要将代码clone到本地,因为我的码云账号叫hu-qi,所以我要clone的门路是https://gitee.com/hu-qi/minds...。 git clone https://gitee.com/hu-qi/mindspore因为码云是咱本人的,速度倍儿棒,稍等片刻,美味行将出现。 翻车现场ModuleNotFoundError: No module named 'mindspore.dataset.vision'. 习惯了瞎折腾,认为间接运行train.py就能一分钟跑通,还是“too young,too simple”。一波谬误的示范,而后就是图中微小的坑: 幸好前人曾经踩过坑了:Windows零碎下跑通华为MindSpore的Lenet网络,只管是Windows零碎的,看上去仿佛是雷同的问题。为了记录本次踩坑历程,我决定施展一下git技能! checkout踩坑分支为了印象更加粗浅,我决定将分支命名为9-12,以此留念"9·12踩坑事件"。 cd /home/mindsporegit checkout -b 9-12 而后参照前人的经验教训开始批改本地文件。 批改文件本次批改的是两个文件--lenet/train.py和lenet/src/dataset.py。 lenet/src/dataset.py# ……# line 20新增层级transformsimport mindspore.dataset.transforms.vision.c_transforms as CV# line 22新增层级transformsfrom mindspore.dataset.transforms.vision import Int# …… lenet/train.py# ……# 正文line 32和line34# from mindspore.common import set_seed# set_seed(1)# line 55新增设置is_grad=falsenet_loss = nn.SoftmaxCrossEntropyWithLogits(sparse=True, reduction="mean", is_grad=False)# …… ...

September 17, 2020 · 1 min · jiezi

关于深度学习:读书笔记之普罗普故事形态学

对于作者弗拉基米尔·普罗普是苏联的一位文学结构主义学者,出生于俄罗斯圣彼得堡,其最重要的代表作品为《故事形态学》,其余还有《神奇故事的历史本源》、《俄罗斯故事论》。 对于本书第一版发行于1928年。“故事形态学”同时也是作者创立的一种针对故事学的钻研办法,其办法的重点在于考查“神奇故事”这种民间文学的状态法则与法令。 依据对阿法纳西耶夫故事集里100个俄罗斯神奇故事所做的状态比拟剖析,从中发现了神奇故事的构造因素,31种性能项和7种角色口头圈。 核心内容性能性能的定义性能指的是从其对于口头过程意义角度定义角色行为。 性能的基本原理:角色性能充当了故事的稳固不变因素,它们不依赖于由谁来实现以及怎么实现。它们形成了故事的根本组成部分。神奇故事已知的性能项是无限的。性能项的排列程序永远是同一的。所有的神奇故事按其形成都是同一类型。31种性能项:一位家庭成员离家外出(外出)。对主人公下一道禁令(禁止)。突破禁令(破禁)。对头试图剌探音讯(打探)。对头获知其受害者的信息(获悉)。对头希图坑骗其受害者,以把握他或他的财物(设圈套)。受害者受骗并无心中帮忙了敌人(协同)。对头给一个家庭成员带来危害或损失(加害)。劫难或缺失被告知,向主人公提出申请或收回命令,差遣他或容许他登程(调解)。寻找者应允或决定镇压(最后的镇压)。主人公离家(登程)。主人公经受考验,受到盘问,蒙受攻打等等,以此为他取得魔法或相助者做铺垫(赠与者的第一项性能)。主人公对将来赠与者的口头做出反馈(主人公的反馈)。宝物落入主人公的把握之中(宝物的提供、取得)。主人公转移,他被送到或被引领到所寻之物的所在之处(在两国之间的空间挪动)。主人公与对头正面交锋(交锋)。给主人公做标记(打印记)。对头被战胜(战败)。最后的劫难或缺失被打消(劫难或缺失的打消)。主人公归来(归来)。主人公蒙受追捕(追捕)。主人公从追捕中获救(获救)。主人公以让人认不出的风貌回到家中或达到另一个国家(不被觉察的到达)。假胃主人公提出非分要求(非分要求)。给主人公出难题(难题)。难题被解答(解答)。主人公被认出(认出)。假胃主人公或对头被揭发(揭发)。主人公面目全非(摇身一变)。敌人受到惩办(惩办)。主人公成婚并加冕为王(举办婚礼)。异化(一个性能项具备双重状态意义的几种情景)异化指不同的性能项用齐全一样的形式实现。 所有导致寻找的难题当视为性能项B(调解)。所有导致获取宝物的难题当视为性能项(测试)。所有其余的难题当视为性能项(工作)。例子: 测试:伊万跟老妖婆要一匹马。她让他从一群截然不同的马中挑一匹最好的。他挑的很准,而后把马带走了。 工作:主人公想取水妖的女儿。水妖要求他从12个截然不同的姑娘中把本人的未婚妻挑出来。 一个性能项具备双重状态意义例子: 公爵离家时,禁止妻子走出家门。到她这儿来了“一个女人,看起来是那么纯朴可亲!她说道:‘你很寂寞吧?你哪怕朝人世间看一眼呢!哪怕去花园里走走呢!’”诸如此类(加害者的劝诱r')。公爵夫人去了花园里。她就这样承受了加害者的劝诱(g ),同时突破了禁令(b')。 角色角色标记及其意义角色的名称和标记是故事的可变因素。标记指的是人物所有内部特点的总和:他们的年龄、性别、情况、外貌、外貌的特色等。 7种角色口头圈:对头(加害者)的口头圈。它包含:加害行为(A),作战或与主人公争斗的其余模式(B) ,追捕(Ip)。赠与者(提供者)的口头圈。它包含:筹备转交宝物(I) ,将宝物提供给主人公(Z)。相助者的口头圈。它包含:主人公的空间挪动(R) ,打消劫难或缺失(JI) ,从追捕中救出(Cn) ,解答难题(P),主人公摇身一变(T)。公主(要找的人物)及其父王的口头圈。它包含:出难题(3) ,打印记(K) ,揭发(O) ,认出(Y) ,惩办第二个加害者(H) ,婚礼(C),公主与其父王无奈依照性能准确地截然分清界线。差遣者的口头圈,包含的只有差遣(承前启后的环节,B)。主人公的口头圈。出发去寻找(C↑),对赠与者要求的反馈(T),婚礼(C*),第-一个性能项(C↑)对于充当寻找者的主人公是典型的,作为牺牲者的主人公要实现的只是其余的事件了。混充主人公的口头圈也包含出发去寻找(C↑),对赠与者要求的反馈,总是负面的(neg),还有,作为一个专门的性能项一欺骗性的图谋(中)。除了7种角色口头圈外,其余还有专门起连接作用的人物(告状者、告密者、诽谤者),以及专门用于性能项w的反叛者。 如何依照单个的故事人物排列上述几个圈子?这里可能会有三种情景: 口头圈与人物精确对应。一个人物兼涉几个口头圈。一个口头圈散布几个人物身上。新角色进人口头过程的几种形式对头(加害者)在口头过程中出场了两次。第一次他是忽然呈现的,从其余中央(飞来、从天而降等等),但随后就隐没了。第二次他是作为被寻找到的人物进入故事,个别是有人引路。 赠与者是偶尔相遇,最常见的是在林中(小木屋),或者是在野外、在路上、在街头。 神奇的相助者是作为礼物被引入。 差遣者、主人公、混充主人公,还有公主都被纳入初始情境中。 更多内容问题的历史当数理迷信曾经领有严整的分类法、为学界认可的对立术语零碎、薪火相传不断完善的钻研办法时,咱们则没有这所有。 按类别分类文特《民众心理》分类:(1)神话寓言故事。(2)纯正的神奇故事。(3)生物的故事和寓言。(4)纯正的动物寓言。(5)起源故事。(6)滑稽的故事和寓言。(7)道德寓言。 有以下问题:寓言(这个术语在7类中呈现了5次)是一个模式领域。文特用它来指什么并不分明。“ 滑稽”故事这个术语让人齐全弄不懂,因为这样的故事能够被视为英雄式的,也能够被视为悲剧式的。接下去还要问的是:“纯正的动物寓言”与“道德寓言”之间有什么区别?为什么“纯正的寓言”不是“道德的”寓言?反之亦然。 按情节分类阿尔奈-汤普森分类法,简称AT分类法,是一套童话分类的办法。 该索引也存在着一系列致命缺点:作为一种分类法,它未能幸免沃尔科夫犯过的谬误。其根本类别如下:一、动物故事。二、本格故事。三、笑话。咱们轻而易举地就能辨认出通过面目全非的以前的办法(有点奇怪的是,动物故事仿佛不算本格故事)。接下去不禁要问:要做到泰然地应用笑话这个概念,咱们是否对笑话这一-概念有过足够精确钻研(如文特所说的寓言)?咱们不打算进人这种分类法的细节,只是限于议论被其划为一个亚类的神奇故事。顺便要提一下的是:引入亚类这是阿尔奈的一大功绩,因为划分出类(po1bi)、型(BHIbI)和变体( pa3HOBHIHOcTn)在他之前还未曾有人做过。照阿尔奈看来,神奇故事包含以下领域:1.神奇的对手,2.神奇的丈夫(妻子),3.神奇的难题,4.神奇的相助者,5.神奇的物件,6.神奇的力量或技能,7.其余神奇的母题。对于这个分类法,简直能够一字不差地反复对沃尔科夫分类法的诘难。例如,如何处理其中有神奇的相助者解决神奇的难题的故事?这种情景颇为常见;还有,如何处理其中神奇的妻子就是神奇的相助者的故事? 故事的若干其余成分三重化三重化是民间故事中的一种特地景象,即同样性质的因素在故事中以不同样貌重复反复三次。三重化的对象既能够是故事的一个回合,一个性能项甚至一个细节(王子骑马通过了一座铜山,又通过一座银山,最初达到了一座金山)。三重化的具体模式和起源普罗普并未在本人的著述中过多阐述。 原因原因既指起因,也指引发人物这种那种行为的目标。他们属于故事中最不固定和最不稳固的成分。 故事两头局部人物的大部分行为天然能够用情节来阐明,只有作为故事第一个基本功能项的加害行为须要补充点原因。 故事作为一个整体回合从形态学的角度说,任何一个始于加害行为(A)或缺失(a)、通过两头的一些性能项之后终结于的性能项有时是奖赏(Z)取得所寻之物或者就是打消劫难(JI)、从追捕中获救(Cm)等等。这样的过程咱们称之为一个回合。每一次蒙受新的加害或损失,每一个新的缺失,都发明出一个新的回合。 个案剖析抉择《天鹅》做为例子 内容性能有这么一对老夫妻;他们有一个女儿和一个年幼的儿子。1.初始情境(i)。“女儿呀,女儿呀”,妈妈说,“咱们去干活啦,咱们会给你带个面包圈,给你缝条花裙子,给你买条小手帕。不过,你得听话,看好你弟弟,别出家门”。2.以允诺强化的禁令()。大人们走了,3.前辈离家()。可女儿把对她的 叮咛忘在了脑后,4.阐明突破禁令的理由(Mor)。她把弟弟放在窗下的草地上,本人跑到外边玩去了。5.破禁(b)。飞来了一群天鹅,它们抓起小男孩,驮在翅膀上飞走了。6.加害()。小姑娘牍到家里,看到弟弟不见了。7.通报劫难的陈迹(B)。她大叫一声,东一头西一头地乱转-—-弟弟就是没了。她大声喊叫,眼泪哗哗地,哭诉着爹娘会怎么样惩办她,—弟弟就是不应声。8.具体阐明;三重化的陈迹。她跑到了空阔的原野里。9.离家去寻找(↑)。天鹅在远处一闪就隐没在黑黝黝的树林前面。天鹅早就有坏名声,搞过很多偷孩子恶作剧。这小姑娘猜出是天鹉带走了她弟弟,她立即去追赶它们。10.因为这个故事里没有通报劫难的差遣者,这个角色稍后转移到了窈取者身上,他一闪而过通报了劫难的性质(连接 ) 她跑呀,跑呀,眼前呈现了一个炉子"。11.考验者呈现(其呈现的经典模式是偶尔相遇)“炉子炉子通知我,天鹅飞到哪里去了?”---“你吃一块我烤以的黑麦馅饼我就通知你。”12.与考验者的对话(极简略)及考验()“哟,咱们家不吃麦子做的货色。”13.答复傲慢无礼二主人公的否定性反馈(没经住考验(neg))。(接着碰到了苹果树和小河。相似的提议和相似的高傲回复两次。三次都没有奖赏。)14.三重化。母题=neg再反复两次。三次都没有奖赏(Zneg)。于是她在原野里乱跑,在树林里乱转,幸好碰到了一只刺猬15.感恩的相助者呈现。她想踢开它16.相助者不申请手下留情的无助状态(Zneg)她怕被刺伤”,问道:17.留情()“剌猬剌猬你看见了吗?天鹅飞到哪儿去了?”18.对话(连接成分)。刺猬指导说:“就朝那边飞走了。”19.感恩的刺猬指路(Z=R)。她跑呀跑一呈现了一座鸡足小木屋,屋子还在转动着。20.对头—加害者的住所。老妖婆呆在小木屋里,一张瘦巴巴的脸,有一只黏土捏的脚?'。21.对头的表面。弟弟就坐在凳子上”,22.所寻找的人物呈现了。他手里摆弄着几只金苹果”。23.金子—…-是所寻找人物身上固有的细节之一。标志物姐姐看见弟弟后,轻轻走过来,一把抓起他带着就跑了。24、使用计策或力量达到目标() 25.没有说进去,但意味着归来(↓)。天鹉跟在前面飞着追上来﹔这些坏蛋赶上来喊:“往哪里跑?”26.飞着追捕()。还是原来的那些人物再次让他们禁受三次考验,但侧面的答复使他们失去了考验者本人将其从追捕中救出的帮忙。小河、苹果树和别的树掩护了小姑娘”。故事以小姑娘回到家中完结。27.同样的考验再呈现三次(),主人公这一次的反馈是侧面的(),考验者供主人公驱使(Z),从追捕中获救因而而得以实现()读书目标读这本书的目标,是心愿通过理解故事形态学,对我最近钻研的计算机程序叙事生成能有所帮忙。因为没有找到这本书中100个俄罗斯神奇故事的资料,也因为本人对机器学习方面的常识是懂非懂,目前只开发了原型,严格来说没有最终实现通过程序生成叙事文本。原型网址www.aidaibi.net

September 15, 2020 · 1 min · jiezi

关于深度学习:HOI任务PPDM论文阅读精度

摘要作者提出单阶段的HOI检测办法,体现SOTA。这是第一个实时的HOI检测办法。传统的的HOI检测办法由两个阶段组成,然而它的有效性和效率受到程序和独立架构的限度。文中作者提出PPDM的HOI检测框架。在PPDM中,HOI被定义为一个point triplet<human point,interaction point,object point>,其中human point和object point是检测框的核心,interaction point是human point和object point的中点。 PPDM蕴含了两个并行分支,也就是点检测分支和点匹配分支。其中点检测分支预测是三个点,点匹配分支预测从interaction point到对应的human point和 object point的偏移。如果human point和object point是来自同一个interaction point,则认为它们是匹配的。 在作者新鲜的并行框架中,interaction point 隐式地为人和物的检测提供了上下文和正则化。克制孤立的检测boxes,因为它不可能造成有意义的HOI triplets(集体了解:人-物候选区独自产生,没有思考到他们之间的分割,这种状况不利于检测,所以要克制),这减少了HOI的检测精度。更何况人和物检测的boxes只是利用在数量无限并过滤过的候选interation point,节俭了大量计算耗费。此外,作者了建设了一个新的数据集HOI—A。 Introduction传统的HOI办法由两个阶段组成。第一个阶段是人-物候选区检测。这阶段能够失去很多大量的人-物对候选区(M×N)。第二阶段是预测每个人-物候选区的交互。这种两个阶段办法的有效性和效率受到程序性和独立性的限度。候选区的产生阶段齐全基于对象检测的置信度。每个人/物候选去独自产生。组合两个候选区造成有意义的HOItriplet的可能性在第二阶段并没有思考(集体了解:就是摘要中所说到的受到到独立架构的限度)。所以,产生的人-物候选区可能品质较低,并且在第二阶段,所有人-物候选区须要线性扫描,开销很大。所以作者认为须要非程序性的和高耦合度的框架。 PPDM的第一个分支预计中心点(interation,human和object point),对应大小,和两个部分偏移(human和object point)的点检测。因为interaction point能够认为给人和物的检测提供上下文信息,也就是说,对interation point的预计能够隐式地加强人和物的检测(集体了解:交互点的预计须要减少感触野,因为须要人和物的信息,所以感触野的增大也有利用为人和物的检测)。第二个分支是点匹配,预计interation point到human point和object point的偏移。 作者奉献有三:(1)把HOI检测工作视为点检测和点匹配问题,并提出单阶段的PPDM。(2)PPDM是第一个在HOCI—DET和HOI—A benchmark中达到实时并体现SOTA的的HOI检测办法。(3)HOI-A Related Work略略略.... Parallel point dection and matching3.1 Overview 图3.作者首先利用keg-point heatmap预测网络来提取提取特色,如Hourglass-104 or DLA-34。a) Point Detection Branch:基于提取的视觉特色,作者利用三个卷积模块来预测heatmap中的交互点,人中心点和物中心点,此外,回归的2-D size和人和物的部分偏移来产生最初的box。b) Point Matching Branch:此分支的第一步是别离回归从交互点到人中心点到物中心点的偏移。基于预测的点和位移,第二步是每一个交互点匹配人中心点和物中心点来产生一系列的tirplets。 3.2 Point Detection图3中输出图像是,通过特征提取器产生的特色。人核心示意为,其对应的大小为,部分偏移量为,补救输入步幅引起的离散化误差。GT人中心点对应的低分辨率点(heatmap产生)为的向下取正。 Point location loss. 间接检测点比拟艰难,所以作者应用关键点预计办法将点映射到高斯核热图中。所以点检测转换为heatmap预计工作。三个GT低分辨率的点别离映射到三个高斯heatmap,包含人中心点heatmap ,物中心点heatmap ,交互点heatmap ,其中 和是多通道的。在特色映射上,别离增加三个卷积网络来产生三个heatmap。loss 函数为: ...

September 13, 2020 · 1 min · jiezi

关于深度学习:YOLOv4-Darknet-如何于-Docker-编译及训练-COCO-子集

YOLO 算法是十分驰名的指标检测算法。从其全称 You Only Look Once: Unified, Real-Time Object Detection ,能够看出它的个性: Look Once: one-stage (one-shot object detectors) 算法,把指标检测的两个工作分类和定位一步实现。Unified: 对立的架构,提供 end-to-end 的训练和预测。Real-Time: 实时性,初代论文给出的指标 FPS 45 , mAP 63.4 。YOLOv4: Optimal Speed and Accuracy of Object Detection ,于往年 4 月颁布,采纳了很多近些年 CNN 畛域优良的优化技巧。其均衡了精度与速度,目前在实时指标检测算法中精度是最高的。 论文地址: YOLO: https://arxiv.org/abs/1506.02640YOLO v4: https://arxiv.org/abs/2004.10934源码地址: YOLO: https://github.com/pjreddie/d...YOLO v4: https://github.com/AlexeyAB/d...本文将介绍 YOLOv4 官网 Darknet 实现,如何于 Docker 编译应用。以及从 MS COCO 2017 数据集中怎么选出局部物体,训练出模型。 次要内容有: 筹备 Docker 镜像筹备 COCO 数据集用预训练模型进行推断筹备 COCO 数据子集训练本人的模型并推断参考内容筹备 Docker 镜像首先,筹备 Docker ,请见:Docker: Nvidia Driver, Nvidia Docker 举荐装置步骤 。 ...

September 11, 2020 · 4 min · jiezi

关于深度学习:PaddlePaddleAI识虫目标检测调优分享与解析心得

AI识虫较量 明确任务类型:指标检测给出图像,确定图像中虫子的地位和类别、置信度得分理解数据集:数据量:2183张图片(训练集1693张、验证集245张、测试集245张)数据规模:中等(防止网络过拟合、数据加强)数据内容:![样本](/img/bVbL6CC)工作级别:背景繁多,简略数据处理图像增强图像增强的益处:减少数据量,人为制作不同场景下的图像,让网络习得更多特色,进步模型的泛化能力。因为AI识虫的数据集不大,思考图像增强。图像增强的罕用办法:1. 翻转(程度+竖直)2. 减少噪声3. 旋转4. 裁剪5. 缩放/拉伸6. 含糊(均值含糊、中值含糊)7. 改亮度8. 对比度9. 饱和度10. 扭转色彩空间11. 像素值的随机抖动12. mixup(毁坏原始图像中的上下文关系,网络学习更鲁棒的特色)13. GAN生成图像罕用于数据加强的库:Augmentor、ImageEnhance等归一化、标准化模型设计指标检测网络: 一阶段是指预测的同时做分类。如YOLO-V3。两阶段是指:先提取图像中可能存在指标的潜在区域,不关注存在什么样的指标,存在即可;再对指标进行分类,调整预测框地位。如Faster R-CNN。YOLO-V3的Backbone是DarkNet,Faster R-CNN的Backbone能够是VGG, ResNet等;Faster R-CNN的RPN网络工作原理,是在原始图像上密集滑动采样的形式确定anchor,也就是卷积核中心点对应的预设好长宽的区域是否存在指标。

August 29, 2020 · 1 min · jiezi

关于深度学习:怎么把卷积神经网络和机械振动信号结合进行故障诊断

怎么把卷积神经网络和机械振动信号联合?做故障模式识别的。? - amaze2的答复 - 知乎https://www.zhihu.com/question/279888242/answer/1329908863 当初这方面的文献挺多的。 安利一个,深度残差膨胀网络就是一种卷积神经网络,额定退出了软阈值函数,适宜含噪机械振动信号的特征提取,以进步故障诊断准确率。 [1] Deep Residual Shrinkage Networks for Fault Diagnosis https://ieeexplore.ieee.org/document/8850096 [2] 深度残差膨胀网络:从删除冗余特色时的灵便水平进行探讨 https://my.oschina.net/u/4505302/blog/3230965 [3] 10分钟看懂深度残差膨胀网络 https://www.cnblogs.com/uizhi/p/12239690.html

August 29, 2020 · 1 min · jiezi

关于深度学习:深度学习深度残差收缩网络

本文探讨了一种新的深度学习算法——深度残差膨胀网络(Deep Residual Shrinkage Network),退出了笔者本人的了解。 1.深度残差膨胀网络的相干根底从名字就可能看出,深度残差膨胀网络是深度残差网络的一种改良办法。其特色是“膨胀”,在这里指的是软阈值化,而软阈值化简直是当初信号降噪算法的必备步骤。 因而,深度残差膨胀网络是一种面向强噪数据的深度学习算法,是信号处理里的经典内容和深度学习、注意力机制的又一种联合。 深度残差膨胀网络的根本模块如下图(a)所示,通过一个小型子网络,学习失去一组阈值,而后进行特色的软阈值化。同时,该模块还退出了恒等门路,以升高模型训练难度。深度残差膨胀网络的整体构造如下图(b)所示,与通常的深度残差网络是一样的。 那么为何要进行膨胀呢?膨胀有什么益处呢?本文尝试从删除冗余特色的灵便度的角度,开展了探讨。 2.膨胀(这里指软阈值化)不理解软阈值化的同学能够去搜一下Soft Threshlding,在谷歌学术上会搜到这一篇:DL Donoho. De-noising by soft-thresholding[J]. IEEE transactions on information theory, 1995. De-noising by soft-thresholding这一篇论文,目前的援用次数是12893次。能够看进去,软阈值化是一种经典的办法,尤其在信号降噪方面是十分罕用的。 软阈值函数的式子如下: 其中t是阈值,是一个负数。从公式能够看出,软阈值化将[-t,t]区间内的特色置为0,将大于t的特色减t,将小于-t的特色加t。 如果用图片示意软阈值函数,就如下图所示: 3.膨胀(这里指软阈值化)与ReLU激活函数的比照软阈值化在深度残差膨胀网络中是作为非线性映射,而当初深度学习最罕用的非线性映射是ReLU激活函数。所以上面进行了两者的比照。 3.1 独特长处咱们首先剖析一下,膨胀(这里指软阈值化)和ReLU激活函数的独特长处。 首先,软阈值化和ReLU都能够将局部区间的特色置为0,相当于删除局部特色/信息。(可了解为,后面的层将冗余特色转换到某个取值区间,而后用软阈值化或ReLU进行删除) 其次,软阈值化和ReLU的梯度都要么为0,要么为1,都有利于梯度的反向流传。 3.2 膨胀(这里指软阈值化)与ReLU的初步比照相较于ReLU,软阈值化可能更加灵便地设置“待删除(置为0)”的特色取值区间。 咱们首先独立地看ReLU,以下图为例。ReLU将低于0的特色,全副删除(置为0);大于0的特色,全副保留(放弃不变)。 软阈值函数呢?它将某个区间,也就是[-阈值,阈值]这一区间内的特色删除(置为零);将这个区间之外的局部,包含大于阈值和小于-阈值的局部,保留下来(尽管朝向0进行了膨胀)。下图展现了阈值t=10的状况: 在深度残差膨胀网络中,阈值是能够通过注意力机制主动设置的。也就是说,[-阈值,阈值]的区间,是能够依据样本本身状况、主动调整的。 3.3 膨胀(这里指软阈值化)与ReLU的深层比照如果咱们把ReLU和之前(卷积层或者批标准化外面的)偏置b,放在一起看呢?那么ReLU可能删除的特色取值空间,是能够变动的。比如说,将偏置b和ReLU作为一个整体的话,函数模式就变成了max(x+b,0)或者ReLU(x+b)。当偏置b为负数的时候,特色x会沿y轴向上平移,而后再将负特色置为0。例如,当b=20的时候,如下图所示: 或者当偏置b为正数的时候,特色x会沿y轴向下平移,而后再将负特色置为0。例如,当b=-20的时候,如下图所示: 接下来,咱们来探讨软阈值函数。将偏置b和软阈值化作为一个整体的话,函数模式就变成了sign(x+b)•max(abs(x+b)-t,0)。当偏置b为负数的时候,首先特色x会沿y轴向上平移,而后再将零左近的特色置为0。例如,当偏置b=20、阈值t=10的时候,如下图所示: 当偏置b为负时,特色x会沿y轴向下平移,而后再将零左近的特色置为0。例如,当偏置b=-20、阈值t=10的时候,如下图所示: 在深度残差膨胀网络中,因为偏置b和阈值t都是能够训练失去的参数,所以当偏置b和阈值t取值适合的时候,软阈值化是能够实现与ReLU雷同的性能的。也就是,在现有的这些特色的[最小值,最大值]的范畴内(不思考无穷的状况,个别咱们采集的数据不会有无穷),将低于某个值的特色全置为0,或者将高于某个值的特色全置为0。例如,在下图的数据中,如果咱们将偏置b设置为20,将阈值t也设置为20,就将所有小于0的特色全副置为0了。因为没有小于-40的特色,所以“偏置+软阈值化”就相当于实现了ReLU的性能(将低于0的特色置为0)。 当然,因为[-阈值,阈值]区间和偏置b都是可调的,也能够是这样(b=40,t=20)(是不是和“偏置+ReLU”很类似): 然而,反过来的话,不论“偏置+ReLU”怎么组合,都无奈实现下图中软阈值函数能够实现的性能。也就是,“偏置+ReLU”无奈将某个区间内特色的置为0,并且同时保留大于上界和小于下界的特色。 从这个角度看的话,当和前一层的偏置放在一起看的时候,软阈值化比ReLU可能更加灵便地设置“待删除特色的取值区间”。 4.注意力机制的加持更重要地,深度残差膨胀网络采纳了注意力机制(相似于Squeeze-and-Excitation Network)主动设置阈值,防止了人工设置阈值的麻烦。(人工设置阈值始终是一个大麻烦,而深度残差膨胀网络用注意力机制解决了这个大麻烦)。 在注意力机制中,深度残差膨胀网络采纳了非凡的网络结构,保障了阈值不仅为负数,而且不会太大。因为如果阈值过大的话,就可能呈现下图的状况,也就是所有特色都被置为0了。深度残差膨胀网络的阈值,其实是(特色图的绝对值的平均值)×(0到1之间的系数),很好地防止了阈值太大的状况。 同时,深度残差膨胀网络的阈值,是在注意力机制下,依据每个样本的状况,独自设置的。也就是,每个样本,都有本人的一组独特的阈值。因而,深度残差膨胀网络实用于各个样本中噪声含量不同的状况。 5.深度残差膨胀网络只实用于强噪声的数据吗?咱们在应用深度残差膨胀网络的时候,仿佛不须要思考数据中是否真的含有很多噪声。换言之,深度残差膨胀网络应该能够用于弱噪声的数据。 这是因为,深度残差膨胀网络中的阈值,是依据样本本身的状况,通过一个小型子网络主动取得的。如果样本所含噪声很少,那么阈值能够被主动设置得很低(靠近于0),从而“软阈值化”就进化成了“间接相等”。在这种状况下,软阈值化,就相当于不存在了。 6.恒等连贯升高了训练难度相较于一般的残差网络,深度残差膨胀网络的构造较为简单,所以恒等门路是有必要存在的。 ...

August 29, 2020 · 5 min · jiezi

关于深度学习:深度学习是怎么回事有什么用

现在,提到人工智能,简直无人不谈深度学习,仿佛不必深度学习就不好意思谈人工智能。明天咱们就用几分钟的工夫来讲一下深度学习到底是什么,有什么用。 首先深度学习并不等于人工智能,它只是一种算法,和一般的机器学习算法一样,是解决问题的一种办法。真要辨别起来,人工智能、机器学习和深度学习,三者大略是下图这种关系。人工智能是一个很大的概念,机器学习是其中的一个子集,而深度学习又是机器学习的一个子集。 ![]() 其次,深度学习也不是什么新技术,深度学习的概念源于人工神经网络的钻研,早在上世纪 40 年代,通用计算机问世之前,科学家就提出了人工神经网络的概念。而那个时候的计算机刚刚开始倒退,速度十分慢,最简略的网络也得数天能力训练结束,效率极其低下,因而在接下来的十几年都没有被大量应用。近些年,随着算力的晋升,GPU、TPU 的利用,神经网络失去了重大倒退。随同着 AlphaGo 的胜利,深度学习也一战成名。 其实,同机器学习办法一样,深度学习办法也有监督学习与无监督学习之分。例如,卷积神经网络(Convolutional Neural Networks,简称 CNN)就是一种深度的监督学习下的机器学习模型,而深度相信网络(Deep Belief Nets,简称 DBN)就是一种无监督学习下的机器学习模型。深度学习的”深度“是指从”输出层“到”输入层“所经验档次的数目,即”暗藏层“的层数,层数越多,深度也越深。 所以越是简单的抉择问题,越须要深度的档次多。除了层数多外,每层”神经元“-小圆圈的数目也要多。例如,AlphaGo 的策略网络是 13 层,每一层的神经元数量为 192 个。深度学习的本质,是通过构建具备很多隐层的机器学习模型和海量的训练数据,来学习更有用的特色,从而最终晋升分类或预测的准确性。 ![]() 深度学习提出了一种让计算机主动学习出模式特色的办法,并将特色学习融入到了建设模型的过程中,从而缩小了人为设计特色造成的不齐备性。然而,在无限数据量的利用场景下,深度学习算法不可能对数据的法则进行无偏差的预计。为了达到很好的精度,须要海量数据的撑持。另外,深度学习中图模型的复杂化导致算法的工夫复杂度急剧晋升,为了保障算法的实时性,须要更高的并行编程技巧和更多更好的硬件反对。 在利用方面,尽管深度学习被吵得炽热,然而也并不是无所不能。目前深度学习次要利用在图像识别,语音辨认等畛域。而在很多商业场景,例如金融数据,它的成果并不太好,很容易呈现过拟合,这在机器学习中是十分致命的问题,即在训练数据上体现的很好,然而泛化能力却很差,在未见到的数据上,体现的很差。深度学习模型很容易受到数据中难以觉察的扰动,这些扰动会坑骗模型做出谬误的预测或分类,而在很多场景的数据中是存在着大量乐音的。另外深度学习的过程是一个黑箱子,无法解释其做出的决策,这也导致在某些场景难以利用,比方一个银行审批贷款的深度学习零碎,在回绝了客户的贷款申请之后,而无奈给出正当的解释,那么被主动回绝了贷款的用户天然无奈承受。深度学习模型须要海量的数据撑持,算法也比较复杂,模型的训练速度很慢,通常要几天甚至数周,同时还会消耗大量的计算资源,这也限度了它在各行业的广泛应用。 因而,深度学习只是机器学习的一种,和其它算法一样,有本人的短处也有有余。在理论利用中依据业务场景和问题抉择适合的算法能力解决问题的无效办法,而不是看谁用了深度学习就去景仰。在一些主动建模产品中,个别也会集成深度学习算法,用户只有把数据丢进去,建模工具就会主动预处理数据,抉择最优算法建好模型,应用起来非常简单不便。 对进一步数据挖掘和 AI 技术感兴趣的同学还能够搜寻“乾学院”,下面有面向小白的零根底“数据挖掘”收费课程,或者间接点上面的链接也能够:http://www.raqsoft.com.cn/wx/course-data-mining.html

August 28, 2020 · 1 min · jiezi

关于深度学习:WomanmancameraTV如何做一个完整的深度学习应用

作者:LeanCloud 江宏 前段时间 Trump 的这个采访成为社交媒体焦点的时候,我正好在温习一些 neural network 的资料,于是想到能够用一些新的开源工具做一个辨认 woman、man、camera、TV 的残缺利用试试。这个例子足够小,能够在很短时间实现,很适宜用来阐明如何做一个残缺的深度学习利用。实现的利用部署在 https://trump-sim.jishuq.com (LeanCloud的一个云引擎实例上)。 做这个利用分为三步:先用一些图片实现模型的训练,而后把模型导出,做一个后端的 API 用来辨认图片,再做一个前端用来上传图片和显示后果。 筹备训练数据Jupyter notebook 是个很风行的用来做数据分析和机器学习的交互式环境,它能够把 Markdown 文档和 Python 代码放在一个笔记本里,也能够以图表、图片等敌对的形式显示代码的运行后果。这里也会用到 FastAI,它是一个基于 PyTorch,提供了很多网络和文件批量操作便捷接口的开源库。这篇文章就是在 Jupyter notebook 里写的,所以你能够间接 clone 这个 repo、装置依赖、启动 Jupyter notebook。 git clone https://github.com/hjiang/trump-sim-notebookpip install -r requirements.txtjupyter notebook咱们还会用到 Bing image search API 来获取做训练的图片,你须要本人注册并申请一个收费的 API KEY。当然,因为搜寻到的图片是在很多第三方网站上的,所以你须要能无障碍地拜访中国之外的网站。????♂️ 把你的 Bing image search API key 放在我的项目目录下的 .env 里,免得在代码里泄露进来: BING_SEARCH_API_KEY=XXXXXXXX....而后在 Python 里读进来 import osfrom dotenv import load_dotenvload_dotenv()key = os.getenv('BING_SEARCH_API_KEY')写一个函数用来搜寻图片: from azure.cognitiveservices.search.imagesearch import ImageSearchClientfrom msrest.authentication import CognitiveServicesCredentialsfrom fastcore.foundation import Ldef search_images_bing(key, term, min_sz=128): client = ImageSearchClient('https://api.cognitive.microsoft.com', CognitiveServicesCredentials(key)) return L(client.images.search(query=term, count=150, min_height=min_sz, min_width=min_sz).value)理论验证一下, 搜一张 Artemis 的图片: ...

August 27, 2020 · 3 min · jiezi

关于深度学习:基于骨架的动作识别时空图路由方法

Spatio-Temporal Graph Routing for Skeleton-Based Action Recognitionpaper: https://www.aaai.org/ojs/index.php/AAAI/article/view/4875/4748基于骨架的动作辨认时空图路由办法现有的许多办法通常依赖于固定的骨架构造物理连通进行辨认,这不能很好地捕捉到骨架关节之间的外在高阶相关性。本文提出了一种新的基于骨架的动作辨认时空图路由(STGR)计划,该计划自适应地学习物理上拆散的骨架关节的外在高阶连通性关系。具体而言,该计划由空间图路由器(SGR)和工夫图路由器(TGR)两局部组成。SGR的指标是基于空间维度上的子群聚类来发现关节之间的连通关系,而TGR则通过测量工夫关节节点轨迹之间的关联度来摸索构造信息。 在简单的场景中捕获多变的人体构造是一个挑战,带来了三方面的问题:1)骨架自身是可变的,并且依赖于特定的数据集,例如NTURGB+D中的25个关节而Kinetics中有18个关节,导致对实在人体骨骼的混同;2)关节连贯的高度不平衡性。当躯干关节适度平滑时(使得其学到的特色没有差异性),肢体关节可能依然处于欠平滑状态,这给两个肢体关节的特色共享带来极大艰难;3)对每个样本利用全局图构造,提出了“一刀切”的问题,这可能是次优的。 在固定图的状况下,数据流被限度在预约义的条目中,这大大降低了模型的灵活性。 相似于计算机网络,咱们将其称为“动态路由”。相比之下,咱们更重视寻求更灵便的连贯计划,它针对特定的样本自适应地学习骨架关节之间固有的高阶连通性,称为“动静路由”。 奉献能够总结如下: • 咱们提出了一种新的时空图路由计划,用于利用骨骼关节之间固有的高阶关系。 该模块与分类网络联结学习,更好地匹配动作辨认工作。 • 咱们在图节点上提出了感触野,证实了以前模型的瓶颈是不同节点的感触野的不均衡,从而阐明了该时空图路由计划的有效性。

August 21, 2020 · 1 min · jiezi

关于深度学习:无磁钢筋螺纹钢板

到底哪些地方会应用无磁钢筋、无磁螺纹、无磁钢板?又为什么这些中央要用无磁资料?荫蔽工程、非凡基建、码头。这些中央罕用无磁钢。舰艇码头还要常常对场地进行消磁解决。这些中央必须低磁化,如果不是低磁性的,那周边磁场值就会发生变化。选用优良的低磁资料十分重要,罕用的低磁钢有:45Mn17AL3、917低磁钢、40Mn18Cr4、30Mn20AL3、50Mn18Cr5... .. .无磁钢在基建浇灌时,必须选用不含铁磁物资的水泥、黄沙、石子(重要)。咱们应用的无磁钢资料导磁率不会被周边磁场环境所磁化、导磁率稳固。任意磁场作用下资料其磁导率都不会发生变化。为什么要用无磁钢铁,你晓得的。无磁钢、上海宝山。

August 21, 2020 · 1 min · jiezi

关于深度学习:20CrMnTiH

20CrMnTiH钢是目前国内用于制作各种工程机械、汽车、农用车等传动齿轮、齿轮轴资料中使用量最大的一个齿轮钢种,该钢种也是咱们优钢生产的主导种类。家喻户晓,齿轮在工作过程中要接受交变载荷、冲击载荷和磨损,对20CrMnTiH钢的性能要求高、品质要求严,因而,从钢种应用工艺性特点和可加工性要求两方面登程,一直进步20CrMnTiH钢的品质控制能力。咱们利用热模仿试验机钻研了轧后穿水冷却过程中奥氏体晶粒尺寸和状态的变动,以及对组织转变的影响机理。后果,20CrMnTiH终轧温度≥950℃的轧材,穿水对组织转变的作用为克制再结晶晶粒的粗化,减少铁素体相变的形核地位,促成铁素体相变,从而克制贝氏体相变。对于终轧温度≤900℃的轧材,穿水对组织转变的作用为克制轧材的再结晶,保留形变储能,进步铁素体形核率,促成铁素体相变,从而克制贝氏体相变。通过以上两种机制,在850~1000℃轧后穿水都能显著促成铁素体相变,克制 20CrMnTiH 贝氏体相变。

August 14, 2020 · 1 min · jiezi

关于深度学习:22课时19大主题CS-231n进阶版课程视频上线

起源|机器之心 讲 CS231n 的 Justin Johnson 在密歇根大学推出了一套计算机视觉的进阶课程。计算机视觉在日常生活中曾经无处不在。从搜索引擎、图像了解、地图、医疗、无人机、主动驾驶到各类手机 app,都离不开计算机视觉。这些利用中有许多像图像分类和指标检测这样的视觉辨认工作,而神经网络方面的停顿大大提高了视觉识别系统的性能。 来自密歇根大学的 Justin Johnson 在 2019 年秋季推出了一套新的课程,该课程深入探讨了基于神经网络的计算机视觉深度学习办法的细节。这一课程近日已在 YouTube 上凋谢。 课程视频链接: https://www.youtube.com/playlist?list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r B站地址: https://www.bilibili.com/video/BV1TJ411d7b7 课程详情 这套 2019 年秋季的计算机视觉课程名为「Deep Learning for Computer Vision」,课程讲授者是来自密歇根大学的 Justin Johnson。作为斯坦福大学李飞飞传授的学生,Justin Johnson 曾和李飞飞一起讲授斯坦福大学计算机视觉经典课程 CS231n。 Justin Johnson,图源: https://web.eecs.umich.edu/~justincj/。 目前, Justin Johnson 正在密歇根大学负责助理传授,同时他也是 Facebook AI 研究所的客座科学家。 他的钻研趣味次要是计算机视觉和机器学习,钻研波及视觉推理、视觉和语言、图像生成以及应用深度神经网络的 3D 推理。 在「Deep Learning for Computer Vision」课程中,学生能够学习到实现、训练和调试本人的神经网络,并可能具体理解计算机视觉前沿钻研的常识。课程中介绍了学习算法、神经网络架构以及用于训练和微调视觉辨认工作网络的实用工程技巧。 22 个课时、19 个主题、历时 3 个多月 密歇根大学 2019 秋季「Deep Learning for Computer Vision」课程历时 3 个多月,共计 22 个课时,19 个主题。 ...

August 12, 2020 · 1 min · jiezi

关于深度学习:收藏深度学习必读10篇经典算法论文总结

AI博士笔记系列举荐:周志华《机器学习》手推笔记正式开源!可打印版本附pdf下载链接 本文为联盟学习笔记 参加:王博kings,Sophia 本文波及论文已打包,公众号【计算机视觉联盟】后盾回复“9079”获取下载链接!前言计算机视觉是将图像和视频转换成机器可了解的信号的主题。利用这些信号,程序员能够基于这种高级了解来进一步管制机器的行为。在许多计算机视觉工作中,图像分类是最根本的工作之一。它不仅能够用于许多理论产品中,例如Google Photo的标签和AI内容审核,而且还为许多更高级的视觉工作(例如物体检测和视频了解)关上了一扇门。自从深度学习的冲破以来,因为该畛域的疾速变动,初学者常常发现它太蠢笨,无奈学习。与典型的软件工程学科不同,没有很多对于应用DCNN进行图像分类的书籍,而理解该畛域的最佳办法是浏览学术论文。然而要读什么论文?我从哪说起呢?在本文中,我将介绍10篇最佳论文供初学者浏览。通过这些论文,咱们能够看到该畛域是如何倒退的,以及钻研人员如何依据以前的研究成果提出新的想法。然而,即便您曾经在此畛域工作了一段时间,对您进行大范畴整顿依然很有帮忙。 1998年:LeNet梯度学习在于文档辨认中的利用 摘自“ 基于梯度的学习利用于文档辨认” LeNet于1998年推出,为应用卷积神经网络进行将来图像分类钻研奠定了根底。许多经典的CNN技术(例如池化层,齐全连贯的层,填充和激活层)用于提取特色并进行分类。借助均方误差损失性能和20个训练周期,该网络在MNIST测试集上能够达到99.05%的精度。即便通过20年,依然有许多最先进的分类网络总体上遵循这种模式。 2012年:AlexNet深度卷积神经网络的ImageNet分类 摘自“ 具备深度卷积神经网络的ImageNet分类” 只管LeNet获得了不错的问题并显示了CNN的后劲,但因为计算能力和数据量无限,该畛域的倒退停滞了十年。看起来CNN只能解决一些简略的工作,例如数字辨认,然而对于更简单的特色(如人脸和物体),带有SVM分类器的HarrCascade或SIFT特征提取器是更可取的办法。 然而,在2012年ImageNet大规模视觉辨认挑战赛中,Alex Krizhevsky提出了基于CNN的解决方案来应答这一挑战,并将ImageNet测试安装的top-5准确性从73.8%大幅提高到84.7%。他们的办法继承了LeNet的多层CNN想法,然而大大增加了CNN的大小。从上图能够看到,与LeNet的32x32相比,当初的输出为224x224,与LeNet的6相比,许多卷积内核具备192个通道。只管设计变动不大,但参数变动了数百次,但网络的捕捉和示意简单特色的能力也进步了数百倍。为了进行大型模型训练,Alex应用了两个具备3GB RAM的GTX 580 GPU,这创始了GPU训练的先河。同样,应用ReLU非线性也有助于升高计算成本。 除了为网络带来更多参数外,它还通过应用 Dropout层探讨了大型网络带来的过拟合问题 。其部分响应归一化办法尔后并没有取得太大的遍及,然而启发了其余重要的归一化技术(例如BatchNorm)来解决梯度饱和问题。综上所述,AlexNet定义了将来十年的理论分类网络框架: 卷积,ReLu非线性激活,MaxPooling和Dense层的组合。 2014年:VGG超深度卷积网络用于大规模图像识别 来自Quora“ https://www.quora.com/What-is-the-VGG-neural-network” 在应用CNN进行视觉辨认方面获得了巨大成功,整个钻研界都大吃一惊,所有人都开始钻研为什么这种神经网络可能如此杰出地工作。例如,在2013年发表的“可视化和了解卷积网络”中,Matthew Zeiler探讨了CNN如何获取特色并可视化两头示意。忽然之间,每个人都开始意识到CNN自2014年以来就是计算机视觉的将来。在所有间接关注者中,Visual Geometry Group的VGG网络是最吸引眼球的网络。在ImageNet测试仪上,它的top-5准确度达到93.2%,top-1准确度达到了76.3%。 遵循AlexNet的设计,VGG网络有两个次要更新: 1)VGG不仅应用了像AlexNet这样的更宽泛的网络,而且应用了更深的网络。VGG-19具备19个卷积层,而AlexNet中只有5个。2)VGG还展现了一些小的3x3卷积滤波器能够代替AlexNet的单个7x7甚至11x11滤波器,在升高计算成本的同时实现更好的性能。 因为这种优雅的设计,VGG也成为了其余计算机视觉工作中许多开拓性网络的骨干网络,例如用于语义宰割的FCN和用于对象检测的Faster R-CNN。 随着网络的深刻,从多层反向流传中梯度隐没成为一个更大的问题。为了解决这个问题,VGG还探讨了预训练和权重初始化的重要性。这个问题限度了钻研人员持续增加更多的层,否则,网络将很难交融。然而两年后,咱们将为此找到更好的解决方案。 2014年:GoogLeNet更深卷积 摘自“ Going Deeper with Convolutions” VGG具备丑陋的外观和易于了解的构造,但在ImageNet 2014比赛的所有决赛入围者中体现都不佳。GoogLeNet(又名InceptionV1)取得了最终奖。就像VGG一样,GoogLeNet的次要奉献之一就是 采纳22层构造来冲破网络深度的限度 。这再次证实,进一步深刻的确是进步准确性的正确方向。 与VGG不同,GoogLeNet试图间接解决计算和梯度递加问题,而不是提出具备更好的预训练模式和权重初始化的解决办法。 Bottleneck Inception Module From “ Going Deeper with Convolutions” 首先,它 应用称为Inception的模块摸索了非对称网络设计的思维 (请参见上图)。现实状况下,他们心愿采纳稠密卷积或密集层来进步特色效率,然而古代硬件设计并非针对这种状况。因而,他们认为,网络拓扑级别的稠密性还能够在利用现有硬件性能的同时,帮忙交融性能。 其次,它通过借鉴论文“网络中的网络”来解决高计算成本的问题。基本上, 引入1x1卷积滤波器以在进行沉重的计算操作(如5x5卷积内核)之前减小特色的尺寸 。当前将该构造称为“ Bottleneck ”,并在许多后续网络中宽泛应用。相似于“网络中的网络”,它还应用均匀池层代替最终的齐全连贯层,以进一步降低成本。 ...

August 8, 2020 · 2 min · jiezi

关于深度学习:一些深度学习调参心得

试验成果校验心得什么时候加augment,什么时候加multi-scale,学习率怎么设置? 数据加强 集体领会是,验证性阶段过了之后,当你开始跑ablation study时,肯定要留神数据的合理性,不要瞎设计,导致工夫利用低效,很多参数都白跑,前面又要重来。 首先是augment,分两种状况,先做几个小试验,看看提出办法在加和不加data Augmet的性能变动如何,而后选取比拟难看的后果。比方我之前本着最初再加所有trick一把梭涨点的想法,后面的比照试验无论如何都不难看(有成果,然而涨点的变动状况忽高忽低)。然而退出augment数据丰盛起来之后,模型的成果就起来了,尽管baseline也提上去了,会比拟考验你的工作是否足够solid,如果你的framework不长于解决不大或者繁多数据,最好还是加上。 多尺度训练 这玩意会稳固涨点,然而为了显示模型成果,而不是趁火打劫,倡议最初加,因为augment就足够了,后期全梭上不太好。当然,也能够防止baseline刷的过高,导致你的idea增量微不足道很难堪。 学习率 这个挺简略,除了和stoa愣是拉不开差距的状况,无脑adam就够用,0.001,或者0.0001,加个step,warmup就完事。真正solid的工作也不咋在乎这个,咋调(当然基本法还是得要的)都能比拟能看(当然那种被刷到顶的数据集也不算,毕竟模型性能拉不开的时候这玩意还是挺玄学的)。 优化器和学习率优化· 收敛速度来说adam更快,能够用于验证调参,然而细调的sgd往往更好。 · cyclic learning rate和cosine learning rate学习率设置。参考一个gradual warmup+cosine: 地址。 · bs扩充k倍,lr也要对应扩充k倍。 · lr抉择:lr的抉择还是看成果,先用突变lr,找到渐变晋升的点,这个lr是适合的,而后以此为基准设置变动学习率学习。 原则上,只有loss没有bug,基本上loss越低成果是越好的,所以要尽可能采纳loss可能无效降落的学习率,防止过分震荡。(部分极小是个例外,能够思考重启的SGD等,然而个别cosine lr够了) 准则:cos lr用于寻优和偷懒的最佳成果搜寻;日常训练调参还是间接分阶固定学习率。 ☉ 损失函数优化 · 应用exp、atan等函数能够将优化空间变得平滑且广域,收敛更好更快。 · 留神均衡不同item之间和item内的尺度,如wh和和dxdy预测的数值规模不统一(用liou来补救)、cls存在类别不均衡等。 ⊙ batch size 应用较大的bs能够更好地预计出最优的优化方向防止陷入部分极小,然而小的bs有时候会更准;累计梯度能够使得单卡也具备较大bs,然而bn预计会不准。留神的是,算法验证过拟合时,accumulate*bs不应该大于总样本数!否则收敛很慢。过拟合验证阶段间接应用bs=1收敛更快,然而大点的bs会更收敛平缓。极其状况:当模型收敛的比拟安稳后,设置bs=1来缓缓进一步优化性能。 速度优化apex混合精度训练。十分好用,几行代码就完事,速度晋升几倍,精度稍有升高。 教程装置办法: 1. 不可间接pip install,因为有重名的。2. 不可间接setup install,那样只会编译python的,减速成果不佳):git clone https://github.com/NVIDIA/apexcd apexpip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./## 如果下面第三行编译失败,能够先导一下环境变量,再执行3export CUDA_HOME=/usr/local/cuda-10.0## 。 如果还是红字报错退出,能够退回到一个比较稳定的commit版本:1. 进入clone的apex目录下。2. 创立过来commit分支:git checkout -b f3a960f80244cf9e80558ab30f7f7e8cbf03c0a03. 持续方才的步骤3装置即可4. 一堆warning不必管,看到Successfully installed apex-0.1的字样即可。 ...

August 7, 2020 · 1 min · jiezi

关于深度学习:译OpenAI的出色得令人惊讶的新语言生成模型GPT3是个彻头彻尾的没头脑

这个AI(指GPT-3)是有史以来最大的语言模型,它能依据需要产出看起来就像是人书写的文本,但并不能让咱们更靠近真正的人工智能。----Will Douglas Heaven 一位位于圣弗朗西斯科的开发者兼艺术家Arram Sabeti上周在推特上写道:“玩GPT-3让人感觉看到了(人工智能)的将来”。 OpenAI于5月份首次在一篇钻研论文里叙述了GPT-3。但上周OpenAI开始逐渐向一些申请测试并被选中的用户凋谢GPT-3的应用。目前,OpenAI心愿外界开发者能帮忙他们摸索GPT-3能做什么,OpenAI打算之后将GPT-3商业化,通过可订阅云服务为商业提供AI能力,工夫点在年内。 GPT-3是有史以来最强力的语言模型。去年公布的GPT-3的后任GPT-2,有能力依据输出的文本生成让人感觉是人写的一连串文本。但GPT-3是一个更大的提高,这个模型有1750亿训练参数,而GPT-2相比之下只有15亿。对于语言模型来说,模型大小的确对其性能有影响。 Sabeti给出一个他用来夸耀的blog链接,blog里有他的短文、诗歌、新闻稿、技术手册等他用GPT-3发明的文本。GPT-3甚至能刻意模仿特定的作者,写出作品。Mario Klingemann,一位工作中用到机器学习的艺术家,分享了一个短篇“在推特上生存的重要性”,内容是“伦敦人民仍然感兴趣的、最近还持续存在的社交生活是推特,这是个奇怪的事实。该事实令我印象粗浅,当我去海边度过我的定期休假时,我发现海边鸟叫声多得像个鹦鹉笼”(Twitter首字母大写,特定名词推特,twitter首字母小写,失常词语鸟叫声),该短篇是模拟Jerome K. Jerome的格调写的。Klingemann示意他只向GPT-3输出了题目、作者名以及初始词语“It”。(这个)链接甚至有一篇齐全用GPT-3写的对于GPT-3的材料文章,看起来合乎逻辑。 其他人发现,GPT-3能够生成任何品种的文本,包含吉他琴谱和代码。比方,微调GPT-3,GPT-3就能生成HTML而不是自然语言文本。网页开发者Sharif Shameem展现,他能够通过向GPT-3输出“一个像西瓜一样的按钮”或者“红色的大文本‘欢送来到我的新闻稿’以及名为‘订阅’的蓝色按钮”,来让GPT-3生成网页布局。即便是开创性地将3D图形学利用于像Doom这样的电子游戏、现在的Oculus VR首席征询技术官、传奇程序员John Carmack也心神不宁地示意:“最近简直是意外地发现GPT-3在某种程度上能够写代码,(这件事)的确带来了一些震撼。” 但忽视其最新的戏法,GPT-3仍然偏向于生成无害的性别歧视或者种族歧视文本。在GPT-2上,微调能够缩小此类文本的产出。 并不令人意外地,很多人很快就开始议论人工智能。然而,GPT-3那宛如真人书写的文本输入以及令人诧异的多才多艺是杰出的工程的后果,而不是真正的智能。首先,(GPT-3这个)AI仍然会呈现愚不可及的谬误,这种谬误表明,GPT-3齐全没有常识。即便是GPT-3的胜利之处也不足深度,因为GPT-3的训练,少数像是复制粘贴,而不是原创文本。 确切来说,GPT-3是个黑盒子,人们并不知道其推理过程。GPT-3体现好的中央在于,它依照需要,以乏味的形式,依据数以亿计从网络中收集到的浩瀚多样的文本片段来合成文本。 这不是在贬斥OpenAI获得的成就。一个像GPT-3一样的工具有很多新用途,无论好(从让聊天机器人更好到帮人写代码)还是坏(从让聊天机器人提供错误信息到让孩子在作业里舞弊)。 然而AI里程碑往往会毁于过分的炒作。即便是和Elon Musk一起创立了OpenAI的Sam Altman也心愿升高GPT-3的(炒作)热度:“GPT-3被过分吹捧了。GPT-3(的成就)令人映像粗浅,但其仍然有重大的缺点,会犯愚昧通俗的谬误。AI已筹备好扭转世界,但GPT-3只是(其中)很晚期的(让咱们看到的)一眼。(对于AI)咱们还有很多要挖掘的。” 对于看起来像是人工智能的人工智能,咱们的规范很低。咱们很容易被那些看起来很聪慧的货色坑骗。AI说过的最大的谎话,就是压服世人,AI是存在的。GPT-3是人工智能的一个微小的提高,但它仍然是人工制作的有毛病和限度的工具。

August 5, 2020 · 1 min · jiezi

关于深度学习:残差网络为何有效都有哪些发展

残差网络为何无效,都有哪些倒退? - amaze2的答复 - 知乎 https://www.zhihu.com/questio... 高票答复曾经很分明地介绍了残差网络,上面补充一个比拟新鲜的残差网络的改良,也就是残差膨胀网络Residual Shrinkage Network。 1.动机(冗余信息无处不在)在发展机器学习工作的时候,咱们的数据集中往往或多或少地蕴含着肯定的冗余信息。这些冗余信息会对深度神经网络的特色学习效果造成不利的影响。 因而,从这个角度讲的话,咱们在设计深度神经网络的时候,或者应该刻意加强深度神经网络剔除冗余信息的能力。 2.残差膨胀网络的根本模块如下图所示,残差膨胀网络在其根本模块中退出了一个子网络,来学习失去一组阈值,而后对残差门路进行软阈值化(即“膨胀”)。这个过程能够看成是一种非常灵活的、删除冗余信息的形式。 3.软阈值化的劣势(1)灵便地删除冗余信息。软阈值化可能将位于[-, ]区间的特色置为零,将其余特色也朝着零的方向进行膨胀。如果和前一个卷积层的偏置b放在一起看的话,置为零的区间其实就是[-+b, +b]。在这里,和b都是可训练的参数。在这里,软阈值化其实能够将任意区间的特色置为零,也就是删除掉,是一种非常灵活的、删除冗余信息的形式。 (2)梯度要么为零,要么为一。这个特点是和ReLU激活函数一样的,有利于减小梯度隐没和梯度爆照的危险。 4.子网络与软阈值化的联合软阈值化中的阈值设置是一个难题。在残差膨胀网络中,阈值是通过一个子网络主动取得的,不须要人工设置,防止了这个难题,而且还带来了以下长处: (1)每个样本能够有本人独特的阈值。一个数据集中,可能有的样本冗余信息较多,有些样本冗余信息较少,那么它们的阈值应该是有所不同的。残差膨胀网络借助这个子网络,可能给各个样本赋予不同的阈值。 (2)阈值为负数,且不会太大。在软阈值化中,阈值必须是正的,而且不能太大,否则输入会全副为0。残差膨胀网络的根本模块通过专门的设计,能满足这一条件。 5.整体构造残差膨胀网络的整体构造和传统残差网络是一样的,如下图所示: 6.简略程序将残差膨胀网络用于加噪MNIST图像的分类,代码如下(仅供参考): #!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Sat Dec 28 23:24:05 2019Implemented using TensorFlow 1.0.1 and Keras 2.2.1 M. Zhao, S. Zhong, X. Fu, et al., Deep Residual Shrinkage Networks for Fault Diagnosis, IEEE Transactions on Industrial Informatics, 2019, DOI: 10.1109/TII.2019.2943898@author: super_9527"""from __future__ import print_functionimport kerasimport numpy as npfrom keras.datasets import mnistfrom keras.layers import Dense, Conv2D, BatchNormalization, Activationfrom keras.layers import AveragePooling2D, Input, GlobalAveragePooling2Dfrom keras.optimizers import Adamfrom keras.regularizers import l2from keras import backend as Kfrom keras.models import Modelfrom keras.layers.core import LambdaK.set_learning_phase(1)# Input image dimensionsimg_rows, img_cols = 28, 28# The data, split between train and test sets(x_train, y_train), (x_test, y_test) = mnist.load_data()if K.image_data_format() == 'channels_first': x_train = x_train.reshape(x_train.shape[0], 1, img_rows, img_cols) x_test = x_test.reshape(x_test.shape[0], 1, img_rows, img_cols) input_shape = (1, img_rows, img_cols)else: x_train = x_train.reshape(x_train.shape[0], img_rows, img_cols, 1) x_test = x_test.reshape(x_test.shape[0], img_rows, img_cols, 1) input_shape = (img_rows, img_cols, 1)# Noised datax_train = x_train.astype('float32') / 255. + 0.5*np.random.random([x_train.shape[0], img_rows, img_cols, 1])x_test = x_test.astype('float32') / 255. + 0.5*np.random.random([x_test.shape[0], img_rows, img_cols, 1])print('x_train shape:', x_train.shape)print(x_train.shape[0], 'train samples')print(x_test.shape[0], 'test samples')# convert class vectors to binary class matricesy_train = keras.utils.to_categorical(y_train, 10)y_test = keras.utils.to_categorical(y_test, 10)def abs_backend(inputs): return K.abs(inputs)def expand_dim_backend(inputs): return K.expand_dims(K.expand_dims(inputs,1),1)def sign_backend(inputs): return K.sign(inputs)def pad_backend(inputs, in_channels, out_channels): pad_dim = (out_channels - in_channels)//2 inputs = K.expand_dims(inputs,-1) inputs = K.spatial_3d_padding(inputs, ((0,0),(0,0),(pad_dim,pad_dim)), 'channels_last') return K.squeeze(inputs, -1)# Residual Shrinakge Blockdef residual_shrinkage_block(incoming, nb_blocks, out_channels, downsample=False, downsample_strides=2): residual = incoming in_channels = incoming.get_shape().as_list()[-1] for i in range(nb_blocks): identity = residual if not downsample: downsample_strides = 1 residual = BatchNormalization()(residual) residual = Activation('relu')(residual) residual = Conv2D(out_channels, 3, strides=(downsample_strides, downsample_strides), padding='same', kernel_initializer='he_normal', kernel_regularizer=l2(1e-4))(residual) residual = BatchNormalization()(residual) residual = Activation('relu')(residual) residual = Conv2D(out_channels, 3, padding='same', kernel_initializer='he_normal', kernel_regularizer=l2(1e-4))(residual) # Calculate global means residual_abs = Lambda(abs_backend)(residual) abs_mean = GlobalAveragePooling2D()(residual_abs) # Calculate scaling coefficients scales = Dense(out_channels, activation=None, kernel_initializer='he_normal', kernel_regularizer=l2(1e-4))(abs_mean) scales = BatchNormalization()(scales) scales = Activation('relu')(scales) scales = Dense(out_channels, activation='sigmoid', kernel_regularizer=l2(1e-4))(scales) scales = Lambda(expand_dim_backend)(scales) # Calculate thresholds thres = keras.layers.multiply([abs_mean, scales]) # Soft thresholding sub = keras.layers.subtract([residual_abs, thres]) zeros = keras.layers.subtract([sub, sub]) n_sub = keras.layers.maximum([sub, zeros]) residual = keras.layers.multiply([Lambda(sign_backend)(residual), n_sub]) # Downsampling using the pooL-size of (1, 1) if downsample_strides > 1: identity = AveragePooling2D(pool_size=(1,1), strides=(2,2))(identity) # Zero_padding to match channels if in_channels != out_channels: identity = Lambda(pad_backend, arguments={'in_channels':in_channels,'out_channels':out_channels})(identity) residual = keras.layers.add([residual, identity]) return residual# define and train a modelinputs = Input(shape=input_shape)net = Conv2D(8, 3, padding='same', kernel_initializer='he_normal', kernel_regularizer=l2(1e-4))(inputs)net = residual_shrinkage_block(net, 1, 8, downsample=True)net = BatchNormalization()(net)net = Activation('relu')(net)net = GlobalAveragePooling2D()(net)outputs = Dense(10, activation='softmax', kernel_initializer='he_normal', kernel_regularizer=l2(1e-4))(net)model = Model(inputs=inputs, outputs=outputs)model.compile(loss='categorical_crossentropy', optimizer=Adam(), metrics=['accuracy'])model.fit(x_train, y_train, batch_size=100, epochs=5, verbose=1, validation_data=(x_test, y_test))# get resultsK.set_learning_phase(0)DRSN_train_score = model.evaluate(x_train, y_train, batch_size=100, verbose=0)print('Train loss:', DRSN_train_score[0])print('Train accuracy:', DRSN_train_score[1])DRSN_test_score = model.evaluate(x_test, y_test, batch_size=100, verbose=0)print('Test loss:', DRSN_test_score[0])print('Test accuracy:', DRSN_test_score[1])TFLearn版代码: ...

August 4, 2020 · 5 min · jiezi

关于深度学习:X40MnCr18无磁钢

X40MnCr182不锈钢,德国非磁性钢钢号。X40MnCr182化学成分:碳 C:0.30~0.4硅 Si:0.30~0.80锰 Mn:17.00~19.00磷 P:≤0.100硫 S:≤0.050铬 Cr:1.50~5.00德标无磁钢汇合:X120Mn13、DIN1.3802 ,X35Mn18、DIN1.3805,X40MnCrN19 、DIN1.3813,X40MnCr18 2、DIN1.3815,X40MnCr18 23 、DIN1.3816,X40MnCr18、DIN1.3817,X50MnCrV20 14、DIN1.3819,X4CrNi18 18 13、 DIN1.3941,X5MnCr18 13、DIN1.3949,X4CrNiMoN18 14、DIN1.3853 ... . 国标无磁钢:40Mn18Cr3、、40Mn18Cr4、40Mn18Cr4V、45Mn17AL3、917低磁钢、50Mn18Cr5、50Mn18Cr4V、20Mn23ALV、Mn18Cr18N护环... .. .

August 1, 2020 · 1 min · jiezi

关于深度学习:机器实战训练直播教学活动非监督学习来啦

July 26, 2020 · 0 min · jiezi

关于深度学习:视频目标检测TemporallyAwareFeatureMaps

视频指标检测卷积神经网络在指标检测中施展出重要作用[1,2,3,4,5]。近期,新的网络结构[6,7]使得指标检测算法能够运行在计算力更低的硬件平台,并且性能足够媲美先进单幅图像指标检测算法。而后,视频给指标检测带来了额定的时空线索,如何利用这一线索设计更好的视频指标检测框架称为目前的次要挑战。 那么能够利用的时空线索有哪些: 因为视频的工夫连续性,相邻帧中的指标在地位上具备相似性,且不会产生实质性变动。多帧之间能够反映指标的不同姿势,有利于精确定位指标。工夫线可能晋升指标检测的置信度,减少检测稳定性[8]。<!-- --> Bottleneck-LSTM 一种疾速LSTM长短期记忆网络(LSTM)[9]是一种宽泛应用的时序数据处理网络,构造如下图所示,其中$\odot$是Hadamard Product,也就是操作矩阵中对应的元素相乘,因而要求两个相乘矩阵是同型的,$\oplus$代表矩阵加法。 Convolutional LSTM是LSTM的一个非凡变种,应用3D隐层状态,并将门(Gate)计算替换为卷积层(Convolutional Layer),如此使得LSTM可能同时编码时空信息。 间接将Convolutional LSTM嵌入到指标检测网络会大幅减少计算量 ,解决这一问题的形式就是应用Bottleneck-LSTM,Bottleneck-LSTM应用深度可拆散卷积(Depthwise Separable Convolutions)以及非凡设计的Bottleneck门。 咱们将图像思考为间断图像帧的序列$V=\{I_0,I_1,...,I_n\}$。视频检测的目标是失去每一帧的检测后果$\{D_0,D_1,...,D_n\}$,其中$D_k$是$I_k$帧中一系列的预测指标外包矩形框和预测类别。在线视频指标检测认为$D_k$仅能从$I_k$帧与之前的图像帧中进行计算。 预测模型能够看作这样一个函数$F(I_t,s_{t-1})=(D_t,s_t)$,其中$s_k=\{s_k^0,s_k^1,...,s_k^{m-1}\}$是形容$k$帧与之前的特色图向量。$m$层LSTM的神经网络用来迫近这一函数,$s_{t-1}$的每个特色图作为LSTM的状态输出,LSTM的输入状态为$s_t$的特色图。 LSTM对特色的细化令单幅图像指标检测器为函数$D_t=G(I_t)$。在LSTM视频检测器中,$m$个LSTM将$G$划分为$m+1$个子网络${g_0,g_1,...,g_m}$,并满足: $G(I_t)=(g_m \circ \cdots \circ g_1 \circ g_0)(I_t)$ 将每一个LSTM层$L_0,L1,...,L_{m-1}$定义为函数$L_k(M,s_{t-1}^k)=(M_+,s_t^k)$,其中$M$和$M+$为雷同维度的特色图。则计算过程如下 下图给出了这一计算过程的可视化: 将LSTM单元嵌入到检测网络中的哪些层须要认真探讨,如果嵌入到晚期的一些特色层上,会面临很大计算压力。试验局部也给出了证实,嵌入到SSD网络的Conv 13之后是一个较好的抉择。SSD网络结构如下表所示: 然而咱们还须要思考如下的嵌入形式: 在Conv 13之后嵌入单个LSTM在Conv 13之后嵌入重叠的多个LSTM在每个特色图后嵌入1个LSTM先来解答这个问题吧。 单层LSTM放在哪成果最好?下表展现这一问题的试验后果,将单个LSTM放在模型的不同层,能够看出单层LSTM嵌入到Conv 13层是成果最好的。 多层LSTM如何搁置成果最好?因为同时训练多个LSTM十分艰难,在逐渐增加层的同时,对之前的训练权重进行微调。因为高层特色的维度更低,减少的计算量并不多。重叠2层LSTM并没有取得好的收益。Conv 13,FM1,FM2,FM3之后嵌入LSTM单元是一个不错的抉择。 扩大宽度乘数LSTM计算复杂度高,因为须要计算一系列门。对此,首先想到通道(Channel)降维,给通道一个乘数因子$\alpha$[6]。定义3个乘数$\alpha_{base},\alpha_{ssd},\alpha_{lstm}$别离管制网络的不同局部。 对于任何MobileNet的输入通道$N$,使其输入为$N\times \alpha_{base}$。$\alpha_{ssd}$管制所有SSD特色图的通道数,$\alpha_{lstm}$管制LSTM层的特色数。在试验局部,令$\alpha_{base}=\alpha$,$\alpha_{ssd}=0.5\alpha$,$\alpha_{lstm}=0.25\alpha$。 Bottleneck-LSTM详解令$M$和$N$别离代表LSTM的输出与输入通道数。因为Convolutional LSTM的具体实现有不同版本[10,11],定义规范Convolutional LSTM如下: $x_t$和$h_{t-1}$是3D特色图,并将它们按通道连贯。$h_t$和$c_t$为输入特色图。$^jW^k\star X$示意输出为$X$,参数为$W$的深度可拆散卷积(Depthwise Separable Convolution),输出通道数为$j$,输入通道数为$k$,$\phi(x)=ReLU(x)$为激活函数,$\circ$示意逐元素乘(Hadamard product)。 留神:应用深度可拆散卷积可能无效缩小8-9倍计算量,ReLU尽管不罕用于LSTM,咱们发现不扭转映射的边界很重要,因为这里的LSTM是夹在卷积层两头的。此外,这里的LSTM输入通道数小于输出通道数,咱们批改如下公式以压缩特色通道数: $b_t=\phi(^{(M+N)}W_b^N\star [x_t,h_{t-1}])$ 如此$b_t$替换了所有其余门的输出,如下图所示,这被称为Bottleneck-LSTM。无效升高计算量,理论体现成果更好。 令输出特色图空间分辨率为$D_F\times D_F$,深度可拆散卷积核大小为$D_K\times D_K$,咱们比照一下规范Convolutional LSTM与Bottleneck-LSTM的计算量: Convolutional LSTM(GRU是其计算量的3/4)$4(D_K^2\cdot (M+N)\cdot D_F^2+(M+N)\cdot N\cdot D_F^2)$ ...

July 25, 2020 · 2 min · jiezi

关于深度学习:深度学习和神经网络3线性模型

次要介绍四种不同线性分类模型:Logistic回归、Softmax回归、 感知器和反对向量机,这些模型的区别次要在于应用了不同的损失函数. 线性判别函数和决策边界一个线性分类模型由一或多个线性判别函数组成,模型可能有二分类和多分类两种状况。线性判别函数上点组成的线或者面,称为决策边界或决策立体二分类只须要一个线性判别函数,把特色空间划分为两个类别 多分类没看懂,为啥有一些难以确定类别的区域

July 23, 2020 · 1 min · jiezi

关于深度学习:交叉熵损失函数nnCrossEntropyLoss

nn.CrossEntropyLoss()1.引言在应用pytorch深度学习框架做多分类时,计算损失函数通常会应用穿插熵损失函数nn.CrossEntropyLoss() 2. 信息量和熵信息量:它是用来掂量一个事件的不确定性的;一个事件产生的概率越大,不确定性越小,则它所携带的信息量就越小。假如$X$是一个离散型的随机变量,其取值汇合为$X$ = $x_0,x_1,,,x_n$,其概率分布函数为$p(x) = Pr(X = x),x\in X$,则定义事件$X = x_0$的信息量为: $$I(x_i) = -log(p(x_i))$$ 当$p(x_0) = 1$ 时,该事必然产生,其信息量为0。 熵熵用来掂量一个零碎的凌乱水平,代表零碎中信息量的总和;熵值越大,表明这个零碎的不确定性就越大。 信息量是掂量某个事件的不确定性,而熵是掂量一个零碎(所有事件)的不确定性。 熵的计算公式: $$H(x) = -\sum_{i=1}^np(x_i)log(p(x_i))$$ 其中,$p(x_i)为事件X = x_i的概率,-log(p(x_i))为事件X = x_i 的信息量。$ 能够看出,熵是信息量的期望值,是一个随机变量(一个零碎,事件所有可能性)不确定性的度量。熵值越大,随机变量的取值就越难确定,零碎也就越不稳固;熵值越小,随机变量的取值也就越容易确定,零碎越稳固。 穿插熵 Cross Entropy穿插熵次要是用来断定理论的输入与冀望的输入的靠近水平,也就是穿插熵的值越小,两个概率分布就越靠近。假如概率分布p为冀望输入,概率分布q为理论输入,$H(p,q)$为穿插熵,则表达式:(1)二分类 $$H(p,q) = \frac{1}{N}\sum_{i=1}^N H(p(x_i),q(x_i)) = \frac{1}{N}\sum_{i=1}^N -(p(x_i)log(q(x_i)))+(1-p(x_i))log(1-q(x_i))$$ 其中: N示意一个batch的样本数$p(x_i)$ 示意样本i的label,正类为1,负类为0 $q(x_i)$ 示意样本i预测为正的概率 (2)多分类 $$H(p,q) = \frac{1}{N}\sum_{i=1}^N H(p(x_i),q(x_i)) = - \frac{1}{N}\sum_{i=1}^N \sum_{j=1}^M p(x_{ij})log(q(x_{ij}))$$ 其中:M示意类别数$p(x_{ij})$ 示意变量(0或1),如果该类别和样本i的类别雷同就是1,否则是0;$q(x_{ij})$ 示意对于观测样本i属于类别$j$的预测概率。 举例 x猫狗马Label001Pred0.10.10.8那么一个样本的loss为:$loss= -(0 * log(0.1)+0*log(0.1)+1*log(0.8)) = 0.22$ ...

July 22, 2020 · 1 min · jiezi

关于深度学习:神经网络和深度学习机器学习基础

神经网络和深度学习何为深度学习?从本源来讲,深度学习是机器学习的一个分支,是指一类问题以及解决这类问题的办法。首先,深度学习问题是一个机器学习问题,指从无限样例中通过算法总结出一般性的法则,并能够利用到新的未知数据上.比方,咱们能够从一些历史病例的汇合中总结出症状和疾病之间的法则.这样当有新的病人时,咱们能够利用总结进去的法则,来判断这个病人得了什么疾病. 其次,深度学习采纳的模型个别比较复杂,指样本的原始输出到输入指标之间的数据流通过多个线性或非线性的组件.因为每个组件都会对信息进行加工,并进而影响后续的组件,所以当咱们最初失去输入后果时,咱们并不分明其中每个组件的奉献是多少.这个问题叫作贡献度调配问题。在深度学习中,贡献度调配问题是一个关键问题,关系到如何学习每个组件中的参数 何为神经网络?神经网络是一种比拟好的能够解决调配度调配问题的模型。这种数学模型受人脑神经系统的工作形式启发而成,和目前计算机的构造不同,人脑神经系统是一个由生物神经元组成的高度简单网络,是一个并行的非线性信息处理 零碎.人脑神经系统能够将声音、视觉等信号通过多层的编码,从最原始的低层特色一直加工、形象,最终失去原始信号的语义示意和人脑神经网络相似,人工神经网络是由人工神经元以及神经元之间的连贯形成,其中有两类非凡的神经元:一类用来接管内部的信息,另一类用来输入信息.这样,神经网络能够看作信息从输出到输入的信息处理系统.如果咱们把神经网络看作由一组参数管制的 简单函数,并用来解决一些模式识别工作(比方语音辨认、人脸识别等),神经网络的参数能够通过机器学习的形式来从数据中学习. 因为神经网络模型个别比较复杂,从输出到输入的信息传递门路个别比拟长,所以简单神经网络的学习能够看成是一种深度的机器学习,即深度学习. 这里要留神的是,神经网络和深度学习并不等价.深度学习能够采纳神经网络模型,也能够采 用其余模型(比方深度信念网络是一种概率图模型).然而,因为神经网络模型 能够比拟容易地解决贡献度调配问题,因而神经网络模型成为深度学习中次要 采纳的模型.尽管深度学习一开始用来解决机器学习中的示意学习问题, 然而因为其弱小的能力,深度学习越来越多地用来解决一些通用人工智能问题,比方推理、决策等人工智能如何定义智能?图灵测试:一个人在不接触对方的状况下,通过一种非凡的形式和对方进行一系列的问答.如果在相当长时间内,他无奈依据这些问题判断对方是人还是计算机,那么就能够认为这个计算机是智能的促使人工智能从哲学到科研,疏导了许多钻研方向。如机器感知(计算机视觉、语音信息处理)、学习(模式识别、 机器学习、强化学习)、语言(自然语言解决)、记忆(常识示意)、决策(布局、数据挖掘)等.所有这些钻研畛域都能够看成是人工智能的钻研领域.目前,人工智能的次要畛域大体上能够分为以下几个方面:(1)感知:模仿人的感知能力,对外部刺激信息(视觉和语音等)进行感知和加工.次要钻研畛域包含语音信息处理和计算机视觉等. (2)学习:模仿人的学习能力,次要钻研如何从样例或从与环境的交互中进行学习.次要钻研畛域包含监督学习、无监督学习和强化学习等. (3)认知:模仿人的认知能力,次要钻研畛域包含常识示意、自然语言了解、推理、布局、决策等. 人工智能的流派在人工智能的钻研过程中产生了很多不同的流派.一些研究者认为人工智能应该通过研 究人类智能的机理来构建一个仿生的模拟系统;而另外一些研究者则认为能够应用其余办法来实现人类的某种智能行为,例如让机器具备航行能力不须要模仿鸟的航行形式,而是应该钻研空气动力学.目前支流办法大略有两种:(1))符号主义,又称逻辑主义、心理学派或计算机学派,是指通过剖析人类智能的性能,而后用计算机来实现这些性能的一类办法.符号主义有两个根本假如: a)信息能够用符号来示意; b)符号能够通过显式的规定 (比方逻辑运算)来操作.人类的认知过程能够看作符号操作过程.在人工智能 的推理期和常识期,符号主义的办法比拟流行,并获得了大量的成绩 (2)连贯主义,又称仿生学派或生理学派,是认知科学畛域中的一类信息处理的办法和实践.在认知科学畛域,人类的认知过程能够看作一种信息处理过程.连贯主义认为人类的认知过程是由大量简略神经元形成 的神经网络中的信息处理过程,而不是符号运算.因而,连贯主义模型的次要构造是由大量简略的信息处理单元组成的互联网络,具备非线性、分布式、并行化、 局部性计算以及自适应性等个性. 这里要留神的是,流派间并不是严格对抗的。深度学习的次要模型神经网络尽管是一种连贯主义模型,然而却具备可解释性这一符号主义的长处.然而随着深度学习的倒退,越来越多的研究者开始关注如何交融符号主义和连贯主义,建设一种高效并且具备可解释性的模型. 机器学习机器学习是人工智能的重要分支,是指从无限的观测数据中学习(或“猜想”)出具备一般性的法则,并利用这些法则对未知数据进行预测的办法.传统的机器学习次要关注如何学习一个预测模型.个别须要首先将数据表 示为一组特色(Feature),特色的示意模式能够是间断的数值、离散的符号或其余模式.而后将这些特色输出到预测模型,并输入预测后果.这类机器学习能够看作浅层学习,其一个重要特点是不波及特色学习,其特色次要靠人工教训或特色转换方法来抽取当咱们用机器学习来解决理论工作时,会面对多种多样的数据模式,比方声 音、图像、文本等.不同数据的特色结构形式差别很大.对于图像这类数据,咱们 能够很天然地将其示意为一个间断的向量.而对于文本数据,因为其个别由离散符号组成,并且每个符号在计算机外部都示意为无意义的编码,所以通常很难找到适合的示意形式.因而,在理论工作中应用机器学习模型个别会蕴含以下几个 步骤:(1)数据预处理:通过数据的预处理,如去除噪声等.比方在文本分类中, 去除停用词等. (2)特征提取:从原始数据中提取一些无效的特色.比方在图像分类中,提 取边缘、尺度不变特色变换特色等. (3)特色转换:对特色进行肯定的加工,比方降维和升维. (4)预测:机器学习的外围局部,学习一个函数并进行预测. 上述流程中,每步特色解决以及预测个别都是离开进行的.传统的机器学习模型次要关注最初一步,即构建预测函数.然而实际操作过程中,不同预测模 型的性能相差不多,而前三步中的特色解决对最终零碎的准确性有着非常要害 的作用.特色解决个别都须要人工干预实现,利用人类的教训来选取好的特色, 并最终进步机器学习零碎的性能.因而,很多的机器学习问题变成了特色工程问题.开发一个机器学习零碎的次要工作量都耗费在了 预处理、特征提取以及特色转换上. 示意学习何为示意学习?如果有一种算法能够主动学习出无效特色(或者称为示意),那么这种学习就叫做示意学习示意学习的要害?解决语义鸿沟问题。语义鸿沟问题是指输出数据的底层特色和高层语义信息之间的不一致性和差异性.比方给 定一些对于“车”的图片,因为图片中每辆车的色彩和形态等属性都不尽相同,因 此不同图片在像素级别上的示意(即底层特色)差异性也会十分大.然而咱们了解这些图片是建设在比拟形象的高层语义概念上的.如果一个预测模型间接建设在底层特色之上,会导致对预测模型的能力要求过高.如果能够有一个好的示意在某种程度上可能反映出数据的高层语义特色,那么咱们就能绝对容易地构 建后续的机器学习模型.示意学习的外围问题(1)什么是一个好的示意(2)如何学习到好的示意 结构好的示意:部分示意和分布式示意的比对好的示意个别具备以下长处:(1)信息容量大,同样大小向量能够示意更多信息(2)使后续工作简略,须要蕴含更高层的语义信息(3)具备一般性,能够比拟容易的迁徙到其余工作下来 部分示意来示意特色。假如所有色彩的名字形成一个词表 ????,词表大小为|????|.咱们能够用一个 |????|维的one-hot向量来示意每一种色彩.在第????种颜色对应的one-hot向量中,第????维的值为1,其余都为0.部分示意具备解释性好和计算效率高两个长处,然而也存在问题: 1)one-hot向量的维数很高,且不能扩大.如果 有一种新的色彩,咱们就须要减少一维来示意; 2)不同色彩之间的类似度都为0 ,即咱们无奈晓得“红色”和“中国红”的类似度要高于“红色”和“彩色”的相 似度. 分布式示意来示意特色。用RGB值来示意色彩,不同色彩对应到R、 G、 B三 维空间中一个点,是一种低纬度的浓密向量分布式示意向量维度较低,退出新色彩不须要减少维度,而且不同色彩的类似度也容易计算 咱们能够应用神经网络将高维向量(部分示意)映射到低维向量空间(分布式示意)。这个过程叫做嵌入,行将一个高维空间中的一些对象映射到另一个低维空间中,并尽可能放弃不同对象之间的拓扑关系.示意学习要学习到一种好的高层语义示意(个别为分布式示意),通常须要从底层特色开始,通过多步非线性转换能力失去.而深层构造的长处就是能够减少特色的重用性,从而指数级地减少示意能力. 因而,示意学习的要害是构建具备肯定深度的多层次特色示意。 而在传统的机器学习中,只管也有很多无关特色学习的办法,比方主成分剖析、线性判别分析、独立成分剖析等.然而,传统的特色学习个别是通过人为地设计一些准则,而后依据这些准则来选取无效的特色.特色的学习是和最终预测模型的学习离开进行的,因而学习到的特色不肯定能够晋升最终模型的性能. 深度学习深度学习的次要目标就是能从数据中主动学习到无效的数据表示,从而最终晋升预测模型的准确率。所谓‘深度’,就是指原始数据进行非线性特色转换的次数。深度学习的解决流程,就是通过多层特色转换,把原始数据变成更高层次更形象的示意,从而代替人工设计特色,防止‘特色工程’ 深度学习是将多种原始数据特色通过多步特色转换失去一种特色示意,并输出到预测函数失去最终后果。在深度学习中,要害要解决贡献度调配问题,即一个零碎中不同的组件或其参数对最终后果的奉献,就像下棋胜利后要反思每一步棋对胜利的奉献。这是一个十分艰难的问题,因为深度学习的每个组件并不能间接失去监督信息,而是要通过整个模型的最终监督信息(处分)失去,并且有肯定的延时性 而目前次要采纳的神经网络模型,采纳误差反向流传算法,从而能够比拟好地解决贡献度调配问题 端到端学习传统机器学习通常把工作的输入输出之间认为的切割成许多模块,每个模块离开学习。如自然语言了解工作,个别须要分词、词性标注、句法分析、语义剖析、语义推理等步骤。这种办法存在两个问题:(1)每个模块须要独自优化(2)前一步谬误会对后续模型产生很大影响 而在古代机器学习中,咱们通常采纳端对端训练的办法。即在学习过程中,不明确地给出不同模块或阶段的性能,两头过程不须要人为干涉.端到端学习的训练数据为“输出-输入”对的模式,毋庸提供其余额定信息.因而,端到端学习和深度学习一样,都是要解决贡献度调配问题.目前,大部分采纳神经网络模 型的深度学习也能够看作一种端到端的学习. ...

July 22, 2020 · 1 min · jiezi

大盘点CVPR-2020目标检测论文精选

本文为学习笔记参加:王博kings,Sophia 最近完结的CVPR 2020在推动物体检测方面做出了巨大贡献。在本文中,咱们将介绍一些特地令人印象粗浅的论文。 1、A Hierarchical Graph Network for 3D Object Detection on Point Clouds(用于点云3D指标检测的分层图网络)HGNet蕴含三个次要组件: 基于GConv的U形网络(GU-net)提案生成者提案推理模块(ProRe Module)-应用齐全连贯的图对提案进行推理 作者提出了一种重视形态的GConv(SA-GConv),以捕捉部分形态特色。这是通过对绝对几何地位进行建模以形容对象形态来实现的。 基于SA-GConv的U型网络可捕捉多级性能。而后将它们通过投票模块映射到雷同的特色空间,并用于生成倡议。下一步,基于GConv的提案推理模块应用提案来预测边界框。 以下是在SUN RGB-D V1数据集上取得的一些性能后果。 2、HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection(HVNet:基于激光雷达的三维物体检测的混合体素网络)在本文中,作者提出了混合体素网络(HVNet),这是一个用于基于点云的3D对象检测主动驾驶的一级网络。 本文中应用的体素特色编码(VFE)办法蕴含三个步骤: 体素化—将点云调配给2D体素网格体素特征提取-计算与网格相干的逐点特色,该点特色被馈送到PointNet款式特色编码器投影-将逐点特色聚合到体素级特色并将其投影到其原始网格。这造成伪图像特色图 体素的大小在VFE办法中十分重要。较小的体素尺寸能够捕捉更精密的几何特色。它们也更善于对象本地化,但推理工夫更长。应用较粗的体素能够取得更快的推理速度,因为这会导致较小的特色图。然而,它的性能较差。 作者提出了混合体素网络(HVNet),以实现细粒度体素性能的利用。它由三个步骤组成: 多尺度体素化-创立一组特色体素尺度并将它们调配给多个体素。混合体素特征提取-计算每个比例的体素相干特色,并将其输出到关注特色编码器(AVFE)中。每个体素比例尺上的因素都是逐点连贯的。动静因素投影-通过创立一组多比例我的项目体素将因素投影回伪图像。 这是在KITTI数据集上取得的后果。 3、Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud(Point-GNN:用于点云中3D对象检测的图神经网络)本文的作者提出了一种图神经网络-Point-GNN-从LiDAR点云中检测物体。网络预测图形中每个顶点所属的对象的类别和形态。Point-GNN具备主动回归机制,能够一次检测多个物体。 所提出的办法包含三个局部: 图形构建:体素降采样点云用于图形构建T迭代的图神经网络边界框合并和评分 以下是在KITTI数据集上取得的后果: 代码:https://github.com/WeijingShi/Point-GNN 4、Camouflaged Object Detection本文解决了检测嵌入在其周围环境中的物体的挑战-假装物体检测(COD)。作者还介绍了一个名为COD10K的新数据集。它蕴含10,000张图像,笼罩许多天然场景中的假装物体。它具备78个对象类别。图像带有类别标签,边界框,实例级别和消光级别的标签正文。 作者开发了一种称为搜寻标识网络(SINet)的COD框架。该代码在这里可用: https://github.com/DengPingFan/SINet/ 网络有两个次要模块: ...

July 15, 2020 · 1 min · jiezi

目标检测中的mAP

本文首发于集体博客http://zuyunfei.com/2020/07/0...,欢送浏览最新内容! 如何掂量指标检测算法的优劣指标检测(object detection)问题绝对于个别AI分类问题更加简单,不仅检测出指标,输入指标的类别,还要定位出指标的地位。分类问题中的简略accuray指标曾经不能反映出指标检测问题后果的准确度,而mAP (Mean Average Precision)就是被用来掂量指标检测算法优劣的罕用指标。要了解什么是mAP,须要先廓清什么是Precision(查准率)和Recall(查全率)。 Precision和Recall定义查准率和查全率是在信息检索、Web搜寻等利用中经常出现的性能度量指标,在机器学习中,也能够用来度量“预测后果中有多少比例是用户感兴趣的”。对于二分类问题,可将样例依据其实在类别与预测类别的组合划分为: TP、TN、FP、FNTP (True Positive): 真正例。Positive指预测输入为正,True代表预测正确。TN (True Negative): 真反例。预测输入为负,而且预测正确。FP (False Positive): 假正例。预测输入为正,然而预测谬误。FN (False Negative): 假反例。预测输入为负,然而预测谬误。 PrecisionPrecision(查准率): 所有预测为正例的后果中,预测正确的比率。 RecallRecall (查全率):所有正例中被正确预测的比率。 如何计算指标检测问题中,算法通常输入一个预测框(bounding box)来标识检出指标的地位,要掂量这个预测框与指标的理论地位(ground truth)的准确度,能够应用IoU指标。 交并比IoU(Intersection over union)交并比IoU掂量的是两个区域的重叠水平,是两个区域重叠局部面积占二者总面积(重叠局部只计算一次)的比例。 指标检测中IoU就是预测框与理论框的交加除以并集。咱们能够设置一个阈值(threshold),通常是0.5,预测后果能够分为: 如果IoU >= 0.5 如果预测类别也正确,认为是一个好的预测,分类为TP如果预测类别谬误,认为是一个坏的预测,分类为FP如果IoU < 0.5, 认为是一个坏的预测,分类为FP如果一个指标呈现在图像中,然而算法未检出,分类为FNTN(图像上所有不蕴含理论框和检测框的局部)通常计算中用不到。AP和mAPP-R曲线查全率和查准率通常是一对矛盾的度量,一般来说,查准率高时,查全率往往偏低;而查全率高时,查准率往往偏低。咱们如果把所有预测后果对样例进行排序,排在后面的是“最可能”的正例样本,以查准率为纵轴、查全率为横轴作图,失去一条”P-R曲线”。 P-R曲线直观的显示出一个算法在样本总体上的查全率、查准率状况。如果一个算法的P-R曲线被另一个算法的曲线齐全包住,则可断言后者优于前者。然而理论中,常常不同算法的P-R曲线是相互穿插的,这时就很难直观判断出两者的优劣。这时通常会考查平衡点(BEP)、F1度量、AP等指标。 APAP(average precision 均匀精度):AP是计算单类别的模型均匀准确度。对于指标检测工作,每一个类都能够计算出其Precision和Recall,每个类都能够失去一条P-R曲线,曲线下的面积就是AP的值。如果一个算法的AP值较大,也就是P-R曲线下的面积比拟大,能够认为此算法查准率和查全率整体上绝对 mAPmAP(mean of Average Precision) : 对所有类别的AP值求平均值。 Pascal VOC(VOC2007 & VOC2012)是评测指标检测算法的罕用数据集,VOC数据集应用一个固定的IoU阈值0.5来计算AP值。 然而在2014年之后,MS-COCO(Microsoft Common Objects)数据集逐步衰亡。 在COCO数据集中,更关注预测框地位的准确性,AP值是针对多个IoU阈值的AP平均值,具体的就是在0.5 和0.95之间取10个IoU阈值(0.5、0.55、0.6 ..... 0.9、0.95)。所以VOC数据集中mAP通常标记为mAP @ IoU=0.5, mAP@0.5 或者 mAP_50,在COCO 数据集中册标记为 mAP @ IoU=0.5:0.05:0.95, mAP @ IoU=0.5:0.95 或者 mAP@[0.5:0.95]. ...

July 14, 2020 · 1 min · jiezi

大话深度学习B站Up主麦叔教你零代码实现图像分类神经网络

之前,我在B站公布了“大话神经网络,10行代码不调包,听不懂你打我!”的视频后,因为简略易懂受到了很多小伙伴的喜爱! 但也有小伙伴直呼不够过瘾,因为大话神经网络只有4个神经元。 也有小伙伴问不写代码,是否能够做人工智能。应答这两个问题,我录制了新的视频,来实现一套基于CNN的图片分类的神经网络! 华为云视频:https://bbs.huaweicloud.com/videos/102831 在视频中,咱们先是运行一套基于tensorflow的代码,让大家体验原汁原味从数据筹备,训练,和应用模型的过程。相干的tensorflow代码,资源的下载都能够在我的github上取得:https://github.com/maishucode/tensorflow-image-detection 而后我会具体解说如何利用华为云ModelArts,零代码轻松实现一个图片分类网络,并且能够公布进来给你的敌人应用。 看不了视频的也能够看上面的图文教程: 1、在华为云的对象存储服务(OBS)中创立一个桶 抉择区域,输出桶名称,其余选项按需调整,这里咱们先都用默认值 2、桶创立完后,咱们在桶里新建几个文件夹目录构造如下,train用来放咱们的训练数据,out用来放咱们的训练后果 maishu └── food-img ├── out └── train 3、咱们把训练数据上传到train目录下,训练数据能够在上方的github链接里获取 4、回到ModelArts,抉择创立数据集 输出名称,数据集输出地位和数据集输入地位选咱们刚刚在OBS中创立好的目录 5、 数据集筹备好之后,咱们能够创立一个图片分类的我的项目 输出项目名称,数据集抉择“已有数据集”,抉择方才创立的数据集 6、我的项目创立好之后就能够开始训练了 点击开始训练,训练设置咱们用默认的参数就好,点击确定 工作创立胜利,略微期待一会 训练实现,点击部署 默认1小时后主动进行 7、 部署上线之后测试一下咱们的模型能够上传一张图片点击预测,右侧会呈现预测后果,能够看到模型胜利预测了咱们上面这张图片。 同时咱们也能够通过一个URL接口来调用咱们的模型 以上,祝大家学习高兴! 点击关注,第一工夫理解华为云陈腐技术~

July 13, 2020 · 1 min · jiezi

MNIST数据集下载及可视化

MNIST数据集介绍MNIST数据集官网:http://yann.lecun.com/exdb/mnist/ MNIST数据库是非常经典的一个数据集,就像你学编程起初写一个“Hello Word”的程序一样,学Deep Learning你就会写识别MNIST数据集的Model。 MNIST数据集是由0〜9手写数字图片和数字标签所组成的,由60000个训练样本和10000个测试样本组成,每个样本都是一张28 * 28像素的灰度手写数字图片。如下图所示。 MNIST数据库一共有四个文件案,分别为 1. train-images-idx3-ubyte.gz:训练集图片(9912422字节),55000张训练集,5000张验证集 2. train-labels-idx1-ubyte.gz:训练集图片对应的标签(28881字节), 3. t10k-images-idx3-ubyte .gz:测试集图片(1648877字节),10000张图片 4. t10k-labels-idx1-ubyte.gz:测试集图片对应的标签(4542字节) 图片是指0〜9手写数字图片,而标签则是对应该图片之实际数字。 MNIST 数据集下载及可视化TensorFlow提供了一个库可以对MNIST数据集进行下载和解压。具体的是使用TensorFlow中input_data.py脚本来读取数据及标签,使用这种方式时,可以不用事先下载好数据集,它会自动下载并存放到你指定的位置。具体程序如下所示: #!/usr/bin/env python# -*- coding:utf-8 -*-import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_dataimport matplotlib.pyplot as plt# MNIST_data指的是存放数据的文件夹路径,one_hot=True 为采用one_hot的编码方式编码标签mnist = input_data.read_data_sets('../datasets/MNIST_data/', one_hot=True)# load datatrain_X = mnist.train.imagestrain_Y = mnist.train.labelsprint(train_X.shape, train_Y.shape) # 输出训练集样本和标签的大小# 查看数据,例如训练集中第一个样本的内容和标签print(train_X[0]) # 是一个包含784个元素且值在[0,1]之间的向量print(train_Y[0])# 可视化样本,下面是输出了训练集中前4个样本fig, ax = plt.subplots(nrows=2, ncols=2, sharex='all', sharey='all')ax = ax.flatten()for i in range(4): img = train_X[i].reshape(28, 28) # ax[i].imshow(img,cmap='Greys') ax[i].imshow(img)ax[0].set_xticks([])ax[0].set_yticks([])plt.tight_layout()plt.show()运行结果为: 输出训练样本和标签的大小(55000, 784) (55000, 10)查看第一个样本的数据(数据很多,做了部分省略):[0. 0. 0. 0.3803922 0.37647063 0.3019608 0.46274513 0.2392157 0. 0. 0. 0.] print("查看第一个样本的标签"):[0. 0. 0. 0. 0. 0. 0. 1. 0. 0.]训练集中前4个样本图片显示: ...

July 4, 2020 · 1 min · jiezi

深度残差网络自适应参数化ReLU激活函数调参记录26Cifar109592

本文在调参记录25的基础上,将自适应参数化ReLU中间层的神经元个数,从2个增加到4个,同时添加了一个Dropout层,继续测试其在Cifar10数据集上的效果。 自适应参数化ReLU的基本原理: Keras程序: #!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Tue Apr 14 04:17:45 2020Implemented using TensorFlow 1.10.0 and Keras 2.2.1Minghang Zhao, Shisheng Zhong, Xuyun Fu, Baoping Tang, Shaojiang Dong, Michael Pecht,Deep Residual Networks with Adaptively Parametric Rectifier Linear Units for Fault Diagnosis, IEEE Transactions on Industrial Electronics, DOI: 10.1109/TIE.2020.2972458,Date of Publication: 13 February 2020@author: Minghang Zhao"""from __future__ import print_functionimport kerasimport numpy as npfrom keras.datasets import cifar10from keras.layers import Dense, Conv2D, BatchNormalization, Activation, Minimum, Lambda, Dropoutfrom keras.layers import AveragePooling2D, Input, GlobalAveragePooling2D, Concatenate, Reshapefrom keras.regularizers import l2from keras import backend as Kfrom keras.models import Modelfrom keras import optimizersfrom keras.preprocessing.image import ImageDataGeneratorfrom keras.callbacks import LearningRateSchedulerK.set_learning_phase(1)def cal_mean(inputs): outputs = K.mean(inputs, axis=1, keepdims=True) return outputs# The data, split between train and test sets(x_train, y_train), (x_test, y_test) = cifar10.load_data()x_train = x_train.astype('float32') / 255.x_test = x_test.astype('float32') / 255.x_test = x_test-np.mean(x_train)x_train = x_train-np.mean(x_train)print('x_train shape:', x_train.shape)print(x_train.shape[0], 'train samples')print(x_test.shape[0], 'test samples')# convert class vectors to binary class matricesy_train = keras.utils.to_categorical(y_train, 10)y_test = keras.utils.to_categorical(y_test, 10)# Schedule the learning rate, multiply 0.1 every 300 epochesdef scheduler(epoch): if epoch % 300 == 0 and epoch != 0: lr = K.get_value(model.optimizer.lr) K.set_value(model.optimizer.lr, lr * 0.1) print("lr changed to {}".format(lr * 0.1)) return K.get_value(model.optimizer.lr)# An adaptively parametric rectifier linear unit (APReLU)def aprelu(inputs): # get the number of channels # channels = inputs.get_shape().as_list()[-1] # get a zero feature map zeros_input = keras.layers.subtract([inputs, inputs]) # get a feature map with only positive features pos_input = Activation('relu')(inputs) # get a feature map with only negative features neg_input = Minimum()([inputs,zeros_input]) # define a network to obtain the scaling coefficients scales_p = Lambda(cal_mean)(GlobalAveragePooling2D()(pos_input)) scales_n = Lambda(cal_mean)(GlobalAveragePooling2D()(neg_input)) scales = Concatenate()([scales_n, scales_p]) scales = Dense(4, activation='linear', kernel_initializer='he_normal', kernel_regularizer=l2(1e-4))(scales) scales = BatchNormalization(momentum=0.9, gamma_regularizer=l2(1e-4))(scales) scales = Activation('relu')(scales) scales = Dropout(0.5)(scales) scales = Dense(1, activation='linear', kernel_initializer='he_normal', kernel_regularizer=l2(1e-4))(scales) scales = BatchNormalization(momentum=0.9, gamma_regularizer=l2(1e-4))(scales) scales = Activation('sigmoid')(scales) scales = Reshape((1,1,1))(scales) # apply a paramtetric relu neg_part = keras.layers.multiply([scales, neg_input]) return keras.layers.add([pos_input, neg_part])# Residual Blockdef residual_block(incoming, nb_blocks, out_channels, downsample=False, downsample_strides=2): residual = incoming in_channels = incoming.get_shape().as_list()[-1] for i in range(nb_blocks): identity = residual if not downsample: downsample_strides = 1 residual = BatchNormalization(momentum=0.9, gamma_regularizer=l2(1e-4))(residual) residual = aprelu(residual) residual = Conv2D(out_channels, 3, strides=(downsample_strides, downsample_strides), padding='same', kernel_initializer='he_normal', kernel_regularizer=l2(1e-4))(residual) residual = BatchNormalization(momentum=0.9, gamma_regularizer=l2(1e-4))(residual) residual = aprelu(residual) residual = Conv2D(out_channels, 3, padding='same', kernel_initializer='he_normal', kernel_regularizer=l2(1e-4))(residual) # Downsampling if downsample_strides > 1: identity = AveragePooling2D(pool_size=(1,1), strides=(2,2))(identity) # Zero_padding to match channels if in_channels != out_channels: zeros_identity = keras.layers.subtract([identity, identity]) identity = keras.layers.concatenate([identity, zeros_identity]) in_channels = out_channels residual = keras.layers.add([residual, identity]) return residual# define and train a modelinputs = Input(shape=(32, 32, 3))net = Conv2D(64, 3, padding='same', kernel_initializer='he_normal', kernel_regularizer=l2(1e-4))(inputs)net = residual_block(net, 20, 64, downsample=False)net = residual_block(net, 1, 128, downsample=True)net = residual_block(net, 19, 128, downsample=False)net = residual_block(net, 1, 256, downsample=True)net = residual_block(net, 19, 256, downsample=False)net = BatchNormalization(momentum=0.9, gamma_regularizer=l2(1e-4))(net)net = aprelu(net)net = GlobalAveragePooling2D()(net)outputs = Dense(10, activation='softmax', kernel_initializer='he_normal', kernel_regularizer=l2(1e-4))(net)model = Model(inputs=inputs, outputs=outputs)sgd = optimizers.SGD(lr=0.1, decay=0., momentum=0.9, nesterov=True)model.compile(loss='categorical_crossentropy', optimizer=sgd, metrics=['accuracy'])# data augmentationdatagen = ImageDataGenerator( # randomly rotate images in the range (deg 0 to 180) rotation_range=30, # Range for random zoom zoom_range = 0.2, # shear angle in counter-clockwise direction in degrees shear_range = 30, # randomly flip images horizontal_flip=True, # randomly shift images horizontally width_shift_range=0.125, # randomly shift images vertically height_shift_range=0.125)reduce_lr = LearningRateScheduler(scheduler)# fit the model on the batches generated by datagen.flow().model.fit_generator(datagen.flow(x_train, y_train, batch_size=100), validation_data=(x_test, y_test), epochs=1000, verbose=1, callbacks=[reduce_lr], workers=4)# get resultsK.set_learning_phase(0)DRSN_train_score = model.evaluate(x_train, y_train, batch_size=100, verbose=0)print('Train loss:', DRSN_train_score[0])print('Train accuracy:', DRSN_train_score[1])DRSN_test_score = model.evaluate(x_test, y_test, batch_size=100, verbose=0)print('Test loss:', DRSN_test_score[0])print('Test accuracy:', DRSN_test_score[1])实验结果: ...

July 3, 2020 · 69 min · jiezi