关于图像识别:人工智能领域面试常见问题超全深度学习基础卷积模型预训练模型计算机视觉自然语言处理推荐系统

3次阅读

共计 1902 个字符,预计需要花费 5 分钟才能阅读完成。

人工智能畛域:面试常见问题超全(深度学习根底、卷积模型、反抗神经网络、预训练模型、计算机视觉、自然语言解决、举荐零碎、模型压缩、强化学习、元学习)

人工智能畛域:面试常见问题

1. 深度学习根底

  • 为什么归一化可能进步求解最优解的速度?
  • 为什么要归一化?
  • 归一化与标准化有什么分割和区别?
  • 归一化有哪些类型?
  • Min-max 归一化个别在什么状况下应用?
  • Z-score 归一化在什么状况下应用?
  • 学习率过大或过小对网络会有什么影响?
  • batch size 的大小对网络有什么影响?
  • 在参数初始化时,为什么不能全零初始化?
  • 激活函数的作用?
  • sigmoid 函数有什么优缺点?
  • RELU 函数有什么优缺点?
  • 如何抉择适合的激活函数?
  • 为什么 relu 不是全程可微 / 可导也能用于基于梯度的学习?
  • 怎么计算 mAP?
  • 穿插熵为什么能够作为分类工作的损失函数?
  • CTC 办法次要应用了什么形式来解决了什么问题?
  • 机器学习指标准确率,召回率,f1 指标是怎么计算的?

2. 卷积模型

  • 相较于全连贯网络,卷积在图像处理方面有什么样的劣势?
  • 卷积中感触野的计算形式?
  • 1* 1 卷积的作用是什么?
  • 深度可拆散卷积的计算形式以及意义是什么?

3. 预训练模型

  • BPE 生成词汇表的算法步骤是什么?
  • Multi-Head Attention 的工夫复杂度是多少?
  • Transformer 的权重共享在哪个中央?
  • Transformer 的 self-attention 的计算过程是什么?
  • 讲一下 BERT 的基本原理
  • 讲一下 BERT 的三个 Embedding 是做什么的?
  • BERT 的预训练做了些什么?
  • BERT,GPT,ELMO 的区别
  • 请列举一下 BERT 的优缺点
  • ALBERT 绝对于 BERT 做了哪些改良?
  • ALBERT Sentence order prediction:NSP 和 SOP 的区别是什么?

4. 反抗神经网络

  • GAN 是怎么训练的?
  • GAN 生成器输出为什么是随机噪声
  • GAN 生成器最初一层激活函数为什么通常应用 tanh()?
  • GAN 应用的损失函数是什么?
  • GAN 中模式坍塌 (model callapse 指什么?)
  • GAN 模式坍塌解决办法
  • GAN 模型训练不稳固的起因
  • GAN 模式训练不稳固解决办法 or 训练 GAN 的教训 / 技巧
  • 深度学习进阶篇 [9]:反抗生成网络 GANs 综述、代表变体模型、训练策略、GAN 在计算机视觉利用和常见数据集介绍,以及前沿问题解决

5. 计算机视觉

  • ResNet 中 Residual block 解决了什么问题?
  • 应用 Cutout 进行数据增广有什么样的劣势?
  • GoogLeNet 应用了怎么的形式进行了网络翻新?
  • ViT 算法中是如何将 Transformer 构造利用到图像分类畛域的?
  • NMS 的原理以及具体实现?
  • OCR 罕用检测办法有哪几种、各有什么优缺点
  • 介绍一下 DBNet 算法原理
  • DBNet 输入是什么?
  • DBNet loss
  • 介绍以下 CRNN 算法原理
  • 介绍一下 CTC 原理
  • OCR 罕用的评估指标
  • OCR 目前还存在哪些挑战 / 难点?

6. 自然语言解决

  • RNN 个别有哪几种罕用建模形式?
  • LSTM 是如何改良 RNN,放弃长期依赖的?
  • LSTM 在每个时刻是如何交融之前信息和以后信息的?
  • 应用 LSTM 如何简略结构一个情感剖析工作?
  • 介绍一下 GRU 的原理
  • word2vec 提出了哪两种词向量训练形式
  • word2vec 提出了负采样的策略,它的原理是什么,解决了什么样的问题?
  • word2vec 通过什么样工作来训练词向量的?
  • 如果让你实现一个命名实体辨认工作,你会怎么设计?
  • 在命名实体辨认中,个别在编码网络的后边增加 CRF 层有什么意义
  • 介绍一下 CRF 的原理
  • CRF 是如何计算一条门路分数的?
  • CRF 是如何解码序列的?
  • 应用 bilstm+CRF 做命名实体辨认时,工作的损失函数是怎么设计的?
  • BERT 的构造和原理是什么?
  • BERT 应用了什么预训练任务?
  • 说一下 self-attention 的原理?

7. 举荐零碎

  • DSSM 模型的原理是什么?
  • DSSM 怎么解决 OOV 问题的?
  • 举荐零碎的 PV 和 UV 代表什么?
  • 协同过滤举荐和基于内容的举荐的区别是什么?
  • 说一说举荐零碎的穿插验证的办法?

8. 模型压缩

  • 为什么须要进行模型压缩?
  • 模型压缩的根本办法有哪些?
  • DynaBERT 模型的翻新点是什么?
  • TinyBERT 是如何对 BERT 进行蒸馏的?

9. 强化学习

  • DQN 网络的翻新点是什么?
  • 什么是马尔可夫决策过程?
  • 什么是 SARSA?
  • 什么是 Q -Learning?

10 元学习

  • 元学习概念、学习期、工作原理、模型分类等
  • 基于优化的元学习 -MAML 模型、LEO 模型、Reptile 模型优缺点和改良技巧
  • 基于度量的元学习:SNAIL、RN、PN、MN 翻新点
  • 基于模型的元学习 -Learning to Learn 优化策略、Meta-Learner LSTM 原理和技巧

更多优质内容请关注公号:汀丶人工智能

正文完
 0