人工智能畛域:面试常见问题超全(深度学习根底、卷积模型、反抗神经网络、预训练模型、计算机视觉、自然语言解决、举荐零碎、模型压缩、强化学习、元学习)

人工智能畛域:面试常见问题

1.深度学习根底

  • 为什么归一化可能进步求解最优解的速度?
  • 为什么要归一化?
  • 归一化与标准化有什么分割和区别?
  • 归一化有哪些类型?
  • Min-max归一化个别在什么状况下应用?
  • Z-score归一化在什么状况下应用?
  • 学习率过大或过小对网络会有什么影响?
  • batch size的大小对网络有什么影响?
  • 在参数初始化时,为什么不能全零初始化?
  • 激活函数的作用?
  • sigmoid函数有什么优缺点?
  • RELU函数有什么优缺点?
  • 如何抉择适合的激活函数?
  • 为什么 relu 不是全程可微/可导也能用于基于梯度的学习?
  • 怎么计算mAP?
  • 穿插熵为什么能够作为分类工作的损失函数?
  • CTC办法次要应用了什么形式来解决了什么问题?
  • 机器学习指标准确率,召回率,f1指标是怎么计算的?

2.卷积模型

  • 相较于全连贯网络,卷积在图像处理方面有什么样的劣势?
  • 卷积中感触野的计算形式?
  • 1*1卷积的作用是什么?
  • 深度可拆散卷积的计算形式以及意义是什么?

3.预训练模型

  • BPE生成词汇表的算法步骤是什么?
  • Multi-Head Attention的工夫复杂度是多少?
  • Transformer的权重共享在哪个中央?
  • Transformer的self-attention的计算过程是什么?
  • 讲一下BERT的基本原理
  • 讲一下BERT的三个Embedding是做什么的?
  • BERT的预训练做了些什么?
  • BERT,GPT,ELMO的区别
  • 请列举一下BERT的优缺点
  • ALBERT绝对于BERT做了哪些改良?
  • ALBERT Sentence order prediction:NSP和SOP的区别是什么?

4.反抗神经网络

  • GAN是怎么训练的?
  • GAN生成器输出为什么是随机噪声
  • GAN生成器最初一层激活函数为什么通常应用tanh()?
  • GAN应用的损失函数是什么?
  • GAN中模式坍塌(model callapse指什么?)
  • GAN模式坍塌解决办法
  • GAN模型训练不稳固的起因
  • GAN模式训练不稳固解决办法 or 训练GAN的教训/技巧
  • 深度学习进阶篇[9]:反抗生成网络GANs综述、代表变体模型、训练策略、GAN在计算机视觉利用和常见数据集介绍,以及前沿问题解决

5.计算机视觉

  • ResNet中Residual block解决了什么问题?
  • 应用Cutout进行数据增广有什么样的劣势?
  • GoogLeNet应用了怎么的形式进行了网络翻新?
  • ViT算法中是如何将Transformer构造利用到图像分类畛域的?
  • NMS的原理以及具体实现?
  • OCR罕用检测办法有哪几种、各有什么优缺点
  • 介绍一下DBNet算法原理
  • DBNet 输入是什么?
  • DBNet loss
  • 介绍以下CRNN算法原理
  • 介绍一下CTC原理
  • OCR罕用的评估指标
  • OCR目前还存在哪些挑战/难点?

6.自然语言解决

  • RNN个别有哪几种罕用建模形式?
  • LSTM是如何改良RNN,放弃长期依赖的?
  • LSTM在每个时刻是如何交融之前信息和以后信息的?
  • 应用LSTM如何简略结构一个情感剖析工作?
  • 介绍一下GRU的原理
  • word2vec提出了哪两种词向量训练形式
  • word2vec提出了负采样的策略,它的原理是什么,解决了什么样的问题?
  • word2vec通过什么样工作来训练词向量的?
  • 如果让你实现一个命名实体辨认工作,你会怎么设计?
  • 在命名实体辨认中,个别在编码网络的后边增加CRF层有什么意义
  • 介绍一下CRF的原理
  • CRF是如何计算一条门路分数的?
  • CRF是如何解码序列的?
  • 应用bilstm+CRF做命名实体辨认时,工作的损失函数是怎么设计的?
  • BERT的构造和原理是什么?
  • BERT应用了什么预训练任务?
  • 说一下self-attention的原理?

7.举荐零碎

  • DSSM模型的原理是什么?
  • DSSM怎么解决OOV问题的?
  • 举荐零碎的PV和UV代表什么?
  • 协同过滤举荐和基于内容的举荐的区别是什么?
  • 说一说举荐零碎的穿插验证的办法?

8.模型压缩

  • 为什么须要进行模型压缩?
  • 模型压缩的根本办法有哪些?
  • DynaBERT模型的翻新点是什么?
  • TinyBERT是如何对BERT进行蒸馏的?

9.强化学习

  • DQN网络的翻新点是什么?
  • 什么是马尔可夫决策过程?
  • 什么是SARSA?
  • 什么是Q-Learning?

10 元学习

  • 元学习概念、学习期、工作原理、模型分类等
  • 基于优化的元学习-MAML模型、LEO模型、Reptile模型优缺点和改良技巧
  • 基于度量的元学习:SNAIL、RN、PN、MN翻新点
  • 基于模型的元学习-Learning to Learn优化策略、Meta-Learner LSTM原理和技巧

更多优质内容请关注公号:汀丶人工智能