共计 1902 个字符,预计需要花费 5 分钟才能阅读完成。
人工智能畛域:面试常见问题超全(深度学习根底、卷积模型、反抗神经网络、预训练模型、计算机视觉、自然语言解决、举荐零碎、模型压缩、强化学习、元学习)
人工智能畛域:面试常见问题
1. 深度学习根底
- 为什么归一化可能进步求解最优解的速度?
- 为什么要归一化?
- 归一化与标准化有什么分割和区别?
- 归一化有哪些类型?
- Min-max 归一化个别在什么状况下应用?
- Z-score 归一化在什么状况下应用?
- 学习率过大或过小对网络会有什么影响?
- batch size 的大小对网络有什么影响?
- 在参数初始化时,为什么不能全零初始化?
- 激活函数的作用?
- sigmoid 函数有什么优缺点?
- RELU 函数有什么优缺点?
- 如何抉择适合的激活函数?
- 为什么 relu 不是全程可微 / 可导也能用于基于梯度的学习?
- 怎么计算 mAP?
- 穿插熵为什么能够作为分类工作的损失函数?
- CTC 办法次要应用了什么形式来解决了什么问题?
- 机器学习指标准确率,召回率,f1 指标是怎么计算的?
2. 卷积模型
- 相较于全连贯网络,卷积在图像处理方面有什么样的劣势?
- 卷积中感触野的计算形式?
- 1* 1 卷积的作用是什么?
- 深度可拆散卷积的计算形式以及意义是什么?
3. 预训练模型
- BPE 生成词汇表的算法步骤是什么?
- Multi-Head Attention 的工夫复杂度是多少?
- Transformer 的权重共享在哪个中央?
- Transformer 的 self-attention 的计算过程是什么?
- 讲一下 BERT 的基本原理
- 讲一下 BERT 的三个 Embedding 是做什么的?
- BERT 的预训练做了些什么?
- BERT,GPT,ELMO 的区别
- 请列举一下 BERT 的优缺点
- ALBERT 绝对于 BERT 做了哪些改良?
- ALBERT Sentence order prediction:NSP 和 SOP 的区别是什么?
4. 反抗神经网络
- GAN 是怎么训练的?
- GAN 生成器输出为什么是随机噪声
- GAN 生成器最初一层激活函数为什么通常应用 tanh()?
- GAN 应用的损失函数是什么?
- GAN 中模式坍塌 (model callapse 指什么?)
- GAN 模式坍塌解决办法
- GAN 模型训练不稳固的起因
- GAN 模式训练不稳固解决办法 or 训练 GAN 的教训 / 技巧
- 深度学习进阶篇 [9]:反抗生成网络 GANs 综述、代表变体模型、训练策略、GAN 在计算机视觉利用和常见数据集介绍,以及前沿问题解决
5. 计算机视觉
- ResNet 中 Residual block 解决了什么问题?
- 应用 Cutout 进行数据增广有什么样的劣势?
- GoogLeNet 应用了怎么的形式进行了网络翻新?
- ViT 算法中是如何将 Transformer 构造利用到图像分类畛域的?
- NMS 的原理以及具体实现?
- OCR 罕用检测办法有哪几种、各有什么优缺点
- 介绍一下 DBNet 算法原理
- DBNet 输入是什么?
- DBNet loss
- 介绍以下 CRNN 算法原理
- 介绍一下 CTC 原理
- OCR 罕用的评估指标
- OCR 目前还存在哪些挑战 / 难点?
6. 自然语言解决
- RNN 个别有哪几种罕用建模形式?
- LSTM 是如何改良 RNN,放弃长期依赖的?
- LSTM 在每个时刻是如何交融之前信息和以后信息的?
- 应用 LSTM 如何简略结构一个情感剖析工作?
- 介绍一下 GRU 的原理
- word2vec 提出了哪两种词向量训练形式
- word2vec 提出了负采样的策略,它的原理是什么,解决了什么样的问题?
- word2vec 通过什么样工作来训练词向量的?
- 如果让你实现一个命名实体辨认工作,你会怎么设计?
- 在命名实体辨认中,个别在编码网络的后边增加 CRF 层有什么意义
- 介绍一下 CRF 的原理
- CRF 是如何计算一条门路分数的?
- CRF 是如何解码序列的?
- 应用 bilstm+CRF 做命名实体辨认时,工作的损失函数是怎么设计的?
- BERT 的构造和原理是什么?
- BERT 应用了什么预训练任务?
- 说一下 self-attention 的原理?
7. 举荐零碎
- DSSM 模型的原理是什么?
- DSSM 怎么解决 OOV 问题的?
- 举荐零碎的 PV 和 UV 代表什么?
- 协同过滤举荐和基于内容的举荐的区别是什么?
- 说一说举荐零碎的穿插验证的办法?
8. 模型压缩
- 为什么须要进行模型压缩?
- 模型压缩的根本办法有哪些?
- DynaBERT 模型的翻新点是什么?
- TinyBERT 是如何对 BERT 进行蒸馏的?
9. 强化学习
- DQN 网络的翻新点是什么?
- 什么是马尔可夫决策过程?
- 什么是 SARSA?
- 什么是 Q -Learning?
10 元学习
- 元学习概念、学习期、工作原理、模型分类等
- 基于优化的元学习 -MAML 模型、LEO 模型、Reptile 模型优缺点和改良技巧
- 基于度量的元学习:SNAIL、RN、PN、MN 翻新点
- 基于模型的元学习 -Learning to Learn 优化策略、Meta-Learner LSTM 原理和技巧
更多优质内容请关注公号:汀丶人工智能
正文完