资讯详情

【积累】机器学习知识

机器学习知识

Q 问题们

1.归一化层加在哪里?它不同于数据预处理中的归一化?dropout加在哪里,什么时候用?

答:全连接层一般加入归一化层FC和卷积层conv后面,激活层之前。dropout似乎一般都在FC防止过拟合。

以前在神经网络训练中,只对输入层数据进行归一化处理,。要知道,虽然我们对输入数据进行了归一化处理,但是输入数据了σ ( W X b ) 这样的矩阵乘法和非线性操作之后,其。如果能在网络中间进行归一化处理,是否能改善网络训练?答案是肯定的。

2.如何设置卷积核内容?通常看设置卷积核的大小,没有看到设置卷积核的内容?

答:卷积核是算法自己学习的,也就是说。卷积核的内容代表权重。高斯滤波器应该是什么?

3.卷积核滑动窗也有步长吗?这里的步长有什么用?same、valid有关系吗?也就是说,图像大小在完成卷积后是否会改变。

4.不同通道的卷积核值不同吗?比如这张图:

(对了,卷积核的通道数应与输入图像的通道数一致)

5.卷积层也有步长吗?设置在代码的地方?

6.1×1卷积核有什么用?

答:大型网络将应用于1,以减少参数×1卷积核。

0 一些不严谨的感觉

  1. 若特征过多,则采用归一化、标准化等处理。

  2. 学习sklearn这个库里有很多函数,直接调用fit可以拟合。

  3. 一般都是为了好的拟合而寻找方案是呈现成本函数,找到最低点很方便。

  4. 主要类型。

  5. 有些公式中时,,这是为了,使

  6. 决策边界是模型函数绘制的曲线。

  7. 采用上采样、下采样场景:(分类时)正负样本分布不平衡。

  8. 在代码中,在前面添加此行,以避免莫名其妙的红字显示。

    import warnings warnings.filterwarnings('ignore') 
  9. dense表示全连接层。

  10. LRN:局部响应归一化。

  11. 变形卷积核,可分离卷积?卷积神经网络十大拍案惊艳。

  12. 在相同的网络下,pre-training fine-tuning work最好的。论文阅读笔记:Object Detection Networks on Convolutional Feature Maps

※ 积累

※.1 数据集

链接1 ??链接2

可到全国数字博物馆集群-博物中国去爬虫

※.2 数据增强模式

  • YOLOv5中的马赛克增强模式

  • 生成高斯混合模型对抗网络数据增强算法

  • 利用Albumentations数据增强工具。Pytorch使用albumentations实现数据增强

  • 预处理

    • 原始数据,然后将图像尺寸归一化,通过平移、翻转等数据操作扩展数据集
    • 原始数据集的尺寸直接归一化,不同角度的数据增强翻转
  • Keras图像数据增强工具提供Image Data Generator

※.3 Github代码

1 一些基本概念

1.0 监督员的定义

参考博客:有监督、半监督、无监督、弱监督、自监督的定义和区别

简单比喻全监督、半监督、无监督学习

  • 监督:用标签数据进行培训;(平时做的题目有答案,参考答案全对;)

  • 无监督:无标签数据培训;(平时做的题目没有答案;)

  • 半监督:同时使用标签和无标签数据进行培训。最近很热,这个领域发展很快。以前通常是两个阶段的训练,先用标签数据训练(小规模)Teacher模型,然后用这个模型预测伪标签(大规模)无标签数据,作为Student模型训练数据;目前直接有很多end-to-end地面训练,大大减少半监督训练工作;(平时做的题目,一半有答案;)

  • 自我监督:训练无标记数据,让模型通过一些方法学习数据inner representation,再接下游任务,比如加一个mlp作为分类器等。但在接受下游任务后,您仍然需要在特定的标签数据上finetune,只是有时候可以选择完全固定前层,只是finetune网络连接的网络参数。(域适应:在平时做的题目中,总结训练,将经验转移到高考中,做出答案。)

  • 弱监督:用有标签数据训练。(平时做的题有答案,但答案不一定正确;)

上述概念的分类并不严格相互排斥。

1.1 性能评价指标

1.1.0 baseline,backbone和benchmark

一般用benchmark data 做实验,测试A B C D四个模型,然后结果假设是的模型C,作为baseline,看看其他模型比C增加了多少。

直接用别人的模型baseline,然后在别人的模型上添加各种模型components。那这个时候可以把baseline看成benchmark。我的理解是benchmark在不同的语境下,它是每个人都认可的标准benchmark指令可能不同。例如,有人得到了一个非常好的数据集,它对应于某个数据集task,那么作者肯定会提出解决方案task模型,然后很多人follow这个task,这个数据集自然是benchmark data,这种方法是benchmark method(model)。baseline和benchmark有什么区别?

  • (基线):模型能达到的

  • :现在的模型能达到更好的效果;再往上就是state of art(SOTA)行业顶尖。

  • (核心、支柱):骨干网络。在神经网络中,尤其是CV一般先领域(常见的有vggnet,resnet,谷歌的inception),这部分是整个CV任务的基础,因为后续的下游任务是基于提取的图像特征(如分类、生成等)。backbone是什么意思

1.1.1 模型评价指标AUC(area under the curve)

AUC是机器学习领域的模型评价指标。根据维基百科的定义,AUC(area under the curve)是ROC曲线下的面积。

参考博客:模型评价指标:AUC(area under the curve)

评价指标要好好的去设计一下,因为正负样本可能不均衡。

1.1.2 二分类问题

正样本(positive)、负样本(negative)

:预测为真,实际为真

:预测为假,实际为假

:预测为假,实际为真。

:预测为真,实际为假。

(recall),也称(true positive rate,TPR),。(实际正样本中被预测为正的概率,横着看) Recall ⁡ ( T P R ) = T P T P + F N \operatorname{Recall}(T P R)=\frac{T P}{T P+F N} Recall(TPR)=TP+FNTP​ (precision)也称,阳性预测值(positive predictive value, )。(预测为正样本中被预测为正的概率,竖着看) Precision ⁡ ( P P V ) = T P T P + F P \operatorname{Precision}(PPV)=\frac{TP}{TP+FP} Precision(PPV)=TP+FPTP​ 也称 (F1-Score),描述的是召回率与精确度之间的关系,公式为: Dice ⁡ = 2 T P 2 T P + F P + F N \operatorname{Dice}=\frac{2TP}{2TP+FP+FN} Dice=2TP+FP+FN2TP​ 或 F 1 ⁡ = 2 × P P V × T P R P P V + T P R \operatorname{F_1}=\frac{2×PPV×TPR}{PPV+TPR} F1​=PPV+TPR2×PPV×TPR​ 是一个特殊值,其更一般的表示为 F-Score或 F-Measure: F − S c o r e = ( α 2 + 1 ) P P V × T P R α 2 P P V + T P R F-Score=(α^2+1)\frac{PPV×TPR}{α^2PPV+TPR} F−Score=(α2+1)α2PPV+TPRPPV×TPR​ 其中α为对TPR与PPV的加权求和。召回率与精确度一样重要时,令α=1,即为 F 1 F_1 F1​;当认为精确度重要时,令α<1;反之认为召回率重要些时,则令α>1。

(specificity)也称 TNR(true negativerate),表示负样本被准确预测,公式为: S p e c i f i c i t y ( T N R ) = T N T N + F P Specificity(TNR)=\frac{TN}{TN+FP} Specificity(TNR)=TN+FPTN​ 特效度与误判率成反比,在检测中特效度低,则说明部分样本原本是负样本被模型误判成了缺陷。

(false positive rate, FPR),又称: F P R = F P T N + F P FPR=\frac{FP}{TN+FP} FPR=TN+FPFP​ (false negative rate, FNR),又称: F N R = F N T N + T P FNR=\frac{FN}{TN+TP} FNR=TN+TPFN​ (accuracy, ACC),一般情况下,ACC 越高模型越好,但样本不平衡时,ACC 不能很好地评估模型性能。 A C C = T P + T N T P + F P + T N + F N A C C=\frac{T P+T N}{T P+F P+T N+F N} ACC=TP+FP+TN+FNTP+TN​ (balanced accuracy,BA): B A = F N T N + T P BA=\frac{FN}{TN+TP} BA=TN+TPFN​ ( Matthews correlation coefficient, MCC)综合了 TPR、TNR、FPR、FNR,是一种比较全面的指标,可以评估样本不平衡下的缺陷检测模型性能。 M C C = T P × T N − F P × F N ( T P + F P ) ( T P + F N ) ( T N + F P ) ( T N + F N ) M C C=\frac{T P \times T N-F P \times F N}{\sqrt{(T P+F P)(T P+F N)(T N+F P)(T N+F N)}} MCC=(TP+FP)(TP+FN)(TN+FP)(TN+FN) ​TP×TN−FP×FN​ (mean average precision)是指各个类别预测正确的样本数占总样本数的平均值,越大越好。mAP 中的“AP(average precision)”是指平均精确度。当n=2时,则为二分类问题。当遇到多分类问题时n=类别数+1,因为需要加上背景。 m A P = ∑ P P V n mAP=\frac{\sum PPV}{n} mAP=n∑PPV​ (pixel accuracy, ),常用于语义分割判断分对的像素数量占总像素数量的比率: P A = ∑ i = 0 k p i i ∑ i = 0 k ∑ j = 0 k p i j P A=\frac{\sum_{i=0}^{k} p_{i i}}{\sum_{i=0}^{k} \sum_{j=0}^{k} p_{i j}} PA=∑i=0k​∑j=0k​pij​∑i=0k​pii​​ (mean pixel accuracy, ),是对 PA 求平均。 m P A = 1 k + 1 ∑ i = 0 k p i i ∑ i = 0 k p i j m P A=\frac{1}{k+1} \sum_{i=0}^{k} \frac{p_{i i}}{\sum_{i=0}^{k} p_{i j}} mPA=k+11​i=0∑k​∑i=0k​pij​pii​​ (mean intersection over union, )表示标注的准确性。 m I o U = 1 k + 1 ∑ i = 0 k p i i ∑ i = 0 k p i j + ∑ j = 0 k p j i − p i i m I o U=\frac{1}{k+1} \sum_{i=0}^{k} \frac{p_{i i}}{\sum_{i=0}^{k} p_{i j}+\sum_{j=0}^{k} p_{j i}-p_{i i}} mIoU=k+11​i=0∑k​∑i=0k​pij​+∑j=0k​pji​−pii​pii​​ PA、mPA、mIoU 都为判断语义分割准确率的指标,其中 k 为总类别数, k+1 为加上背景, P i j P_{ij} Pij​为第 i i i类像素被判为 j j j类的数量, 标签: 二极管pj3306q24j4pj连接器二极管后面带tp

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台