资讯详情

我的论文串讲「一」

文章目录

    • [Done]2022-arXiv-It’s DONE Direct ONE-shot learning without training optimization
      • Abstract
      • Introduction
      • Related work
      • Methodology
      • Implementation and Dataset
      • Results and Discussion
    • [Phase]2021-SPIE-Deep neural networks to improve the dynamic range of Zernike phase-contrast wavefront sensing in high-contrast imaging systems
      • Abstract
      • Introduction
      • Optical Model and Simulation
      • Static and Dynamic Neural Network Technology
      • Results
    • [Light]2022-arXiv-EdgeViTs Competing Light weight CNNs on Mobile Devices with Vision Transformers
      • 简介
      • 架构
      • Local-Global-Local bottleneck
        • Local aggregation
        • Global sparse attention
        • Local propagation
        • PyTorch 实现
      • 结构变体
      • ImageNeT 精度 SOTA
      • 实时与精度对比
      • 目标检测任务
      • 语义分割任务

[Done]2022-arXiv-It’s DONE Direct ONE-shot learning without training optimization

Abstract

  1. 使用预训练 DNN 网络

  2. 往分类器中添加一个新的类,即没有训练优化也没有对其他类修改,直接使用新附加类的数据输入模型后得到的最终密集层的权重作为新类的连接权,为新类提供一个输出神经元

    image-20220525102100155
  3. 性能完全取决于预训练模型

Introduction

  1. 受大脑启发,程序简单,首创
  2. 无优化,计算成本低
  3. 无超参数容易重现

Related work

  1. 测量学习是为了减少训练数据之间的测量空间距离,如 Siamese 网络
  2. 增加训练数据的数量,如使用半监督或对抗
  3. 元学习 提高学习效率,从少量训练数据中学习(从出发点看,元学习有点相似 model pretraining 都是让网络有一些先验知识)

Methodology

y i = x ? w i b i = ∥ x ∥ ∥ w i ∥ c o s θ b i , i ∈ c l a s s { 1 , ? ? , N } y_i = x\cdot w_i b_i=\parallel x\parallel\parallel w_i\parallel cos\theta b_i,i\in class\{1,\cdots,N\} y i ​=x⋅wi​+bi​=∥x∥∥wi​∥cosθ+bi​,i∈class{ 1,⋯,N} y j = x ⋅ w j + b j = ∥ x ∥ ∥ w j ∥ c o s θ + b j , j ∈ c l a s s { 1 , ⋯   , N + 1 , ⋯   } y_j = x\cdot w_j + b_j=\parallel x\parallel\parallel w_j\parallel cos\theta + b_j,j\in class\{1,\cdots,N+1,\cdots\} yj​=x⋅wj​+bj​=∥x∥∥wj​∥cosθ+bj​,j∈class{ 1,⋯,N+1,⋯}

  1. quantile normalization 即分位数归一化,生物信息学中的标准技术,因为 x x x(神经活动)与 W W W(突触强度)的统计特性可能是不同的,例如令 w j w_j wj​ 的均值与方差与 W W W 相同

    但是不清楚是否需要三阶矩,因此最简单的方法就是不分开来讨论而是使 w j w_j wj​ 和 W W W 的每一个元素的统计性质(均值)都相同。在 x x x 向 w j w_j wj​ 转换时,分位数归一化利用 x x x 的秩信息与 W W W 的值信息,使 w j w_j wj​ 与 W W W 之间的所有分位数相等,即 w j w_j wj​ 向量各元素的统计性质与原始 W W W 矩阵的统计性质相同(概率分布相同)

Implementation and Dataset

Results and Discussion

[Phase]2021-SPIE-Deep neural networks to improve the dynamic range of Zernike phase-contrast wavefront sensing in high-contrast imaging systems

Abstract

传感器(ZWFS)用于大口径拼接口径望远镜的像差测量和校正。ZWFS 实现了亚纳米波前的精确传感,但其响应是非线性的。最近,利用深度神经网络(DNNs)从强度测量中实现相位检索已在几种光学系统中得到证实。在基于 Lyot 的低阶波前传感器(LLOWFS)线性系统中,使用 DNNs 而不是线性回归已被证明可以极大地扩展传感器的可用动态范围。在这项工作中,我们研究了使用两种不同类型的机器学习算法来扩展 ZWFS 的动态范围。利用模拟的 ZWFS 强度测量,我们验证了网络训练技术和目前的相位重建结果,ZWFS 传感器的捕获范围增加了 3.4 倍的单一波长和 4.5 倍的四波长

Introduction

循环单元用于沿定义了某些动态的轴(通常是时间轴)接收多个输入,可以通过在多个波长收集 ZWFS 数据并实现网络沿波长轴的递归来提供的附加信息

Optical Model and Simulation

Static and Dynamic Neural Network Technology

标签: wfs线位移传感器

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台