• 当前频道:学习笔记

人工智能 浅析Swin transformer模型(通俗易懂版)

  Swin Transformer: Hierarchical Vision Transformer using Shifted Windows 1. 论文信息 原文地址:https://arxiv.org/abs/2103.14030 官网地址:https://github.com/microsoft/S

2022-07-06 11:19:07 165 0 2
阅读详情

人工智能 循环神经网络(RNN)详解-计算公式推导

  RNN计算公式 RNN结构图结构 图中变量名介绍 a:上一个时间步的激活值(activate value) x :第x个输入(一句话中第x个字) y:第y个输出(预测值) Waa:与激活值进行计算的参数。其中第一个a是指当前参数是计算a(激活值)的,第二个a是指当前参数与激活值进行乘运算 Wax:与输入进

2022-02-15 22:14:54 756 0 2
阅读详情

人工智能 SEnet 通道注意力模块

开篇一张图: 变量和图片解释: 三个正方体:特征向量,比如说图像的特征,H表示图片高度、W表示图片宽、C表示通道(黑白1通道、彩色3通道) 字母: X表示输入特征; Ftr表示的是对X进行一次卷积,也就是对特征进行一系列的操作之后的结果,表示为U; Fsq(.)表示的是对U进行压缩; Fex(.)表示的是对U进行激活(

2021-12-30 21:20:04 666 0 5
阅读详情

人工智能 论文阅读–Semantic Grouping Network for Video Captioning

  Semantic Grouping Network for Video Captioning abstract 提出了Semantic Grouping Network(SGN)网络: 用部分已经解码的字幕中,选择可可以区分的单词短语对视频帧进行分组,也就是将表达不同意思的帧分组(与聚类相似); 对语义对

2021-12-28 20:24:50 581 0 4
阅读详情

人工智能 简析LSTM()函数的输入参数和输出结果(pytorch)

  LSTM()函数 输入参数 参数有input_size, hidden_size, num_layers, bias, batch_first, dropout, bidrectional. 常用的就是Input_size就是输入的大小,一般就是多维度的最后一个维度的值。 hidden_size 是输出的

2021-08-30 14:45:16 809 2 8
阅读详情

学习笔记 Linux(Ubuntu)通过NFS服务挂载群晖NAS为虚拟磁盘

  0. 前言 由于服务器存储空间有限,但是如果有个外置的NAS存储服务就能够很好的解决服务器的磁盘问题。下面就简单介绍一下如何将NAS挂载在服务器上,简介的扩充磁盘。 1. 设置NAS,共享目录 1.1 文件服务 设置 首先进入NAS服务,打开 [控制面板] ,在控制面版包含** 文件服务 ** 功能如图所

2021-08-11 21:08:45 1234 0 6
阅读详情

人工智能 Transformer 网络

Transformer 从整体框架来讲,Transformer其实就是encode-decode框架,即就是编码解码。只不过在编码和解码的内部比较复杂,经过了多次复杂计算。 比如说,encode编码阶段,其内部整体框架如图所示。 ​ 在图上可以看出,首先输入所有的向量,然后经过多次block的计算,最终得到相同数量的输

2021-04-18 18:05:45 743 2 5
阅读详情
  • 1
  • 2
  • 3
  • 4
前往