• 当前标签:神经网络

人工智能 浅析Swin transformer模型(通俗易懂版)

  Swin Transformer: Hierarchical Vision Transformer using Shifted Windows 1. 论文信息 原文地址:https://arxiv.org/abs/2103.14030 官网地址:https://github.com/microsoft/S

2022-07-06 11:19:07 835 0 4
阅读详情

人工智能 循环神经网络(RNN)详解-计算公式推导

  RNN计算公式 RNN结构图结构 图中变量名介绍 a:上一个时间步的激活值(activate value) x :第x个输入(一句话中第x个字) y:第y个输出(预测值) Waa:与激活值进行计算的参数。其中第一个a是指当前参数是计算a(激活值)的,第二个a是指当前参数与激活值进行乘运算 Wax:与输入进

2022-02-15 22:14:54 2065 0 2
阅读详情

知识小库 h5py读取h5文件报错:Unable to open object (bad heap free list)

前言 最近在复现一篇论文的代码时发现了一个致命问题,研究了一天,终于还是破解了。网上找了半天,一个类似的解决方案都没有,记录一下。 错误出现的代码位置: self.feature_app_file = h5py.File(self.opt.input_app_feature, 'r', driver='core') 错

2022-01-30 21:47:46 1931 0 8
阅读详情

人工智能 简析LSTM()函数的输入参数和输出结果(pytorch)

  LSTM()函数 输入参数 参数有input_size, hidden_size, num_layers, bias, batch_first, dropout, bidrectional. 常用的就是Input_size就是输入的大小,一般就是多维度的最后一个维度的值。 hidden_size 是输出的

2021-08-30 14:45:16 1388 2 9
阅读详情

人工智能 Linux(Ubuntu20.04)安装配置Caffe环境(No module named caffe)

0. 前言 ImportError: No module named caffe 我滴天,这咖啡真不好喝! 我感觉我为了解决这个问题,都能写一篇论文了,整整搞了两天,是真麻烦,所以,我建议,如果能换成不用caffe的代码的话,尽量别用caffe跑了,太难了~ 1. 尝试解决办法 首先,网上推荐的是用编译的方式进行安装配

2021-08-17 11:58:46 1535 0 4
阅读详情

人工智能 Transformer 网络

Transformer 从整体框架来讲,Transformer其实就是encode-decode框架,即就是编码解码。只不过在编码和解码的内部比较复杂,经过了多次复杂计算。 比如说,encode编码阶段,其内部整体框架如图所示。 ​ 在图上可以看出,首先输入所有的向量,然后经过多次block的计算,最终得到相同数量的输

2021-04-18 18:05:45 1128 2 6
阅读详情

人工智能 自注意力机制(Self-attention)

自注意力机制(Self-attention) 背景 最近,学了好多东西,今天看了一下李飞飞老师讲解的自注意力机制,因此在这记录一下,以供日后复习,同时自己学习消化知识也好。 综述 一般来说,模型的输入输出有三种: N个输入,经过模型计算后,输出N个结果,也就是对输入向量进行计算,从而得到每个向量对应的输出值。 N个输入

2021-04-17 17:59:49 1235 0 6
阅读详情

人工智能 浅析 集束搜索(Bean Search) 算法

  集束搜索(Bean Search) 背景 ​ 场景一:如果说,你想实现:输入一段语音片段,经过一一列操作,实现最后输出语音的内容。再此过程中,假如你不想随机输出一些结果,而想得到最好最优的输出结果,此时,则需要本算法。 ​ 场景二:实现机器翻译,输入一段法语,输出一段最有的翻译结果。 方法: 1. 使用的

2021-04-06 11:39:55 1197 0 1
阅读详情
  • 1
  • 2
前往