• 当前标签:神经网络

人工智能 Transformer 网络

Transformer 从整体框架来讲,Transformer其实就是encode-decode框架,即就是编码解码。只不过在编码和解码的内部比较复杂,经过了多次复杂计算。 比如说,encode编码阶段,其内部整体框架如图所示。 ​ 在图上可以看出,首先输入所有的向量,然后经过多次block的计算,最终得到相同数量的输

2021-04-18 18:05:45 40 0 2
阅读详情

人工智能 自注意力机制(Self-attention)

自注意力机制(Self-attention) 背景 最近,学了好多东西,今天看了一下李飞飞老师讲解的自注意力机制,因此在这记录一下,以供日后复习,同时自己学习消化知识也好。 综述 一般来说,模型的输入输出有三种: N个输入,经过模型计算后,输出N个结果,也就是对输入向量进行计算,从而得到每个向量对应的输出值。 N个输入

2021-04-17 17:59:49 34 0 1
阅读详情

人工智能 浅析 集束搜索(Bean Search) 算法

  集束搜索(Bean Search) 背景 ​ 场景一:如果说,你想实现:输入一段语音片段,经过一一列操作,实现最后输出语音的内容。再此过程中,假如你不想随机输出一些结果,而想得到最好最优的输出结果,此时,则需要本算法。 ​ 场景二:实现机器翻译,输入一段法语,输出一段最有的翻译结果。 方法: 1. 使用的

2021-04-06 11:39:55 66 0 1
阅读详情

人工智能 Resnet网络结构图和对应参数表的简单理解

Resnet Resnet即就是残差网络,本文主要是对于resnet给出的网络结构图进行简单解释。 网络结构图 以上就是34层网络的网络结构图。 以上是18层、34层、50层、101层以及152层网络所对应的残差块。 我刚开始在网上看到这两张图片的时候,感觉一点都不懂,后面学了一下,稍微懂了,所以写下这篇博文做个记录。

2021-03-30 15:26:55 93 0 0
阅读详情
  • 1
前往