华体会体育:谈论卷积神经网络和Matlab实现

2021-03-31 06:44:33 浏览: 151次 来源:【jake】 作者:-=Jake=-

序言,好久不见了,你想念我吗?哈哈。今天爱游戏体育app ,我们将不经意地谈论卷积神经网络。 1卷积神经网络的优势

用于图像分类的卷积神经网络是深度学习在图像处理中的应用。卷积神经网络的优点是它可以直接与图像像素进行卷积并从图像像素中提取图像特征。这种处理方法更加接近人脑视觉系统的处理方法。另外,卷积神经网络的权重共享属性和池化层大大减少了网络需要训练的参数,简化了网络模型,提高了训练效率。

2卷积神经网络的体系结构

卷积神经网络与原始神经网络有什么区别?现在我分别给他们架构图。

图1普通的深度神经网络

图2卷积神经网络

哇,看,有什么特别之处,在输出层和卷积层之间是否存在C / S混乱?实际上澳洲幸运10app下载 ,这就是卷积神经网络的本质。它可以直接学习像素,而不是像人眼一样收集信息,这不是它的优势吗?

输入层:卷积输入层可以直接作用于原始输入数据。如果输入是图像,则输入数据是图像的像素值。

卷积层:卷积神经网络的卷积层,也称为特征提取层,由两部分组成。第一部分是真正的卷积层,其主要功能是提取输入数据的特征。每个不同的卷积内核都提取输入数据的不同特征。卷积层中卷积核的数量越多,则可以提取输入数据的特征越多。

第二部分是池化层,也称为下采样层。主要目的是在保留有用信息的基础上减少数据处理量,并加快培训网络的速度。在正常情况下,卷积神经网络包含至少两个卷积层(此处,实际卷积层和下采样层统称为卷积层),即卷积层,合并层,卷积层和合并层。卷积层越多,可以在先前的卷积层的基础上提取出更多的抽象特征。

全连接层:它可以包含多个全连接层,实际上是多层感知器的隐藏部分。通常,后一层的神经节点连接到前一层的每个神经节点卷积神经网络的matlab实现,并且同一层的神经元节点之间没有连接。每层神经元节点通过连接线上的权重向前传播,加权组合获得下一层神经元节点的输入。

输出层:根据特定的应用任务设置输出层中神经节点的数量。如果是分类任务,则卷积神经网络的输出层通常是分类器。

3卷积计算

卷积核类似于人眼扫描对象,因此自然很重要。其中包括离散卷积核连续卷积。

连续卷积:

离散卷积:

神经网络中的卷积运算都是离散卷积,实际上是线性运算,不是真正意义上的卷积运算。相应的卷积内核也可以称为过滤器。卷积核的大小决定了图像操作中涉及的子区域的大小。坦率地说,卷积内核上的参数可以用作权重,也就是说,每个像素现在都具有最终卷积结果的投票权。权重越大,投票权越大。

3. 1卷积运算与相关运算之间的区别

例子如下,matlab输入操作:

获取结果:

卷积运算:

获取结果:

由此可见,卷积计算实际上是翻转了180°的相关计算,为什么会这样。

相关计算公式:

顾名思义,相关性是计算,两个变量之间的相关性,卷积是特定信号对整个系统的影响。

两者之间的相似之处是:两者都是将两个功能映射到一个功能的功能(f乐鱼体育 ,g)-> h。这个过程也非常相似。卷积涉及首先反转一个函数,然后执行滑动相关。

区别:

1、卷积是对称的conv(f,g)= conv(g,f)。滑动相关是不对称的,ccorr(f鸭脖app官网 ,g)〜= ccorr(g,f)。

2、卷积是当两个系统起作用时的响应(由于对称,谁对谁起作用并不重要)。

滑动相关性是对两个函数的相似性与相对位置之间关系的度量。

3、信号处理中的卷积可以执行局部操作(即滤波),例如图像的高斯模糊。系统响应分析。

幻灯片相关性通常用于特征检测,例如图像特征提取

3. 2卷积过程

上图显示,在卷积过程中,首先输入原始图像,然后使用f(x)卷积核进行卷积,添加偏差,然后使用激活函数执行非线性映射以获得初步卷积结果,现在激活功能通常使用relu,而sigmoid使用更少。

3. 3下采样过程

由于图像是卷积的,我们应该使用分类器对其进行分类吗?显然,它不起作用。如果您希望图像很大,则网络的训练速度必须非常慢,对吗?过度拟合必须不用多说。因此,我们的前辈必须考虑降维,但是在这里,我们不称为降维,而称为降采样。当然,降维是我所了解的,我不知道它是否准确。

下采样是为了利用图像的静态特性。汇总相邻位置的统计信息。例如,额头上的位置必须与额头上的位置非常相似,并且耳朵也与您的耳朵非常相似。

此外,图像的下采样是不变的。如果下采样区域是特征图的连续区域,则获得的下采样单元具有平移不变性。例如,在图像经过小的平移处理后,还将获得相同的(下采样)特征。希望在实际应用中,例如物体检测,语音识别等应用中,该系统具有平移不变性的特征,因为具有平移不变性的特征,即使样品经过检测,标记仍能被系统识别。翻译处理。

总而言之,下采样的主要功能是:

1、降低图像分辨率; (我了解分辨率越高,不利于分类,但必须过拟合)

2、减少计算数据量;

3、增强网络对图像变化的适应性。

3. 4本地连接和权重共享

本地连接和全局连接:

大家好,假设我们的爱因斯坦图片是1000x1000像素的图片卷积神经网络的matlab实现,即一百万像素,而输入尺寸也是一百万。连接一个相同大小的隐藏层,则为一万亿个Connect,然后训练羊毛,因此我们必须减少权重数。

根据百度的回答插入一个小广告。

上面的答案很简单,也就是说,在猫的视神经中,每个接收场仅接收来自一小区域的信号,对其他事物并不冷。那么这会启发我们的卷积神经网络吗?

部分连接是消除上述想法的结果。每个神经元不需要接收所有像素的信息,而仅需要接收本地像素进行输入。然后,当所有信息整合在一起时,可以获得整体信息。假设接收场的大小为10x10,是否只需要10x10x100 = 1十亿个连接?

但是1亿似乎有点大。现在假设每个隐藏节点的神经元参数都相同,则这些参数只有100个参数,也就是说,每个进程只有10x10 100个参数。这样,降低了整个模型的复杂性。 (实际上鸭脖官网 ,我一直认为给每个神经元适当的权重是很好的。毕竟,某些特征(像素)必须对分类效果有更大的影响)

这样,我们的卷积神经网络功能就完成了。卷积核越多,可以构造的高阶特征就越多。

高级特征与此相似,这也符合人类看物体的习惯,因为人类视网膜中的物体不过是边缘和线条的组合。这些高级功能组合在一起可以对物体的大致形状进行编程。它根本不符合小样本的概念:例如,您只需要查看鼠标即可:

然后,下次您看到它时,您必须知道它是鼠标,无论它多么华丽,因为您的脑海中已经有许多高级功能可以构成鼠标,因此分类效果当然是很好。

我没有做广告。...

4只是谈论不练习假句柄,而不要谈论愚蠢的句柄。

现在让我们看一下具体的实验结果。

以上是测试MNIST笔迹的实验。直接输入图片,识别率是8 8. 7%,当然不是太高,这是因为参数没有调整。

我的卷积神经网络matlab实现代码主要来自:

5摘要

今天只是对卷积神经网络知识点的简要介绍。等待下一章,我们将介绍迄今为止世界上最先进的卷积神经网络改进。

老王