SOM自组织映射学习汇报ppt课件_第1页
SOM自组织映射学习汇报ppt课件_第2页
SOM自组织映射学习汇报ppt课件_第3页
SOM自组织映射学习汇报ppt课件_第4页
SOM自组织映射学习汇报ppt课件_第5页
已阅读5页,还剩33页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、九逸作品汇报人:我学到了什么我下一步要做什么自组织神经网络 SOMAn Improved Neural Architecture for Gaze Movement Control in Target Searching自组织神经网络 自组织神经网络是一类无教师学习方式的神经网络模型,它无需期望输出,知识根据数据样本进展学习,并调整本身权重以到达学习的目的。自组织神经网络的学习规那么大都采用竞争型的学习规那么。 竞争型神经网络的根本思想是网络竞争层的各神经元经过竞争来获取对输入方式的呼应时机。竞争结果会存在获胜神经元,获胜神经元有关的各衔接权值向着更有利于其竞争的方向开展。竞争层输入层Wj权值

2、不同的输入归结到1个神经元上,几个输入就是一类,实现了分类。竞争学习: 网络的输出神经元之间相互竞争以求被激活,结果在每一时辰只需一个输出神经元被激活。这个被激活的神经元称为竞争获胜神经元,而其它神经元的形状被抑制,称为WTAWinner-Take-All。学习规那么:1.向量归一化。首先将当前输入方式向量X和竞争层中各神经元对应的向量Wj 全部进展归一化处置。2.寻觅获胜神经元。当网络得到一个输入方式向量时,竞争层的一切神经元对应的权向量均与其进展类似性比较,并将最类似的内权向量判为竞争获胜神经元。3.网络输出与权值调整。4.重新向量归一化。用竞争学习算法将以下各方式分为2类:输入向量为:学

3、习率为a=0.5 向量归一化设置两个权向量竞争学习X1学习d1=|X1-W1(0)|=136.89, d2=|X1-W2(0)|=1216.89 d1d2,所以神经元1获胜,W1调整W1(1)=W1(0)+a(X1-W1(0)=118.43 W2(1)=W2(0)=1-180 X2学习d1=|X2-W1(1)|=198.43 , d2=|X2-W2(1)|=1100 d1d2,所以神经元1获胜,W1调整W1(2)=W1(1)+a(X2-W1(1)=1-30.8 W2(2)=W2(1)=1-180 d1= 1104d2= 1100我学到了什么我下一步要做什么自组织神经网络 SOM An Impr

4、oved Neural Architecture for Gaze Movement Control in Target SearchingSOM SOM,Self-Organizing Feature Maps,自组织神经网络,是一种无导师学习的网络,主要用来对于输入向量进行区域分类。 SOM的算法思想: 某个输出节点能对某一类方式做出特别的反响以代表该方式类。 输出层上相邻的节点能对实践方式分布中相近的方式类做出特别的反响。 当某类数据方式输入时,对某以输出节点产生最大刺激获胜神经元,同时对获胜神经元节点周围的一些节点产生较大的刺激。SOM 网络中有两种链接权值,一种是神经元对外部输入反应

5、的衔接权值,另外一种是神经元之间的特征权值。它的大小控制着神经元之间交互作用的强弱。 SOM拓扑构造图 SOM算法是一种无导师的聚类法,他能将恣意维输入模在输出层映射成一维或者二维离散图形,并坚持其拖布构造不变,即在无导师的情况下,经过对输入方式的自组织学习,在竞争层将分类结果表示出来。此外,网络经过对输入方式的反复学习,可以使衔接权值空间分布密度与输入方式的概率分布趋于一致,即链接权向量空间分布能反响输入方式的统计特征。 SOM算法是一个竞争-协作的过程。 1.竞争。对于输入方式,网络中的神经元计算他们各自判别函数的值。这个判别函数对神经元之间的竞争提供根底,具有判别函数最优值在欧式间隔中是

6、最小值的特定神经元成为竞争的胜利者。 2.协作。获胜神经元的的相邻神经元的是协作的根底。神经元决议兴奋神经元的拓扑邻域的空间位置,从而提供这样的相邻神经元的协作的根底。 3.突出调理。最后的这个机制使神经元经过对他们突触权值的调理以添加他们的关于该输入方式的判别的函数值。所做的调理使获胜神经元对以后类似输入方式的呼应加强了。SOM算法步骤Step.1 网络初始化用随机数设定输入层和映射层之间权值的初始值:Wij。设定学习次数T,相关邻域Ni(d)。WijX1 X2 XijStep.2 输入向量把输入向量输入给输入层:Xi。SOM算法步骤Step.3 计算映射层的权值向量和输入向量的间隔。由欧式

7、间隔给出:WijX1 X2 XijSOM算法步骤Step.4 选择与权值向量的间隔最小的神经元。计算并选择使输入向量和权值向量间隔最小的神经元,把其称为胜出神经元,标志为j*,并给出邻接神经元集合。WijX1 X2 Xij SOM算法在修正神经元的时候,同时要修正获胜神经元的附近区域Ni(d)内一切的神经元。Ni(d)=j,dij=d12543671098111215141316172019182122252423N13(1)=8,12,13,14,18N13(2)=3,7,8,9,11,12, 13,14,15,17,18,19,23SOM算法步骤Step.5 调整权值胜出神经元和位于其邻接

8、的神经元的权值经过下式调整。 Wij(t+1)=Wij(t)+a(t)h(j,j*)(Xi-Wij)其中,a(t)为学习率,随着t的增大而减小。hj,j*为邻域函数,随着学习程度逐渐减小。Step.6 假设t=T,那么停顿学习,否那么继续执行Step.2。解释:可以用两种方式来解释SOM算法。 首先,由于在训练阶段,整个邻域的权值向着一样的方向接近,所以类似的工程趋向于刺激临近的神经元。因此,SOM构成了一个使一样样本接近,不同样本分别的语义映射。这样,SOM便实现了分类的过程。 其次,可以思索神经元的权值作为输入空间的指针,构成了一个训练样本分布的离散近似值。更多的神经元指向了高度训练的样本

9、集中的区域。性质:输入空间的近似对于V空间中的向量v,首先根据特征映射确定在输出空间A中最正确的匹配单元S,S的权重向量Ws可视为S投影到输入空间的坐标。经过不断调整权重矩阵,是输出空间A近似的表示输入空间V。SOM本质上是从恣意维离散或者延续空间V到一维或者二维离散空间A的一种保序映射。SOM功能分析1.保序映射:将输入空间的样本方式类有序地映射 在输出层上。2.数据紧缩:将高维空间的样本在坚持拓扑构造不变的条件下投影到低维空间。在SOM中,无论输入空间样本有多少维,都可以在SOFM输出层的某个区域得到呼应。3.特征抽取:高维空间的向量经过特征抽取后可以在低维特征空间更加明晰地表达。我学到了

10、什么我下一步要做什么自组织神经网络 SOM An Improved Neural Architecture for Gaze Movement Control in Target Searching An Improved Neural Architecture for Gaze Movement Control in Target Searching 论文是对于原来的Neural Architecture for Gaze Movement Control in Target Searching的改良。 论文在第三层和第四层之间添加了一个新的Movement Coding Neuron,以便

11、更好地实现gaze motion estimation and control。 原来构造的缺陷是,第三层一切的大反响神经元向第四层中运动控制神经元传输了权值呼应,从而参与了凝视运动的合成 。然而,这些大反响神经元能够产生不同的运动估计量的分组。谈及分组链接权值时,要对这些神经元的运动估计进展分辨及分类,有必要在第四层把这些神经元对应着运动控制神经元组织起来。我学到了什么我下一步要做什么自组织神经网络 SOM An Improved Neural Architecture for Gaze Movement Control in Target Searching1.对于An Improved Neural Architecture for Gaze M

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论