五个基本的学习算法:误差—修正学习;基于记忆的学习;Hebb学习;竞争学习和Boltzmann学习
误差修正学习植根于最优滤波
基于记忆的学习通过明确的记住训练数据来进行
Hebb学习和竞争学习都是受了神经生物学上的考虑的启发
Boltzmann学习是建立在统计学力学借来的思想基础上
1.误差修正学习神经元k的输出信号表示,表示的是期望响应或目标输出比较
由此产生表示的误差信号,有这一目标通过最小化代价函数或性能指标来实现
定义如下也就是说是误差能量的瞬时值
这种对神经元k的突触权值步步逼近的调节将持续下去,直到系统达到稳定状态
这时,学习过程停止
根据增量规则,在第n时间步作用于突触权值的调节量定义如下:2.基于记忆的学习在一个简单而有效的称作最近邻规则的基于记忆的学习类型中,局部邻域被定义为测试向量的直接邻域的训练实例,特别,向量被称作的最邻近,如果这里,是向量和的欧几里德距离
与最短距离相关的类别,也就是向量被划分的类别
3.Hebb学习我们定义Hebb突触为这样一个突触,它使用一个依赖时间的、高度局部的和强烈交互的机制来提高突触效率为前突触和后突触活动间的相互关系的一个函数
可以得出Hebb突触特征的4个重要机制:时间依赖机制;局部机制;交互机制;关联或相关机制
4.竞争学习获胜神经元k的输出信号被置为1;竞争失败的所有神经元输出信号被置为0
这样,我们有其中,诱导局部域表示结合所有达到神经元k的前向和反馈输入的动作
令表示连接输入节点j到神经元k的突触权值
假定每个神经元被分配固定量的突触权值,权值分布在它的节点之中;也就是然后神经元通过将突触权值从它的不活跃输入移向活跃输入来进行学习
如果神经元对一个特定输入模式不响应,那么没有学习发生在那个神经元上
如果一个特定神经元赢得了竞争,这个神经元的每个输入节点经一定的比例释放它的突触权值,释放的权值然后平均分布到活跃