第十章认知计算与深度学习***01
人工神经网络03
CNN在NLP的应用卷积神经网络02
CNN层次结构神经元、激活函数、神经网络人工神经网络卷积神经网络01
人工神经网络02
CNN层次结构03
CNN在NLP的应用神经元神经网络由大量的神经元相互连接而成
每个神经元接受线性组合的输入后,最开始只是简单的线性加权,后来给每个神经元加上了非线性的激活函数,从而进行非线性变换后输出
神经网络的每个神经元如下:其对应的公式:卷积神经网络01
人工神经网络02
CNN层次结构03
CNN在NLP的应用激活函数激活函数是用来加入非线性元素的,因为线性模型的表达能力不够
并不是去激活什么,而是指如何把“激活的神经元的特征”通过函数把特征保留并映射出来(保留特征,去除数据冗余),这是解决非线性问题的关键
常用的非线性激活函数有sigmoid、tanh、relu等等,前两者sigmoid/tanh比较常见于全链接层,后者relu常见于卷积层
sigmoid的函数表达式如下:卷积神经网络01
人工神经网络02
CNN层次结构03
CNN在NLP的应用激活函数sigmoid的函数表达式如下:sigmoid函数的功能是相当于把一个实数压缩至0到1之间
卷积神经网络01
人工神经网络02
CNN层次结构03
CNN在NLP的应用神经网络将单个神经元组织在一起,便形成了神经网络
最左边的原始输入信息称之为输入层,最右边的神经元称之为输出层(上图中输出层只有一个神经元),中间的叫隐藏层
卷积神经网络01
人工神经网络02
CNN层次结构03
CNN在NLP的应用神经网络增加多个中间层,即为深度神经网络(DNN)输入层、卷积层、池化层、全连接层CNN层次结构卷积神经网络01
人工神经网络02
CNN层次结构03
CNN在NLP的应用神经网络到卷积神经网络我们知道神经网络结构如刚才所述,那卷积神经网络