[原创]用冯向军知觉模型实现HARTLEY信息、香侬信息、复杂度信息、本质信息、KULLBACK相对信息、鱼罩子广义信息、观控隶属度、观控隶属域的超大统一(待续)冯向军2006/01/29于美国(甲)信息最终要被信息接受者所反映。这就是为什么冯向军要在WEBER-FECHNER的基础上建立起更一般的知觉模型deltaS=a(deltaOS/OS)+b(deltaOS)(1)这其中a、b为待定常数。OS为某种客观的刺激;deltaS为因客观刺激的变化而引发的感官变化;a(deltaOS/OS)是因客观刺激的相对变化而引发的感官变化;deltaOS是因客观刺激的绝对变化(或相对于某种不变的客观标准的变化)而引发的感官变化;通过这些日子的讨论,我已逐步展示确实可以用上述模型来实现HARTLEY信息、香侬信息、复杂度信息、本质信息、KULLBACK相对信息、鱼罩子广义信息、观控隶属度、观控隶属域的超大统一。(乙)(一)我们从WEBER-FECHNER对数律推导出广义的相对信息的一种一般形式,从冯向军的知觉模型得到了更一般的形式.现在再把视野稍微扩展一点。把U视为刻划与信息有关的{不确定性,复杂性,可区分性...}的某种参数.我们诚恳地认为,几乎所有比较流行的信息测度模式均可归于如下方程、定律、模型(A)RI=log2(U/Ub)(1-1)(广义相对信息的一种一般形式)(B)REs=p1*log2(U1/Ub)+p2*log2(U2/Ub)+...+pn*log2(Un/Ub)(2-1)(具有单独可变门槛Ub的广义相对熵。)REm=p1*log2(U1/Ub1)+p2*log2(U2/Ub2)+...+pn*log2(Un/Ubn)(3-1)(具有多种可变门槛的广义相对熵。)(C)WEBER-FECHNER对数律deltaS=a(deltaU/U)(4-1)(D)冯向军的知觉模型deltaS=a(deltaU/U)+b(deltaU)(5-1)这其中U为描述与信息密切相关的{不确定性,复杂性,可区分性......}的某种参数,Ub,Ub1,Ub2,...Ubn为这种参数的可控达门槛。p1,p2,...pn是一概率分布,p1+p2+...+pn=1(二)现举例说明。当U为1/p,而p为符号的概率,Ub=1/max(p)=1,按(1-1)我们就有RI=log2(1/p)(1-2)这RI就是汉明先生给出的信息的工程定义。当U为张学文玻尔兹曼状态数W,而Ub=min(W)=1,按(1-1)我们就有RI=log2(W)(2-2)这RI就是张学文广义集合的一种很好的复杂度。当U=1/N,而N为N种可能性,Ub=1/min(N)=1,按(1-1)我们就有RI=log2(N)(3-2)这RI就是HARTLEY信息。当Ui=1/pi,pi为符号i的概率,i=1,2,...,nUb=1/max(p)=1,按(2-1)式就有REs=-p1log2(p1)-p2log2(p2)-...-pnlog2(pn)(4-2)这REs就是SHANNON信息熵。当Ui=pi,pi为符号i的概率,i=1,2,...,nUb=1/n,按(2-1)式就有REs=log2(n)–[-p1log2(p1)-p2log2(p2)-...-pnlog2(pn)](5-2)这REs就是于宏义先生的风险熵,我称之为聚集熵。(表面两者矛盾,实际上在不同条件下两者在某种程度上相通。)当Ubi=1/pi,而Ui=1/qi,qi是另一概率分布,i=1,2,...,n,按(3-1)式就有REm=p1log(p1/q1)+p2log(p2/q2)+...+pklog(pk/qk)(6-2)这REm就是Kullback-Leibler相对熵。当U=混淆概率Q(Aj/xi),Ub=Q(Aj),按(1-1)就有鱼罩子广义互信息RI=I(xi,Aj)=log2(Q(Aj/xi)/Q(Aj))(7-2)当U=观控隶属域f(I),Ub=任意指定的门槛隶属域fb,按(1-1)就有观控互信息GKI(xi,I)=log2(f(I/xi)/fb)(8-2)当pi=p(xi/zk),Ui=Qk(xi/zk),Ubi=Q(xi),按(3-1)就有鱼罩子广义Kullback公式REm=p(x1/zk)log2(Q(x1/zk)/Q(x1))+p(x2/zk)log2(Q(x2/zk)/Q(x2))+...+p(xn/zk)log2(Q(xn/zk)/Q(xn))(9-2)互信息不过是对广义相对信息RI求2次数学期望而已。于宏义先生的观控隶属度和我的观控隶属域新公式都能从WEBER-FCHNER感觉模型和冯向军的知觉模型推出.我的本质信息也可以从冯向军的知觉模型推导出来。......http://www.qiji.cn/forum/ftopic3272-0-asc-60.html附录信息熵的基本数学性质http://www.qiji.cn/forum/ftopic3392.html信息熵的基本数学性质的简单数学证明定理1.2.1当正数p--->0,p*log(p)----->0证明:将p*log(p)写成log(p)/(1/p),当p--->0用罗必塔法则求导,即有log(p)/(1/p)--->(1/p)/(-1/p^2)--->p---->0.证毕。定理1.2.2对于两个事件组成的分布,若其中一个事件(符号)的概率为p,那么信息熵H=-pLOG(p)-(1-p)LOG(1-p),H取最大值1比特,当且仅当p=0.5。当p--->0或1,H取最小值0。其中LOG表以2为底的对数。证明:对于两个事件组成...