51小说提示您:看后求收藏(51小说网www.51wangpan.cc),接着再看更方便。

对于一个给定的感知器来说,它的权重和阈值也是给定的,代表一种决策策略。因此,我们可以通过调整权重和阈值来改变这个策略。

关于阈值threshold,这里需要指出的一点是,为了表达更方便,一般用它的相反数来表达:b=-threshold,这里的b被称为偏置(bias)。

这样,前面计算输出的规则就修改为:如果w1x1 + w2x2 + w3x3 +...+ b > 0,则输出output=1,否则输出output=0。

而权重w1=w2=-2,则b=3。

很明显,只有当x1=x2=1的时候,output=0,因为(?2)*1+(?2)*1+3=?1,小于0。而其它输入的情况下,都是output=1。

所以在实际情况下,这其实是一个“与非门”!

在计算机科学中,与非门是所有门部件中比较特殊的一个,它可以通过组合的方式表达任何其它的门部件。这被称为与非门的普适性(Gate Universality)。

既然感知器能够通过设置恰当的权重和偏置参数,来表达一个与非门,那么理论上它也就能表达任意其它的门部件。

因此,感知器也能够像前面三体中的例子一样,通过彼此连接从而组成一个计算机系统。

但这似乎没有什么值得惊喜的,我们已经有现成的计算机了,这只不过是让事情复杂化了而已。

单个感知器能做的事情很有限。要做复杂的决策,所以则是需要将多个感知器连接起来。

而实际中的网络可能会有上万个,甚至数十万个参数,如果手工一个一个地去配置这些参数,恐怕这项任务永远也完成不了了。

而神经网络最有特色的地方就在于这里。

我们不是为网络指定所有参数,而是提供训练数据,让网络自己在训练中去学习,在学习过程中为所有参数找到最恰当的值。

大体的运转思路是这样:我们告诉网络当输入是某个值的时候,我们期望的输出是什么,这样的每一份训练数据,称为训练样本(training example)。

这个过程相当于老师在教学生某个抽象的知识的时候,举一个具体例子:

一般来说,我们举的例子越多,就越能表达那个抽象的知识。这在神经网络的训练中同样成立。

我们可以向网络灌入成千上万个训练样本,然后网络就自动从这些样本中总结出那份隐藏在背后的抽象的知识。

这份知识的体现,就在于网络的所有权重和偏置参数的取值。

假设各个参数有一个初始值,当我们输入一个训练样本的时候,它会根据当前参数值计算出唯一的一个实际输出值。

这个值可能跟我们期望的输出值不一样。想象一下,这时候,我们可以试着调整某些参数的值,让实际输出值和期望输出值尽量接近。

当所有的训练样本输入完毕之后,网络参数也调整到了最佳值,这时每一次的实际输出值和期望输出值已经无限接近,这样训练过程就结束了。

假设在训练过程中,网络已经对数万个样本能够给出正确(或接近正确)的反应了,那么再给它输入一个它没见过的数据,它也应该有很大概率给出我们预期的决策。这就是一个神经网络工作的原理。

但这里还有一个问题,在训练过程中,当实际输出值和期望输出值产生差异的时候,要如何去调整各个参数呢?

当然,在思考怎么做之前,也应该先弄清楚:通过调整参数的方式获得期望的输出,这个方法行得通吗?

实际上,对于感知器网络来说,这个方法基本不可行。

比如在上图有39个参数的感知器网络中,如果维持输入不变,我们改变某个参数的值,那么最终的输出基本完全不可预测。

它或者从0变到1(或从1变到0),当然也可能维持不变。这个问题的关键在于:输入和输出都是二进制的,只能是0或者1。

如果把整个网络看成一个函数(有输入,有输出),那么这个函数不是连续的。

因此,为了让训练成为可能,我们需要一个输入和输出能够在实数上保持连续的神经网络。于是,这就出现了sigmoid神经元。

sigmoid神经元(sigmoid neuron)是现代神经网络经常使用的基本结构(当然不是唯一的结构)。它与感知器的结构类似,但有两个重要的区别。

第一,它的输入不再限制为0和1,而可以是任意0~1之间的实数。

第二,它的输出也不再限制为0和1,而是将各个输入的加权求和再加上偏置参数,经过一个称为sigmoid函数的计算作为输出。

具体来说,假设z=w1x1+w2x2+w3x3+...+b,那么输出output=σ(z),其中:σ(z)= 1/(1+e-z)。

σ(z)是一个平滑、连续的函数。而且,它的输出也是0~1之间的实数,这个输出值可以直接作为下一层神经元的输入,保持在0~1之间。

可以想象,在采用sigmoid神经元组装神经网络之后,网络的输入和输出都变为连续的了,也就是说,当我们对某个参数的值进行微小的改变的时候,它的输出也只是产生微小的改变。这样就使得逐步调整参数值的训练成为可能。

在历史上,很多研究人员曾经也做过尝试,Michael Nielsen的书《Neural Networks and Deep Learning》这本书中也曾经提到过这个例子。

这个神经网络只有一层隐藏层,属于浅层的神经网络(shallow neural networks)。而真正的深度神经网络(deep nerual networks),则会有多层隐藏层。

神经元系统采用了左右脑半球的设计方式进行设计和制造。

最右侧则是输出层(output layer),有10个神经元节点,分别代表识别结果是0,1,2,...,9。当然,受sigmoid函数σ(z)的限制,每个输出也肯定是0~1之间的数。

那我们在得到一组输出值之后,哪个输出的值最大,最终的识别结果就是它。

而在训练的时候,输出的形式则是:正确的那个数字输出为1,其它输出为0,隐藏层和输出层之间也是全连接。

神经网络共的权重参数有784*15+15*10=11910个,偏置参数有15+10=25个,总共参数个数为:11910+25=11935个。

这可是一个非常惊人的数字。

科幻灵异推荐阅读 More+
美国十次啦最新网站

美国十次啦最新网站

应当恣意
【【2019云起华语文学征文大赛】参赛作品】某女这辈子做过最最后悔的事,就是招惹某男。 明明刚见面时冷的跟冰块媲美,浑身散发着生人勿近的寒气,也不知道哪根筋反冲,看她不顺眼是吧,准备动手是吧,好,跟你打。 险些最后打个平手,本以为以后不会再相见,谁知道世界就这么大点,哪都有他,甩都甩不带掉。 某女实在受不了了,为了完成任务一忍再忍,终于完成任务可以回家见爹爹了,某男死皮厚脸黏上他非要带他一起去,
科幻 连载 0万字
tokyo hot n0831

tokyo hot n0831

十月暗香
秦凤舞本想就在古代过着优哉游哉的日子。不想赐婚战王,也行啊,当个闲散的战王妃有吃有喝也挺好,只要战王不来招惹自己,当就当呗! 可谁知人家想当,人家战王可不想,直接退了婚。好啊,本姑娘没有退婚,你倒先来退婚了,也行,本姑娘也不想和你成亲。 啥子,那战王不就是自己救下的王爷嘛?好个忘恩负义的东西,看本姑娘不整死你。 又啥,想吃回头草,啊呸,人家是宝不是草。门都没有!战王可怜巴巴的说道:“舞儿,我错了
科幻 连载 5万字
青春期4完整版

青春期4完整版

仅允
周念未婚夫死了,未婚夫弟弟成功上位。本来也没什么,可这新对象好死不死的还是她高中暗恋对象,曾经收她礼物撕她情书还把她甩给他兄弟。 对此周念表示:谁年轻的时候没有爱过个把人渣。可是现在人渣总调戏她。 人渣说了:人家喜欢的只是你的外表,而我想跟你深度交流。”周念:“……”所有的相逢都是煞费苦心的刻意。 这是一个老司机成功撩妹的故事。
科幻 连载 0万字
哇嘎社区8

哇嘎社区8

公子莫止
楚衣死了,又重生了,还意外得了佛祖的一滴泪,化作虚无空间,且,上天还给她开了扇小窗,眼观六路,耳听八方。 可,与万物沟通! 但,即便是有如此牛X的外挂,楚衣想要的也依然很简单,保住爹爹,爱重兄长,家庭和睦,夫妇和顺。 唔,当然,某人能不那么高冷就好了! 某男:娘子,谁说我高冷?! 某衣:一直很高冷,从未被超越。不信,你问我哥! 某兄长:妹妹说的都是对的! 某男:...
科幻 连载 15万字
张飞跃完整版视频下载

张飞跃完整版视频下载

懐丫头
星辰逆转,世界颠倒,来自异世的毒医重生在丧生大海的十八岁妙龄少女身上。 从三十岁变成十八岁,还莫名其妙来到一个完全陌生的世界,除去彷徨,她更多的激动、兴奋。 可一重生就要见证她的未婚夫和别人隆重的求婚,真的好吗?见证未婚夫求婚失败,不算什么事,一回到家就被告知已经结婚,而结婚的对象还是前两天才跟人求婚的男人,这算什么事?
科幻 连载 7万字
B级文件

B级文件

浪漫主义毛毛
那年盛夏林纾遇见了周靳,这一记便是3年。高一那年两人再次相逢,周靳的爱是明目张胆的,林纾是埋藏在心底的。他的兄弟许盛也是情场高手,没人知道一个浪子真的会为了一个女孩浪子回头。最后啊,17岁的周靳永远属于17岁的林纾,16岁的许盛在那年对沈愿一见钟情。而故事的最后却是林纾死在了周靳结婚的第一年,沈愿也得了抑郁症。
科幻 连载 1万字