不对,是反弹。

        “阿零给的后门已经被补丁给堵上了吗?看起来不能继续深入了,这条路上一定会有‘蜜罐’。”小八低声说道。

        这句话是对自己的自我暗示。

        周围的景色再一次变化。黑暗消失。

        向山看到了墙壁。

        仿佛建模出了问题一般,无数细微线条组成的稀疏墙壁。

        小八想着墙壁伸出手。

        他并不是真的“伸出手”了。他也没有灵魂出窍。这一面墙壁是他所得到的数据反馈,是从服务器下载到的数据、经由生物脑的处理则想象成的。向山也只是借由“伸出手”的这个念头,来进行自我暗示。

        向山生物神经网络之中,一部分自主放电的中层神经元,会与产生这个“伸手”这个念头的神经元,以及将之囊亏在一起的内功神京回路一起,形成混杂的“预测式编码结构”。

        这是大脑的一个固有机制。

        大脑依靠神经元网络层层抽取抽象概念、特征来进行识别。“深度学习”就是模拟这一过程,利用一层层的计算机编码,抽取输入信息的特征,进行单独的识别,并进行复杂的模拟计算,并最终给出结果。其中的“深度”,便是指“模拟神经网络的层数”——输入层与最终输出层之间、模拟层层抽取特征的神经元网络的“隐藏层”。层数越多,计算的深度也越深。所以越是复杂的选择问题,越需要深度的层次多。

        21世纪初所出现的超级围棋计算机AlphaGo,其策略网络是13层,每一层的神经元数量为192个。

        内容未完,下一页继续阅读