“哪专业的,数学没学好吧。”

廖文秀,“也不是呢师兄,主要是研究生没选的人工智能方向,思路还没打开。”

路舟听了也不多说,他也只得拿了笔在一张白纸上给三人演示。

“事实上loss会包含我刚提到的权重w和偏置参数。所以我们在调整w时,loss到底是增大还是减小?这就需要我们求一个l/w的偏导数。

这里我们直接链式求导,然后根据loss的定义去求出第一个偏导数,再根据神经元定义的h值再次求导,再配合激活函数sigoid最后得到总的求导公式”

甄臻,“”

路舟,“ok,这方法一般被叫做反向传播。经过这个计算后,我们是可以得出对w变化时,loss函数最终的变化曲线。而对这个entity,我们接下来可以再用一个随机梯度下降sgd的优化算法来进行优化。”

廖文秀,“”

路舟,“sgd主要的作用在于权重和偏置值的调整。首先我们定义一个学习率的常数,它将决定整个神经网络的训练速度。这样,我们再逐步调整权重和偏置的过程中,loss也能够不断降低。

最后loss达到了要求,整个流程也就走完了,模型也就出来了。”

曹文聪,“”

路舟见三人表情有些懵逼,感觉是有些尴尬,“额”

他抹了一把脸,直接唤醒了一旁的电脑,“好吧,这么说有点虚,我直接给你们写个代码样例。我就直接用python来示范吧,用nupy的模块。大概呢还是按照我们刚刚的理论基础,先定义几个需要用的函数”

五分钟后。

“好了。大概就是这样。”

三人,“”

这也忒快了点。

甄臻有些胆小地又举了手,“师兄。博士和研究生差距有这么大嘛?我怎么一点听不进去”

路舟听了就乐了,“别。我就一本科生。陆师兄面前我可不敢造次。”

三人,“?!”