分卷阅读66(2 / 2)
徐静怡起身,慢条斯理地开口:“tanh和sigmoid两端的梯度值都基本接近0,从求导公式可以看出有个连乘操作。而向量函数对向量求导结果为一个Jacobian矩阵,元素为每个点的导数,当矩阵中的值太大时,经过指数放大,则会产生梯度爆炸。可以设置一个梯度阈值来处理。另外梯度消失,可以用ReLU来替代tanh和sigmoid激活函数,或者用LSTM或GRU结构。”
森□□授调皮的眨眨眼:“回答得相当标准。你对智能编程有所研究对吗?”
徐静怡点点头。
旁边忽然有一个留着长刘海的女生显然是迷妹,她再三打量徐静怡,忽然低呼:“啊,难道,难道你就是直播间的超级大科学家吗?!”
这名字挂在直播间不觉得,突然被人喊出来有点中二。
徐静怡:“……”微微额首。
这里不少学生都看过那个直播,顿时引起窃窃私语,不少人对着徐静怡小声地指点,有激动的,也有不屑的。
森田教授讶异地看向助教,助教在阶梯上询问了几句后跑到森田教授那低声说。
森田教授眼前一亮,看向徐静怡,笑了笑:“如何设置网络的层数rnn_layers来增强神经网络的学习能力?”
“用MultiRNNCell封装。给multi cell进行初始化状态,设为0,即用multi_cell.zero_state来实现。传入一个batch_size参数,会生成rnn_layers层的(batch_size ,hidden_size)初始状态。”
徐静怡说出标准答案后,顿了顿,开口:“但我有另外的处理方式,只是遇到了困境。”
“哦?怎么说?”森田教授感兴趣地问道。
徐静怡将手机拿出来,然后扣动了一下前置装置,拉开弹射出来的虚拟框。
“哇哦~~”不少学生发出惊呼,好些人偷偷将手机拿出来拍摄,还有人悄声嘀咕,“这就是剪辑里面的虚拟屏幕吗?”“牛逼啊,第一次看见。”……
有人说好话自然也有人说酸话,“什么鬼,明明是来听讲座的。浪费时间。”“不过就是玩些花头罢了,有什么了不起的。”“文丑说得对,这人就是爱显摆博流量”……
森田教授见状更感兴趣,他从讲台上走下
↑返回顶部↑