分卷阅读41 (第1/2页)
慨。 【……】系统忽然冒出浓浓的危机意识,【那个,宿主其实我也很有用的!要不让我开放全民好感度涨幅提示!对你有敌意的肯定是负数,到时候还没靠近你就能发现……】 “不,太吵。”徐静怡很果决摇头。 “这位同学?”站在台上的森田教授很睿智地看着她,语态很温和,“刚刚我的说法是有什么问题吗?你似乎对此有些不同的见解!” 徐静怡一懵。 系统,【糟糕了宿主!好像这位老大爷误会你刚刚摇头了!你别慌,他正在讲RNN和与传统神经网络区别!】 ——原来已经讲到处理序列数据的循环神经网络。 这个用大白话来形容,就是机器人处理问题时的逻辑思维能力。举个例子比如“我实在是太冷了,准备去XXX”,根据前面的输入判断“XXX”很大可能就是“穿衣服”,这就是序列数据。 徐静怡快速扫了一眼黑板,“tanh和sigmoid激活函数的RNN如果遭遇梯度消失要如何是好?” 徐静怡起身,慢条斯理地开口:“tanh和sigmoid两端的梯度值都基本接近0,从求导公式可以看出有个连乘操作。而向量函数对向量求导结果为一个Jacobian矩阵,元素为每个点的导数,当矩阵中的值太大时,经过指数放大,则会产生梯度爆炸。可以设置一个梯度阈值来处理。另外梯度消失,可以用ReLU来替代tanh和sigmoid激活函数,或者用LSTM或GRU结构。” 森□□授调皮的眨眨眼:“回答得相当标准。你对智能编程有所研究对吗?” 徐静怡点点头。 旁边忽然有一个留着长刘海的女生显然是迷妹,她再三打量徐静怡,忽然低呼:“啊,难道,难道你就是直播间的超级大科学家吗?!” 这名字挂在直播间不觉得,突然被人喊出来有点中二。 徐静怡:“……”微微额首。 这里不少学生都看过那个直播,顿时引起窃窃私语,不少人对着徐静怡小声地指点,有激动的,也有不屑的。 森田教授讶异地看向助教,助教在阶梯上询问了几句后跑到森田教授那低声说。 森田教授眼前一亮,看向徐静怡,笑了笑:“如何设置网络的层数rnn_yers来增强神经网络的学习能力?” “用MultiRNNCell封装。给multi cell进行初始化状态,设为0,即用multi_cell.zero_state来实现。传入一个batch_size参数,会生成rnn_yers层的(batch_size ,hidden_size)初始状态。” 徐静怡说出标准答案后,顿了顿,开口:“但我有另外的处理方式,只是遇到了困境。” “哦?怎么说?”森田教授感兴趣地问道。 徐静怡将手机拿出来,然后扣动了一下前置装置,拉开弹射出来的虚拟框。 “哇哦~~”不少学生发出惊呼,好些人偷偷将手机拿出来拍摄,还有人悄声嘀咕,“这就是剪辑里面的虚拟屏幕吗?”“牛逼啊,第一次看见。”…… 有人说好话自然也有人说酸话,“什么鬼,明明是来听讲座的。浪费时间。”“不过就是玩些花头罢了,有什么了不
请记住本站永久域名
地址1→wodesimi.com
地址2→simishuwu.com
地址3→simishuwu.github.io
邮箱地址→simishuwu.com@gmail.com