—0450啊,早上网页打不开,浏览器缓存都清了。我想哭。
现在开始看DMN了hhh
讲的好好
哈达玛积能计算相似度吗?
我不明白。我觉得我只是在做。input与q的互动??然后让参数自己学习相似性?
----0642小弟又有才华了!!!又有颜!!!我哭了!Richard Socher!!!爱啊!为什么?nlp2017不全是小哥哥说的!
DMN coding
1.没有这个参数,好搞笑。
—早餐后吃完0728!去做核酸,然后去超市买菜! 感觉回来需要看个embedding专题,先把昨天的那个embedding解决问题!DMN代码之后】
-----0855早上买菜的人好多哇~但我成功地实现了豆芽的自由,快乐!
rnn.GRUCell
参数为隐藏层数
参考:https://blog.csdn.net/u013230189/article/details/82822668
dynamic_rnn与static_rnn
上面只定义了cell,让rnnrun起床,还需要一个dynamic或者staticrnn.
https://piantou.blog.csdn.net/article/details/89097757?spm=1001.2101.3001.6650.1&utm_medium=distribute.pc_relevant.none-task-blog-2~default~CTRLIST~Rate-1-89097757-blog-103605612.pc_relevant_antiscanv3&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2~default~CTRLIST~Rate-1-89097757-blog-103605612.pc_relevant_antiscanv3&utm_relevant_index=2
dynamic_rnn参数 返回值为outputs和states
参考:https://zhuanlan.zhihu.com/p/43041436
tf.layers.dense使用
输入数据,输出大小 https://blog.csdn.net/yangfengling1023/article/details/81774580
rnn.GRUCell定义如何使用它
output,state=gruCell(inputs,previous_state) 参考:https://blog.csdn.net/u013230189/article/details/82822668
05人类语言处理
—1524睡觉,早上和sx我学会了如何定义和划分任务。就我个人而言,我觉得时间仍然很紧。毕竟,这是我第一次独立制作代码。任务在早上大致定义,但没有具体说明ddl,只有sx划分的ddl。自己的ddl要比sx以防万一。
—1626f发现了shell文件,鹅鹅鹅,对不起沐沐,才看了一天tf就忘了torch对不起沐沐!
torch.cuda.is_available()
这个指令的作用是看,你的电脑 GPU 能否被 PyTorch 调用。 https://segmentfault.com/a/1190000020956132
list(zip(*batch))压缩与解压
zip(*)解压,zip压缩
isInstance报错AttributeError
torch.autograd.variable.Variable是什么
是需要计算梯度的参数(复习,完全忘记)。data和grad。可以设置requires_grad。 https://blog.csdn.net/CSDN_of_ding/article/details/110691635
—终于把假期计划写完了!!!快调代码!