资讯详情

NLP-D37-nlp比赛D6-DMN&《人类语言处理》05

—0450啊,早上网页打不开,浏览器缓存都清了。我想哭。

现在开始看DMN了hhh

讲的好好

哈达玛积能计算相似度吗?

我不明白。我觉得我只是在做。input与q的互动??然后让参数自己学习相似性?

----0642小弟又有才华了!!!又有颜!!!我哭了!Richard Socher!!!爱啊!为什么?nlp2017不全是小哥哥说的!

DMN coding

1.没有这个参数,好搞笑。 在这里插入图片描述

—早餐后吃完0728!去做核酸,然后去超市买菜! 感觉回来需要看个embedding专题,先把昨天的那个embedding解决问题!DMN代码之后】

-----0855早上买菜的人好多哇~但我成功地实现了豆芽的自由,快乐!

rnn.GRUCell

参数为隐藏层数

参考:https://blog.csdn.net/u013230189/article/details/82822668

dynamic_rnn与static_rnn

上面只定义了cell,让rnnrun起床,还需要一个dynamic或者staticrnn.

https://piantou.blog.csdn.net/article/details/89097757?spm=1001.2101.3001.6650.1&utm_medium=distribute.pc_relevant.none-task-blog-2~default~CTRLIST~Rate-1-89097757-blog-103605612.pc_relevant_antiscanv3&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2~default~CTRLIST~Rate-1-89097757-blog-103605612.pc_relevant_antiscanv3&utm_relevant_index=2

dynamic_rnn参数 返回值为outputs和states

参考:https://zhuanlan.zhihu.com/p/43041436

tf.layers.dense使用

输入数据,输出大小 https://blog.csdn.net/yangfengling1023/article/details/81774580

rnn.GRUCell定义如何使用它

output,state=gruCell(inputs,previous_state) 参考:https://blog.csdn.net/u013230189/article/details/82822668

05人类语言处理

—1524睡觉,早上和sx我学会了如何定义和划分任务。就我个人而言,我觉得时间仍然很紧。毕竟,这是我第一次独立制作代码。任务在早上大致定义,但没有具体说明ddl,只有sx划分的ddl。自己的ddl要比sx以防万一。

—1626f发现了shell文件,鹅鹅鹅,对不起沐沐,才看了一天tf就忘了torch对不起沐沐!

torch.cuda.is_available()

这个指令的作用是看,你的电脑 GPU 能否被 PyTorch 调用。 https://segmentfault.com/a/1190000020956132

list(zip(*batch))压缩与解压

zip(*)解压,zip压缩

isInstance报错AttributeError

torch.autograd.variable.Variable是什么

是需要计算梯度的参数(复习,完全忘记)。data和grad。可以设置requires_grad。 https://blog.csdn.net/CSDN_of_ding/article/details/110691635

—终于把假期计划写完了!!!快调代码!

标签: 二极管dmn26d0udj

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台