资讯详情

NLP-D36-nlp比赛D5-深度学习框架&Allennlp&《人类自然语言处理》05&修captura&tf相关-if __name__ == “__...

—0534醒来以为已经太晚了,只看了5点多一点。sx消息,真的太细了。写总结和计划,开始学习。~明天是6月1日!上半年最后一个月,我们应该把它放在上半年flag站好!!!【胖胖在窗边看风景,好可爱啊!

基础框架的深度学习

总的来说,tf,pytorch,caffe,kears第一层框架包装了一些基本的网络结构,避免了写底层计算代码的麻烦。

如果你是初学者,掌握了Python的numpy、matplotlib考虑学习一个深度学习框架等基础模块,我建议你从Keras在数学实现细节上,可以快速构建、训练和评估模型,而无需花费太多时间。 假如你已经掌握了Keras,并且希望真正了解你的模型在做什么,或者你是一名科研人员,想借助工具实现你idea建议您选择易用灵活的研究PyTorch。 如果你想掌握需求最大的框架,想从事深度学习,或者从事工业场景应用和研发,建议你选择TensorFlow。 个人不推荐Caffe,尽管在极盛时期,Caffe它占据了计算机视觉研究领域的一半。但当深入学习的新时代到来时,Caffe表现出明显的力不从心,许多问题逐渐出现。假如你是Caffe建议重度用户关注Caffe2.0。 参考:https://zhuanlan.zhihu.com/p/61576496

Allennlp–高级框架

是在pytorch上针对nlp进一步包装框架,简化数据预处理、数据集读取、词嵌入(Glove,ELMo,BERT常用的可以直接使用,需要word,char粒度可以),log各组件中的打印、参数修改等操作。 参考:https://zhuanlan.zhihu.com/p/55113908 在这里插入图片描述

四种高级框架参考:https://www.jiqizhixin.com/articles/2019-08-13-3

回家真好!可以随便吃菜,功放课程hhh!!!写一个日常计划,做今天的核酸!!!《人类自然语言处理》05已经第三次听了,感觉轻松多了。CTChhh~哦哦哦!!我还保存了宝可梦slides!!!

—芜湖,0753,完成核酸,发现这两天有智源大会,感觉要赶紧安装录屏软件。

这个captura好zz哇~我写的是硬盘,找不到就疯狂报错。hh,我插上硬盘,就可以用了hhh,趁机会改个路径,或者直接load进硬盘也ok,反正已经修好了hh

—0809终于一切都好了,写个日计划,早上开始学习!!!lecture了!!!

tf.app.flags.DEFINE_string使用

功能:接收命令行参数: 使用:DEFINE_xxx函数带有三个参数,即变量名、默认值和用法描述,如:

tf.app.flags.DEFINE_string('ckpt_path', 'model/model.ckpt-100000', '''Checkpoint directory to restore''') 

定义一个是 “ckpt_path” 的变量,是 ckpt_path = ‘model/model.ckpt-100000’,表明这是保存节点信息的路径。 参考:https://blog.csdn.net/dcrmg/article/details/79658725

tf.app.run()

可以看出,源码中的过程是先加载的flags然后执行参数项main函数。使用参数。tf.app.flags.FLAGS定义的。 参考:https://blog.csdn.net/TwT520Ly/article/details/79759448

if == “”:

作用:防止import使用不应该运行的代码module的__name__变量对import或者区分,然后分配不同的分配work。

允许或阻止模块导入时运行部分

1.首先,每个模块都有一个__name__变量。变量设置为运行模块__main__;该变量为该模块的名称,用作导入模块。

2、两种情况 区分模块作为主模块和导入。 3、实际使用 4、骚操作hhh----import的module有很多函数,不想全部导入 哦哦,原来是这个哦~事实上,它以前一直在使用,但我不明白要义。这只导入一个函数。 参考:https://chinese.freecodecamp.org/news/if-name-main-python-example/ 这篇文章写得很清楚!

tf.assign

这是变量的再分配值,只有在run()后才生效。

另外,tf.global_variables_initializer()这个函数应该是之前定义的Variable都赋值。 参考:https://blog.csdn.net/Invokar/article/details/89041501

feed_dict

用来在sess.run()中传参数。 参考:https://blog.csdn.net/qq_36666115/article/details/80017305

蜜汁验证–bug

tf.get_variable()和tf.Variable()的区别

1、get_variable()不需要明确指定初始化方法的指定值 2、get_variable()方便共享变量——检查是否存在相同的变量name的变量;tf.Variable每次都会新建一个变量。 3、get_variable(),需要配合reuse和tf.variable_scope使用它。如果已经创建了变量对象,则返回该对象而不创建。 加上reuse以后,可以共享参数

本文的例子相当清楚, 参考链接:https://zhuanlan.zhihu.com/p/106324882

tf.nn.embedding_lookup(tensor, id)

选择张量,索引对应的元素

参考:https://blog.csdn.net/UESTC_C2_403/article/details/72779417

tf中strides维度为4

其实就是把batch和channel还设置了。 这里,h和w还是1

参考:https://blog.csdn.net/sinat_32547403/article/details/77122737

—1456记录了讲座的屏幕,但我觉得讲座的信息量太大了,我的基础薄弱,听不进去,我想看比赛hhh,听你最想听的讲座。明天的知识地图和陈丹qi小姐姐

HAN

首先提取词级注意力,然后应用句级注意力。 具体见下图 参考:https://zhuanlan.zhihu.com/p/44776747

本参考文介绍了具体的公式 https://zhuanlan.zhihu.com/p/53342715

重复使用的目的

就是把原来Line这个dict换为list。 ----1936年跑步,吃完饭~今天给家人做了西红柿菜花,现在继续看代码!

tf.nn.bidirectional_dynamic_rnn

output应该是每个cell隐藏状态;和state应该是最后的隐藏状态。 输入一般为[batch_szie, max_time, depth]

embedded_chars为输入的tensor,[batch_szie, max_time, depth]。batch_size为模型当中batch文本中使用的尺寸,max_time句子的长度(一般以最长的句子为准,短句需要做padding),depth输入句子词向量的维度。 ———————————————— 原文链接:https://blog.csdn.net/qq_41424519/article/details82112904

不懂为什么算softmax需要减去最大值

--------2123看完HAN了,感觉看得太细了。现在再来看看DMN

DMN

这个模型直接搜居然搜不到,还得搜大名——Dynamic Memory Network

–2223呜呜呜没太看懂,但是好困,先睡。明天再看。可以看看视频资料

标签: 二极管dmn26d0udj

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台