20190421薛在发周报

本周主要做了RNN和LSTM的实验。数据量少时,随意调整RNN的参数确实会出现有时性能比LSTM好或差的情况,这是本周刚开始时的一个困惑。当两个模型选好参数后,数据量少的时候,RNN模型性能优,数据量增大时,LSTM模型优,可见,处理需要记忆更长历史信息的序列时,LSTM模型更优。 ...
Read More

2019.4.14薛在发周报

1.修改论文,第一阶段是在原论文基础上删删减减,总是有原论文的影子在,第二阶段是把深度学习作为重要标签,将两种神经网络RNN和LSTM对比就有一定的意义。在做实验时,调整RNN的参数,与LSTM相比,会出现耗时多但精度高和耗时少但精度低两种情况。所以调整参数时怎么调是个问题,是根据经验调还是通过算法算,有最佳参数吗,需要调出最佳参数吗 2.组会上一个重点是强调意识和态度问题,平时效率低下或者方向感不足可能都源于这两个问题。学校环境和公司不一样,怎么在学校里提高做事效率也是值得思考的问题。大家推荐的书也看了一些,数学之美里出现最多的一句话是用数学将复杂问题简单化,这可能是数学美的体现之一吧。 ...
Read More

薛在发周报2019.4.8

1.整理准备投出的论文,因论文格式没有明确的要求,主要靠师兄的经验在修改整理。 2.程序跑通,出图,整体一句句读了代码 3.去图书馆看到一本用道家思想编写的全栈的书,大略看了一下,觉得很有意思,实际东西没学到多少,看了一些道理。 ...
Read More

薛在发周报2019.4.1

本周主要做一些辅助性的工作,这让我想起了老师之前展示过的一幅图,说的是一个人的自信程度,先上升,再下降,然后再上升,感觉这周基本上都在下降的状态,因为针对开题文档的文字性的修改和一些语言的表达完全没有头绪,但这期间也听老师讲了一些内容,算是一种学习吧。 ...
Read More

薛在发周报2019.3.24

1、帮师兄修改部分论文。从师兄上次组会讲到把论文整理好给老师看,老师觉得好多了,但也一针见血的提出了建议。本来我们写了几个不同的摘要,希望能确定下来哪个更好,从而能拟出题目;但似乎我们更应该关注引言中解决什么问题的论述,以及实验数据、表格的记录总结和放置,还好这也为这周的开会做了一个铺垫。 2、会议。总结一下就是:每天的实验数据都要记录清楚,包括数据来源,实验结果,数据分析;做PPT展示的时候先用动图直观的感性的显示,再用具体的实验结果理性的分析,这个思路我觉得很好;实验对比很重要,那些对比的数据和图列出来也很漂亮。会议上提到的问题有加速度,位移的数据表示;不仅只做横摇纵摇艏摇其它三种最好也做一下实验;单通道至多通道融合。 ...
Read More

薛在发周报2019.3.18

1、关于开题:从开题报告,文献综述,PPT制作到最后答辩,中间有许多需要注意和改进的地方;比如格式,篇幅,是否理解每个大标题下要写什么内容,怎么讲解自己要做的东西等等。从答辩来看,许老师说答辩的目的是为了看学生对选的题目是否理解,以学生的能力能不能做出来,如果不能就及时提出修改意见,所以老师们十分注重学生自己要做什么和最后能做出来什么。普遍做软件的讲起PPT后,容易讲到云里雾里去,这也侧面反映了我们不是一个好的“推销员” 2、论文方面,把老师讲的双模型公式整理了一下,把论文前面原理部分做了过度,衔接的修改。 ...
Read More

薛在发周报20190311

1、本周完成了开题报告和文献综述,对存在的问题进行了修改; 2、听了老师关于特征选择的讲座,对特征选择的发展历程和思路有了认识,其中尤其是用公式来说明问题那一块,是学习的重点; 3、关于讨论论文该怎么写的组会上,明白了论文写下来的整体框架,意识到一篇论文写下来的不容易,还有那天做什么和怎么做两种思路的碰撞,也是需要注意的地方。 ...
Read More