周报 2017.06.26 – 张猛

一、本周工作 1. 华为杯工作已完成; 2. 把基于对抗思想的视频生成和视频预测的两篇论文仔细读了一遍,关于动态场景视频生成,效果不佳;视频预测论文中展示的效果算是靠点儿谱。 二、下周计划 1. 商讨论文提纲 2. 由于此前训练的数据500次过程中的300,和直接训练300次的最终结果并不一样,所以看看能否保存过程中重要的参数。 ...
Read More

周报 2017.06.19 – 张猛

一、本周工作 1. 准备华为杯的视频录制工作,将华为杯工作完成; 2. 均值,方差的表示优劣,仔细想了一下,均值方差表示是模型的损失函数,交叉熵显示的也是损失函数,效果是一样的; 二、下周计划 1. 以前把视频预测论文搁置了,本周把论文过一遍 2. 了解一下CortexNet模型 ...
Read More

周报 2017.06.12 – 张猛

一、本周工作 1. 把运动视频分辨率调小并进行分帧处理,BEGAN正在进行; 2. SR的可视化工作结束; 3. 关于Loss滤波,执行结果没成功。 二、下周计划 1. 论文进度加快; 2. 对日常工作进行总结并记录; 3. 由于Loss的显示方式并不是常见的数据格式形成,所以在加滤波器时,可能会不合适。 ...
Read More

周报 2017.06.05 – 张猛

一、本周工作 1. 把DCGAN,BEGAN中G和D的Loss与训练过程进行可视化,反映出来的训练趋势和实际的生成结果说明模型并不稳定; 2. 关于SR Loss的可视化,由于代码并不是显式,而是调用的第三方库实现,可视化难度大; 3. 把loss过程进行类似滤波形式操作,也就是折线图平滑的思想,可行性有待商榷; 二、下周计划 1. SR的可视化工作结束; 2. 把Loss的滤波工作是否可行进行总结 3. 进度抓紧 ...
Read More

周报 2017.05.22 – 张猛

一、上周工作 1. 通过对之前工作的反思,自我认为: 1)之所以对现在最新论文有些讲解不懂,一个原因是涉及到的概念及数学知识太多,自己功底不够; 另一个原因是对最初的GAN原理可能理解的不够透彻。 2)基于以上原因,本周对之前的DCGAN论文进行了详读,整理,作为小论文的材料。 2. 以前没有跑过WGAN的结果,本周也Down下来了源码,通过调整之后能跑起来,但是依旧碰到内存不够 的原因,目前正在读WGAN的论文,准备之后进行里面网络层的减少,将代码跑起来。 3. BEGAN的问题模型崩溃问题的原因还在寻找,并实时关注作者的动态。 二、下周计划 1. 将2016年重要论文进行总结,作为小论文的材料,同时也对GAN的基本结构和缺陷有一个理论上的理解; 2. BEGAN的问题是一个重要的关键点,要重点解决。 ...
Read More

周报 2017.05.15 -张猛

一、上周工作 1. 把BEGAN的代码进行复现,由于机器配置与代码并不匹配,调整参数后成功运行; 2. 由于参数进行调整,得到的结果并不尽如人意,生成结果勉强,插值结果崩溃; 3. 为小论文做准备。 二、下周计划 1. 通读BEGAN论文,搞清楚到底是个什么意思; 2. 理解BEGAN关键性代码,了解插值形成以及结果。 ...
Read More

周报 2017.05.08 -张猛

一、 上周工作 1. 阅读BEGAN的论文,了解基本框架和和经典算法之间的区别; 2. 运行BEGAN代码,由于代码所需的环境不匹配,进行环境配置,本周跑起来; 3. 论文准备,框架拟定。 二、 下周计划 1. 代码跑起来; 2. 论文进行; 重点:时间抓紧,不拖不延,有条不紊,注意记录。 ...
Read More

2017.04.24 周报-张猛

一、 上周工作 1. 手写汉字训练集,通过65000次的迭代,结果已然显现,但是清晰度和训练集的清晰度并不是很匹配,主要是因为训练集数量太少,到不到效果; 2. 虽然清晰度有些差别,但汉字本身还是清晰可辨的,笔画也很清晰; 3. 搭载GTX1050显卡,进行了代码的测试,速度明显提升; 4. 阅读BEGAN的论文,了解基本框架和和经典算法之间的区别; 5. 准备开题报告。 二、 下周计划 1. 实用新型回复; 2. 另实用新型整理; 3. 论文准备工作。 ...
Read More

周报 2017.04.17 – 张猛

一、本周工作 由于生成模型内部并不像想象中的可以人为控制,所以把训练过程通过Tensorboard可视化,得到几个参数: d_loss : 判别器的损失函数,是d_loss_fake与d_loss_real之和; d_loss_fake :生成图片输入到判别器中的结果和预期为0的结果的交叉熵; d_loss_real : 真实图片输入到判别器中的结果和预期为1的结果的交叉熵; g_loss : 生成器损失函数,生成器生成的图片输入到判别器中的结果和预期为1的交叉熵。 但是可视化出来的结果显示的训练过程结构图太复杂,需要对代码的完全理解和过程的准确掌握,打算深度研究。 二、下周计划 将参数的意义和表达的信息掌握准确; 显卡接上,跑一下代码,试试效率。 ...
Read More

周报 1017.04.10-张猛

一、本周工作 由GAN训练完之后得到生成模型,其参数为每一层的权重,对于类型单一的训练集来说,生成模型单一,参数相当于一对一;对于多类型的训练集来说,参数相当于是多对多,意思是:随机输入一种分布,模型会分类到对应的子模型中,然后生成样本;生成模型会根据输入进行似分类处理,然后进行输出;到底是那些参数对应哪种类型的生成模型,无解,仅是黑盒子调控行为。 二、下周计划 将此前工作做下总结,看怎样结合应用 ...
Read More