张涛周报20180106

2018年第一周,内容如下: 1. FPGA:希望这个项目能在下周结束吧,拖得太久了。 2. 读书:本周主要复习《数据挖掘的十大算法》,温故知新,感触颇多。 3. 2017总结:终于写完了总结的ppt,下周看看开个总结会。 4. 专利:利用学校开会的时间写了两个专利的想法,分别安排刘川和王明贤去整理。 5. 审稿:忙里偷闲为计算机科学审了两篇稿件,其中一个用形式概念分析做角色分析的有点意思。 6. 模式识别ppt:简单做了一个模式识别的ppt,为自己梳理一下分类器的思路,也为于老师安排的交流做准备。 7. 论文:大概看了一下刘梦奇的论文,应该差不多了,请外语学院的任强帮忙看语言,争取下周投出。 ...
Read More

张涛周报20171231

2017年最后一份周报,但不是今年的年终总结。 本周工作内容如下: 1. 读书。这段时间读了一些书:《深度学习》、《机器学习》、《模式分类》、《数据挖掘的十大算法》四本书。虽然只是读了绪论,但还是有所感悟。我们最早做形式概念分析是因为想在模式识别中寻找突破,于是做了形式概念分析,做了属性拓扑。而现在,回过头看看那些经典,再看看这些年别人的工作,感触颇多。正如李宗盛的那首《远行》:…… 2. FPGA项目:常规推进,下周可能要去石家庄联试。本周在此内容上心情经历较多,但仍然坚持自己的理念:要做到无愧我心。 2017终究过去了,也许我会怀念他。 ...
Read More

张涛周报20171224

FPGA:本周有些进展,但进展速度远远不够。好在剩下的时间已经不多,如果有下一个项目,一定要进行调整。 帕金森专利:张文清已经这里差不多了,计划下周投出。 投资:杨爽提供的天使湾投资链接,本周已经起草大概,计划下周完善。 读书:《深度学习》的绪论。这段时间打算“温故知新”,把这些经典的绪论都读一读。 机械设计方案设计:大概做了一个上周赵铁石院长提出的方案,感觉需要用到综合的AI,的确是个挑战。但没有挑战的事情谁愿意去做呢? 人民医院康复科交流:有事情可做,技术上和科研上都有所想法。奈何设备和时间实在有限。 航空总医院交流:晚上突击了一下手术过程,感觉实现起来还是有难度,机器视觉尚未发展到如此程度。 ...
Read More

张涛周报20171218

上周情况总结: 1. FPGA项目:常规推进中,后续需要刘川与王明贤积极跟进。 2. 论文阅读:终于读完了deepmind关于视觉概念网络构建的论文,整体思路与我们之前的构思几乎相同,但他们在primitive提取时构思巧妙,值得进一步学习。但论文在后期的概念网络搭建上显得过于粗糙,猜测研究者应该是从深度学习与概率模型起家的,对于数据结构表示与符号递进不是太清楚。这也给我们留出了机会。如果我们借鉴他们的去耦思想构建基元,再利用属性拓扑构建后期的概念网络,结果是否会有所突破?该任务下一步由刘梦奇与蒋培培继续跟踪。 3. 交流:本周最大的一个进展是和赵铁石院长的团队做了一次交流,内容是能够构建机械设计的人工智能系统。从赵院长的描述看,我觉得这个系统构建至少理论上是没有问题,但真要开展必然需要巨大的人力与时间开销。将属性拓扑应用于一个领域是我一直以来所追求的,如果赵院长那边所有需要,我想投入三到五年时间去开发这样一个系统非常有意义。 4. 思考:从这次杨爽带回来的信息看,目前机器学习与人工智能的社会上的火爆程度超出了我的想象。从白星带回来的信息看,人工智能芯片设计一定是下一个突破点。我们再次幸运的提前预测到了这样的结合,只是来的有些突然,我们还没有完全准备好。本次FPGA项目结束后,可能整个团队要更偏向于人工智能一些,为下一步积累基础。 感谢大量的监考与值班,让我能够静心思考很多问题。 ...
Read More

张涛周报2017.12.10

本周被教学严重耽误。上课三次,课程设计值班三次,监考两个晚上,研究生答辩半天,系里开会半天,为项目跑付款合同半天,…… 所以,只能利用零碎的时间做一些事情。 1. FPGA项目。这个项目目前已经进入到近乎玄学的阶段,各种测试上手之后仍然无法发现问题的所在。这段时间刘川和王明贤的投入明显增加,同时也看到了二位能力在逐渐增强。 2. 论文。本周主要读的内容是变分贝叶斯的原理,出人意料的是我居然读懂了大部分。但回去再读deepmind那篇论文仍然感觉吃力,仍需继续补充学习。 ...
Read More

张涛周报20171203

本周工作集中于两点: 1. FPGA项目继续。该项目目前调试时间不短了,中间也总结了不少东西,可为今后项目开展作为参考。 本周到北京出差两天,发现公司的状态与学校截然不同。怀疑自己是不是对在校生要求过于宽松了。 2. 读论文。由deepmind的那篇论文开始,发现读不懂的地方向前查找,目前查到了变分贝叶斯问题(已经放到本网站),精力有限,暂时没有太大进展。继续努力吧。 ...
Read More

变分贝叶斯算法理解与推导 Variational Bayes

原文地址: http://blog.huajh7.com/2013/03/06/variational-bayes/ 前言 上世纪90年代,变分推断在概率模型上得到迅速发展,在贝叶斯框架下一般的变分法由Attias的两篇文章给出。Matthew J.Beal的博士论文《Variational Algorithms for Approximate Bayesian Inference》中有比较充分地论述,作者将其应用于隐马尔科夫模型,混合因子分析,线性动力学,图模型等。变分贝叶斯是一类用于贝叶斯估计和机器学习领域中近似计算复杂(intractable)积分的技术。它主要应用于复杂的统计模型中,这种模型一般包括三类变量:观测变量(observed variables, data),未知参数(parameters)和潜变量(latent variables)。在贝叶斯推断中,参数和潜变量统称为不可观测变量(unobserved variables)。变分贝叶斯方法主要是两个目的: 近似不可观测变量的后验概率,以便通过这些变量作出统计推断。 对一个特定的模型,给出观测变量的边缘似然函数(或称为证据,evidence)的下界。主要用于模型的选择,认为模型的边缘似然值越高,则模型对数据拟合程度越好,该模型产生Data的概率也越高。 对于第一个目的,蒙特卡洛模拟,特别是用Gibbs取样的MCMC方法,可以近似计算复杂的后验分布,能很好地应用到贝叶斯统计推断。此方法通过大量的样本估计真实的后验,因而近似结果带有一定的随机性。与此不同的是,变分贝叶斯方法提供一种局部最优,但具有确定解的近似后验方法。 从某种角度看,变分贝叶斯可以看做是EM算法的扩展,因为它也是采用极大后验估计(MAP),即用单个最有可能的参数值来代替完全贝叶斯估计。另外,变分贝叶斯也通过一组相互依然(mutually dependent)的等式进行不断的迭代来获得最优解。 问题描述 重新考虑一个问题:1)有一组观测数据DD,并且已知模型的形式,求参数与潜变量(或不可观测变量)Z={Z1,...,Zn}Z={Z1,...,Zn} 的后验分布: P(Z|D)P(Z|D)。 正如上文所描述的后验概率的形式通常是很复杂(Intractable)的,对于一种算法如果不能在多项式时间内求解,往往不是我们所考虑的。因而我们想能不能在误差允许的范围内,用更简单、容易理解(tractable)的数学形式Q(Z)来近似P(Z|D)P(Z|D),即 P(Z|D)≈Q(Z)P(Z|D)≈Q(Z)。 由此引出如下两个问题: 假设存在这样的Q(Z)Q(Z),那么如何度量Q(Z)Q(Z)与P(Z|D)P(Z|D)之间的差异性 (dissimilarity). 如何得到简单的Q(Z)Q(Z)? 对于问题一,幸运的是,我们不需要重新定义一个度量指标。在信息论中,已经存在描述两个随机分布之间距离的度量,即相对熵,或者称为Kullback-Leibler散度。 对于问题二,显然我们可以自主决定Q(Z)Q(Z)的分布,只要它足够简单,且与P(Z|D)P(Z|D)接近。然而不可能每次都手工给出一个与P(Z|D)P(Z|D)接近且简单的Q(Z)Q(Z),其方法本身已经不具备可操作性。所以需要一种通用的形式帮助简化问题。那么数学形式复杂的原因是什么?在“模型的选择”部分,曾提到Occam’s razor,认为一个模型的参数个数越多,那么模型复杂的概率越大;此外,如果参数之间具有相互依赖关系(mutually dependent),那么通常很难对参数的边缘概率精确求解。 幸运的是,统计物理学界很早就关注了高维概率函数与它的简单形式,并发展了平均场理论。简单讲就是:系统中个体的局部相互作用可以产生宏观层面较为稳定的行为。于是我们可以作出后验条件独立(posterior independence)的假设。即,∀i,p(Z|D)=p(Zi|D)p(Z−i|D)∀i,p(Z|D)=p(Zi|D)p(Z−i|D) Kullback-Leibler散度 在统计学中,相对熵对应的是似然比的对数期望,相对熵 D(p||q)D(p||q) 度量当真实分布为 P而假定分布为Q时的无效性。 定义 两个概率密度函数为p(x)p(x)和q(x)q(x)之间的相对熵定义为 DKL(p||q)=∑xp(x)logp(x)q(x)DKL(p||q)=∑xp(x)log⁡p(x)q(x). KL散度有如下性质: DKL(p||q)≠DKL(q||p)DKL(p||q)≠DKL(q||p); DKL(p||q)≥0DKL(p||q)≥0 ,当且仅当p=qp=q时为零; 不满足三角不等式。 Q分布与P分布的KL散度为: DKL(Q||P)=∑ZQ(Z)logQ(Z)P(Z|D)=∑ZQ(Z)logQ(Z)P(Z,D)+logP(D) DKL(Q||P)=∑ZQ(Z)log⁡Q(Z)P(Z|D)=∑ZQ(Z)log⁡Q(Z)P(Z,D)+log⁡P(D) 或者 logP(D)=DKL(Q||P)−∑ZQ(Z)logQ(Z)P(Z,D)=DKL(Q||P)+L(Q). log⁡P(D)=DKL(Q||P)−∑ZQ(Z)log⁡Q(Z)P(Z,D)=DKL(Q||P)+L(Q). 由于对数证据logP(D)logP(D)被相应的Q所固定,为了使KL散度最小,则只要极大化L(Q)L(Q)。通过选择合适的Q,使L(Q)L(Q)便于计算和求极值。这样就可以得到后验P(Z|D)P(Z|D)的近似解析表达式和证据(log evidence)的下界L(Q)L(Q),又称为变分自由能(variational free energy): L(Q)=∑ZQ(Z)logP(Z,D)−∑ZQ(Z)logQ(Z)=EQ[logP(Z,D)]+H(Q) L(Q)=∑ZQ(Z)log⁡P(Z,D)−∑ZQ(Z)log⁡Q(Z)=EQ[log⁡P(Z,D)]+H(Q) vb1 平均场理论(Mean Field Method) 数学上说,平均场的适用范围只能是完全图,或者说系统结构是well-mixed,在这种情况下,系统中的任何一个个体以等可能接触其他个体。反观物理,平均场与其说是一种方法,不如说是一种思想。其实统计物理的研究目的就是期望对宏观的热力学现象给予合理的微观理论。物理学家坚信,即便不满足完全图的假设,但既然这种“局部”到“整体”的作用得以实现,那么个体之间的局部作用相较于“全局”的作用是可以忽略不计的。 根据平均场理论,变分分布Q(Z)可以通过参数和潜在变量的划分(partition)因式分解,比如将ZZ划分为Z1…ZMZ1…ZM Q(Z)=∏i=1Mq(Zi|D) Q(Z)=∏i=1Mq(Zi|D) 注意这里并非一个不可观测变量一个划分,而应该根据实际情况做决定。当然你也可以这么做,但是有时候,将几个潜变量放在一起会更容易处理。 平均场方法的合理性 在量子多体问题中,用一个(单体)有效场来代替电子所受到的其他电子的库仑相互作用。这个有效场包含所有其他电受到的其他电子的库仑相互作用。这个有效场包含了所有其他电子对该电子的相互作用。利用有效场取代电子之间的库仑相互作用之后,每一个电子在一个有效场中运动,电子与电子之间的运动是独立的(除了需要考虑泡利不相容原理),原来的多体问题转化为单体问题。 同样在变分分布Q(Z)这个系统中,我们也可以将每一个潜变量划分看成是一个单体,其他划分对其的影响都可以用一个看做是其自身的作用。采用的办法是迭代(Iterative VB(IVB) algorithm)。这是由于当变分自由能取得最大值的时候,划分ZiZi与它的互斥集Z−iZ−i(或者更进一步,马尔科夫毯(Markov blanket), mb(Zi))mb(Zi))具有一个简单的关系: Q(Zi)∝1Cexp⟨lnP(Zi,Z−i,D)⟩Q(Z−i)orQ(mb(Zi)) Q(Zi)∝1Cexp⁡⟨ln⁡P(Zi,Z−i,D)⟩Q(Z−i)orQ(mb(Zi)) (为保持文章的连贯性,此处先不证明,下文将详细说明) 于是,对于某个划分ZiZi,我们可以先保持其他划分Z−iZ−i不变,然后用以上关系式更新ZiZi。相同步骤应用于其他划分的更新,使得每个划分之间充分相互作用,最终达到稳定值。 具体更新边缘概率(VB-marginal)步骤如下: 初始化Q(0)(Zi)Q(0)(Zi),可随机取; 在第k步,计算Z−iZ−i的边缘密度Qk∝exp∫Z∗iQk−1logP(Zi,Z−i,D)dZiQk∝exp⁡∫Zi∗Qk−1log⁡P(Zi,Z−i,D)dZi 计算ZiZi的边缘密度Qk∝exp∫Z∗−iQklogP(Zi,Z−i,D)dZ−iQk∝exp⁡∫Z−i∗Qklog⁡P(Zi,Z−i,D)dZ−i 理论上Q∞Q∞将会收敛,则反复执行(2), (3)直到Q(Zi)Q(Zi),Q(Z−i)Q(Z−i)稳定,或稳定在某个小范围内。 最后,得 Q(Z)=Q(Zi|D)Q(Z−i|D)Q(Z)=Q(Zi|D)Q(Z−i|D) 平均场估计下边缘概率的无意义性 (VB-marginals) 注意到Q(Z)估计的是联合概率密度,而对于每一个Qi(Zi)Qi(Zi),其与真实的边缘概率密度Pi(Zi)Pi(Zi)的差别可能是很大的。不应该用Qi(Zi)Qi(Zi)来估计真实的边缘密度,比如在一个贝叶斯网络中,你不应该用它来推测某个节点的状态。而这其实是很糟糕的,相比于其他能够使用节点状态信息来进行局部推测的算法,变分贝叶斯方法更不利于调试。 比如一个标准的高斯联合分布P(μ,x)P(μ,x)和最优的平均场高斯估计Q(μ,x)Q(μ,x)。Q选择了在它自己作用域中的高斯分布,因而变得很窄。此时边缘密度Qx(x)Qx(x)变得非常小,完全与Px(x)Px(x)不同。 vb2 泛函的概念 上文已经提到我们要找到一个更加简单的函数D(Z)D(Z)来近似P(Z|D)P(Z|D),同时问题转化为求解证据logP(Z)logP(Z)的下界L(Q)L(Q),或者L(Q(Z))L(Q(Z))。应该注意到L(Q)L(Q)并非普通的函数,而是以整个函数为自变量的函数,这便是泛函。我们先介绍一下什么是泛函,以及泛函取得极值的必要条件。 泛函 设对于(某一函数集合内的)任意一个函数y(x)y(x),有另一个数J[y]J[y]与之对应,则称J[y]J[y]为y(x)y(x)的泛函。泛函可以看成是函数概念的推广。 这里的函数集合,即泛函的定义域,通常要求y(x)y(x) 满足一定的边界条件,并且具有连续的二阶导数.这样的y(x)y(x)称为可取函数。 泛函不同于复合函数, 例如g=g(f(x))g=g(f(x)); 对于后者,给定一个xx值,仍然是有一个gg值与之对应; 对于前者,则必须给出某一区间上的函数y(x)y(x),才能得到一个泛函值J[y]J[y]。(定义在同一区间上的)函数不同,泛函值当然不同, 为了强调泛函值J[y]J[y]与函数y(x)y(x)之间的依赖关系,常常又把函数y(x)y(x)称为变量函数。 泛函的形式多种多样,通常可以积分形式:J[y]=∫x1x0F(x,y,y′)dxJ[y]=∫x0x1F(x,y,y′)dx 泛函取极值的必要条件 泛函的极值 “当变量函数为y(x)y(x)时,泛函J[y]J[y]取极大值”的含义就是:对于极值函数y(x)y(x)及其“附近”的变量函数y(x)+δy(x)y(x)+δy(x),恒有J[y+δy]≤J[y]J[y+δy]≤J[y]; 所谓函数y(x)+δy(x)y(x)+δy(x)在另一个函数y(x)y(x)的“附近”,指的是: |δy(x)|<ε|δy(x)|<ε; 有时还要求|(δy)′(x)|<ε|(δy)′(x)|<ε. 这里的δy(x)δy(x)称为函数y(x)y(x)的变分。 Euler–Lagrange方程 可以仿造函数极值必要条件的导出办法,导出泛函取极值的必要条件,这里不做严格的证明,直接给出。 泛函J[y]J[y]取到极大值的必要条件是一级变分δJ[y]δJ[y]为0,其微分形式一般为二阶常微分方程,即Euler-Largange方程: ∂F∂y−ddx∂F∂y′=0 ∂F∂y−ddx∂F∂y′=0 泛函的条件极值 在约束条件 下求函数J[y]J[y]的极值,可以引入Largange乘子λλ,从而定义一个新的泛函, J~[y]=J[y]−λJ0[y]J~[y]=J[y]−λJ0[y]。仍将δyδy看成是独立的,则泛函J~[y]J~[y]在边界条件下取极值的必要条件就是, (∂∂y−ddx∂∂y′)(F−λG)=0 (∂∂y−ddx∂∂y′)(F−λG)=0 问题求解 对于L(Q(Z))=EQ(Z)[lnP(Z,D)]+H(Q(Z))L(Q(Z))=EQ(Z)[ln⁡P(Z,D)]+H(Q(Z)),将右式第一项定义为能量(Energy),第二项看做是信息熵(Shannon entropy)。我们只考虑自然对数的形式,因为对于任何底数的对数总是可以通过换底公式将其写成自然对数与一个常量的乘积形式。另外根据平均场假设可以得到如下积分形式, L(Q(Z))=∫(∏iQi(Zi))lnP(Z,D)dZ−∫(∏kQk(Zk))∑ilnQi(Zi)dZ L(Q(Z))=∫(∏iQi(Zi))ln⁡P(Z,D)dZ−∫(∏kQk(Zk))∑iln⁡Qi(Zi)dZ 其中Q(Z)=∏iQi(Zi)Q(Z)=∏iQi(Zi),且满足 ∀i.∫Qi(Zi)dZi=1∀i.∫Qi(Zi)dZi=1 考虑划分Z={Zi,Z−i}Z={Zi,Z−i},其中Z−i=Z∖ZiZ−i=Z∖Zi,先考虑能量项(Energy)(第一项), EQ(Z)[lnP(Z,D)]=∫(∏iQi(Zi))lnP(Z,D)dZ=∫Qi(Zi)dZi∫Q−i(Z−i)lnP(Z,D)dZ−i=∫Qi(Zi)⟨lnP(Z,D)⟩Q−i(Z−i)dZi=∫Qi(Zi)lnexp⟨lnP(Z,D)⟩Q−i(Z−i)dZi=∫Qi(Zi)lnQ∗i(Zi)dZi+lnC EQ(Z)[ln⁡P(Z,D)]=∫(∏iQi(Zi))ln⁡P(Z,D)dZ=∫Qi(Zi)dZi∫Q−i(Z−i)ln⁡P(Z,D)dZ−i=∫Qi(Zi)⟨ln⁡P(Z,D)⟩Q−i(Z−i)dZi=∫Qi(Zi)ln⁡exp⁡⟨ln⁡P(Z,D)⟩Q−i(Z−i)dZi=∫Qi(Zi)ln⁡Qi∗(Zi)dZi+ln⁡C 其中定义Q∗i(Zi)=1Cexp⟨lnP(Z,D)⟩Q−i(Z−i)Qi∗(Zi)=1Cexp⁡⟨ln⁡P(Z,D)⟩Q−i(Z−i),CC为的归一化常数。再考虑熵量(entropy)(第二项), H(Q(Z))=−∑i∫(∏kQk(Zk))lnQi(Zi)dZ=−∑i∫∫Qi(Zi)Q−i(Z−i)lnQi(ZidZidZ−i=−∑i⟨∫Qi(Zi)lnQi(Zi)dZi⟩Q−i(Z−i)=−∑i∫Qi(Zi)lnQi(Zi)dZi H(Q(Z))=−∑i∫(∏kQk(Zk))ln⁡Qi(Zi)dZ=−∑i∫∫Qi(Zi)Q−i(Z−i)ln⁡Qi(ZidZidZ−i=−∑i⟨∫Qi(Zi)ln⁡Qi(Zi)dZi⟩Q−i(Z−i)=−∑i∫Qi(Zi)ln⁡Qi(Zi)dZi 此时得到泛函, L(Q(Z))=∫Qi(Zi)lnQ∗i(Zi)dZi−∑i∫Qi(Zi)lnQi(Zi)dZi+lnC=(∫Qi(Zi)lnQ∗i(Zi)dZi−∫Qi(Zi)lnQi(Zi)dZi)−∑k≠i∫Qk(Zk)lnQk(Zk)dZk+lnC=∫Qi(Zi)lnQ∗i(Zi)Qi(Zi)dZi−∑k≠i∫Qk(Zk)lnQk(Zk)dZk+lnC=−DKL(Qi(Zi)||Q∗i(Zi))+H[Q−i(Z−i)]+lnC L(Q(Z))=∫Qi(Zi)ln⁡Qi∗(Zi)dZi−∑i∫Qi(Zi)ln⁡Qi(Zi)dZi+lnC=(∫Qi(Zi)ln⁡Qi∗(Zi)dZi−∫Qi(Zi)ln⁡Qi(Zi)dZi)−∑k≠i∫Qk(Zk)ln⁡Qk(Zk)dZk+lnC=∫Qi(Zi)ln⁡Qi∗(Zi)Qi(Zi)dZi−∑k≠i∫Qk(Zk)ln⁡Qk(Zk)dZk+ln⁡C=−DKL(Qi(Zi)||Qi∗(Zi))+H[Q−i(Z−i)]+ln⁡C 注意到L(Q(Z))L(Q(Z)) 并非只有一个等式,如果不可观测变量有M个划分。 那么将有M个方程。 为了使得L(Q(Z))L(Q(Z))达到最大值, 同时注意到约束条件, 根据泛函求条件极值的必要条件, 得, ∀i.∂∂Qi(Zi){−DKL[Qi(Zi)||Q∗i(Zi)]−λi(∫Qi(Zi)dZi−1)}:=0 ∀i.∂∂Qi(Zi){−DKL[Qi(Zi)||Qi∗(Zi)]−λi(∫Qi(Zi)dZi−1)}:=0 直接求解将得到Gibbs分布,略显复杂;实际上,注意到KL散度,我们可以直接得到KL散度等于0的时候,L(D)L(D)达到最大值,最终得到 Qi(Zi)=Q∗i(Zi)=1Cexp⟨lnP(Zi,Z−i,D)⟩Q−i(Z−i) Qi(Zi)=Qi∗(Zi)=1Cexp⁡⟨ln⁡P(Zi,Z−i,D)⟩Q−i(Z−i) C为归一化常数C=∫exp⟨ln(Zi,Z−i,D)⟩Q−i(Z−i)dZ−iC=∫exp⁡⟨ln⁡(Zi,Z−i,D)⟩Q−i(Z−i)dZ−i , Q(Zi)Q(Zi)为联合概率函数在除ZiZi本身外的其他划分下的对数期望。又可以写为 lnQi(Zi)=⟨lnP(Zi,Z−i,D)⟩Q−i(Z−i)+constln⁡Qi(Zi)=⟨ln⁡P(Zi,Z−i,D)⟩Q−i(Z−i)+const. 参考文献 [1] Smídl, Václav, and Anthony Quinn. The variational Bayes method in signal processing. Springer, 2006. [2] Beal, Matthew James. Variational algorithms for approximate Bayesian inference. Diss. University of London, 2003. [3] Fox, Charles W., and Stephen J. Roberts. “A tutorial on variational Bayesian inference.” Artificial Intelligence Review 38.2 (2012): 85-95. [4] Attias, Hagai. “Inferring parameters and structure of latent variable models by variational Bayes.” Proceedings of the Fifteenth conference on Uncertainty in artificial intelligence. Morgan Kaufmann Publishers Inc., 1999. [5] Attias, Hagai. “A variational Bayesian framework for graphical models.”Advances in neural information processing systems 12.1-2 (2000): 209-215. ...
Read More

张涛周报20171125

本周工作: 1. FPGA丢包测试。 由苗耀佳测试已经一周,仍然无果,目前在北京继续测试。目前为止,得到的教训就是:出来混早晚要还。如果早期进行测试,至少不会这么狼狈。 2. 帕金森流程整理 和张文清一起将大体流程梳理完毕,下一步开始写专利交底和进一步的论文书写。在此过程中发现很多基础知识欠缺,书到用时方恨少啊。 3. 论文阅读 终于有时间读deepmind的概念化论文了。大体思想部分读明白了,但实现过程没读懂。需要进一步查参考文献再读。 ...
Read More

张涛周报20171119

本周工作主要有两个: 1. FPGA项目调试。 本周调试可以分为两个阶段:本地调试和进场调试。 本地调试部分,暴露了一些沟通不足和检查不到位的情况。比如:在前几周因为RAM读时钟和读数据的时序问题反复讨论了不下两天,最终被解释为RAM的读并非时序过程才得以通过。本周,该问题再次来临。发现最原始的版本中对时序的理解是正确的。问题的根源不在于RAM,而在于整合的过程中时钟使用错误。本来应该接入150MHz时钟的地方只接入了50MHz,且双方并非同一时钟。其根源在于我对整体检查的疏忽。希望接下来的时间能够仔细检查一下。 暴露的第二个问题是对fifo间写入逻辑的理解。这个在于我没有交待清楚,出现了写慢读快的问题。交待之后应该可以顺利解决。 总之,为了避免下次再出现类似情况,应建立内部报告机制。在项目的重要节点处应该由执行者进行报告,可以一定程度上避免此类问题的再次发生。 进场调试部分也同样暴露了一些问题,其中最主要的仍然是沟通不到位。我大意的认为将硬件测试交由硬件组负责就可以了,但事实证明墨菲定律永远是正确的。由于事先沟通不足,导致需要当场写测试代码,最后测试的结果并不理想。责任在我,下一轮进场测试前必须进行内部测试,以确保问题在内部得以发现和解决。 2. 帕金森过程优化 本周和张文清一起对帕金森的流程进行了优化,将整个cnn过程用一个公式进行了简写,初步达到了预期形式。下一步将对语谱图部分进行分析,并进一步分析结果。我觉得肯定可以用一个更为简单的形式对整个诊断过程进行表达。用张文修先生的话说:过程应该是美的。 其他:为《计算机科学》审稿一篇,稿件内容过于陈旧,直接枪毙了。 ...
Read More

张涛周报20171113

本周主要任务有两个: 1. FPGA项目 本周FPGA项目仍在继续调试,经过苗耀嘉的调试,正向代码已通。 与54所沟通第一次测试时间和人员。本次测试为硬件测试,为软件联调争取了一些时间。 2. 帕金森语音流程 重新整理了帕金森语音分析流程,为后续专利与论文做了一些铺垫。 ...
Read More