【类脑专辑】神经拟态认知计算

日期: 2017-04-23编辑作者:佚名
  CCCF授权转载   作者:唐华锦、胡隽   【新智元类脑专辑由CCCF授权转载】2015年10月号中国计算机学会通讯类脑计算专题由浙江大学吴朝晖校长和潘纲教授联袂编辑,李国杰院士在主编寄语中写到:不断积累的脑科学研究成果也可在脑机接口、图像识别等领域逐步得到应用,未来可能对信息科学技术产生颠覆性的影响。特邀编辑吴朝晖和潘纲也特别指出:我国正在制定的“中国脑计划”中,类脑计算将是一项重要内容。在这期专题中,他们邀请了多名国内外知名专家撰文介绍类脑计算领域的最新进展,以探讨类脑计算中脉冲神经网络软硬件方面的前沿进展为主。在“中国脑计划”即将推出之际,这两位类脑计算专家梳理了几篇重磅干货,实在非读不可!   摘要:   类脑计算的硬件实现了生物神经系统的结构仿真,但生物神经系统功能的实现则需要相应的神经信息处理算法。四川大学教授唐华锦和新加坡科技研究局资讯通信研究院研究员胡隽联合撰写的《神经拟态认知计算》一文,以学习和记忆为重点介绍了神经拟态的认知算法,包括神经信息编码、突触学习算法、编码和学习集成模型等。   近年来,神经拟态认知计算引起了各国政府和研究机构的关注。美国和欧盟对此也投入了巨资,先后推出了各自的人脑研究计划:美国的“人类大脑计划”(Human Brain Project)致力于从神经元层面探索神经元、神经回路与大脑功能间的关系,欧盟的“大脑活动图谱计划”(Brain Activity Map Project,或称Brain Initiative)则致力于模拟整个人脑。   神经拟态系统最早由卡弗·米德(Carver Mead)于20世纪80年代末提出[1,2],是一种基于神经电路的物理特性、信息处理方式和组织结构的新的计算体系,是今天类脑计算的核心。与现有计算机采用的半导体集成电路相比,神经拟态系统的“诱人”之处在于,具有更高的计算效率(大约106倍)和更低的能耗(1/106~1/104 )。因此,直接操控硬件电路的物理特性,连接设计而模仿神经信息处理和计算结构,是神经拟态计算的核心。这将是一种全新的“非冯·诺伊曼计算体系”,以大规模自适应模拟系统为特征,采用大规模并行、计算和信息存储局部化。其优势是可对多感官非精确的信息进行实时处理,而非现在计算机擅长的精确符号和数字运算。对于神经系统计算的实现,卡弗·米德指出要解决三个层次的问题:首先是最底层的基本计算单元,其次是信息表达,第三是信息的组织原理。   神经拟态系统自提出至今,经过近30年的发展,虽然在神经电路的硬件模拟和简单类脑计算算法(如视觉和听觉的信息处理和识别)上,取得了很多成果,但是在实现高层信息的表达、组织以及认知方面,依然面临诸多挑战。本文着重阐述解决该问题的框架和算法原理——神经拟态认知计算。   研究人脑的工作原理是一项有趣而又充满挑战的课题。它要求综合各种不同学科领域的科学研究成果来探索生物神经系统是如何实现智能的,进而建造人工智能系统来模拟生物神经系统。2013年,诺贝尔生理学或医学奖得主托马斯·居德霍夫(Thomas Südhof)揭示了神经元之间的通信机制,指出脑运算是神经元通过突触进行通信而实现的。居德霍夫的研究旨在理解神经突触是如何完成快速准确的信号传输以及突触传递的损伤与老年痴呆、孤独症等脑疾病之间的联系。神经拟态认知计算(以下简称认知计算)就是以大量已知的脑计算的神经科学为依据,实现类脑计算的各个层次包括建立传感器信息处理、学习、认知与记忆等功能的新一代智能化计算平台。认知计算的主要研究方向为:   ● 研究开发受神经系统机制启发的相关理论和技术,实现计算结构、处理器和装置在内的计算范式。   ● 通过神经拟态电路实现并行、分布式、数模混合和低功耗计算。   认知计算以由神经元和神经突触组成的计算系统为重点,致力于推动对大脑中信息处理和神经突触通信相关的脑功能障碍理解的研究。通过将神经元和神经突触作为最基本的运算单元,推动类脑计算技术的进步,从而为神经处理器、信息处理技术和非冯·诺伊曼结构计算机的发展提供理论和实验基础。   神经拟态认知计算是以脉冲神经元为基本计算单元,由大脑信息处理和计算网络构成。研究人员提出了不同的模型,其计算复杂性随其对生物神经元描述的准确度的提升而递增。其中,常用的脉冲神经元包括IF (Integrate & Fire), LIF (Leaky Integrate & Fire), SRM (Spike Response Mo-del) [3]和Izhikevich模型[4]。尽管LIF神经元模型只具有脉冲神经元的最基本特性,但是因其较低的运算复杂性而被广泛采用。   学习和记忆是一切复杂认知过程实现的基础。组成大脑学习与记忆的模块结构包括组织信息预处理和识别的大脑皮层以及记忆的海马体(hippocampus)。海马体中的CA3和CA1被认为是存储和回忆检索自联想记忆(auto-associative memory)和异联想记忆(hereto-associative memory)的区域。而反馈网络(吸引子网络)则被用来模拟海马体中CA1和CA3区域中的长期记忆。例如在图1中,包含激励和抑制神经元的反馈网络可用来模拟实现CA3的部分功能,通过集成海马体中的椎体细胞(pyramidal neurons)、theta/gamma震荡和锁相脉冲,实现联想记忆的存储[5]。   除了采用神经电路模拟实现大脑的某个区域的特定功能外,独立的可适应于大脑各区域计算原理的模块(见图2)也可以用来探索和研究大脑的运算机制。该层级组织记忆模型体现了信息的分层传输,可以实现层内表达不同特征或信息的族群以及激励神经元和抑制神经元的相互作用。   实现神经拟态认知计算的目标,要解决以下几个重要问题。   精确脉冲信号传递   大脑的结构是高度模块化的,神经脉冲活动能够将其保存的信息从一个模块传输到另一个模块。研究神经电路是如何在足够大的动态范围内支持可靠、准确的信号传递(即神经元之间的通讯机制),对于模拟模块化脑结构的信息处理和计算尤为重要。   同步发放链是一种重要的多层前向网络。其中每一个神经元都与下一层的多个神经元相连。当处于同步模式时,同一层的同步脉冲信号会激发下一层神经元产生同步脉冲,从而实现精确脉冲传播[6]。   复杂神经状态构成的混合模数计算   与计算机的数字或符号计算不同,大脑会同时进行模拟计算和数字计算。比如,把外界输入的模拟信号转变成脉冲发生时间的数字信号,以及多个神经元信号共同作用完成的竞争计算,相当于计算机中的模/数(A/D)转换和逻辑门等运算。神经系统通过调节复杂的动态神经状态来进行包含模拟和数字的混合计算,不过这方面的研究还处于起步阶段[7]。除了脉冲信号传播以外,神经脉冲活动的调控(如脉冲信号选通)对于脑计算也同样重要[8]。   脉冲神经网络的学习算法   生物神经系统具有强大的学习和适应环境的能力,其关键之处是神经元之间的可塑性,即由外界环境变化和神经过程引起的神经突触变化的调整能力。决定两个神经元之间连接强弱的参数被定义为突触权重(synaptic weights)。赫伯(Hebb) 第一个提出了有关神经突触权重修改的假说。赫伯学习算法是学习和记忆的根本机制,可理解为“同时激发的神经元连接在一起”。它作为线性相关器被广泛用于不同的神经网络模型中。   虽然脉冲神经网络更注重神经生理学的学习方法,但是到目前为止,人们对生物神经系统中完整的学习过程仍然不是完全清楚。在过去的几十年里,科研人员从生物实验现象和结论中汲取灵感来探索神经突触理论。随着精确脉冲定时(precise spike timing)和突触前、后激发之间的时间间隔被发现,毫秒级精度学习受到了极大的关注。通过引入突触前后脉冲之间的时间相关(temporal correlation),彼(Bi)和珀(Poo)提出了脉冲时间依赖的可塑性(Spike-Timing Dependent Plasticity, STDP)机制。该机制的核心是:反复出现的突触前脉冲有助于紧随其后产生的突触后动作电位的长期增强(Long-term Potentiation, LTP),而相反的时间关系将导致长期抑制(Long-term Depression, LTD)。   由于基于脉冲时间的学习算法考虑了计算神经冲动时间和脉冲间隔,因而本质上与时域信号相匹配。我们将学习算法分为监督学习(supervised learning)、无监督学习(unsupervised learning)和强化学习(reinforcement learning)。在脉冲神经网络领域,监督赫布学习(supervised Hebbian learning)是实现监督学习而又保证神经电路可行性的最直接的方法。它可以实现将输入脉冲序列映射到需求输出脉冲序列。此外,考虑到其简单程度和有效性,ReSuMe [9]和Temptron [10]是众多算法中较为突出的两种。神经突触权重会根据突触前后脉冲时间差和“误差”信号的共同作用来进行更新,从而实现指导突触后神经元(在特定的时刻)产生或不产生脉冲。值得注意的是,由于Temptron算法只考虑突触后神经元(在特定时间范围内)是否产生神经冲动,而ReSuMe算法还考虑其产生的准确时刻,因此ReSuMe算法可以看做是Temptron算法的特例。近年提出的精确脉冲驱动(Precise Spike Driven, PSD)算法则是结合了这两种算法的优点,具有算法的简单性和对不同类型神经元的适应性[11]。   神经编码和信息表达   在生物神经系统中,信息是被分散编码并通过动态神经状态来表达的。神经脉冲序列是信息在神经系统中的一种重要表达方式。为了描述这种神经活动(时空模式),研究人员提出了不同的编码方法。其中,频率编码(rate coding)和时间编码(temporal coding)是两种应用最广的编码。前者利用神经脉冲的时间平均来表达神经脉冲序列包含的信息,后者则认为神经脉冲的时间及脉冲之间的时间间隔也包含了重要的信息。神经脉冲序列中哪些特征包含有效信息,一直是人们争论的话题:是选择频率编码还是时间编码更为合理,或将两者结合[12]。   尽管频率编码能成功地表达一些简单的神经脉冲,但研究表明,视觉模式识别可以在很短的时间(100毫秒)内完成,并且平均神经放电频率被证明不能正确描述快速时变的感觉信息。不同于频率编码,时间编码假定精确定时的脉冲承载了有效的信息。由于神经脉冲之间的时间间隔可以存储信息,因此神经脉冲序列能更准确地描述神经元的活动。   时滞编码(latency coding)是一种典型的时间编码,神经脉冲的产生时间与刺激的强度呈负相关。此外,群体编码(population coding)和相位编码(phase coding)是两种值得关注的神经编码方法。神经元群(不是单个神经元)的活动被普遍认为可以保存信息。由于神经系统比较复杂,单个神经元的活动易受影响,因此群体编码是一个更为可靠的信息编码方式。这样,当个别神经元的响应有波动或者被破坏时,系统不会出现灾难性的后果。在神经拟态计算中,从外界接收的信息将被编码成为神经状态,通过对神经状态进行解码可以得到处理过的信息。图4显示的是MNIST数据集中的手写数字及其相应的神经状态[13]。当神经编码后的信息刺激模拟视觉皮层V2的神经网络时,不同的神经状态(颜色反映神经元的发放频率)在解码后可用来进行模式识别。   基于脉冲时间的图像识别   尽管脉冲神经网络已成功应用于模式识别中,但神经系统是如何从感觉编码到突触学习利用脉冲时间进行运算的仍有待深入研究。   文献[14]提出了一个基于脉冲时间的模式识别模型(见图5)。该模型主要由编码和学习网络两个部分组成。其中,编码部分采用将时滞编码和相位编码相结合的方法,以将图像信息转化为由神经脉冲序列组成的时空斑图(spatiotemporal pattern)。之后是一个单层脉冲神经网络,用来学习识别不同的输入。   受生物视觉系统的启发,时滞-相位编码的提出是为了将视觉信号转化为时空脉冲信号。灰度图的像素值被理解为感光细胞(photoreceptor cell)接受的刺激强度。由于神经节细胞(Ganglion Cells, GCs)产生神经脉冲的延迟时间与其接收的感光细胞输出值的大小负相关,因此灰度信息可以利用准确时间的脉冲进行编码。此外,通过引入相位信息,同一个感受区(Receptive Field, RF)里的神经脉冲可被压缩为一个神经脉冲序列(图6 c-d)。一幅灰度图可被编码成由若干个神经脉冲序列构成的时空斑图。经过学习,输出神经元可在期望时间内产生毫秒精度级的脉冲序列。当含有噪声的图像呈现给该网络时,根据其与目标脉冲序列的相似程度,可成功实现模式识别。类似的还有基于脉冲时间的模式识别模型[15],已成功应用于基于AER(Address Event Representation,地址事件表达)传感器的分类系统,实现了对手写数字0~9的识别[16]。   基于仿脑系统的机器人空间感知和记忆   受认知神经科学启发,基于认知地图(cognitive map)和情景记忆(episodic memory),研究人员提出了一个面向任务的机器空间认知架构[13]。其中,大脑皮层的网格神经元(grid cell)和位于海马体的位置神经元(place cell)通过对视觉输入信号的共同作用,构成了基于大脑的空间定位和导航系统[17]。同时,该架构结合海马体的记忆网络,可实现对指定位置或动作序列的学习和记忆[18]。   如图7所示,机器人在某个环境中学习如何制作奶茶,并生成认知地图。与此同时,任务信息和视觉提示被脉冲神经网络(如图8所示)联系在一起,并以情景记忆的形式进行存储。而在任务模式中,任务信息可以恢复机器人的情景记忆,并在视觉提示的帮助下顺序完成子任务。实验结果验证了该机器人导航系统通过结合认知地图功能和情景记忆,可以成功解决现实生活中的实际问题。   神经拟态认知计算经过几十年的发展,取得了令人欣喜的成果。然而,由于对复杂神经系统的认知有限,我们只是揭开了其神秘面纱的一角。随着实验技术的进步与解剖学、生物学和生理学等相关领域研究的发展,我们必将对大脑神经拟态认知计算有更多、更深入的了解,实现类脑计算将不再是梦想。可以预见,神经拟态认知计算和类脑计算将是未来很长一段时间人类科学技术研究的热点和前沿。同时,随着人类对于智能系统、智能机器人的需求不断增加,神经拟态认知计算或类脑计算将具有非常广阔的应用前景。   作者:   唐华锦   四川大学教授。主要研究方向为类脑计算、认知计算和智能机器人。   胡 隽   新加坡科技研究局资讯通信研究院研究员。主要研究方向为神经拟态计算、神经网络和机器学习。   参考文献:   [1] C. Mead, and M. A. Mahowald. A silicon model of early visual processing. Neural networks, 1988, vol.1, no.1, 91~97.   [2] C. Mead. Adaptive retina. In Analog VLSI implementation of neural systems. Springer US, 1989, 239~246.   [3] W. Gerstner, W. Kistler. Spiking Neuron Models. Cambridge University Press, 2002.   [4] E. M. Izhikevich. Simple model of spiking neurons. IEEE Transactions on Neural Networks, 2003, vol. 14, 1569~1572.   [5] E.Y. Cheu, J. Yu, C. H. Tan, H. Tang. Synaptic Conditions for Auto-Associative Memory Storage and Pattern Completion in Jensen et al.'s Model of Hippocampal Area CA3. Journal of Computational Neuroscience, 2012, vol. 33, no. 3, 435~447.   [6] T. P. Vogels, K. Rajan, and L.F. Abbott. Neural Network Dynamics. Annu. Rev. Neurosci., vol. 28, 357~376, 2005.   [7] R. Sarpeshkar, M. O’Halloran. Scalable Hybrid Computation with Spikes. Neural Computation, 2002, vol. 14, 2003~2038.   [8] T. P. Vogels, and L. F. Abbott. Signal Propagation and Logic Gating in Networks of Integrate-and-Fire Neurons. Journal of Neuroscience, 2005, vol. 25, no. 46, 10786~10795.   [9] F. Ponulak, A. Kasinski. Supervised learning in spiking neural networks with ReSuMe: sequence learning, classication, and spike shifting. Neural Computation, 2010, vol. 22, no. 2, 467~510.   [10] R. Gütig, H. Sompolinsky. The tempotron: a neuron that learns spike timing-based decisions. Nature Neuroscience, 2006, vol. 9, no. 3, 420~428.   [11] Q. Yu, H. Tang, K. C. Tan, and H. Li. Precise-Spike-Driven Synaptic Plasticity: Learning Hetero-Association of Spatiotemporal Spike Patterns. PLoS One 8(11): e78318, 2013.   [12] Stefano Panzeri1,6, Nicolas Brunel2,3, Nikos K. Logothetis4,5 and Christoph Kayser. Sensory neural codes using multiplexed temporal scales. Trends in Neurosciences, 2009, vol. 33, no. 3, 111~120.   [13] M. Beyelera, N. D. Dutta, J. L. Krichmar. Categorization and decision-making in a neurobiologically plausible spiking network using a STDP-like learning rule. Neural Networks, 2013, vol. 48, 109~124.   [14] J. Hu, H. Tang, K.C. Tan, H. Li, L. Shi. A Spike-Timing Based Integrated Model for Pattern Recognition. Neural Computation, 2013, vol. 25, no. 2, 450~472.   [15] Q. Yu, H. Tang, K. C. Tan, and H. Li. Rapid Feedforward Computation by Temporal Encoding and Learning with Spiking Neurons. IEEE Trans. on Neural Networks and Learning Systems, 2013, vol. 24, no.10, 1539~1552.   [16] B. Zhao, R. Ding; S. Chen, B. Linares-Barranco, and H. Tang. Feedforward Categorization on AER Motion Events using Cortex-like Features in a Spiking Neural Network. IEEE Trans. on Neural Networks and Learning Systems, vol. 26, no. 9, 1963~1978, 2015.   [17] M. Yuan, B. Tian, V. A. Shim, H. Tang and H. Li. An Entorhinal-Hippocampal Model for Simultaneous Cognitive Map Building. In: Proceedings of the 29th AAAI Conference on Artificial Intelligence (AAAI-15), Austin, TX, USA, 2015, 586~592.   [18] B. Tian, W. Huang, C. H. Tan, , H. Tang, and H. Li. Robotic Spatial Cognition by Cognitive Map and Episodic Memory. Unpublished work.

相关文章