计算神经科学

计算神经科学
计算神经科学是使用数学分析计算机模拟的方法在不同水平上对神经系统进行模拟和研究:从神经元的真实生物物理模型,它们的动态交互关系以及神经网络的学习,到脑的组织和神经类型计算的量化理论等,从计算角度理解脑,研究非程序的、适应性的、大脑风格的信息处理的本质和能力,探索新型的信息处理机理和途径,从而创造脑。它的发展将对智能科学、信息科学、认知科学、神经科学等产生重要影响。

科学简介

对脑和神经系统的研究源远流长。至18世纪末,人们认识到脑分为不同的部位,行使不同的功能。 1891年Cajal创立神经元学说,认为整个神经系统是由结构上相对独立的神经细胞构成。在Cajal神经元学说的基础上,1906年Sherrington提出了神经元间突触的概念。 20世纪20年代Adrian提出神经动作电位。1943年McCulloch 和 Pitts提出了的 M-P 神经网络模型。 1949年Hebb提出了神经网络学习的规则。50年代Rosenblatt 提出了的感知机 (Perception) 模型。八十年代以来, 神经计算研究取得了进展。Hopfield引入Lyapunov函数(叫做"计算能量函数")给出了网络稳定判据, 它与VLSI有直接对应关系, 为神经计算机的研制奠定了基础。同时它还可用于联想记忆和优化计算, 开拓了神经网络用于计算机的新途径。甘利俊一(Amari)在神经网络的数学基础理论方面做了大量的研究,包括统计神经动力学、神经场的动力学理论、联想记忆,特别在信息几何方面作出了一些奠基性的工作。计算神经科学的研究力图体现人脑的如下基本特征:① 大脑皮层是一个广泛连接的巨型复杂系统; ② 人脑的计算是建立在大规模并行模拟处理的基础之上; ③ 人脑具有很强的"客错性"和联想能力, 善于概括、类比、推广; ④ 大脑功能受先天因素的制约, 但后天因素, 如经历、学习与训练等起着重要作用,这表明人脑是有很强的自组织性与自适应性。人类的很多智力活动并不是按逻辑推理方式进行的, 而是由训练形成的。
目前,对人脑是如何工作的了解仍然很肤浅,计算神经科学的研究还很不充分,我们面临的是一充满未知的新领域,必须在基本原理和计算理论方面进行更深刻的探索。通过对人脑神经系统的结构、信息加工、记忆和学习机制的分析研究,从人脑工作的机理上进行仿真,提出智能科学的新思想、新方法。
计算神经科学的科学问题如下: