姓名/企业:
内容:
联系方式:
Email:
 

清华微电子所钱鹤、吴华强团队在《先进材料》发表新型类脑器件研究长篇综述文章

 清华新闻网10月9日电 9月24日,清华大学微电子所钱鹤、吴华强教授团队与合作者在国际材料与器件领域知名学术期刊《先进材料》(Advanced Materials)上在线发表长篇综述文章《用新型类脑器件连接生物神经网络与人工神经网络:原理,进展与挑战》(Bridging Biological and Artificial Neural Networks with Emerging Neuromorphic Devices: Fundamentals, Progress, and Challenges),系统评述了生物神经网络与人工神经网络的联系与差异,详细比较了它们中重要的基本单元和相关功能,并回顾了采用新器件来实现类脑计算方面的最新进展。在此基础上,该文章对未来类脑计算与人工神经网络研究领域的机遇与挑战进行了展望。

 人工智能、云计算、大数据等新兴技术的迅速发展对芯片的算力和能效提出了越来越高的要求,类脑计算被普遍认为是一种可以实现高算力、低功耗的全新计算范式,有望突破传统“冯·诺伊曼”架构瓶颈。近年来,忆阻器、相变存储器等新型非易失性存储器因在类脑计算领域展现了巨大的应用潜力而受到广泛关注。

 该文章从工作机理和网络结构等层面深入比较了生物神经网络与人工神经网络,详细分析了突触与神经元及其上的离子通道的结构和功能,细致探讨了突触可塑性(synaptic plasticity)、本征可塑性(intrinsic plasticity)等各类神经可塑性,深入阐述了生物神经系统里经典的学习规则和记忆理论,包括广泛应用于人工神经网络训练的赫布学习(Hebbian learning)与脉冲时间相关的可塑性(spike-timing-dependent plasticity)等模型。该文章还详细评述了忆阻器、相变存储器、电化学存储器、铁电晶体管等八种常见的类脑计算器件的结构与仿生功能,总结了各类器件的速度、功耗、线性度、对称性等关键性能与研究现状。 

生物神经网络(大脑)与人工神经网络(芯片)的联系与比较

 基于忆阻器等新型存储器阵列的人工神经网络的硬件实现与算法也是近几年类脑计算领域的研究热点,文章详细评述了监督学习、无监督学习、强化学习、小样本学习(one-shot/few-shot learning)、储备池计算(reservoir computing)等方法以及利用新型存储器来实现的优势。文章最后指出了人工神经网络在复杂度、多样性等方面与生物神经网络的差距,分析和展望了未来类脑计算与人工神经网络研究所面临的机遇与挑战。 

基于新型存储器的各类神经网络的硬件实现与算法

 钱鹤、吴华强教授团队致力于新型存储器与类脑计算研究,近五年围绕忆阻器性能优化、阵列集成、模型模拟、架构设计、芯片研制等方面取得了一系列创新成果,相继在《自然-通讯》(Nature Communications)、《自然-电子》(Nature Electronics)、《先进材料》(Advanced Materials)、《电子器件快报》(IEEE EDL)和国际电子器件会议(IEDM)、超大规模集成电路国际研讨会(VLSI)、国际固态半导体电路大会(ISSCC)等顶级期刊和国际会议上发表多篇高水平论文。

 清华大学微电子所唐建石助理教授、微电子所博士后袁方博士、医学院2017级博士生沈新科是论文的共同第一作者,微电子所吴华强教授是共同通讯作者。此外,清华大学微电子所钱鹤教授、高滨副教授,医学院及脑与智能实验室宋森研究员等为论文的共同作者。该研究与美国麻省大学、中国科技大学合作完成,得到了国家自然科学基金委重点项目与面上项目、科技部重点研发计划等项目的支持。

文章链接:

https://onlinelibrary.wiley.com/doi/10.1002/adma.201902761

参与讨论

登录后参与评论