跳转到主要内容

关于这个研究课题

手稿提交截止日期2023年5月15日
手稿扩展提交截止日期2023年6月14日

对人工智能的长期以来的梦想,两个解路径铺设:(i) neuroscience-driven神经形态计算;(2)计算机科学促进机器学习的发展。前目标利用神经科学为类人脑处理获得的见解,通过研究详细…

对人工智能的长期以来的梦想,两个解路径铺设:(i) neuroscience-driven神经形态计算;(2)计算机科学促进机器学习的发展。前目标利用神经科学为类人脑处理获得的见解,通过研究神经动力学的详细实现,电路、编码和学习。虽然我们理解大脑是怎样工作的仍然是非常有限的,这bio-plausible未来一般智力的方法提供了一个吸引人的承诺。相比之下,后者旨在解决实际任务通常制定作为一个成本函数与精度高,避开最神经科学细节的蛮力优化和喂养大量的数据。

的帮助下大数据(例如ImageNet),高性能处理器(例如GPU, TPU),有效的训练算法(如人工神经网络与梯度下降训练),和易于使用的设计工具(例如Pytorch, Tensorflow),机器学习取得了优越的性能在一个广泛的场景。虽然广受好评的生物合理性和低功率的优势(受益于尖峰信号和事件驱动处理),有持续的辩论和质疑关于神经形态计算,因为它通常执行比机器学习在实际任务尤其的准确性。

这种性能差距来自各种各样的因素,包括不清楚内部神经元模型/连接拓扑知识/编码方案/学习算法,离散状态空间有限的精度,和疲软的外部支持的基准数据资源/计算平台/编程工具,所有这些都不是复杂的比机器学习。目前,研究人员在不同的子域的探索神经形态计算通常有不同的优化目标,如复制单元或电路级神经行为,模拟类人脑功能在宏观层面,还是从硬件角度降低执行成本。神经形态计算仍落后于机器学习模型如果我们不能有明确的目标,只考虑应用程序的准确性。

因此,我们需要重新思考人类大脑的真正优势(如强泛化、综合处理和协会,基于内存计算)和神经形态计算的目标,而不是来面对机器学习的困境。我们应努力理解和桥梁当前神经形态之间的“鸿沟”计算和机器学习。

本研究课题旨在汇集研究包括,但不限于:

●高性能神经形态算法探索神经模型、网络体系结构、编码和学习计划;
●基准指标、数据集和神经形态计算任务;
●神经形态模型的优化处理在gpu或专门的平台上,包括推理和培训;
●设计工具来构建神经形态模型,鼓励集成接口与主流机器学习工具;
●异构系统基于神经形态计算和机器学习。

关键字:神经形态计算、机器学习、监督/无监督学习,神经编码,模型评估


重要提示:所有贡献这个研究课题必须的范围内的部分和期刊提交,作为其使命声明中定义。雷竞技rebat前沿有权指导检查手稿更适合部分或同行评审的期刊在任何阶段。

主题编辑器

加载. .

主题协调员

加载. .

最近的文章

加载. .

文章

排序方式:

加载. .

作者

加载. .

总观点

总观点文章的观点下载话题的观点

}
最高国家
上面提到的网站
加载. .

对前沿研究课雷竞技rebat题

他们独特的混合的不同贡献从原始研究评论文章、研究主题统一最具影响力的研究人员的最新重要发现和历史的一个热门研究领域的进步!找到更多关于如何举办自己的前沿研究课题或导致一个作为一个作者。雷竞技rebat