本周为将门-TechBeat技术社区第239期线上Talk! 北京时间9月2日(周三)晚8点,清华大学电子工程系在读博士—宁雪妃的talk将准时在将门TechBeat技术社区开播! 她与大家分享的主题是: “高效神经网络学习系统的研究”。届时将会介绍高效的神经网络结构设计和神经网络训练的硬件加速。
Talk·信息
▼
主题:高效神经网络学习系统研究
嘉宾:清华大学电子工程系在读博士 宁雪妃
时间:北京时间 9月2日 (周三) 20:00
地点:将门TechBeat技术社区
http://www.techbeat.net/
Talk·提纲
▼
卷积神经网络架构在各应用上取得了很好的效果。近年来针对高效神经网络学习系统的研究很多,试图将神经网络学习系统往更高效率的方向推进。这个报告分享了我们组近一年在两个方面的工作,一方面是高效的神经网络结构设计,另一方面是神经网络训练的硬件加速。
本次分享的主要内容如下:
1. 研究背景
2. 高效网络架构设计
3. 高效训练
4. 工程框架
5. 总结
Talk·参考资料
▼
本次分享中将会提及的paper list如下,建议提前预习哦:
预习资料
[1]Discovering Fault-Tolerant Neural Architecture , in The 25th Asia and South Pacific Design Automation Conference (ASP-DAC 2020), 2020.
[2]FTT-NAS: Discovering Fault-Tolerant Neural Architecture , under review (https://arxiv.org/abs/2003.10375), 2020.
[3]Black Box Search Space Profiling for Accelerator-Aware Neural Architecture Search , in The 25th Asia and South Pacific Design Automation Conference (ASP-DAC 2020), 2020.
[4]A Generic Graph-based Neural Architecture Encoding Scheme for Predictor-based NAS , in ECCV, 2020 (a).
[5]DSA: More Efficient Budgeted Pruning via Differentiable Sparsity Allocation , in ECCV, 2020 (b).
[6]Towards Lower Bit Multiplication for Convolutional Neural Network Training , under review (https://arxiv.org/abs/2006.02804), 2020.
[7]Compressed CNN Training with FPGA-based Accelerator, under review, 2020.
[8]NAS框架代码: https://github.com/walkerning/aw_nas
Talk·提问交流
▼
方式 ①
在本文留言区直接提出你的问题,或扫描下方二维码提问!问题被选中的小伙伴们将获得一个红包奖励!
快来提问啦!
方式 ②
在Talk界面下的【交流区】参与互动!留下你的打call