深度学习模型压缩与硬件加速
报告人:鲁金铭 研究员
时间:2026年1月27日上午9:00-11:00
地点:教五楼505
报告摘要:
近年来,深度学习在计算机视觉、自然语言处理等领域取得了突破性进展,但模型规模的急剧膨胀带来了挑战——以ChatGPT为代表的大语言模型需要消耗巨大的计算资源和能源,难以在资源受限的设备上部署。如何在降低计算开销,成为学术界和工业界共同关注的核心问题。本报告将从两个互补的视角探讨这一问题的解决路径:一是模型压缩技术,包括剪枝、量化、知识蒸馏、低秩分解等方法,通过减少模型冗余来降低计算量;二是硬件加速方案,涵盖GPU、TPU、FPGA等异构计算平台,通过专用架构设计提升计算效率。此外,报告还将介绍团队在张量分解领域的相关研究工作,探讨如何利用张量的低秩结构实现神经网络的高效压缩与加速。最后,报告将以移动端AI、自动驾驶、大模型部署为例,展示相关技术的实际应用价值。
报告人简介:
鲁金铭,南京大学集成电路学院助理教授,研究员,博导。2018年于南开大学获得学士学位,2023年于南京大学获得博士学位,师从IEEE Fellow、国家特聘专家王中风教授。2023-2024年就职于英特尔研究中心,负责ISP与NPU联合优化设计。2024-2026年在加州大学圣巴巴拉分校从事博士后研究工作,合作导师张政教授。研究方向涵盖超大规模集成电路设计(VLSI)、计算机体系架构、软硬件联合优化、人工智能系统与芯片设计。在电路与系统领域的IEEE顶级期刊(TCAS-I、TVLSI、TNNLS、TCAD等)和国际会议发表论文20余篇。曾荣获IEEE亚太电路与系统年会(APPCAS)最佳论文奖,并申请国家发明专利十余项。此外,担任IEEE TCAS-I、TCAS-II、TNNLS、OJCAS等多个国际期刊与会议的审稿人,并任ICCAD 2024-2025技术程序委员会成员。
地球物理与信息技术学院
研究生院
科技处


