• 内网
  • 搜索
  • 学院概况
    • 学院概况
    • 联系我们
  • 师资力量
  • 招生培养
    • 招生信息 Admission
    • 招生资讯
    • 学院课程
  • 科研创新
    • 人工智能理论及系统中心
    • 语言模型与人机交互中心
    • 科学与工程智能中心
    • 社会科学智能中心
    • 具身智能与计算机视觉中心
  • 最新资讯
    • 学院动态
    • 活动预告
    • 通知公告
    • 采购公告
  • 人才招聘
  • 学术论坛
    • 论坛预告
    • 论坛回顾

面包屑

  • 首页
  • 学术论坛
  • 论坛预告
  • 【SLAI Seminar】第十四期:端侧大模型:从架构设计、训练优化到推理加速 (12月2日14:30)

【SLAI Seminar】第十四期:端侧大模型:从架构设计、训练优化到推理加速 (12月2日14:30)

2025-12-02 论坛预告

当前大语言模型的发展面临一个核心矛盾:模型规模扩大虽能提升能力,却也带来了难以承受的计算与内存成本,这严重阻碍了其在手机等端侧设备上的应用。为此,业界亟需从架构设计、小模型训练到端侧推理加速的全流程技术创新,以构建高效且强大的端侧大模型。本期Seminar特别邀请到韩凯研究员,带领大家系统阐述这一技术挑战,分享此领域的前沿探索与实践成果。

 

主题:端侧大模型:从架构设计、训练优化到推理加速

时间:2025年12月2日(周二)下午14:30-15:30

地点:B411阶梯教室

主讲嘉宾:韩凯研究员(华为诺亚方舟实验室)

主持人:姬艳丽教授

腾讯会议号:845-565-053

 

讲座摘要

 

近年来,大语言模型(LLMs)的发展趋势是通过增加模型规模(参数量)和数据规模来提升生成能力,这一点在诸如GPT和Llama等著名工作中得到了充分验证。然而,大规模模型往往伴随着巨大的计算和内存成本,而很多端侧应用场景(如手机、PC)往往无法承受如此高昂的代价。因此,如何构建高效而强大的LLM架构,针对规模较小的LLM如何训练,以及端侧大模型推理如何加速,都是对当下大模型研究带来的新挑战。本次报告将在架构设计、训练优化到推理加速等端侧大模型全流程进行概述,并介绍华为诺亚实验室在这方面的技术创新和实践经验。

 

主讲嘉宾简介

 

韩凯研究员,现任华为诺亚方舟实验室的专家研究员,博士毕业于中国科学院软件所,硕士和本科分别毕业于北京大学和浙江大学。其主要研究方向为深度学习和AI基础模型,特别是资源高效深度学习。已在AI领域顶会顶刊发表论文 50 余篇,谷歌学术累计被引2万余次,其中 GhostNet 和TNT入围 PaperDigest最具影响力论文榜单。他还担任ICML、ICCV、ICLR、AAAI和ACMMM等顶会领域主席,入选爱思唯尔中国高被引学者榜单。


 

关注我们
联系方式
  • 招生:admission@slai.edu.cn 教授招聘:FacultyHiring@slai.edu.cn 校企合作:coop@slai.edu.cn 人才招聘:staff_careers@slai.edu.cn 招投标:bidding@slai.edu.cn
  • 院务办公室:executiveoffice@slai.edu.cn 学生事务:student@slai.edu.cn 院长信箱:deanoffice@slai.edu.cn 财务:financeoffice@slai.edu.cn 地址:福田保税区红棉道6号深圳河套学院
探索更多
  • 学院概况 人才招聘 内网

版权所有 © 深圳河套学院 粤ICP备14099122号-14 

​