注册 | 登录 | 举报
  • 首 页
  • 公告沙龙
    • 公告中心
    • 活动沙龙
  • 课程学习
  • 项目交流
    • 项目招募
    • 问答中心
  • 信息展示
    • 项目展示
    • 往年项目展示
    • 校内导师
    • 校外导师
  • 使用指南
    • 文件下载
    • 常见问题

举报该页有违规/非法信息


  • 最新

面向大规模深度学习模型的轻量化压缩研究

 电子工程学院

Research on Lightweight Compression for Large Scale Deep Learning Models

以GPT系列为首的大语言模型对NLP乃至整个深度学习领域带来了巨大的冲击和潜在机会,然而大模型的规模限制伴随着大量的GPU资源消耗,导致无论是微调迁移到下游任务还是在进用户侧部署都极具挑战,如何针对大模型进行Parameter-Efficient Fine-Tuning(PEFT)及压缩部署是当下亟待解决的问题之一。本项目旨在保证大模型性能的前提下,探索大模型的微调及轻量化技术,提高其泛在场景的可用性。

项目分数

项目信息

  • 项目动态
  • 项目相关人员
  • 项目荣誉
  • 留言

项目负责人

张苗忱2021级 电子工程学院 电子科学与技术

项目成员

张云泽2021级 电子工程学院 电子信息类

何桂炎2021级 电子工程学院 电子科学与技术

冯一娜2021级 电子工程学院 电子科学与技术

指导老师

滕颖蕾电子工程学院 教授

评审老师

崔岩松电子工程学院 教授

黄建明电子工程学院 副教授

暂无留言
该项目暂无荣誉
邮箱:buptwin@bupt.edu.cn;传真:010-62285134;电话:010-62281946;地址:北京邮电大学教一楼323; 邮编:100876
北京邮电大学叶培大创新创业学院 © Copyright 2017
Baidu
map