
姓名:石敏
职称:副教授
研究方向:
虚拟现实与人工智能;三维计算机视觉;智能媒体生成
联系方式:
办公地址:主楼E1151
电子邮箱:shi_min@ncepu.edu.cn
一、个人简介
石敏,世界杯官网副教授,计算机应用技术博士,毕业于中国科学院计算技术研究所。曾赴美国威斯康星大学麦迪逊分校、英国肯特大学开展访问研究。现为国家级一流本科课程负责人,曾获北京市本科毕业设计(论文)优秀指导教师等荣誉。
主要从事虚拟现实与人工智能、三维计算机视觉、智能媒体生成等方向研究,重点聚焦数字人表情与动作生成、服装动画与驱动、三维场景重建、机器人运动规划与交互等问题,并积极推动相关研究在能源电力、智能制造、数字文创等领域的应用。
近年来,在国内外学术期刊与会议上发表论文80余篇,相关成果发表于 IEEE Transactions on Visualization and Computer Graphics、AAAI、Computer Graphics Forum、Computational Visual Media、Pacific Graphics、《计算机辅助设计与图形学学报》等期刊和会议,授权国家发明专利6项。
二、 主要学术兼职
· 虚拟现实与人机交互专委会委员
· 全国普通高等学校本科教育教学评估专家
· 国家自然科学基金、科技部项目、北京市科委项目评审专家
三、教学与人才培养
教学方面,主讲《数据结构》《高级语言程序设计(C)》《算法设计与分析》等课程,注重学生实践能力、工程能力与创新能力的系统培养。主持国家级一流本科课程,相关课程获评北京市优质本科课程,教材入选北京高等学校优质本科教材重点项目;曾获北京市高等教育教学成果二等奖、北京市高校教师教学创新大赛优秀奖等教学奖励。
在人才培养方面,累计指导硕士研究生40余名。指导学生多人获得国家奖学金(魏育坤,冯文科,王心然)、校级优秀硕士论文奖(魏育坤,冯文科)、北京市优秀毕业生等荣誉,并在中国国际大学生创新大赛、“挑战杯”等赛事中获北京市级奖项。毕业生主要就职于华为、字节跳动、美团、OPPO、国家电网、银行及科研院所等单位,部分学生赴国内外高校和科研机构继续深造。
本科生培养方面,指导学生张永豪考入清华大学攻读硕士研究生,创业项目“屿智同行”获千万级融资,并入选福布斯U30。
四、 主要科研项目
1. 纵向项目
[1]山东省新旧动能转换重大产业攻关项目“影视制作工业化生产技术平台”,2021.02—2023.02,子课题负责人,已结题。
[2]国家自然科学基金项目, 群体服装动画,2020.01—2023.12,子课题负责人,已结题。
[3]国家自然科学基金项目, 逼真稳定的服装动画方法研究,2014.01—2016.12,主持,已结题。
[4]国家自然科学基金项目, 人体运动启发的自适应网格服装动画方法研究,2014.01—2017.12,子课题负责人,已结题。
[5]中央高校基本科研业务费专项基金项目, 基于多重约束的无拉伸服装动画方法,2013.01—2015.12,主持,已结题。
2. 横向项目
[1] 校企联合项目, 数字虚拟人软件平台开发服务,北京京能信息技术有限公司,2026.01—至今,主持。
[2] 校企联合项目, 平衡阀选型可视化技术及软件,2023.07—2024.07,主持。
[3] 校企联合项目, 基于机器视觉的产品缺陷检测,2021.01—2021.12,主持,已结题。
[4] 中科院仪器研制项目, 净水渔业鱼类多模态识别与监测设备,2020.01—2021.12,子课题负责人,已结题。
[5] 校企联合项目, 基于计算机视觉的汽车零件缺陷检测算法研究,2019.01—2020.01,主持,已结题。
[6] 国家重点研发计划子课题, 油气藏测井综合评价三维建模分析及可视化技术,2017.01—2020.12,外协课题主持,已结题。
[7] 校企联合项目, VR感知学习训练数据生成与处理系统,2017.05—2018.05,主持,已结题。
[8] 校企联合项目,真三维视频内容获取技术,2017.05—2018.05,主持,已结题。
[9] 校企联合项目, 分布式光伏电站运维监控系统,2014.01—2015.12,主持,已结题。
五、 教学及科研奖励
[1] 四方社会奖教金,世界杯官网,2026年。
[2] 国家级一流本科课程,教育部,2025年。
[3] 北京市高校教师教学创新大赛优秀奖,北京市教委,2025年。
[4] 北京高等学校优质本科教材重点项目,北京市教委,2023年。
[5] 北京高等学校优质本科课程,北京市教委,2022年。
[6] 北京市高等教育教学成果二等奖,北京市教委,2013年、2018年。
[7] 北京市本科毕业设计(论文)优秀指导教师,北京市教委,2020年、2022年、2024年。
[8] 优秀硕士论文指导教师,世界杯官网,2022年、2023年。
[9] 教学成果一等奖,世界杯官网,2021年、2025年。
[10] 教学优秀特等奖,世界杯官网,2023年。
[11] 十佳班主任,世界杯官网,2023年。
六、 近期代表性论著
[1] Shi M, Wang X, Zhang J, Gao L, Zhu D, Zhang H. Self-Supervised Humidity-Controllable Garment Simulation via Capillary Bridge Modeling. Computer Graphics Forum, 2025, 44: e70236.
[2] Shi M, Li Z, Mao T, Zhu D, Wang S. Frequency-Guided Self-Supervised Wind-Driven Garment Animation Simulation. Pacific Graphics, 2025.
[3] Shi M, Zhao G, Guo S, et al. Generating 3D Fish Motion Skeleton via Iterative Optimization Method and FishSkeletonNet. The Visual Computer, 2025, 41: 6837–6849.
[4] Shi M, Zhuo X, Li Z, et al. StyleGarNet: A Real-Time Garment Animation Generation Method With Diverse Styles. Computer Animation and Virtual Worlds, 2025, 36(6): e70076.
[5] Wang S, Wang Z, Shi M (corresponding author), Li Z, Wang Q, Chai X, Zhu D. Slender3D: Curve-Guided Multi-View Reconstruction of Slender Structures. Proceedings of the AAAI Conference on Artificial Intelligence, 2026, 40(12): 10118–10126.
[6] 石敏, 孙碧莲, 朱登明, 禚心如. KM2D: 舞蹈动作基元符号和音乐语义驱动的舞蹈动画生成方法. 计算机辅助设计与图形学学报, 2025.
[7] Wang S Q, Wu W B, Shi M (corresponding author), Li Z X, Wang Q, Zhu D M. WaterGS: Physically-Based Imaging in Gaussian Splatting for Underwater Scene Reconstruction. Computer Graphics Forum, 2025, 44: e70270.
[8] 王素琴, 王宗轩, 石敏(通讯作者), 朱登明, 毛天露. 个人风格指导下的语音驱动3D人脸动画生成方法. 计算机辅助设计与图形学学报, 2025.
[9] 石敏, 侯京召, 朱登明, 李兆歆, 庞家繁, 郭诗盛. 无标注堆叠物体抓取位姿检测算法. 计算机辅助设计与图形学学报, 2025.
[10] Shi M, Feng W, Gao L, et al. Generating Diverse Clothed 3D Human Animations via a Generative Model. Computational Visual Media, 2024, 10(2): 261–277.
[11] Han G, Shi M (corresponding author), Mao T, Wang X, Zhu D, Gao L. Self-Supervised Multi-Layer Garment Animation Generation Network. Pacific Graphics, 2024.
[12] Shi M, Zhang J Q, Chen S Y, et al. Reference-Based Deep Line Art Video Colorization. IEEE Transactions on Visualization and Computer Graphics, 2023, 29: 2965–2979.
[13] Shi M, Lu H, Li Z, Zhu D, Wang Z. Accurate Robotic Grasp Detection with Angular Label Smoothing. Journal of Computer Science and Technology, 2023.