站内搜索

恶劣观测场景的鲁棒任务模型交互研究及应用

文章作者: 责任编辑:何小曼 审核人: 文章来源:

题 目:恶劣观测场景的鲁棒任务模型交互研究及应用

主讲人:梁栋 副教授/硕导  南京航天航空大学

时 间:2022510日(周二)下午1400-16:00

腾讯会议:ID 368-802-795


主讲人简介:

梁栋 南京航天航空大学计算机科学与技术学院 副教授、硕导。20082011年获兰州大学学士及硕士学位,2015年获日本北海道大学信息工学博士学位,2015年起在南京航空航天大学模式分析与机器智能(工信部)重点实验室任教至今。以第一或通信作者在IEEE Transactions on Image ProcessingPattern RecognitionIEEE Transactions on Geoscience and Remote SensingIEEE Transactions on Neural Networks and Learning SystemsAAAI等期刊和会议上发表论文30余篇,授权和公开发明专利10余项。主持JKW某国防项目、国家自然科学基金、中国博士后基金(一等)、江苏省自然科学基金;参与国家重点研发计划、国家自然基金重点项目、江苏省科技成果转化重大创新项目各一项;承担中国工程物理研究院、阿里达摩院、华为等课题若干。成果获日贝瓦国际发明展金奖、中国生物特征识别大会杰出贡献奖、中国软件杯优秀指导教师奖、华为智能基座优秀教师奖。博士期间曾获ISOT光机电国际会议唯一Best Student Paper Award及日本北海道大学年度优秀研究奖。研究方向为鲁棒模式识别与智能系统。


讲座介绍:

场景解译是我国科研单位长期攻关的装备智能化关键技术之一,同时也是自1985年以来美国国防部高级研究计划局DARPA“战略计算计划的核心研究内容,所涉技术可细分为成像增强、目标检测、场景语义分割及多目标跟踪等。在恶劣观测场景中,成像品质差、背景复杂、弱目标占比大、目标位姿多样等一系列可导致场景解译系统性能退化的病态问题是无法回避的常态。研究恶劣观测场景中的鲁棒任务模型交互,可充分暴露现有技术缺陷并提出普适鲁棒的场景解译技术手段。本报告以遥感目标检测、恶劣成像增强、动态场景前景分割为例,介绍课题组在鲁棒任务模型交互方面的最新研究进展及应用情况。


主办单位:科研处 计算机科学学院 

更新时间:2022-04-27

Copyright© 2018 All Rights Reserved. 红宝石官方网站hbs123计算机科学学院