自动实时探测水下鱼类目标是评估渔业资源、制定最优生产策略的前提和关键。机器视觉和人工智能技术为鱼类目标探测提供了行之有效的技术手段。但由于复杂水下光照环境、不受控的鱼类运动等难题,传统方法不能满足真实水下检测需求。
北京农业信息技术研究中心周超博士等围绕上述问题开展了相关研究,提出了一种新的基于复合主干网络(CBresnet)和增强路径聚合网络(EPANet)的复合鱼类探测框架(Composited FishNet),用于学习由图像亮度、海底结构,以及鱼方位、形状和纹理差异而导致的场景变化信息(源域风格),从而减少了环境对目标特征的干扰,提高了探测目标特征信息的利用率。此外,还改进并设计了一种EPANet,解决了线性上采样方式带来的语义信息利用不足问题,促进了高低级特征信息的融合。可用于海洋,水产养殖等复杂水下环境的鱼类检测与识别。
以上研究已在图像处理领域国际期刊IEEE Transactions on Image Processing(CCF A类推荐期刊,IF:9.34)上在线发表(DOI:10.1109/TIP.2021.3074738)。该研究受国家重点研发计划课题(2019YFD0901004),北京市自然科学基金项目(6212007),以及北京市农林科学院青年基金项目(QNJJ202014)联合资助。