
Site Université Bretagne Sud - IRISA (équipe OBELIX)
Date prévue: Février-Mars 2021
Durée: 6 mois
Lieu: Université Bretagne Sud – IRISA (équipe OBELIX), Vannes 56000, France
Contexte:
Ce stage s’intègre dans le cadre du projet SEMMACAPE (https://semmacape.irisa.fr/), qui vise le développement d’un système automatique de suivi de la mégafaune marine. Ce projet est un partenariat entre le laboratoire de recherche IRISA (Institut de recherche en informatique et systèmes aléatoires) à Vannes, l’entreprise d’analyse d’image pour l’écologie Wipsea, l’institut pour la transition énergétique dédié aux énergies marines renouvelables (France Energie Marines – FEM), l’Office Français de la Biodiversité (OFB), et l’Institut Français de Recherche pour l’Exploitation de la Mer (Ifremer).
Afin d’analyser l’impact causé par l’installation des parcs éoliens sur la mégafaune marine, ce projet vise à automatiser les suivis environnementaux des parcs éoliens en utilisant des méthodes d’apprentissage profond supervisées et non-supervisées. Les tâches de ce projet, partagées entre les différents partenaires académiques et industriels, comprennent l’acquisition des images aériennes des animaux marins, l’annotation de ces images par des spécialistes du domaine, l’évaluation des méthodes de détection existantes et le développement des nouvelles méthodes de détection d’animaux marins.
Le-a futur-e stagiaire sera impliqué-e dans la détection d’animaux marins par des méthodes non-supervisées et faiblement supervisées, i.e., des méthodes dont la détection se fait sans avoir des annotations ou avec peu d’information sur les images. Cela comprendra l’utilisation et l’évaluation des méthodes pré-existantes sur les données du projet, et, possiblement, l’adaptation de ces méthodes afin d’améliorer les résultats sur les objets ciblés.
Le-a futur-e stagiaire rejoindra l’équipe OBELIX (OBsErvation de L’environnement par Imagerie compleXe, http://www.irisa.fr/obelix) de l’IRISA à Vannes (Université Bretagne Sud, Campus de Tohannic).
Missions/Programme de travail:
Etude bibliographique des méthodes de détection d’objets non-supervisées et faiblement supervisées
Adaptation des méthodes de l’état de l’art pour la détection d’animaux marins sur des images aériennes
Évaluation de ces méthodes sur les images provenantes des campagnes d’acquisitions du projet SEMMACAPE
Profil/Compétences:
Formation Master 2 ou Ecole d’Ingénieur
Traitement d’image, Machine Learning (expérience en Deep Learning appréciée)
Programmation Python (expérience avec Tensorflow et/ou Pytorch appréciée)
Contacts: Deise SANTANA MAIA, Minh-Tan PHAM, Sébastien LEFEVRE
Envoyer votre CV + relevés de notes + lettre de motivation à deise.santana-maia@irisa.fr, minh-tan.pham@irisa.fr et sebastien.lefevre@irisa.fr (avant le 30 novembre 2020).
Références:
[1] S. M. A. Eslami, N. Heess, T. Weber, Y. Tassa, D. Szepesvari, K. Kavukcuoglu, and G. E. Hinton, “Attend, infer, repeat: Fast scene understanding with generative models,” in Advances in Neural Information Processing Systems 29 : Annual Conference on Neural Information Processing Systems 2016, December 5-10, 2016 pp. 3225–3233. Available: http://papers.nips.cc/paper/6230-attend-infer-repeat-fast-scene-understanding-with-generative-models
[2] E. Crawford and J. Pineau, “Spatially invariant unsupervised object detection with convolutional neural networks,” inThe Thirty-ThirdAAAI Conference on Artificial Intelligence, AAAI 2019, The Thirty-First Innovative Applications of Artificial Intelligence Conference, IAAI2019,The Ninth AAAI Symposium on Educational Advances inArtificial Intelligence, EAAI 2019, Honolulu, Hawaii, USA, January27 – February 1, 2019, 2019, pp. 3412–3420. Available: https://aaai.org/ojs/index.php/AAAI/article/view/4216
[3] X. Wei, C. Zhang, J. Wu, C. Shen, and Z. Zhou, “Unsupervised object discovery and co-localization by deep descriptor transforming,”CoRR,vol. abs/1707.06397, 2017. Available: https://arxiv.org/abs/1707.06397
[4] Bilen, H., Pedersoli, M., & Tuytelaars, T. (2015). Weakly supervised object detection with convex clustering. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 1081-1089). Available: https://openaccess.thecvf.com/content_cvpr_2015/papers/Bilen_Weakly_Supervised_Object_2015_CVPR_paper.pdf
[5] Deselaers, T., Alexe, B., & Ferrari, V. (2012). Weakly supervised localization and learning with generic knowledge. International journal of computer vision, 100(3), 275-293. Available: https://link.springer.com/content/pdf/10.1007/s11263-012-0538-3.pdf