service : service de théorie des circuits et de … · description du sujet de stage sujet : ......

19
Année académique 2011-2012 LISTE SUJETS TFE PROPOSES Service : Service de Théorie des Circuits et de Traitement du Signal Nombre étudiants acceptés : 19 Titre TFE Promoteur(s) Co-promoteur(s) Remarque Section(s) concernée(s) Modèles 3D d'attention grâce au capteur "Kinect" B. Gosselin N. Riche, M. Mancas Elec Modélisation d'activités humaines par système de vision multi-caméras B. Gosselin C. Carincotte En collaboration avec le centre de recherche Multitel http://www.multitel.be Elec Mise en place d'un démonstrateur en vision industrielle B. Gosselin C. Machy En collaboration avec le centre de recherche Multitel http://www.multitel.be Elec Recalage d'image et génération automatique de panorama B Gosselin C. Carincotte En collaboration avec le centre de recherche Multitel http://www.multitel.be Elec Evaluation d'algorithmes pour la reconnaissance des panneaux de signalisation B Gosselin C. Carincotte En collaboration avec le centre de recherche Multitel http://www.multitel.be Elec Modélisation de mouvements de "foules" dans des données de vidéosurveillance B Gosselin C. Carincotte En collaboration avec le centre de recherche Multitel http://www.multitel.be Elec Contribution au développement d'une interface cerveau-machine hybride T. Dutoit T. Castermans, M. Duvinage Elec Développement d'un algorithme visant à détecter l'intention de la marche dans une prothèse à commande neuronale T. Dutoit T. Castermans, M. Duvinage Elec Détection et quantification de la toux T. Dutoit T. Drugman Elec Analyse et synthèse d’instruments et de voix chantée T. Dutoit T. Drugman Elec Synthèse naturelle du rire T. Dutoit J. Urbain Elec Evaluation du contraste produit par un projecteur en fonction de l’ambiance lumineuse B. Gosselin J. Decuypere Elec

Upload: hoangdung

Post on 10-Sep-2018

218 views

Category:

Documents


0 download

TRANSCRIPT

Année académique 2011-2012

LISTE SUJETS TFE PROPOSES

Service : Service de Théorie des Circuits et de Traitement du Signal

Nombre étudiants acceptés : 19

Titre TFEPromoteur(s)

Co-promoteur(s)Remarque

Section(s)

concernée(s)

Modèles 3D d'attention grâce au capteur "Kinect"B. Gosselin

N. Riche, M. MancasElec

Modélisation d'activités humaines par système de vision multi-camérasB. Gosselin

C. Carincotte

En collaboration avec le centre de recherche

Multitel

http://www.multitel.be

Elec

Mise en place d'un démonstrateur en vision industrielleB. Gosselin

C. Machy

En collaboration avec le centre de recherche

Multitel

http://www.multitel.be

Elec

Recalage d'image et génération automatique de panoramaB Gosselin

C. Carincotte

En collaboration avec le centre de recherche

Multitel

http://www.multitel.be

Elec

Evaluation d'algorithmes pour la reconnaissance des panneaux de signalisationB Gosselin

C. Carincotte

En collaboration avec le centre de recherche

Multitel

http://www.multitel.be

Elec

Modélisation de mouvements de "foules" dans des données de vidéosurveillanceB Gosselin

C. Carincotte

En collaboration avec le centre de recherche

Multitel

http://www.multitel.be

Elec

Contribution au développement d'une interface cerveau-machine hybride

T. Dutoit

T. Castermans,

M. Duvinage

Elec

Développement d'un algorithme visant à détecter l'intention de la marche dans une prothèse

à commande neuronale

T. Dutoit

T. Castermans,

M. Duvinage

Elec

Détection et quantification de la touxT. Dutoit

T. DrugmanElec

Analyse et synthèse d’instruments et de voix chantéeT. Dutoit

T. DrugmanElec

Synthèse naturelle du rireT. Dutoit

J. UrbainElec

Evaluation du contraste produit par un projecteur en fonction de l’ambiance lumineuseB. Gosselin

J. DecuypereElec

Année académique 2011-2012

LISTE SUJETS TFE PROPOSES

Service : Service de Théorie des Circuits et de Traitement du Signal

Nombre étudiants acceptés : 19

Titre TFEPromoteur(s)

Co-promoteur(s)Remarque

Section(s)

concernée(s)

Prototypage d'une intégration au standard ONVIFB. Gosselin

C. ChaudyEn collaboration avec la société ACIC

www.acic.euElec

Création d'un agent ACIC pour le standard SNMPB. Gosselin

C. ChaudyEn collaboration avec la société ACIC

www.acic.euElec

Communication Bluetooth pour un système de caméra motorisé B. Gosselin

C. ChaudyEn collaboration avec la société ACIC

www.acic.euElec

Étude et développement d'un système de détection basé sur un télémètre laser et une

caméra

B. Gosselin

C. ChaudyEn collaboration avec la société ACIC

www.acic.euElec

Étude et développement d'un composant logiciel pour le codage et le décodage vidéo par

GPU

B. Gosselin

C. ChaudyEn collaboration avec la société ACIC

www.acic.euElec

Etude comparative des techniques d'interpolation d'image de type coordonnées

barycentriques généralisées appliquées au morphing.

B. Gosselin

R. Sebbe

En collaboration avec la société CREACEED

www.creaceed.comElec

Développement d’une méthode de segmentation 3D pour les images médicalesB. Gosselin

M. MancasElec

Modèles 3D d’attention grâce au capteur “Kinect”

Promoteur : Bernard Gosselin Co-promoteurs : Nicolas Riche, Matei Mancas

Contexte :

L’attention visuelle est la capacité d’un système de vision, qu’il soit humain ou artificiel, à sélectionner rapidement les informations les plus pertinentes de l’environnement dans lequel il opère. Celle-ci possède deux composantes : une dite « Bottom-Up » ou la personne n’a aucune connaissance de la scène et l’autre appelée « Top-Down » ou le visionneur connaît des choses a priori dans la scène. De nombreuses modélisations de la composante « Bottom-Up » ont été implémentées en 2D. On peut schématiser cette modélisation en 3 étapes : l’extraction de descripteurs, un traitement multi-échelle de ses descripteurs, une fusion. But du TFE :

Au laboratoire TCTS, nous disposons déjà d’un modèle d’attention fonctionnant sur images vidéo. Ce TFE interviendra dans l’extraction des descripteurs ainsi que dans l’étape de la fusion. Différents descripteurs, dont notamment des descripteurs 3D extraits grâce à la camera Microsoft Kinect qui fournit une carte de profondeur en plus d’une vidéo couleur classique, seront testés dans les algorithmes existants selon plusieurs scénarios. Enfin, les résultats après traitement multi-échelle des différentes caractéristiques doivent être fusionnés en une seule carte de saillance qui explique l’importance perçue des différentes zones de l’espace. Cette fusion n’est pas évidente car parfois certaines caractéristiques mélangées apportent moins que les caractéristiques prises séparément. Une étude des possibilités de fusion est donc un processus très important pour exploiter pleinement la puissance de l’algorithme. Connaissance à acquérir : Milieu inter-disciplinaire, caractéristiques 3D et programmation Kinect, algorithmes avancés, logiciels temps réel (Max/Jitter) Pointeur pour débuter :

http://www.scholarpedia.org/article/Visual_salience (général sur l’attention visuelle) http://cycling74.com/ (Max/Jitter) http://www.openni.org/ (Kinect)

MULTITEL Parc Initialis Rue Pierre et Marie Curie 7000 Mons Belgique - web : www.multitel.be

Description du sujet de stage Sujet : Modélisation d’activités humaines par système de vision multi-caméras

Lieu : Multitel, Département image

Contact : C. CARINCOTTE (mail:[email protected] tel: +32 (0)65 34 28 01)

Durée : minimum 4 mois

Candidature : CV, lettre de motivation

La modélisation des activités humaines par traitement/analyse d’image trouve des

applications dans de nombreux domaines, allant de la vidéosurveillance (e.g. identification de

comportement suspect type abandon de bagage/colis), à la vidéoconférence (identification du speaker,

preneurs de notes…).

De nombreuses approches ont déjà été décrites dans la littérature pour détecter un humain dans

une image ou une vidéo, par exemple exploitant la silhouette du corps humain (à partir de l’estimation

de l’avant/arrière plan), ou exploitant différentes techniques d'apprentissage plus sophistiquées.

Afin de modéliser les activités humaines associées à ces détections, il convient ensuite

d’assurer le suivi spatio-temporel de la personne, afin d’identifier le comportement de

la personne (par exemple personne « statique », « qui marche », « qui coure »…

d’en faire une interprétation cohérente par rapport à la topologie de la scène (cad

prendre en compte la structure réelle/physique de la scène), afin d’identifier la nature

réelle de l’activité exercée (par exemple personne « faisant la queue au distributeur »,

« regardant une vitrine », « attendant le métro »…)

L’objectif du stage est donc de développer un système de modélisation et d’analyse d’activités

humaines (en partant d’algorithmes de détection de personnes déjà disponibles au sein de notre

plateforme), et de valider ce système dans le cadre d'une application de vidéosurveillance. Dans ce

contexte, le cadre applicatif choisi permettra de limiter le nombre et la complexité des activités à

analyser, de travailler avec une information topologique précise et fiable sur la scène observée, et de

fournir une architecture multi-caméras permettant de lever certaines ambiguïtés (e.g. en cas

d’occlusion).

Les différentes étapes de ce stage sont les suivantes:

État de l’art des approches de modélisation d’activités humaines multi-caméras,

Prise en main de la plate forme informatique MVision,

Proposition et implémentation de l'approche retenue,

Tests et validation sur données réelles,

Rédaction du rapport.

Profil: Compétences en traitement du signal et des images, Maîtrise du langage de développement

objet C++, Capacités d'analyse et de synthèse, Autonomie, Anglais souhaité.

Bourse de stage ERASMUS.

Possibilité d'embauche à l'issu du stage.

MULTITEL - Parc Initialis - 2, Rue Pierre et Marie Curie 7000 Mons Belgique

web : www.multitel.be

Description du sujet de stage Sujet : Mise en place d'un démonstrateur en vision industrielle.

Lieu : Multitel, Equipe de recherche: Traitement d'Images

Contact : C.Machy - mail : [email protected]

Durée : 6 mois.

Candidature : CV et lettre de motivation.

Description :

Les productions de masse à haute cadence, le souci constant d'amélioration de la qualité et la

recherche de gain économique poussent de plus en plus les industriels à automatiser les moyens de

production. La vision industrielle est une réponse à ces préoccupations pour les opérations de

contrôles de la production. En effet les machines de vision industrielle permettent un contrôle de la

production à haute cadence et assurent une bonne répétabilité du contrôle (à la différence d'un

opérateur, une machine n'est jamais fatiguée et ses critères de décision ne varient pas).

Ce stage a donc pour objectif de mettre en place un démonstrateur de vision industrielle (ex: lecture de

code barre sur des boites de médicaments, analyse de texte sur des paquets de biscuits, détection de

défauts...). Le stage sera divisé en 3 parties, tout d'abord la recherche du matériel adéquat selon

l'application choisie (caméra, objectif et éclairage). Le stagiaire devra ensuite développer les méthodes

de traitements d'images nécessaires à l'extraction de l'information souhaitée. Enfin, la mise en place

d'un système d'évaluation de performances permettra d'évaluer le système développé.

Les différentes étapes du stage seront les suivantes :

Etat de l’art des méthodes existantes par rapport à l'application choisie.

Prise en main de la plate-forme d'analyse d'images et de vidéos MVision2.

Développement de la méthode retenue.

Test, évaluation des performances.

Rédaction du rapport.

Profil: Compétences en traitement du signal et des images, Maîtrise du langage de développement

objet C++ indispensable. Capacités d'analyse et de synthèse, Autonomie, Anglais souhaité.

Bourse de stage ERASMUS.

Possibilité d'embauche à l'issu du stage.

MULTITEL Parc Initialis Rue Pierre et Marie Curie 7000 Mons Belgique - web : www.multitel.be

Description du sujet de stage Sujet : Recalage d'image et génération automatique de panorama

Lieu : Multitel, Département image

Contact : C. CARINCOTTE (mail:[email protected] tel: +32 (0)65 34 28 01)

Durée : minimum 4 mois

Candidature : CV, lettre de motivation

La génération automatique d'image panoramiques à partir d'un ensemble d'images d'une

même scène est devenue une application courante en traitement d'image. Plusieurs logiciels permettent

ainsi de générer facilement une image panoramique à partir de plusieurs photos prises avec un

appareil standard, sous certaines conditions de prises de vue. Certains appareils photo et smartphone

récents intègrent même cette possibilité au sein de l'appareil. Ce type de méthode est également

employée pour fusionner les prises de vues aériennes. Une autre application plus récente est la création

d'environnements virtuels complets en trois dimensions, à la manière de Google Street View.

De nombreuses approches ont déjà été décrites dans la littérature pour résoudre ce problème.

Ces méthodes se décomposent généralement en trois étapes : premièrement, il est nécessaire de

détecter les parties communes entre les images, car ce sont ces parties où les images se recouvrent qui

permettent à la seconde étape de déterminer les transformations (translation, rotation, homographie, ...)

à appliquer pour recaler les images. Enfin, une dernière étape fusionne ces images recalées en

corrigeant les défauts qui pourraient apparaître (bords visibles, différences de luminosité, ...).

Différentes techniques existent pour ces trois étapes, et leur choix dépend de l'application

visée, que ce soit au niveaux des images (qualité, proportion de recouvrement, ...), du type de

transformation entre prises de vue (point de vue fixe ou non, prise en compte de la 3D, ...) ou des

contraintes en terme de temps de calcul.

L'objectif de ce stage est donc de développer et de valider sur des données réelles un système

de génération automatique de panorama dans un contexte donné. L'étudiant se basera sur les approches

existantes de l'état de l'art du domaine et aura à sa disposition la plateforme MVision, qui implémente

un certain nombre de méthodes de base nécessaires.

Les différentes étapes de ce stage sont les suivantes:

État de l’art des approches de génération de panorama

Prise en main de la plate forme informatique MVision,

Proposition et implémentation de l'approche retenue,

Tests et validation sur données réelles,

Rédaction du rapport

Profil: Compétences en traitement du signal et des images, Maîtrise du langage de développement

objet C++, Capacités d'analyse et de synthèse, Autonomie, Anglais souhaité.

Bourse de stage ERASMUS.

Possibilité d'embauche à l'issu du stage.

MULTITEL Parc Initialis Rue Pierre et Marie Curie 7000 Mons Belgique - web : www.multitel.be

Description du sujet de stage Sujet : Evaluation d’algorithmes pour la reconnaissance des panneaux de signalisation

Lieu : Multitel, Département image

Contact : C. CARINCOTTE (mail:[email protected] tel: +32 (0)65 34 28 01)

Durée : minimum 4 mois

Candidature : CV, lettre de motivation

La reconnaissance des panneaux de signalisation est un problème difficile dans le monde

réel, qui suscite une intérêt industriel élevé. Bien que certains systèmes commerciaux aient atteint le

marché et que de nombreuses études sur ce sujet ont déjà été publiés, des comparaisons systématiques

de différentes approches manquent cruellement.

La reconnaissance des signes de circulation est un problème de classification multi-classe avec

des fréquences de classe déséquilibrée. Les panneaux de signalisation peuvent fournir un large éventail

de variations entre les classes en termes de couleur, la forme, et la présence de pictogrammes ou de

texte. Toutefois, il existe des sous-ensembles de classes (par exemple, panneaux de limitation de

vitesse) qui sont très semblables les uns aux autres. Le classificateur doit de plus faire face à de

grandes variations dans les apparences visuelles dues à des changements d'illumination, d'occlusion

partielle, rotations, les conditions météorologiques, etc

L’objectif du stage est donc d’effectuer une évaluation d’algorithmes de reconnaissance des

panneaux de signalisation. Le stage couvrira donc l’état de l’art des approches et/ou algorithmes

envisageables pour cette tache, le développement d’une approche dédiée, et l’évaluation de la (des)

approche(s) dans une plateforme, sur une base de donnée, et suivant des métriques, disponibles au sein

de Multitel.

Les différentes étapes de ce stage sont les suivantes:

État de l’art des approches de reconnaissance des panneaux de signalisation,

Prise en main de la plate forme informatique MVision,

Proposition et implémentation de(s) l'approche(s) retenue(s),

Tests et validation sur données réelles,

Rédaction du rapport.

Profil: Compétences en traitement du signal et des images, Maîtrise du langage de développement

objet C++, Capacités d'analyse et de synthèse, Autonomie, Anglais souhaité.

Bourse de stage ERASMUS.

Possibilité d'embauche à l'issu du stage.

MULTITEL Parc Initialis Rue Pierre et Marie Curie 7000 Mons Belgique - web : www.multitel.be

Description du sujet de stage Sujet : Modélisation de mouvements de « foules » dans des données de videosurveillance

Lieu : Multitel, Département image

Contact : C. CARINCOTTE (mail:[email protected] tel: +32 (0)65 34 28 01)

Durée : minimum 4 mois

Candidature : CV, lettre de motivation

L’objectif de ce stage est de proposer un outil de traitement automatique de vidéos, permettant la

caractérisation des mouvements de foules (flux de personnes) issus de caméras de vidéosurveillance

urbaine.

Plus particulièrement, l’approche envisagée permettra d’extraire et de visualiser une information

caractérisant les déplacements d’une foule de gens / d’un flux de personnes à partir des vidéos, et de

pour pouvoir détecter des comportements spécifiques ou anormaux.

Pour ce faire, une approche hiérarchique pourra être envisagée, combinant l’estimation d’un champ de

déplacement dense apparent (flot optique) et le suivi de descripteurs locaux (points d'intérêt et

régions). L’approche implémentée devra permettre de caractériser la dynamique des flux globaux, et

d’identifier les anomalies éventuelles présentes dans ces flux (ex.: dispersion rapide de la foule,

agglomérations de foule, etc.)

Les différentes étapes de ce stage sont les suivantes:

État de l’art des modèles de caractérisation de flux de personnes,

Prise en main de la plate forme informatique MVision,

Proposition et implémentation de l'approche retenue,

Tests et validation sur données réelles,

Rédaction du rapport.

Profil: Compétences en traitement du signal et des images, Maîtrise du langage de développement

objet C++, Fortes capacités d'analyse et de synthèse, Autonomie, Anglais souhaité.

Bourse de stage ERASMUS.

Possibilité d'embauche à l'issu du stage.

Contribution au développement d'une interface cerve au-machine hybride Promoteur : Prof. T. Dutoit Copromoteurs : Dr T. Castermans ; Ir. M. Duvinage

Description du projet

Une interface cerveau-ordinateur (« Brain-Computer Interface » -BCI) permet à son utilisateur de transmettre différentes commandes à la machine, uniquement par le biais de la pensée, en contrôlant son activité cérébrale et sans devoir utiliser le moindre muscle. La technique de l'électroencéphalographie (EEG) est généralement utilisée pour enregistrer les signaux électriques du cerveau. On extrait alors de ceux-ci l'information la plus pertinente possible permettant à un algorithme de classification de reconnaître différentes tâches mentales effectuées par l'utilisateur. A chaque tâche mentale peut être associée une action bien définie qui sera exécutée par la machine. Un nouvel axe de recherche est en train d'apparaître actuellement dans ce domaine. L'idée consiste à développer des interfaces cerveau-machine dites hybrides, qui combinent les signaux du cerveau et ceux issus d'une autre partie du corps (par exemple le mouvement des yeux). L'objectif premier dans cette démarche est d'augmenter les possibilités et les performances des systèmes actuels tout en améliorant le confort d'utilisation. Le travail proposé à l'étudiant(e) consiste à participer au développement d'une telle interface hybride avec l'aide des chercheurs du laboratoire TCTS. Un casque hybride permettant d'enregistrer les signaux électroencéphalographiques (EEG) et électro-oculographiques (EOG) sera mis à disposition de l'étudiant(e). L'objectif du travail sera d'évaluer et optimaliser les performances de plusieurs algorithmes BCI standard en combinaison avec un algorithme analysant les mouvements des yeux (« eye-tracker »). La problématique du traitement d'artefacts sera également abordée. Pré-requis : Matlab, bases en traitement du signal et en techniques de classification, la maîtrise de l'anglais est un plus ainsi qu'un goût pour l'aspect expérimental en recherche. Compétences à acquérir : Mise en pratique des méthodes de traitement du signal dans le domaine biomédical, travail au sein d'une équipe de recherche pluridisciplinaire.

Références

http://future-bnci.org/ http://future-bnci.org/images/stories/BCI_overview_-_Barcelona_Dec_09.pdf G. Pfurtscheller et al., « The hybrid BCI », Frontiers in Neuroscience, Vol. 4, 30, 2010 (http://future-bnci.org/images/stories/Pfurtscheller_2010_-_The_Hybrid_BCI.pdf)

Développement d'un algorithme visant à détecter l'i ntention de la marche dans une prothèse à commande neuronale Promoteur : Prof. T. Dutoit Copromoteurs : Dr T. Castermans ; Ir. M. Duvinage

Description du projet

Le laboratoire TCTS a récemment pris part à un projet de recherche ambitieux visant à développer une prothèse de jambe intelligente pilotée par la pensée. Son rôle est de créer l'interface entre le casque EEG du patient et les moteurs de la prothèse. Dans le cadre de son travail de fin d'études, nous proposons à un(e) étudiant(e) de contribuer à ce projet en développant une méthode de détection d'intention du mouvement de la jambe. Les neurosciences nous enseignent en effet que les mouvements intentionnels sont précédés de potentiels lents préparatoires générés au niveau du cerveau et observables dans l'enregistrement EEG du sujet. Des modifications dans d'autres bandes de fréquences de l'EEG sont également observées. Sur base de l'étude de ces modifications spectrales, plusieurs équipes de recherche ont montré qu'il était possible d'anticiper les mouvements avec une bonne précision. Le travail consistera donc à créer un algorithme capable de détecter les signes précurseurs du mouvement dans l'EEG et à en évaluer les performances de prédiction ainsi que le temps nécessaire à la décision. L'étudiant(e) commencera par la reproduction d'expériences déjà effectuées dans la littérature scientifique et poursuivra par l'étude du démarrage de la marche proprement dit. Les outils seront développés sous Matlab. L'étudiant(e) aura à disposition les données expérimentales nécessaires enregistrées à l'ULB-Erasme. Il (elle) pourrait être amené(e) à y effectuer quelques expériences complémentaires. Pré-requis : Matlab, bases en traitement du signal et en techniques de classification, la maîtrise de l'anglais est un plus. Compétences à acquérir : Mise en pratique des méthodes de traitement du signal dans le domaine biomédical, maîtrise du logiciel EEGLAB, travail au sein d'une équipe de recherche pluridisciplinaire (partenariat avec l'ULB-Erasme).

Références

[1] B. Blankertz, G. Curio, and K-R. Müller, « Classifying single trial eeg: Towards brain computer interfacing »,Advances in Neural Information Processing Systems (NIPS), vol 14, 2002. [2] T. Solis-Escalante, G. Müller-Putz, and G. Pfurtscheller, « Overt foot movement detection in one single laplacian eeg derivation », Journal of Neuroscience Methods, 175(1):148 – 153, 2008. [3] EEGLAB - Open Source Matlab Toolbox for Electrophysiological Research http://sccn.ucsd.edu/eeglab/

Détection et quantification de la toux

Promoteur: Pr. Thierry Dutoit (TCTS)

Co-Promoteur: Ir. Thomas Drugman (TCTS)

Le projet COMPTOUX associe l’UMONS (FPMs/TCTS) au CRM (Centre de Référence pour la

mucoviscidose des Cliniques St Luc à Bruxelles). Il a pour but la conception et le développement

d’un système ambulatoire réalisant un comptage de toux, avec logiciel de lecture automatisée. Il

vise à assurer le suivi du patient en ambulatoire durant une période de 24 heures. Les pathologies

ciblées sont la mucoviscidose, l’asthme, la broncho-pneumopathie chronique obstructive et la

bronchiolite chez le nourrisson.

En s’inscrivant au sein de ce projet, le but de ce TFE est le développement de méthodes permettant

la détection, l’analyse et la classification de la toux sur base de différents capteurs. Plus

précisément, sur base de capteurs existants tels que microphones, ceinture respiratoire, ou

électromyogramme, il faudra mettre en place sous Matlab, et puis éventuellement en C, des

algorithmes réalisant la détection et une analyse quantitative et qualitative des évènements de toux.

L’étudiant qui choisira ce TFE sera intégré à l’équipe du projet COMPTOUX (qui compte deux

partenaires + deux parrains industriels).

Analyse et synthèse d’instruments et de voix chantée

Promoteur : Pr. Thierry Dutoit (TCTS)

Co-Promoteur : Ir. Thomas Drugman (TCTS)

Des techniques innovantes d’analyse et de synthèse du signal de parole ont récemment été

proposées à l’UMONS, dans le service de Théorie des Circuits et Traitement du Signal, et ont

conduit à des brevets.

Le but de ce TFE est d’explorer le potentiel de ces techniques, et d’investiguer leur amélioration,

dans l’optique d’analyser et de synthétiser, non plus de la parole, mais des signaux musicaux. Les

techniques seront développées sous Matlab et permettront d’analyser et de synthétiser de la voix

chantée ou des instruments (typiquement des instruments à cordes ou à hanches). Une fois cette

étape réalisée, une synthèse en temps-réel via le logiciel Max/MSP devra être implémentée.

L’étudiant qui choisira ce TFE sera appelé à présenter ses résultats dans le cadre des recherches

menées dans l’Institut NUMEDIART pour les Technologies des Arts Numériques

(www.numediart.org)

Synthèse naturelle du rire audio

Promoteur: Pr. Thierry Dutoit (TCTS) Co-Promoteur: Ir. Jérôme Urbain (TCTS) De nombreuses recherches visent à améliorer les interactions homme-machine. Une façon d'y parvenir est de doter les machines de comportements humains, d'une “personnalité” capable d'exprimer ses émotions. Dans ce cadre, il est important que la machine puisse non seulement parler de manière expressive, mais également générer des signaux paralinguistiques tels que le rire, qui est un élément essentiel de la communication humaine. Quelques approches intéressants de synthèse du rire ont déjà été proposées [1, 2], mais elles ne permettent pas de générer des rires perçus comme naturels [3]. Dans ce TFE, nous mettrons à profit une base de données de rires naturels [4], unique au monde et développée à l’UMONS, pour générer des rires par synthèse vocale par modèles de Markov cachés (HMM), qui est une méthode récente et très efficace pour la synthèse de parole [5]. L’étudiant qui choisira ce TFE sera intégré à l’équipe du projet Européen ILHAIRE (9 partenaires), qui vise à la mise au point d’interfaces homme-machine audiovisuelles intégrant le rire naturel. Il sera également appelé à présenter ses résultats dans le cadre des recherches menées dans l’Institut NUMEDIART pour les Technologies des Arts Numériques (www.numediart.org)

Références

[1] Sundaram, S. and S. Narayanan. 2007. Automatic acoustic synthesis of human-like laughter. Journal of the Acoustical Society of America, 121(1):527–535. [2] Lasarcyk, E. and J. Trouvain. 2007. Imitating conversational laughter with an articulatory speech synthesis. In Proceedings of the Interdisciplinary Workshop on the Phonetics of Laughter, Saarbrücken, Germany, August 4-5, 43–48. [3] Cox, T. 2010. Laughter's secrets: Faking it – the results. New Scientist, July 27, http://www.newscientist.com/article/dn19227-laughters-secrets-faking-it—the-results.html. [4] Urbain, J., Bevacqua, E., Dutoit, T., Moinet, A., Niewiadomski, R., Pelachaud, C., Picart, B., Tilmanne, J. and J. Wagner. 2010. The AVLaughterCycle Database. In Proceedings of the Seventh conference on International Language Resources and Evaluation (LREC'10), Valletta, Malta, May 2010 [5] Tokuda, K., Zen, H. and A.W. Black. An HMM-based speech synthesis system applied to English. In Proceedings of the IEEE 2002 Workshop on Speech Synthesis, Santa Monica, USA, Sept. 2002

Evaluation du contraste produit par un projecteur en fonction de l’ambiance lumineuse

Promoteur : B. Gosselin Co-promoteur : J. Decuypere La visibilité d’une image projetée sur un écran dépend non seulement des caractéristiques techniques du projecteur mais aussi de l’ambiance lumineuse de l’espace de projection. Par exemple, il peut être difficile de projeter une image dans un espace ensoleillé. Ce TFE étudiera le contraste d’une image projetée par rapport à la luminance de l’écran. Est-il possible de projeter une image visible ? Quelle puissance lumineuse de projecteur offre un contraste suffisant ? On étudiera ensuite le contraste dans l’image elle-même. Peut-on améliorer le contraste à l’écran par traitement d’image ?

ACIC sa / nv

Boulevard Initialis, 28

B-7000 Mons

Belgium

[email protected]

www.acic.eu

Tel. : +32 65 39 43 80

Fax : +32 65 39 43 81

TVA/BTW : BE 0861 141 650, RPM (Mons)

Sujets de Stage 2011-2012 ACIC offre des solutions innovantes en vidéosurveillance intelligente.

Nos produits sont des «appliances» composés de logiciels d’analyse automatique de la vidéo (VCA) installés sur des serveurs PC centralisés ou distribués durcis .

Les systèmes ACIC se placent de manière transparente derrière les caméras et s’intègrent avec les principaux DVR ou NVR/VMS du marché grâce à une couche middleware flexible (AEM : Acic Event Manager).

Les applications couvertes par la technologie ultra-performante d’ACIC sont la surveillance périmétrique et la détection d’intrusion (lignes virtuelles et zones stériles), la surveillance de grands espaces (côte, mer et de frontière), comptage de personnes, analyse de trafic routier, …

Prototypage d'une intégration au standard ONVIF Dans le domaine de la vidéo surveillance, un groupe de fabricants a récemment proposé un standard pour l'interopérabilité des équipements (caméra, enregistreur, analyse vidéo...). Aujourd'hui, le standard ONVIF regroupe plusieurs dizaines de sociétés. ACIC voudrait rendre ses produits compatibles avec ce standard. Le stagiaire devra donc étudier ce protocole, basé très largement sur le concept de Web Service et proposer un design de classes C++ pour réaliser l'interface ONVIF. Des produits compatibles ONVIF (caméras ou encodeurs) seront mis à la disposition du stagiaire ainsi qu'un serveur ACIC pour les tests. Durée minimum : 2 à 3 mois Compétences : Développement C++, Web Service, Réseaux et protocoles informatiques, Linux Références : http://www.onvif.org/ Création d'un agent ACIC pour le standard SNMP Les solutions d'analyse vidéo ACIC sont généralement déployées sur un ensemble de serveurs connectés à un réseau LAN. Le protocole SNMP pourrait permettre de réaliser la supervision de ces serveurs, y compris pour les alarmes applicatives. Durant ce stage, le candidat devra se familiariser avec le protocole SNMP et étudier ses possibilités d'extension. Il réalisera le développement d'un composant permettant la remontée des événements ACIC par le protocole SNMP. Les tests seront effectués sur les serveurs en réseau chez ACIC. Durée minimum : 1 à 2 mois Compétences : Développement C++, Réseaux et protocoles informatiques, Linux Références : http://en.wikipedia.org/wiki/Simple_Network_Management_Protocol

Page 2 of 3

Communication Bluetooth pour un système de caméra motorisé L'objectif du stage est la mise en place d'un composant de communication Bluetooth entre une caméra montée dans un boitier motorisé et sa base fixe. La configuration de la caméra est actuellement réalisée par une liaison de type série, mais étant monté dans une unité de positionnement hermétique, cette interface n'est plus accessible. La communication BlueTooth doit permettre d'exposer l'interface de configuration de la caméra au niveau de la base de l'unité de positionnement. Le stagiaire devra faire l'étude et proposer une solution basée sur un module Bluetooth existant. Cette solution sera intégrée dans un prototype mis à disposition par la société ACIC. Le stagiaire devra faire preuve d'initiative et posséder des connaissances dans la mise en œuvre de modules électroniques. Des compétences de développement en C/C++ sur OS Linux sont un atout. Durée minimum : 2 mois Compétences : Développement C++, Interface de communication, Réseaux et protocoles informatiques, Linux Références : http://en.wikipedia.org/wiki/Simple_Network_Management_Protocol Étude et développement d'un système de détection basé sur un télémètre laser et une caméra Ce projet vise à la réalisation d'un prototype d'un système de détection mettant en œuvre un télémètre laser et une caméra. ACIC est une société spécialisée dans l'analyse d'images vidéo pour la surveillance (www.acic.eu). Nous avons le projet d'étendre les capacités de détection de nos systèmes en couplant à la caméra un télémètre laser. Ce télémètre devra être capable de donner la distance entre une cible et la caméra. Un synchronisation existera entre les pixels de la caméra et l'orientation du laser. Les informations issues de l'analyse de l'image et du télémètre seront fusionnées pour consolider la décision de détection. Dans une étude, le stagiaire devra envisager différentes possibilités et dans un deuxième temps un prototype sera assemblé. La plateforme de traitement, l'acquisition des vidéos et l'analyse des images sont existantes et seront mises à la disposition du stagiaire par ACIC. Le stagiaire devra faire preuve d'initiative et posséder des connaissances dans la mise en œuvre des capteurs et des communications. Il devra également être capable de développer en C+/C++ les couches bas niveaux d'interfaçage. Durée minimum : 2 à 3 mois Compétences : Électronique industrielle, Développement C++, Interface de communication,, Réseaux et protocoles informatiques, Linux Références : http://en.wikipedia.org/wiki/Simple_Network_Management_Protocol Étude et développement d'un composant logiciel pour le codage et le décodage vidéo par GPU Dans le domaine de la vidéo surveillance, la transmission des images sur les réseaux IP se généralise. Cette communication numérique des images favorise également les formats HD de caméra, avec des résolutions de 2 méga pixels ou plus. Ces flux d'images sont compressés selon des formats standards tels que MPEG4 ou H.264. ACIC réalise des applications centralisées de traitement de la vidéo. Avant traitement, les images doivent être décodées ce qui implique une charge très importante pour le CPU. Dans un tel contexte, il semble intéressant d'envisager l'utilisation des GPU (Graphic Processing Unit) pour accélérer ces traitements. Un GPU offre un rapport performance/cout très élevé, pour autant que les traitements soit simples et très parallèlisables. Des fabricants comme NVidia ou ATI proposent à des prix abordables des GPU de plus en plus efficaces.

Page 3 of 3

Ce projet vise donc à l'étude des solutions existantes pour le codage/décodage des vidéos par GPU et de leur intérêt dans le domaine d'application spécifique d'ACIC. Le stagiaire devra pendant ce stage développer une application montrant les avantages et inconvénients de l'approche GPU par rapport à l'approche CPU seule. Durée minimum : 1 à 3 mois suivant la compétence du stagiaire. Compétences : Développement C/C++, Programmation bas niveau, parallèlisation, optimisation. Références : http://en.wikipedia.org/wiki/Gpu Contact : ACIC Boulevard Initialis, 28 B-7000 Mons Belgium [email protected] Tel : +32 65 39 43 80 Fax : +32 65 39 43 81

Etude comparative des techniques d'interpolation d'image de type coordonnées barycentriques généralisées appliquées au morphing

Promoteur : Bernard Gosselin Co-promoteurs : R. Sebbe (CreaCeed)

Le morphing est une technique permettant de créer une transition continue d'une image vers une autre. Cette transition est contrôlée par l'animateur au travers d'un squelette, qui est un ensemble de courbes de référence, placé sur chacune des images d'entrée. Ce travail propose d'étudier les techniques de déformation d'image basées sur les coordonnées barycentriques généralisées, ou comment propager la déformation du squelette (discret) à l'image (continue). Techniques concernées :

- computational geometry;

- triangulation (Delaunay, etc.);

- finite Element methods. Creaceed commercialise le logiciel Morph Age sur Mac, application utilisée aussi bien par le grand public que par les graphistes professionnels. Ce travail s'inscrit dans un contexte d'exploration de nouvelles techniques d'interpolation qui pourront être intégrées à une future version de Morph Age.

Proposition de TFE en imagerie médicale

Titre : Développement d’une méthode de segmentation 3D pour les images médicales

Promoteur/Co-promoteur : B. Gosselin, M. Mancas

But :

Le but du TFE est de bâtir sur une approche développée il y a quelques années au laboratoire TCTS

[1] qui permet d’envisager d’obtenir une première idée de la forme de certains organes

(segmentation). Cette méthode utilise à la fois la proximité spatiale des pixels ainsi que leur

proximité en niveau de gris. Il s’agit d’améliorer la méthode, la tester, l’implémenter pour des images

3D en Matlab d’abord puis en C/C++.

Les tâches suivantes seront à réaliser :

1. ré-implémenter une méthode pour les images bidimensionnelles en Matlab;

2. étendre l’implémentation aux images 3D spatiales (le labo dispose d’images 3D de scanners, IRM

et PET Scans de la zone tête et cou) en Matlab;

3. tester la méthode sur différents types d’images et différents organes d’intérêt (tumeurs, glandes

parotides, moelle épinière, zones ganglionnaires) pour les images médicales;

4. modifier la méthode pour prendre en compte d’autres critères que le seul niveau de gris (texture,

couleur pour des images non médicales, …), améliorer la stabilité fonction du point choisi

initialement et optimiser la fonction (ne pas charger en mémoire l’ensemble du volume dès la

première itération, pour les vidéos prendre en compte un nombre très limité de frames, …);

5. re-implémenter la méthode en utilisant des bibliothèques C/C++ de traitement d’images comme

par exemple OpenCV [2].

Expérience à acquérir :

Autonomie, Matlab, Traitement et Segmentation d’images en général et d’images médicales en

particulier, C/C++.

Références :

[1] M. MANCAS, B. GOSSELIN, B. MACQ, 2005, "Segmentation Using a Region Growing Thresholding",

Proc. of the Electronic Imaging Conference of the International Society for Optical Imaging (SPIE/EI

2005), San Jose (California, USA).

[2] OpenCV library : http://opencv.willowgarage.com/wiki/