14 resultados para Base de données EEG


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Résumé : L’interaction entre la douleur et le système moteur est bien connue en clinique et en réadaptation. Il est sans surprise que la douleur est un phénomène considérablement invalidant, affectant la qualité de vie de ceux et celles qui en souffrent. Toutefois, les bases neurophysiologiques qui sous-tendent cette interaction demeurent, encore aujourd’hui, mal comprises. Le but de la présente étude était de mieux comprendre les mécanismes corticaux impliqués dans l’interaction entre la douleur et le système moteur. Pour ce faire, une douleur expérimentale a été induite à l’aide d’une crème à base de capsaïcine au niveau de l’avant-bras gauche des participants. L'effet de la douleur sur la force des projections corticospinales ainsi que sur l’activité cérébrale a été mesuré à l’aide de la stimulation magnétique transcrânienne (TMS) et de l’électroencéphalographie (EEG), respectivement. L’analyse des données EEG a permis de révéler qu'en présence de douleur aiguë, il y a une augmentation de l’activité cérébrale au niveau du cuneus central (fréquence têta), du cortex dorsolatéral préfrontal gauche (fréquence alpha) ainsi que du cuneus gauche et de l'insula droite (toutes deux fréquence bêta), lorsque comparée à la condition initiale (sans douleur). Également, les analyses démontrent une augmentation de l'activité du cortex moteur primaire droit en présence de douleur, mais seulement chez les participants qui présentaient simultanément une diminution de leur force de projections corticales (mesurée avec la TMS t=4,45, p<0,05). Ces participants ont également montré une plus grande connectivité entre M1 et le cuneus que les participants dont la douleur n’a pas affecté la force des projections corticospinales (t=3,58, p<0,05). Ces résultats suggèrent qu’une douleur expérimentale induit, chez certains individus, une altération au niveau des forces de projections corticomotrices. Les connexions entre M1 et le cuneus seraient possiblement impliquées dans la survenue de ces changements corticomoteurs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’organisation sociale est un élément important dans la biologie d’une espèce. Dans le monde animal, il existe différents types d’organisation sociale. Certaines espèces affichent un comportement solitaire, tandis que d’autres sont grégaires. Lorsque la socialité est favorisée, une organisation sociale de type communautaire peut prendre forme, où les liens d’associations sont majoritairement entre les individus des mêmes communautés. Ces liens peuvent être modulés par des associations préférentielles, par des stratégies comportementales ou par un apparentement génétique. Cependant, l’organisation sociale est soumise à des changements avec la mortalité, les naissances, l’immigration et l’émigration des individus. Ces variables démographiques peuvent altérer les relations sociales et par le fait même l’organisation sociale. L’analyse des réseaux sociaux est utilisée pour représenter et analyser la structure sociale d’une population. Cette technique permet de quantifier la structure de communauté d’un réseau. En utilisant une base de données d’observations obtenues sur plusieurs années, mon projet de maitrise explore l’organisation sociale chez les femelles chamois (Rupicapra rupicapra) au Parc des Alpes Maritimes, Italie. La base de tous les comportements sociaux est l’association. L’interaction dyadique entre deux individus est la principale voie pour le transfert de l'information. En utilisant ces associations, j’ai reconstruit, sur une base annuelle, la structure sociale des femelles chamois. Une fois la structure sociale établie, j’ai discerné les différentes communautés présentes dans la population. J’ai ensuite effectué une analyse de stabilité des communautés et déterminé si la composition des communautés répondait à un apparentement génétique. Les chamois femelles ont une organisation sociale impliquant des communautés avec de multiples liens d’associations à l’intérieur, mais quelque peu dirigés à l’extérieur de ces communautés. Les relations sociales d’une femelle chamois sont généralement conservées d’une année à l’autre. De plus, ces communautés attestent d’une grande stabilité inter annuelle. Peu d’individus changent de communauté d’une année à l’autre. Le changement de communauté est associé avec un faible nombre de liens d’associations et également avec des groupes de faible taille. Les communautés détectées ne semblent pas être basées sur un apparentement génétique. Grâce à l’analyse des réseaux sociaux, mes travaux de maîtrise sont les premiers à quantifier statistiquement l’organisation sociale des femelles chamois. Grâce à l’exploration de l’organisation sociale de ces femelles chamois, nos résultats apporteront de nouvelles informations sur les ongulés alpins et permettront une gestion adéquate des populations.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette étude consiste à examiner la relation entre la participation des enseignants à la prise de décision et leur niveau de satisfaction au travail. Dans cette perspective, notre recherche s'est fixée quatre objectifs. Le premier objectif consiste à déterminer s'il existe une différence importante entre le niveau de participation actuel chez les enseignants et le niveau qu'ils désirent obtenir. Le deuxième objectif est de déterminer le niveau de satisfaction au travail chez ces enseignants. Le troisième objectif est de déterminer le niveau d'importance que les enseignants accordent aux items de décision. Finalement, la présente recherche consiste à déterminer s'il existe une relation entre, d'une part, la différence de participation, l'importance des décisions et, d'autre part, le niveau de satisfaction. L'étude a été entreprise sur un échantillon de 190 enseignants formateurs du secondaire algérien. 133 questionnaires nous ont été retournés. 110 questionnaires, soit 57.8% ont été jugés valables et constituent la base de données. Trois instruments ont été retenus pour les fins de cette recherche. Le premier instrument est le questionnaire d'informations générales sur l'enseignant. Le deuxième est le questionnaire de la participation des enseignants à la prise de décision. Le troisième est le questionnaire de la satisfaction au travail. Les deux derniers instruments répondent aux critères de validité de contenu et de fidélité requis pour ce genre de recherche. Les données ont été traitées sur système informatisé: micro-ordinateur de type STAT-PACK. Elles ont été interprétées à l'aide de statistiques descriptives: sous la forme de distribution de fréquences, de pourcentages et de moyennes. Les résultats sont les suivants: il existe une différence importante entre le niveau de participation actuelle perçue par les enseignants et leur niveau de participation souhaitée. Un survol rapide des résultats nous indique que la majorité des enseignants perçoivent avoir un niveau de participation très inférieur au niveau qu'ils désirent obtenir. Les résultats du deuxième objectif indiquent que la majorité des enseignants sont satisfaits de leur travail "d'une manière générale". Cependant, ces enseignants n'hésitent pas à se dire insatisfaits de certaines dimensions de leur travail. Le troisième objectif démontre que les enseignants accordent beaucoup d'importance aux décisions techniques (telle que l'organisation de l 'enseignement), et peu d'importance aux décisions administratives (telles que l'élaboration de l’emploi du temps, les réunions avec la direction de l’école...). Finalement, le quatrième objectif nous indique que les enseignants qui rapportent un état d'absence de participation, particulièrement dans les décisions qu'ils perçoivent importantes, sont très insatisfaits. La mesure de la satisfaction se réfère ici aux aspects suivants: administration-supervision, avenir scolaire, aspects financiers et relations avec la communauté.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Au travers de cette étude, nous proposons de mettre en place un système d’information géographique (SIG) prédictif afin d’obtenir le classement des pays vulnérables à la brusque variation des prix du maïs. L'élément déclencheur de cette variation sera un aléa climatique sur la zone de culture américaine, premier pays producteur. Afin d'analyser les conséquences d'une catastrophe naturelle, il fut nécessaire de construire un indice final de vulnérabilité par le regroupement de plusieurs thématiques (agricole, économique et socio politique). Les données des différentes thématiques ainsi que les résultats sont intégrés dans une base de données à référence spatiale pour permettre la restitution des résultats dans un SIG web.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La prolifération des matières résiduelles est l'un des problèmes environnementaux que rencontre le Québec. Ainsi beaucoup d’initiatives et de politiques ont vu le jour pour faire face a la problématique de matières résiduelles. Cependant, toutes ces actions n’ont pas permis aux municipalités, ni aux populations d’être à l’abri de la prolifération des matières résiduelles dans la province du Québec. Ainsi, il est difficile d’atteindre les objectifs fixés à chaque période. Dans un esprit d’agir ensemble pour diminuer les déchets, le Gouvernement confie aux municipalités la responsabilité d’élaborer leur propre plan de gestion des matières résiduelles en tenant compte de leur contexte à savoir : mode de gestion et de traitement, le type de matières récupérés et leur outil de planification. Ce dernier permet aux populations d’avoir des informations sur la date, l’horaire et le type de matières collectées. Pour améliorer la diffusion des informations de collecte dans les municipalités, nous avons choisi de réaliser un prototype de système d’information géographique web (SIG web) pour mieux planifier la collecte des matières résiduelles. Notre étude consiste a concevoir un modèle conceptuel de données de norme québécoise portant sur la collecte des matières résiduelles, spécifiquement de créer une base de données spatialisée, et intégrer les données de collecte des matières résiduelles sur un SIG web.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans ce mémoire, nous traitons du concept de confiance interethnique. Dans notre étude nous entendons par ethnique le caractère qui est propre à une ethnie. L’ethnie est donc un ensemble d’individus qui rapproche un certain nombre de caractéristiques notamment la langue et la culture. Dans notre étude, nous utilisons la base de données de l’Afrobaromètre, dans laquelle individus se définissent eux-mêmes dans un groupe ethnique. La confiance interethnique est la relation de confiance entre deux individus de groupes ethniques différents. L’objectif du mémoire est de faire ressortir à la fois les déterminants de la confiance interethnique ainsi que de faire ressortir les conséquences de la confiance interethnique sur le bien-être en Afrique. Le choix du continent africain est pertinent compte tenu du sous-développement des économies ainsi que de la haute fragmentation ethnolinguistique . L’indice de fragmentation ethnolinguistique mesure la probabilité que deux individus sélectionnés au hasard d’un même groupe se retrouvent dans deux groupes ethnolinguistiques différents . Nous utilisons la base de données de l’Afrobaromètre pour tester les différentes théories émises par la littérature sur les déterminants et les conséquences de la confiance interethnique. Par contre, cette relation comporte un problème potentiel d’endogénéité. En effet, nous pouvons croire que la confiance interethnique affecte le bien-être et vice et versa. Pour contrer ce problème, l’utilisation de variables instrumentales est requise. Quelques variables instrumentales sont donc testées dans cette étude. Les résultats de cette étude mettent en évidence l’importance de l’utilisation des variables instrumentales et démontrent l’importance de l’architecture politique, démographique et ethnique dans la relation entre le bien-être et la confiance interethnique.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Depuis le milieu des années 2000, une nouvelle approche en apprentissage automatique, l'apprentissage de réseaux profonds (deep learning), gagne en popularité. En effet, cette approche a démontré son efficacité pour résoudre divers problèmes en améliorant les résultats obtenus par d'autres techniques qui étaient considérées alors comme étant l'état de l'art. C'est le cas pour le domaine de la reconnaissance d'objets ainsi que pour la reconnaissance de la parole. Sachant cela, l’utilisation des réseaux profonds dans le domaine du Traitement Automatique du Langage Naturel (TALN, Natural Language Processing) est donc une étape logique à suivre. Cette thèse explore différentes structures de réseaux de neurones dans le but de modéliser le texte écrit, se concentrant sur des modèles simples, puissants et rapides à entraîner.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La sécurité des systèmes de transports intelligents est au centre de tous les débats. Afin de s’assurer un fonctionnement sécuritaire, il est nécessaire de pouvoir vérifier le bon fonctionnement des capteurs permettant d’avoir une parfaite connaissance de l’environnement et de l’état du véhicule. Cette thèse présente une nouvelle solution de détection et d’identification de faute pouvant apparaitre sur les capteurs embarqués d’un véhicule intelligent. Cette méthode est basée sur la redondance analytique des données, consistant à estimer une même mesure à l’aide de capteurs de différentes natures. Cette mesure subit alors une transformation non linéaire permettant à la fois d’accroitre la sensibilité aux fautes et d’être plus robuste aux bruits. Cette étude propose plusieurs solutions de transformation et d’estimation qui seront évaluées en simulation avant de proposer une méthode d’optimisation de la prise de décision en fonction de critères choisis par l’utilisateur. La description de l’architecture, des méthodes employées ainsi que des équations permettant l’établissement de celle-ci seront décrites dans le chapitre 3. L’évaluation en simulation des performances de l’architecture sera effectuée dans le chapitre 4 avant une analyse finale des résultats ainsi qu’une comparaison avec une solution existante dans le dernier chapitre, permettant la validation de notre approche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le laboratoire DOMUS développe des applications sensibles au contexte dans une perspective d’intelligence ambiante. L’architecture utilisée présentement pour gérer le contexte a atteint ses limites en termes de capacité d’évoluer, d’intégration de nouvelles sources de données et de nouveaux capteurs et actionneurs, de capacité de partage entre les applications et de capacité de raisonnement. Ce projet de recherche a pour objectif de développer un nouveau modèle, un gestionnaire de contexte et de proposer une architecture pour les applications d’assistance installées dans un habitat intelligent. Le modèle doit répondre aux exigences suivantes : commun, abstrait, évolutif, décentralisé, performant et une accessibilité uniforme. Le gestionnaire du contexte doit permettre de gérer les événements et offrir des capacités de raisonnement sur les données et le contexte. La nouvelle architecture doit simplifier le développement d’applications d’assistance et la gestion du contexte. Les applications doivent pouvoir se mettre à jour si le modèle de données évolue dans le temps sans nécessiter de modification dans le code source. Le nouveau modèle de données repose sur une ontologie définie avec le langage OWL 2 DL. L’architecture pour les applications d’assistance utilise le cadre d’applications Apache Jena pour la gestion des requêtes SPARQL et un dépôt RDF pour le stockage des données. Une bibliothèque Java a été développée pour gérer la correspondance entre le modèle de données et le modèle Java. Le serveur d’événements est basé sur le projet OpenIoT et utilise un dépôt RDF. Il fournit une API pour la gestion des capteurs / événements et des actionneurs / actions. Les choix d’implémentation et l’utilisation d’une ontologie comme modèle de données et des technologies du Web sémantique (OWL, SPARQL et dépôt RDF) pour les applications d’assistance dans un habitat intelligent ont été validés par des tests intensifs et l’adaptation d’applications déjà existantes au laboratoire. L’utilisation d’une ontologie a pour avantage une intégration des déductions et du raisonnement directement dans le modèle de données et non au niveau du code des applications.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le rôle central du phytoplancton à la base de la chaîne trophique aquatique motive une compréhension étayée des facteurs pouvant faire varier les populations et la composition des populations de phytoplancton. Cette compréhension est d'autant plus importante dans le contexte actuel, puisque nous savons que l'humain influence le climat et les milieux aquatiques par sa présence et ses activités. Nous tentons donc, dans notre étude, de déterminer les variables environnementales importantes qui dictent les changements de taille et de composition de la communauté de phytoplancton à l'échelle d'un lac et d'en déduire les niches réalisées des différentes espèces du lac. L'utilisation d'une station mobile de manière verticale dans le lac Montjoie (Saint-Denis-de-Brompton) a permis de collecter des données in situ à haute fréquence et résolution temporelle caractérisant la colonne d'eau. Combinée à ces mesures, une banque de données sur l'abondance de différentes catégories de phytoplancton a été créée à l'aide d'un cytomètre en flux imageur (IFCB) et d'un programme de reconnaissance d'images qui lui est associé. En combinant ces données nous avons déterminé que la température moyenne au-dessus de la thermocline et que la profondeur limite de chlorophylle (2 écarts-types sous le maximum de chlorophylle) étaient les 2 variables (parmi les variables mesurées) les plus appropriées pour déterminer les niches réalisées de nos catégories de phytoplancton. À l'aide de ces 2 variables, nous avons pu déterminer les niches réalisées d'une trentaine de catégories présentes dans notre lac. Les niches ont été déterminées à la fois sur les données d'abondance et sur les données de taux de croissance nette à l'aide de deux méthodes différentes, soit l'analyse canonique des correspondances (CCA) et la maximisation de l'entropie d'information (MaxEnt). Ce sont finalement les niches déterminées avec les taux de croissance nette qui sont les plus pertinentes. Les deux méthodes ont donné des résultats semblables, mais c'est MaxEnt qui est la plus versatile pour l'ajout de nouvelles variables explicatives et c'est donc celle-ci que nous privilégierons dans le futur.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les mesures satellitaires de réflectance de télédétection (Rrs) associée à la fluorescence de la chlorophylle-a induite par le soleil (FCIS), notées Rrs,f , sont largement utilisées dans le domaine de l’océanographie converties sous la forme de rendement quantique de la fluorescence (QYF). Le QYF permet de déterminer l’impact de l’environnement sur la croissance du phytoplancton. Tout comme les autres mesures qui reposent sur la luminance montante, le QYF, et donc la Rrs,f , sont influencés par les effets de bidirectionnalité. Ainsi, sachant que la variabilité naturelle du QYF est faible, les biais engendrés par une normalisation inadéquate de la Rrs,f peuvent avoir des impacts importants sur l’interprétation des mesures de QYF à l’échelle planétaire. La méthode actuelle utilisée pour corriger la dépendance angulaire du signal observé dans la bande de fluorescence par le spectroradiomètre imageur à résolution moyenne (MODIS), embarqué à bord du satellite Aqua, repose sur l’application d’une table de correspondance (LUT) développée par Morel et al. (2002). Toutefois, l’approche de Morel et al. (2002) ne tient pas compte du caractère isotrope de la FCIS ce qui induit des biais systématiques sur les mesures de Rrs,f selon la latitude, par exemple. Dans ce mémoire, une nouvelle méthode de calcul de la LUT ayant pour but de réduire ces biais est introduite. Tout d’abord, celle-ci intègre une mise à jour des propriétés optiques inhérentes (IOPs) dans le modèle de transfert radiatif sur la base de publications plus récentes. Ensuite, la gamme spectrale de son application est élargie à la bande de fluorescence contrairement à la méthode actuelle qui se limite à la longueur d’onde de 660 nm. Finalement, la LUT révisée tient compte des trois composantes principales de la réflectance de télédétection que sont (1) la rétrodiffusion élastique de la lumière par les molécules d’eau et par les particules en suspension, (2) la diffusion Raman (inélastique) par les molécules d’eau et (3) la FCIS. Les résultats de Rrs,f normalisées avec la nouvelle méthode présentent une différence de dispersion moyenne par rapport à celle obtenue par l’application de la méthode de Morel et al. (2002) de l’ordre de -15 %. Des différences significatives, de l’ordre de -22 %, sont observées à de grands angles d’observation et d’éclairement (> 55 %).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.