15 resultados para Reward based model
em Université de Montréal, Canada
Resumo:
Ce mémoire est rédigé dans le cadre d’une recherche multidisciplinaire visant à développer de meilleurs outils d’intervention et politiques en santé mentale au travail. L’objectif principal de cette étude était de cibler les déterminants de l’épuisement professionnel et des troubles musculosquelettiques et leur cooccurrence chez une population policière. Un échantillon de 410 policiers du Service de Police de Montréal (SPVM) a été sondé à l’aide d’un questionnaire basé sur des outils standardisés en santé mentale au travail. Les conditions organisationnelles, variables indépendantes de cette étude, ont été identifiées à partir de modèles théoriques validés. L’analyse segmentée de chacun des grands concepts (latitude décisionnelle, soutien social au travail, demandes, justice distributive et sur engagement) révèle que l’effet des conditions organisationnelles ne se manifeste pas également sur chacune des trois dimensions de l’épuisement professionnel (l’épuisement émotionnel, le cynisme et l’efficacité professionnelle). De plus, on observe que les trois formes de récompenses de justice distributive tirées du modèle « Déséquilibre-Efforts-Récompenses » (Siegrist, 1996) ne sont pas distribuées également selon les dimensions de l’épuisement professionnel. Selon nos données, la justice distributive d’estime de soi et le sur engagement s’avèrent significatifs dans tous les cas en regard des dimensions de l’épuisement professionnel et de son indice global. Finalement, nos résultats révèlent que la justice distributive d’estime de soi a un lien significatif sur la cooccurrence de l’épuisement professionnel et des troubles musculosquelettiques. Par contre, on note que des outils de recherche plus spécifiques permettraient une analyse approfondie de l’effet des conditions organisationnelles sur les troubles musculosquelettiques et sur l’effet de cooccurrence entre les deux problèmes à l’étude.
Resumo:
Simuler efficacement l'éclairage global est l'un des problèmes ouverts les plus importants en infographie. Calculer avec précision les effets de l'éclairage indirect, causés par des rebonds secondaires de la lumière sur des surfaces d'une scène 3D, est généralement un processus coûteux et souvent résolu en utilisant des algorithmes tels que le path tracing ou photon mapping. Ces techniquesrésolvent numériquement l'équation du rendu en utilisant un lancer de rayons Monte Carlo. Ward et al. ont proposé une technique nommée irradiance caching afin d'accélérer les techniques précédentes lors du calcul de la composante indirecte de l'éclairage global sur les surfaces diffuses. Krivanek a étendu l'approche de Ward et Heckbert pour traiter le cas plus complexe des surfaces spéculaires, en introduisant une approche nommée radiance caching. Jarosz et al. et Schwarzhaupt et al. ont proposé un modèle utilisant le hessien et l'information de visibilité pour raffiner le positionnement des points de la cache dans la scène, raffiner de manière significative la qualité et la performance des approches précédentes. Dans ce mémoire, nous avons étendu les approches introduites dans les travaux précédents au problème du radiance caching pour améliorer le positionnement des éléments de la cache. Nous avons aussi découvert un problème important négligé dans les travaux précédents en raison du choix des scènes de test. Nous avons fait une étude préliminaire sur ce problème et nous avons trouvé deux solutions potentielles qui méritent une recherche plus approfondie.
Resumo:
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.
Resumo:
La traduction statistique vise l’automatisation de la traduction par le biais de modèles statistiques. Dans ce travail, nous relevons un des grands défis du domaine : la recherche (Brown et al., 1993). Les systèmes de traduction statistique de référence, tel Moses (Koehn et al., 2007), effectuent généralement la recherche en explorant l’espace des préfixes par programmation dynamique, une solution coûteuse sur le plan computationnel pour ce problème potentiellement NP-complet (Knight, 1999). Nous postulons qu’une approche par recherche locale (Langlais et al., 2007) peut mener à des solutions tout aussi intéressantes en un temps et un espace mémoire beaucoup moins importants (Russell et Norvig, 2010). De plus, ce type de recherche facilite l’incorporation de modèles globaux qui nécessitent des traductions complètes et permet d’effectuer des modifications sur ces dernières de manière non-continue, deux tâches ardues lors de l’exploration de l’espace des préfixes. Nos expériences nous révèlent que la recherche locale en traduction statistique est une approche viable, s’inscrivant dans l’état de l’art.
Resumo:
Les interventions proactives ou comportementales en classe sont reconnues empiriquement pour leur efficacité à améliorer le comportement ou le rendement scolaire des enfants ayant un TDAH (DuPaul & Eckert, 1997; Hoza, Kaiser, & Hurt, 2008; Pelham & Fabiano, 2008; Zentall, 2005). Or, l’écart entre les interventions probantes et celles retrouvées dans le milieu général de l’éducation souligne l’importance de répliquer les résultats d’études obtenus dans un environnement contrôlé dans un format de livraison réaliste. L’objectif principal de cette thèse est d’élaborer et d’évaluer un programme de consultation individuelle (PCI) fondé sur une démarche de résolution de problème et d’évaluation fonctionnelle, pour soutenir les enseignants du primaire dans la planification et la mise en œuvre cohérente des interventions privilégiées pour aider les enfants ayant un TDAH. D’abord, une recension des principales modalités d’intervention auprès des enfants ayant un TDAH est effectuée afin d’identifier les interventions à inclure lors du développement du programme. Par la suite, des solutions favorisant le transfert des interventions probantes à la classe ordinaire sont détaillées par la proposition du PCI ayant lieu entre un intervenant psychosocial et l’enseignant. Enfin, l’évaluation du PCI auprès de trente-sept paires enfant-enseignant est présentée. Tous les enfants ont un diagnostic de TDAH et prennent une médication (M). Les parents de certains enfants ont participé à un programme d’entraînement aux habiletés parentales (PEHP). L’échantillon final est: M (n = 4), M et PEHP (n = 11), M et PCI (n = 11), M, PEHP et PCI (n = 11). Les résultats confirment l’efficacité du PCI au-delà de M et M + PEHP pour éviter une aggravation des comportements inappropriés et améliorer le rendement scolaire des enfants ayant un TDAH. Par ailleurs, une augmentation de l’utilisation des stratégies efficaces par l’enseignant est observable lorsqu’il a à la fois participé au PCI et reçu une formation continue sur le TDAH en cours d’emploi. Les implications cliniques de l’intervention pour l’enfant ayant un TDAH et son enseignant de classe ordinaire sont discutées.
Resumo:
La phagocytose est un processus cellulaire par lequel de larges particules sont internalisées dans une vésicule, le phagosome. Lorsque formé, le phagosome acquiert ses propriétés fonctionnelles à travers un processus complexe de maturation nommé la biogénèse du phagolysosome. Cette voie implique une série d’interactions rapides avec les organelles de l’appareil endocytaire permettant la transformation graduelle du phagosome nouvellement formé en phagolysosome à partir duquel la dégradation protéolytique s’effectue. Chez l’amibe Dictyostelium discoideum, la phagocytose est employée pour ingérer les bactéries de son environnement afin de se nourrir alors que les organismes multicellulaires utilisent la phagocytose dans un but immunitaire, où des cellules spécialisées nommées phagocytes internalisent, tuent et dégradent les pathogènes envahissant de l’organisme et constitue la base de l’immunité innée. Chez les vertébrés à mâchoire cependant, la transformation des mécanismes moléculaires du phagosome en une organelle perfectionnée pour l’apprêtement et la présentation de peptides antigéniques place cette organelle au centre de l’immunité innée et de l’immunité acquise. Malgré le rôle crucial auquel participe cette organelle dans la réponse immunitaire, il existe peu de détails sur la composition protéique et l’organisation fonctionnelles du phagosome. Afin d’approfondir notre compréhension des divers aspects qui relient l’immunité innée et l’immunité acquise, il devient essentiel d’élargir nos connaissances sur les fonctions moléculaire qui sont recrutées au phagosome. Le profilage par protéomique à haut débit de phagosomes isolés fut extrêmement utile dans la détermination de la composition moléculaire de cette organelle. Des études provenant de notre laboratoire ont révélé les premières listes protéiques identifiées à partir de phagosomes murins sans toutefois déterminer le ou les rôle(s) de ces protéines lors du processus de la phagocytose (Brunet et al, 2003; Garin et al, 2001). Au cours de la première étude de cette thèse (Stuart et al, 2007), nous avons entrepris la caractérisation fonctionnelle du protéome entier du phagosome de la drosophile en combinant diverses techniques d’analyses à haut débit (protéomique, réseaux d’intéractions protéique et ARN interférent). En utilisant cette stratégie, nous avons identifié 617 protéines phagosomales par spectrométrie de masse à partir desquelles nous avons accru cette liste en construisant des réseaux d’interactions protéine-protéine. La contribution de chaque protéine à l’internalisation de bactéries fut ensuite testée et validée par ARN interférent à haut débit et nous a amené à identifier un nouveau régulateur de la phagocytose, le complexe de l’exocyst. En appliquant ce modèle combinatoire de biologie systémique, nous démontrons la puissance et l’efficacité de cette approche dans l’étude de processus cellulaire complexe tout en créant un cadre à partir duquel il est possible d’approfondir nos connaissances sur les différents mécanismes de la phagocytose. Lors du 2e article de cette thèse (Boulais et al, 2010), nous avons entrepris la caractérisation moléculaire des étapes évolutives ayant contribué au remodelage des propriétés fonctionnelles de la phagocytose au cours de l’évolution. Pour ce faire, nous avons isolé des phagosomes à partir de trois organismes distants (l’amibe Dictyostelium discoideum, la mouche à fruit Drosophila melanogaster et la souris Mus musculus) qui utilisent la phagocytose à des fins différentes. En appliquant une approche protéomique à grande échelle pour identifier et comparer le protéome et phosphoprotéome des phagosomes de ces trois espèces, nous avons identifié un cœur protéique commun à partir duquel les fonctions immunitaires du phagosome se seraient développées. Au cours de ce développement fonctionnel, nos données indiquent que le protéome du phagosome fut largement remodelé lors de deux périodes de duplication de gènes coïncidant avec l’émergence de l’immunité innée et acquise. De plus, notre étude a aussi caractérisée en détail l’acquisition de nouvelles protéines ainsi que le remodelage significatif du phosphoprotéome du phagosome au niveau des constituants du cœur protéique ancien de cette organelle. Nous présentons donc la première étude approfondie des changements qui ont engendré la transformation d’un compartiment phagotrophe à une organelle entièrement apte pour la présentation antigénique.
Resumo:
Le caribou forestier est une espèce menacée au Canada, la principale hypothèse au déclin des populations étant l’intensification de la prédation provoquée par les perturbations anthropiques du paysage. Afin de faire face à cette situation, il est nécessaire d’étudier et comprendre l’impact de l’environnement sur les interactions prédateur-proies entre le caribou et le loup, ainsi qu’avec l’orignal, qui est sa principale proie alternative. Pour cela, cette thèse présente la conception d’un modèle centré sur l’individu des déplacements de ces trois espèces en fonction de leur environnement, dont résulteront les interactions prédateur-proies. Afin de permettre l’application de ce modèle sur de longues périodes, et donc pour un environnement changeant, une méthodologie a été développée, qui s’articule atour de deux aspects principaux. Tout d’abord, la notion de niveaux d’émergence est introduite, permettant d’ordonner les comportements observables du système selon leurs interdépendances, afin de choisir comme trait du modèle un com- portement correspondant au domaine d’applicabilité visé. Ordonner les comportements selon leurs niveaux d’émergence permet également d’identifier la redondance entre les patrons, qui peut être à l’origine d’un phénomène de sur-apprentissage lorsqu’ils sont utilisés lors de la calibration. Dans un second temps, un nouveau protocole pour la calibration et la validation du ou des traits choisis à l’aide des niveaux d’émergence, nommé réplication de système basé sur l’individu (Individual Based System Replication - IBSRtion) est également présenté. Ce protocole met l’emphase sur la modélisation directe, contrairement au principal protocole existant, la modélisation orientée patrons (Pattern Oriented Modelling - POM), et permet une approche empirique en générant artificiellement des données non disponibles ou ne pouvant être récoltées par des études de terrains. IBSRtion a également l’avantage de pouvoir être intégrée dans POM, afin de contribuer à la création d’une méthodologie universelle pour la conception de modèles centrés sur l’individu. Le processus de conception de ce modèle aura entre autre permis de faire une synthèse des connaissances et d’identifier certaines lacunes. Une étude visant à palier le manque de connaissances satisfaisantes sur les réponses comportementales à court-terme des proies face au risque de prédation a notamment permis d’observer que celles-ci sont une combinaison de comportements chroniques et éphémères, et que les mécanismes qui en sont à l’origine sont complexes et non-linéaires. Le résultat de ce travail est un modèle complexe utilisant de nombreux sous-modèles, et calibré de façon empirique, applicable à une grande variété d’environnements. Ce modèle a permis de tester l’impact de l’enfeuillement sur les relations prédateur-proies. Des simulations ont été effectuées pour différentes quantités d’enfeuillement, suivant deux configurations spatiales différentes. Les résultats de simulation suggèrent que des plans d’aménagement considérant également l’habitat de l’orignal pourraient être bénéfiques pour le caribou forestier, car ils permettraient d’améliorer la ségrégation spatiale entre les deux espèces, et donc entre le caribou et le loup. En le couplant avec un module de naissances et de morts naturelles ainsi qu’un modèle d’évolution du paysage, ce modèle permettra par la suite d’évaluer l’impact de plans d’aménagement forestier sur la viabilité des populations de caribou forestier.
Resumo:
Les facteurs psychologiques tels que l'hypnose, l'émotion, le stress et l’attention exercent un effet modulant puissant sur la nociception et la douleur. Toutefois, l’influence de l'attention sur la nociception et la douleur, ainsi que les mécanismes neuronaux sous-jacents, ne sont pas clairs. La littérature actuelle sur la modulation attentionnelle des réponses spinales nociceptives, telles que mesurées par le réflexe RIII, et de la perception de l’intensité de la douleur est discordante et souvent contradictoire. Ce mémoire fournit un nouveau cadre pour examiner la modulation du réflexe RIII et de la douleur par l’attention. Une tâche de discrimination sensorielle a été décomposée en trois composantes attentionnelles : la vigilance, l’orientation, et le contrôle exécutif. Auparavant, la nature multidimensionnelle de l’attention fut largement ignorée dans la littérature. Nous démontrons que les composantes attentionnelles ont des effets modulatoires distincts sur la nociception et la douleur et suggérons que ceci représente une partie de la confusion présente dans la littérature. En prenant compte du stress indépendamment, nous démontrons, pour la première fois, que le stress inhibe la modulation attentionnelle du réflexe RIII ce qui indique une interaction et dissociation de la modulation des réponses nociceptives par l’attention et le stress. Ces résultats importants clarifient, en grande partie, les contradictions dans la littérature, puisque les tâches cognitives produisent souvent des augmentations du stress ce qui confond l’interprétation des résultats. De plus, la tâche de discrimination inclut des stimuli visuels et somatosensoriels et révèle que l’influence de l'attention sur la douleur est spatialement spécifique tandis que la modulation attentionnelle de la nociception est spécifique à la modalité des stimuli, au moins en ce qui concerne les modalités examinées. A partir de ces résultats, un nouveau modèle de la modulation attentionnelle des processus de la douleur, basée sur les composantes attentionnelles, a été proposé. Celui-ci est appuyé par la littérature et fournit une explication systématique et intégratrice des résultats antérieurement contradictoires. De plus, à partir de ce modèle, plusieurs mécanismes neuronaux ont été proposés pour sous-tendre la modulation attentionnelle de la nociception et de la douleur.
Resumo:
Les populations du caribou forestier (Rangifer tarandus caribou) sont en déclin sur l’ensemble de leur aire de répartition en Amérique du Nord. Il s’avère que la prédation, amplifiée par l’exploitation forestière, en est la principale cause. Ce projet consiste à mettre en place un outil d'aide à la décision, permettant de modéliser les changements du risque de prédation chez le caribou forestier durant la succession forestière, et ce, selon différents scénarios d'aménagement forestier simulés sur la Côte-Nord du Québec, Canada. Ces scénarios, simulés de 2000 à 2150, sont caractérisés par (i) des coupes limitées aux blocs de protection et de remplacement, (ii) des coupes étendues sur le paysage, et finalement (iii) par l'absence de coupe dès 2000. Un modèle basé sur l'individu (MBI) permet de modéliser les déplacements simultanés du caribou forestier, de l'orignal (Alces alces) et du loup gris (Canis lupus) afin d'évaluer le risque de prédation selon les scénarios. En général, le risque de prédation est plus important lorsque les coupes sont limitées aux blocs de protection et de remplacement. En effet, il semble que ces blocs augmentent les probabilités de rencontre entre les proies et leurs prédateurs. Toutefois, certains résultats ne reflètent pas la littérature, ce qui montre la nécessité d'améliorer le MBI. Certaines recommandations visent finalement à bonifier ce MBI pour permettre l'analyse de la viabilité à long terme du caribou forestier en fonction de différents scénarios d'aménagement forestier.
Resumo:
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.
Resumo:
Cette thèse doctorale poursuit l’objectif de mieux comprendre le rôle joué par la culture organisationnelle en tant que déterminant des problèmes de santé mentale dans la main-d’œuvre. Ceci, dans un contexte où les organisations font face à plusieurs défis importants pouvant affecter leur survie et pérennité, mais surtout face aux coûts directs et indirects reliés à ce type de problèmes qui ne cessent d’augmenter. Cette thèse fut également inspirée par les nombreuses limites constatées à la suite d’une revue de la littérature sur la santé mentale au travail, alors que les principaux modèles sur le stress professionnel (e.g. modèle demandes-contrôle de Karasek (1979), modèle demandes-contrôle-soutien de Karasek et Theorell (1990), le modèle du Déséquilibre Efforts-Récompenses de Siegrist (1996) et le modèle Demandes-Ressources de Demerouti et al., (2001)) et guidant la recherche sur le sujet, ne tiennent pas compte du contexte organisationnel élargi dans lequel se vit le travail. Un élément bien précis du contexte organisationnel est le cœur de cette thèse soit la culture organisationnelle. En effet, la culture organisationnelle joue-t-elle un rôle dans le développement et/ou l’aggravation de problèmes de santé mentale dans la main-d’œuvre? Si oui ce rôle existe, alors comment et sous quelles conditions la culture organisationnelle est-elle susceptible de protéger ou de fragiliser la santé mentale des individus? Dans le but de mieux comprendre le rôle joué par la culture organisationnelle en matière de santé mentale au travail, nous avons eu recours à un modèle théorique intégrateur exposant les relations entre la culture organisationnelle, les conditions de l’organisation du travail et la santé mentale. Cette articulation théorique est présentée sous forme d’article dans le cadre de cette thèse. De ce modèle découle deux grandes hypothèses. La première est à l’effet que les conditions de l’organisation du travail sont associées à la détresse psychologique et à l’épuisement professionnel une fois tenu en compte la culture organisationnelle. La seconde hypothèse induite par le modèle proposé, pose que les conditions de l’organisation du travail médiatisent la relation entre la culture organisationnelle et les problèmes de santé mentale au travail. Ces hypothèses de recherche furent testées à partir de données transversales obtenues dans le cadre du projet de recherche SALVEO de l’Équipe de Recherche sur le Travail et la Santé Mentale (ERTSM) de l’Université de Montréal. Les résultats obtenus sont présentés sous forme de deux articles, soumis pour publication, lesquels constituent les chapitres 5 et 6 de cette thèse. Dans l’ensemble, le modèle théorique proposé obtient un soutient empirique important et tend à démontrer que la culture organisationnelle joue indirectement sur la détresse psychologique de par son influence sur les conditions de l’organisation du travail. Pour l’épuisement professionnel, les résultats démontrent que la culture organisationnelle influence directement et indirectement les problèmes de santé mentale au travail. Les résultats corroborent l’importance de développer de nouveaux modèles théoriques pour mieux inclure des facteurs reliés à l’organisation et au contexte organisationnel plus large afin d’avoir un portrait complet de la problématique de la santé mentale au travail. Cette thèse conclue sur les implications de ces résultats pour la recherche, et pour les retombées pratiques pour la gestion des ressources humaines.
Resumo:
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.
Resumo:
One of the major concerns of scoliosis patients undergoing surgical treatment is the aesthetic aspect of the surgery outcome. It would be useful to predict the postoperative appearance of the patient trunk in the course of a surgery planning process in order to take into account the expectations of the patient. In this paper, we propose to use least squares support vector regression for the prediction of the postoperative trunk 3D shape after spine surgery for adolescent idiopathic scoliosis. Five dimensionality reduction techniques used in conjunction with the support vector machine are compared. The methods are evaluated in terms of their accuracy, based on the leave-one-out cross-validation performed on a database of 141 cases. The results indicate that the 3D shape predictions using a dimensionality reduction obtained by simultaneous decomposition of the predictors and response variables have the best accuracy.
Resumo:
There are many ways to generate geometrical models for numerical simulation, and most of them start with a segmentation step to extract the boundaries of the regions of interest. This paper presents an algorithm to generate a patient-specific three-dimensional geometric model, based on a tetrahedral mesh, without an initial extraction of contours from the volumetric data. Using the information directly available in the data, such as gray levels, we built a metric to drive a mesh adaptation process. The metric is used to specify the size and orientation of the tetrahedral elements everywhere in the mesh. Our method, which produces anisotropic meshes, gives good results with synthetic and real MRI data. The resulting model quality has been evaluated qualitatively and quantitatively by comparing it with an analytical solution and with a segmentation made by an expert. Results show that our method gives, in 90% of the cases, as good or better meshes as a similar isotropic method, based on the accuracy of the volume reconstruction for a given mesh size. Moreover, a comparison of the Hausdorff distances between adapted meshes of both methods and ground-truth volumes shows that our method decreases reconstruction errors faster. Copyright © 2015 John Wiley & Sons, Ltd.