997 resultados para Anthropologie des images


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Introduction : Les personnes âgées vivant à domicile font des chutes qui peuvent entraîner des conséquences graves. La possibilité de les détecter et d’intervenir rapidement grâce à la vidéosurveillance intelligente constitue une avenue prometteuse. Objectif : L’étude vise à explorer la perception et la récep-tivité des acteurs du système de santé face à l’utilisation de cette technologie sous trois aspects : la transmission des images, l’accessibilité de leur clientèle à cette technologie et son introduction dans leur pratique. Méthodologie : Sept groupes de discussion focalisée ont permis de recueillir le point de vue de 31 participants. Une analyse de contenu avec le logiciel N’Vivo a été réalisée. Résultats : Les participants estiment que les images de chute pourraient parve-nir au CLSC, au proche aidant, au 911 ou à une centrale de surveillance. Ils considèrent que des critères d’admissibilité seraient nécessaires pour favoriser l’accessibilité à la vidéosurveillance intelligente qui, croient-ils, pourrait améliorer les interventions en termes de gestion des urgences lors de chutes et de déter-mination de leurs causes. Conclusion : Les participants sont favorables à la technologie proposée, mais ils requerraient une période d’adaptation afin d’ajuster leur pratique. Ils suggèrent la réalisation d’un projet pilote qui validerait cette technologie.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Cette thèse porte sur l’étude de l’anatomie de la cornée après 3 techniques de greffe soient, la greffe totale traditionnelle (GTT) et des techniques de greffe lamellaire postérieur (GLP) telles que la greffe lamellaire endothéliale profonde (DLEK) et la greffe endothélium/membrane de Descemet (EDMG) pour le traitement des maladies de l’endothélium, telles que la dystrophie de Fuchs et de la kératopathie de l’aphaque et du pseudophaque. Dans ce contexte, cette thèse contribue également à démontrer l’utilité de la tomographie de cohérence optique (OCT) pour l’étude de l’anatomie des plaies chirurgicales la cornée post transplantation. Au cours de ce travail nous avons étudié l'anatomie de la DLEK, avant et 1, 6, 12 et 24 mois après la chirurgie. Nous avons utilisé le Stratus OCT (Version 3, Carl Zeiss, Meditec Inc.) pour documenter l’anatomie de la plaie. L'acquisition et la manipulation des images du Stratus OCT, instrument qui à été conçu originalement pour l’étude de la rétine et du nerf optique, ont été adaptées pour l'analyse du segment antérieur de l’oeil. Des images cornéennes centrales verticales et horizontales, ainsi que 4 mesures radiaires perpendiculaires à la plaie à 12, 3, 6 et 9 heures ont été obtenues. Les paramètres suivants ont été étudiés: (1) Les espaces (gap) entre les rebords du disque donneur et ceux du receveur, (2) les dénivelés de surface postérieure (step) entre le les rebords du disque donneur et ceux du receveur, (3) la compression tissulaire, (4) le décollement du greffon, 6) les élévations de la surface antérieure de la cornée et 7) la pachymétrie centrale de la cornée. Les mesures d’épaisseur totale de la cornée ont été comparées et corrélées avec celles obtenues avec un pachymètre à ultra-sons. Des mesures d’acuité visuelle, de réfraction manifeste et de topographie ont aussi été acquises afin d’évaluer les résultats fonctionnels. Enfin, nous avons comparé les données de DLEK à celles obtenues de l’EDMG et de la GTT, afin de caractériser les plaies et de cerner les avantages et inconvénients relatifs à chaque technique chirurgicale. Nos résultats anatomiques ont montré des différences importantes entre les trois techniques chirurgicales. Certains des paramètres étudiés, comme le sep et le gap, ont été plus prononcés dans la GTT que dans la DLEK et complètement absents dans l’EDMG. D’autres, comme la compression tissulaire et le décollement du greffon n’ont été observés que dans la DLEK. Ceci laisse entrevoir que la distorsion de la plaie varie proportionnellement à la profondeur de la découpe stromale du receveur, à partir de la face postérieure de la cornée. Moins la découpe s’avance vers la face antérieure (comme dans l’EDMG), moins elle affecte l’intégrité anatomique de la cornée, le pire cas étant la découpe totale comme dans la GTT. Cependant, tous les paramètres d’apposition postérieure sous-optimale et d’élévation de la surface antérieure (ce dernier observé uniquement dans la GTT) finissent par diminuer avec le temps, évoluant à des degrés variables vers un profil topographique plus semblable à celui d’une cornée normale. Ce processus paraît plus long et plus incomplet dans les cas de GTT à cause du type de plaie, de la présence de sutures et de la durée de la cicatrisation. Les valeurs moyennes d’épaisseur centrale se sont normalisées après la chirurgie. De plus, ces valeurs moyennes obtenues par OCT étaient fortement corrélées à celles obtenues par la pachymétrie à ultra-sons et nous n’avons remarqué aucune différence significative entre les valeurs moyennes des deux techniques de mesure. L’OCT s’est avéré un outil utile pour l’étude de l’anatomie microscopique des plaies chirurgicales. Les résultats d’acuité visuelle, de réfraction et de topographie des techniques de GLP ont montré qu’il existe une récupération visuelle rapide et sans changements significatifs de l’astigmatisme, contrairement à la GTT avec et sans suture. La GLP a permis une meilleure conservation de la morphologie de la cornée, et par conséquence des meilleurs résultats fonctionnels que la greffe de pleine épaisseur. Ceci nous permet d’avancer que la GLP pourrait être la technique chirurgicale à adopter comme traitement pour les maladies de l’endothélium cornéen.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Thèse de doctorat réalisée dans le cadre d'une cotutelle entre l'Université de Montréal et l'École des Hautes Études en Sciences Sociales, Paris

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’effet d’encombrement, qui nous empêche d’identifier correctement un stimulus visuel lorsqu’il est entouré de flanqueurs, est omniprésent à travers une grande variété de classes de stimuli. L’excentricité du stimulus cible ainsi que la distance cible-flanqueur constituent des facteurs fondamentaux qui modulent l’effet d’encombrement. La similarité cible-flanqueur semble également contribuer à l’ampleur de l’effet d’encombrement, selon des données obtenues avec des stimuli non-linguistiques. La présente étude a examiné ces trois facteurs en conjonction avec le contenu en fréquences spatiales des stimuli, dans une tâche d’identification de lettres. Nous avons présenté des images filtrées de lettres à des sujets non-dyslexiques exempts de troubles neurologiques, tout en manipulant l’excentricité de la cible ainsi que la similarité cible-flanqueurs (selon des matrices de confusion pré-établies). Quatre types de filtrage de fréquences spatiales ont été utilisés : passe-bas, passe-haut, à large bande et mixte (i.e. élimination des fréquences moyennes, connues comme étant optimales pour l’identification de lettres). Ces conditions étaient appariées en termes d’énergie de contraste. Les sujets devaient identifier la lettre cible le plus rapidement possible en évitant de commettre une erreur. Les résultats démontrent que la similarité cible-flanqueur amplifie l’effet d’encombrement, i.e. l’effet conjoint de distance et d’excentricité. Ceci étend les connaissances sur l’impact de la similarité sur l’encombrement à l’identification visuelle de stimuli linguistiques. De plus, la magnitude de l’effet d’encombrement est plus grande avec le filtre passe-bas, suivit du filtre mixte, du filtre passe-haut et du filtre à large bande, avec différences significatives entre les conditions consécutives. Nous concluons que : 1- les fréquences spatiales moyennes offrent une protection optimale contre l’encombrement en identification de lettres; 2- lorsque les fréquences spatiales moyennes sont absentes du stimulus, les hautes fréquences protègent contre l’encombrement alors que les basses fréquences l’amplifient, probablement par l’entremise de leur impact opposé quant la disponibilité de l’information sur les caractéristiques distinctives des stimul.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Au croisement de l’anthropologie médicale, de la communication, du design industriel et des nouvelles technologies de l’information, ce mémoire se penche sur les difficultés communicatives rencontrées par le personnel médical et les patients de provenances culturelles variées dans le milieu des urgences hospitalières à Montréal. Dans l’optique d’améliorer l’échange au poste de triage, la réflexion porte principalement sur la pertinence et les caractéristiques d’un support visuel d’appoint. Elle aborde la problématique par l’étude des concepts de perception, de compréhension, d’interprétation et de représentation graphique sous les angles théoriques de la communication visuelle (Benjamin, Berger, Dibi-Huberman), de la sémiologie du discours social (Verón) et du jeu herméneutique (Gadamer). Les systèmes symboliques de cent cinquante images, illustrant sur Internet trois symptômes propres à la gastro-entérite, ont été analysés d’après une méthodologie mixte quantitative et qualitative afin d’identifier leurs sens dénotatifs et connotatifs. Les résultats appuient le recours à des images pour contourner les barrières langagières et révèlent l’existence d’une culture médicale visuelle internationale dont le code iconographique est hybride et pluriculturel. Ces nouvelles informations indiquent des critères de performance et des hypothèses concernant les changements occasionnés par l’ajout d’un support visuel dans la dynamique communicationnelle de l’ETC. La recherche ouvre aussi une piste vers l’étude herméneutique du produit en design industriel.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Bien que les troubles cognitifs soient un aspect essentiel de la schizophrénie, le dysfonctionnement des systèmes émotionnels y est également considéré comme un élément très important de cette maladie d’autant plus que plusieurs régions du cerveau sont concernées par la régulation émotionnelle. Le principal objectif du présent travail était d’explorer, en imagerie par résonnance magnétique fonctionnelle (IRMf), l’effet de la ziprasidone sur les différentes réponses neuronales à l’affichage de stimuli émotionnels au niveau de la région préfrontale,particulièrement dans le cortex cingulaire antérieur [CCA], le cortex orbito-frontal [COF] et le cortex préfrontal dorso-latéral [CPFDL]. Nous avons examiné les activations cérébrales, chez des patients souffrants de schizophrénie avant et après médication à la ziprasidone, en leur présentant des séries d’images émotionnellement chargées (négatives, neutres et positives) associées à différentes instructions quand aux types d’images qu’ils devaient sélectionner (négatives,neutres et positives). Nous avons analysé les différents changements d’activation (avant et après médication) essentiellement pour les valences extrêmes des stimuli (positives et négatives), ensuite nous avons regardé l’effet du type d’instruction sur ces changements. L’échantillon comprenait 13 patients atteints de schizophrénie et 15 témoins sains. Nous avons également effectué une évaluation clinique des symptômes dépressifs, positifs et négatifs de la maladie ainsi que des mesures biochimiques et de poids avant et après 16 semaines de médication. Malgré l’absence de changement significatif sur les mesures cliniques (PANSS et Dépression) avant et après une moyenne de 14.3 semaines de médication à la ziprasidone, plusieurs régions préfrontales (CCA, COF, CPDL) ont sensiblement accru leur réponse aux stimuli positifs par rapport aux stimuli négatifs. En outre, dans les régions habituellement impliquées dans le contrôle cognitif (CCA et CPFDL), cette tendance s'est accentuée lorsque les patients ont été invités à ne sélectionner que les stimuli négatifs (effet du type d’instruction). Nous avons également trouvé plusieurs similitudes dans le fonctionnement préfrontal (à la fois dans le volume et la force d'activation) entre les contrôles sains et les patients après médication en tenant compte du type d’instruction plus que de la valence émotionnelle des images. Pour conclure, les résultats de la présente étude suggèrent que le traitement antipsychotique avec la ziprasidone améliore le fonctionnement cognitif lié au traitement de l'information émotionnelle dans le cortex préfrontal chez les patients souffrant de schizophrénie. Étant donné le mécanisme d'action neuro-pharmacologique de la ziprasidone (plus d'affinité pour la sérotonine que pour les récepteurs de la dopamine dans le cortex préfrontal), nous pensons que nos résultats démontrent que le contrôle cognitif et la régulation des réactions face à des stimuli émotionnellement chargés dans la schizophrénie sont liés à une plus forte concentration de dopamine dans les voies préfrontales.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La pollution microbienne des eaux récréatives peut engendrer un risque pour la santé des populations exposées. La contamination fécale de ces eaux représente une composante importante de ce risque, notamment par la présence possible d’agents pathogènes et par l’exposition à des micro-organismes résistants aux antimicrobiens. Les sources de pollution fécale sont multiples et incluent entre autres les activités agricoles et les productions animales. Ce projet visait donc à mieux comprendre les facteurs influençant la qualité microbiologique des eaux récréatives du Québec méridional, en ciblant le rôle possible des activités agricoles, ainsi qu`à proposer et évaluer de nouvelles sources de données pouvant contribuer à l’identification de ces facteurs. Dans un premier temps, une évaluation de la présence d’Escherichia coli résistants aux antimicrobiens dans les eaux récréatives à l’étude a été effectuée. À la lumière des résultats de cette première étude, ces eaux représenteraient une source de micro-organismes résistants aux antimicrobiens pour les personnes pratiquant des activités aquatiques, mais l’impact en santé publique d’une telle exposition demeure à déterminer. Les déterminants agroenvironnementaux associés à la présence de micro-organismes résistants aux antimicrobiens ont par la suite été explorés. Les résultats de ce chapitre suggèrent que les activités agricoles, et plus spécifiquement l’épandage de fumier liquide, seraient reliées à la contamination des eaux récréatives par des bactéries résistantes aux antimicrobiens. Le chapitre suivant visait à identifier des déterminants agroenvironnementaux temps-indépendants d’importance associés à la contamination fécale des eaux à l’étude. Différentes variables, regroupées en trois classes (activités agricoles, humaines et caractéristiques géohydrologiques), ont été explorées à travers un modèle de régression logistique multivarié. Il en est ressorti que les eaux récréatives ayant des sites de productions de ruminants à proximité, et en particulier à l’intérieur d’un rayon de 2 km, possédaient un risque plus élevé de contamination fécale. Une association positive a également été notée entre le niveau de contamination fécale et le fait que les plages soient situées à l’intérieur d’une zone urbaine. Cette composante nous permet donc de conclure qu’en regard à la santé publique, les eaux récréatives pourraient être contaminées par des sources de pollution fécale tant animales qu’humaines, et que celles-ci pourraient représenter un risque pour la santé des utilisateurs. Pour terminer, un modèle de régression logistique construit à l’aide de données issues de la télédétection et mettant en association un groupe de déterminants agroenvironnementaux et la contamination fécale des eaux récréatives a été mis au point. Ce chapitre visait à évaluer l’utilité de telles données dans l’identification de ces déterminants, de même qu`à discuter des avantages et contraintes associées à leur emploi dans le contexte de la surveillance de la qualité microbiologique des eaux récréatives. À travers cette étude, des associations positives ont été mises en évidence entre le niveau de contamination fécale des eaux et la superficie des terres agricoles adjacentes, de même qu’avec la présence de surfaces imperméables. Les données issues des images d’observation de la Terre pourraient donc constituer une valeur ajoutée pour les programmes de suivi de la qualité microbiologique de ces eaux en permettant une surveillance des déterminants y étant associés.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Ce mémoire portera sur le réemploi d’images dans le cinéma politique d’une manière générale dans un premier temps, puis plus spécifiquement dans l’oeuvre du cinéaste québécois Pierre Falardeau. Il s’agit donc d’abord de regarder comment, d’un point de vue historique, l’image fut réemployée dans le cinéma documentaire classique. Il sera ensuite question de la réutilisation de l’image à des fins politiques dans le cinéma expérimental à travers une analyse du found footage film. Dans un deuxième temps, nous verrons le réemploi d’images dans le cinéma militant, engagé politiquement (voire révolutionnaire) dans le cinéma d’Amérique latine (Santiago Alvarez, Fernando Solanas et Octavio Getino) et en France (Guy Debord, Chris Marker et Jean-Luc Godard). Par la suite, nous verrons comment Pierre Falardeau recyclera des images principalement dans trois de ses documentaires : Pea Soup, Speak White et Le temps des bouffons. Nous allons voir où il se situe dans les différentes traditions de réemploi d’images que nous avons vu précédemment et comment il se rapprochait et se distinguait de ses prédécesseurs.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La religion est un phénomène culturel universel et un sujet d'étude central en anthropologie. Pourtant, on constate un manque flagrant de consensus sur sa définition et son origine dans les manuels d'introduction et les dictionnaires d'anthropologie. Des hypothèses et des modèles explorant cette question sont toutefois disponibles depuis une vingtaine d'années du côté de la psychobiologie. Le présent projet cherche à déterminer si la définition et les explications de la religion que propose l'anthropologie sont compatibles, en tout ou en partie, avec les données et modèles de la psychobiologie. Une synthèse des hypothèses psychobiologiques est d'abord présentée; elle sert de point de comparaison analytique avec les théories anthropologiques de la religion. Deux de ces théories, celles de Edward Burnett Tylor ([1874] 1889) et Clifford Geertz ([1966] 2010), sont résumées et ensuite analysées en rapport avec leur définition de la religion, leurs éléments universels (explicites et implicites) et leurs principes théoriques. Ces deux auteurs sont reconnus pour leur influence majeure dans ce domaine et ils s'appuient sur des fondements théoriques opposés. L'analyse démontre que seule la théorie de Tylor confirme l'hypothèse de ce mémoire, à l'effet que certaines conceptions et explications anthropologiques de la religion sont compatibles avec les explications psychobiologiques. Malgré tout, une conciliation de l'ensemble des sources analysées et l'esquisse d'un modèle sur la nature et l'origine évolutive de la religion semblent se dessiner.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’état d’attention sans réflexion, aussi appelé « mindfulness », a démontré des effets positifs en clinique pour les désordres émotionnels associés à diverses conditions. Le nombre d’études portant sur la caractérisation des substrats neuronaux de cet état attentionnel croît, mais il importe d’investiguer davantage à ce chapitre pour éventuellement améliorer les interventions cliniques. La présente étude compte aider à déterminer, par la magnétoencéphalographie, quelles régions cérébrales sont en corrélation avec le mindfulness chez des experts, i.e. des méditants Zen. Ces derniers cultivent un état dans lequel ils s’abstiennent de rechercher ou de rejeter les phénomènes sensoriels, ce qui en fait d’excellents candidats à la présente étude. Dans un contexte de stimulations visuelles émotionnelles, il fut demandé aux méditants tantôt d’observer les images dans un état de mindfulness (condition expérimentale), tantôt dans un état dit normal (condition contrôle) où aucun effort particulier d’attention n’était requis. Les résultats d’analyse suggèrent que les participants expérimentèrent une intensité émotionnelle moins importante en mindfulness : les cotes subjectives ainsi qu’une réponse magnétique cérébrale reliée aux émotions nommée Potentiel Positif Tardif magnétique (PPTm) suggèrent cela. Cependant, le résultat le plus statistiquement probant dépasse la nature affective des stimuli. Il s’agit d’une diminution temporellement soutenue de l’activité de fréquence gamma au niveau des zones visuelles associatives du lobe temporal droit, sans égard à la nature des images. Également, une suppression de l’activité gamma d’une zone du cortex préfrontal latéral gauche fut observée. Ceci pourrait indiquer une diminution de la conceptualisation des stimuli reliée au langage et aux processus réflectifs du soi.