457 resultados para Flot optique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration réalisé dans le cadre du cours PHT-6113.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’athérosclérose est à l’origine d’importantes obstructions vasculaires. La sévérité de l’ischémie tissulaire provoquée par l’athérosclérose dépend en partie de la capacité de l’organisme à former de nouveaux vaisseaux (néovascularisation). Les mécanismes de néovascularisation sont modulés par la balance oxydo-réductive. Une exacerbation du stress oxydant est retrouvée dans tous les facteurs de risque cardiovasculaire, et en particulier lors du vieillissement. Au niveau vasculaire, la CuZnSOD est la principale enzyme antioxydante. Cependant, son rôle spécifique dans le vieillissement vasculaire et dans le développement de nouveaux vaisseaux en réponse à l’ischémie n’est pas connu. Nos hypothèses de recherche sont: 1) qu’une absence de CuZnSOD diminue la néovascularisation réparatrice en réponse à l’ischémie 2) que cette diminution de la néovascularisation est dûe au vieillissement de la vasculature affectant à la fois les cellules endothéliales matures et les cellules progénitrices endothéliales. Nous avons démontré qu’une déficience en CuZnSOD diminue significativement la néovascularisation en réponse à l’ischémie. Cette diminution de néovascularisation est associée à une augmentation du stress oxydant et une réduction de la biodisponibilité du NO. La déficience en CuZnSOD réduit significativement le nombre de EPCs (moelle, rate). De plus, ces EPCs présentent une augmentation significative des niveaux de stress oxydant, une diminution de la production de NO et une capacité réduite à migrer et à s’intégrer à un réseau tubulaire. Fait important, il iv est possible d’améliorer la néovascularisation des souris déficientes en CuZnSOD par une supplémentation en EPCs provenant de souris contrôles. Nous avons également démontré que la récupération du flot sanguin suivant l’ischémie est significativement réduite par l’âge. À la fois chez les jeunes et les vieilles souris, la déficience en CuZnSOD mène à une réduction additionnelle de la néovascularisation. Fait intéressant, le potentiel néovasculaire des jeunes souris déficiente en CuZnSOD est similaire à celui des vieilles souris contrôles. Les niveaux de stress oxydant sont également augmentés de façon similaire dans ces deux groupes de souris. L’âge et la déficience en CuZnSOD sont tous deux associés à une réduction du nombre d’EPCs isolées de la moelle et de la rate. L’effet de l’âge seul sur la fonction des EPCs est modeste. Par contre, la déficience en CuZnSOD en condition de vieillissement est associée à d’importants effets délétères sur l’activité fonctionnelle des EPCs. En résumé, nos résultats suggèrent que la protection contre le stress oxydant par la CuZnSOD est essentielle pour préserver la fonction des EPCs et la néovascularisation réparatrice en réponse à l’ischémie. Le défaut de néovascularisation observé en absence de CuZnSOD est associé à un vieillissement vasculaire accéléré. Nos résultats suggèrent que dans le contexte du vieillissement, la CuZnSOD a un rôle encore plus important pour limiter les niveaux de stress oxydant, préserver la fonction des EPCs et maintenir l’intégrité des tissus ischémiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les maladies cardio-vasculaires (MCV), telles que l’hypertension et l’athérosclérose, s’accompagnent de modifications structurales et fonctionnelles au niveau vasculaire. Un fonctionnement aberrant de la migration, l’hypertrophie et la prolifération des cellules musculaires lisses vasculaires (CMLV) sont des évènements cellulaires à l’origine de ces changements. L’endothéline-1 (ET-1) contribue à la pathogénèse des anomalies vasculaires, notamment via l’activation des protéines MAPK et PI3-K/PKB, des composantes clés impliquées dans les voies prolifératives et de croissance cellulaires. Il a été suggéré que le stress oxydant jouerait un rôle intermédiaire dans les effets pathophysiologiques vasculaires de l’ET-1. En conséquence, une modulation de la signalisation induite par l’ET-1 peut servir comme éventuelle stratégie thérapeutique contre le développement des MCV. Il apparaît de nos jours un regain d’intérêt dans l’utilisation des agents phyto-chimiques pour traiter plusieurs maladies. La curcumine, constituant essentiel de l’épice curcuma, est dotée de plusieurs propriétés biologiques parmi lesquelles des propriétés anti-oxydantes, anti-prolifératrices et cardio-protectrices. Cependant, les mécanismes moléculaires de son effet cardio-protecteur demeurent obscurs. Dans cette optique, l’objectif de cette étude a été d’examiner l’efficacité de la curcumine à inhiber la signalisation induite par l’ET-1 dans les CMLV. La curcumine a inhibé la phosphorylation des protéines IGF-1R, PKB, c-Raf et ERK1/2, induite par l’ET-1 et l’IGF-1. De plus, la curcumine a inhibé l’expression du facteur de transcription Egr-1 induite par l’ET-1 et l’IGF-1, dans les CMLV. Ces résultats suggèrent que la capacité de la curcumine à atténuer ces voies de signalisation serait un mécanisme d’action potentiel de ses effets protecteurs au niveau cardiovasculaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur l’insertion des Haïtiens de seconde génération sur le marché de l’emploi. L’insertion professionnelle est la condition principale permettant une intégration sociale. En effet, avoir un emploi a des répercussions au niveau économique, social et psychologique. Les écrits ont montré que les jeunes et particulièrement ceux faisant partie d’une minorité visible ont plus de difficulté à s’insérer sur le marché du travail. C’est dans cette optique que nous nous sommes penchés sur la condition des Haïtiens de deuxième génération. La littérature fait état des multiples difficultés sociales et économiques auxquelles est confrontée cette tranche de la population. Nous nous sommes donc intéressés aux caractéristiques de l’insertion professionnelle des ces Haïtiens de seconde génération. Nous avions comme objectif général d’analyser la trajectoire d’insertion de cette population sur le marché du travail. Notre démarche de type qualitatif s’est basée sur une série d’entrevues réalisées à l’hiver 2010 avec des hommes et des femmes Québécois d’origine haïtienne. Les thèmes abordés durant ces entrevues nous ont menés à des résultats différents de ceux recensés dans la littérature académique portant sur les Haïtiens de deuxième génération. En effet, nous avons rencontré des hommes et des femmes qui ont rencontré certains obstacles et qui continuent à faire face à des difficultés en lien avec leur vécu comme individu ayant une origine ethnique différente de celle de la majorité. Ces difficultés se manifestent également dans leur insertion en emploi. Cependant, cela n’a pas empêché ces enfants d’immigrants haïtiens de surmonter les obstacles et réussir leur intégration aux plans professionnel, économique et social.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

S’intéressant aux différents rôles du son dans les jeux vidéo d’horreur, ce mémoire vise à exposer le travail cognitif effectué par le joueur lors de son activité de jeu. De la structuration des sons jusqu’à la production de sens à partir de leurs fonctions, cette recherche mesure l’implication du phénomène sonore dans la mise en scène de la peur vidéoludique. Dans cette optique, elle présente, critique et développe une pluralité de concepts portant sur la jouabilité, les postures d’écoute, la diégèse, les générateurs sonores, les fonctions sonores systémiques et immersives ainsi que sur la création de la peur à l’aide de différentes stratégies sonores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le système cardiovasculaire est composé d'un cœur qui pompe régulièrement le sang à travers des artères afin d'alimenter tous les tissus corporels en oxygène et nutriments qui leur sont nécessaires. Une caractéristique particulière de ce système est son aspect fermé, où le sang fait un cycle constant commençant par le ventricule gauche, allant vers tous les tissus corporels, revenant vers le cœur et le ventricule droit, étant propulsé vers la circulation pulmonaire en retournant au ventricule gauche. L'insuffisance cardiaque est alors une incapacité du cœur à effectuer sa tâche de pomper le sang efficacement. Une série d'ajustements sont alors enclenchés pour rétablir un débit sanguin adéquat; cette réponse systémique est principalement menée par le système rénine-angiotensine-aldostérone ainsi que par le système adrénergique. À court terme, le flot sanguin est rétabli et le métabolisme corporel continue comme si rien n'était, de telle sorte que, souvent ce stade passe inaperçu et les individus qui en sont affectés sont asymptomatiques. Cependant, le cœur doit alors fournir un effort constant supérieur et si la cause n'est pas résolue, la condition cardiaque se dégradera encore plus. Si tel est le cas, pour s'ajuster à cette nouvelle réalité, le cœur, comme tout muscle, deviendra plus massif et changera de conformation afin de répondre à sa nouvelle charge de travail. Cette transformation cardiaque est communément connue sous le terme de remodelage. Par contre, le remodelage cardiaque est délétère à long terme et entrave encore plus le cœur à bien effectuer sa tâche. Au fur et à mesure que la fonction cardiaque décline, les systèmes compensatoires persistent et s'intensifient; il y a alors établissement d'un cercle vicieux destructeur qui ne peut être renversé que par une transplantation cardiaque. Entre temps, des thérapies inhibant le système rénine-angiotensine-aldostérone et le système adrénergique se sont avérés très efficaces pour prolonger la survie, diminuer la mortalité, réduire les hospitalisations ainsi que soulager la symptomatologie associée à l'insuffisance cardiaque. Par contre, ces régimes thérapeutiques ne semblent pas induire une réponse positive chez tous les patients, de sorte que certains n'en retirent pas de bénéfices tangibles, tandis que d'autres éprouvent plusieurs difficultés à les tolérer. Suite à des analyses rétrospectives, surtout en comparant la réponse thérapeutique entre des populations de diverses ethnies, les variations génétiques, particulièrement les polymorphismes ayant le potentiel de moduler le mécanisme d'action de la pharmacothérapie, furent proposés comme responsables de cette variabilité dans la réponse aux médicaments. Certains ont aussi proposé que certains polymorphismes pourraient être considérés comme des facteurs de risque prédisposant à l'insuffisance cardiaque ou coupables de moduler sa progression en tant que facteurs aggravants ou atténuants. Avec de telles hypothèses proposées, plusieurs associations génétiques furent étudiées en commençant par des gènes directement impliqués dans la pathogénèse de cette maladie. Dans le cadre de cette thèse, nous allons revoir les diverses données disponibles dans la littérature au sujet de l'influence que peuvent avoir les divers polymorphismes impliqués dans la prédisposition, la progression et la pharmacogénétique de l'insuffisance cardiaque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre aptitude à déterminer si un extrait de musique est gai ou triste réside dans notre capacité à extraire les caractéristiques émotionnelles de la musique. Une de ces caractéristiques, le mode, est liée aux hauteurs musicales et une autre, le tempo, est temporelle (Hevner, 1937; 1935). Une perception déficitaire de l’une de ces caractéristiques (ex. les hauteurs) devrait affecter l’expérience émotionnelle. L’amusie congénitale est caractérisée par un traitement anormal des hauteurs (Peretz, 2008). Toutefois, peu de données ont été accumulées sur les réponses émotionnelles des amusiques face à la perception du mode. La perception émotionnelle liée à celui-ci pourrait être préservée, chez les amusiques en raison de leur perception implicite des hauteurs (Peretz, et coll., 2009). Dans un premier temps, cette étude cherchera à déterminer dans quelle mesure les amusiques adultes utilisent le mode relativement au tempo dans la distinction d’une pièce gaie, d’une triste. Dans cette optique, onze amusiques et leurs contrôles appariés ont jugé des extraits de musique classique gais et tristes, dans leur forme originale et dans deux versions modifiées : (1) mode inversé (transcrit dans le mode opposé mineur ↔ majeur) et (2) tempo neutralisé (réglé à une valeur médiane), où le mode émerge comme caractéristique dominante. Les participants devaient juger si les extraits étaient gais ou tristes sur une échelle de 10-points, pendant que leurs réponses électromyographiques (zygomatique et corrugateur) étaient enregistrées. Les participants ont par la suite été réinvités au laboratoire pour réaliser une tâche non émotionnelle de discrimination des modes (majeur, mineur), dans laquelle des paires de stimuli composés de versions plus courtes des extraits originaux et leur version au mode inversé leur étaient présentées. Les participants (14; 7 amusiques) devaient juger si les paires étaient identiques (même stimulus, même mode) ou différentes (même stimulus, modes différents). Dans cette dernière tâche, les amusiques ont eu plus de difficulté que leurs contrôles à discriminer les modes, mais les amusiques comme leurs contrôles se sont montrés sensibles aux manipulations du mode et du tempo, dans la tâche émotionnelle. Ces résultats supportés par des réponses EMG normales présupposent des habiletés préservées ou implicites de traitement tonal dans l’amusie congénitale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comme la représentation théâtrale est une forme d’art fugitive qui, en raison de son caractère performatif, possède son propre monde fictionnel, la question de l’oposition entre représentation et réalité occupe une place centrale dans les études théâtrales. Ainsi, les œuvres scèniques d’un metteur en scène comme Frank Castorf représentent des objets d’analyse particulièrement appropriés. Parce que Castorf met d’abord l’accent sur le moment présent et la réalité de la représentation théâtrale, il est légitime de se demander quelle est la part qu’occupe la représentation d’un monde fictionel dans ses spectacles. Ce travail vise précisément à identifier l’importance qu’accorde Castorf à la performativité dans deux adaptations théâtrales des romans de Dostoïevski Les démons et l’Idiot. Comme notre société donne une place grandissante aux médias reproductibles tels que la télévision et le cinéma, et que l’être humain tend toujours davantage à se méditiaser lui-même, le théâtre comme toutes les autres formes d’art s’en trouve transformé. C’est dans cette optique que ces deux adaptations théâtrales ont donné lieu à d’autres manifestations artistiques, soit deux films et deux livres. Cet ouvrage retrace également le processus de re-représentation, c’est-à-dire du passage d’un média à un autre, dans le but d’analyser l’interrelation entre ces œuvres ainsi que de comprendre les raisons qui ont poussé le metteur en scène et son théâtre, la Volksbühne Berlin, à transposer d’abord des romans en spectacle de théâtre pour ensuite en faire des films et des livres. De plus, malgré son utilisation croissante au théâtre, la vidéo représente encore pour certains puristes un envahisseur à bannir. Elle introduirait la perte de l’essence du théâtre : le caractère performatif, qui consiste en une rencontre du public et des acteurs dans un même espace-temps. Par contre, les images vidéo-projetées en direct peuvent conserver une part de performativité puisqu’elles sont susceptibles d’influer sur le spectateur, et inversement. En prenant comme exemple l’Idiot de Frank Castorf, ce travail montre comment les caméras et leur dispositif de transmission en direct ont la capacité de se substituer aux principaux objets du spectacle théâtral : les acteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cellules sont capables de détecter les distributions spatiales de protéines et ainsi de migrer ou s’étendre dans la direction appropriée. Une compréhension de la réponse cellulaire aux modifications de ces distributions spatiales de protéines est essentielle pour l’avancement des connaissances dans plusieurs domaines de recherches tels que le développement, l’immunologie ou l’oncologie. Un exemple particulièrement complexe est le guidage d’axones se déroulant pendant le développement du système nerveux. Ce dernier nécessite la présence de plusieurs distributions de molécules de guidages étant attractives ou répulsives pour connecter correctement ce réseau complexe qu’est le système nerveux. Puisque plusieurs indices de guidage collaborent, il est particulièrement difficile d’identifier la contribution individuelle ou la voie de signalisation qui est déclenchée in vivo, il est donc nécessaire d’utiliser des méthodes pour reproduire ces distributions de protéines in vitro. Plusieurs méthodes existent pour produire des gradients de protéines solubles ou liées aux substrats. Quelques méthodes pour produire des gradients solubles sont déjà couramment utilisées dans plusieurs laboratoires, mais elles limitent l’étude aux distributions de protéines qui sont normalement sécrétées in vivo. Les méthodes permettant de produire des distributions liées au substrat sont particulièrement complexes, ce qui restreint leur utilisation à quelques laboratoires. Premièrement, nous présentons une méthode simple qui exploite le photoblanchiment de molécules fluorescentes pour créer des motifs de protéines liées au substrat : Laser-assisted protein adsorption by photobleaching (LAPAP). Cette méthode permet de produire des motifs de protéines complexes d’une résolution micrométrique et d’une grande portée dynamique. Une caractérisation de la technique a été faite et en tant que preuve de fonctionnalité, des axones de neurones du ganglion spinal ont été guidés sur des gradients d’un peptide provenant de la laminine. Deuxièmement, LAPAP a été amélioré de manière à pouvoir fabriquer des motifs avec plusieurs composantes grâce à l’utilisation de lasers à différentes longueurs d’onde et d’anticorps conjugués à des fluorophores correspondants à ces longueurs d’onde. De plus, pour accélérer et simplifier le processus de fabrication, nous avons développé LAPAP à illumination à champ large qui utilise un modulateur spatial de lumière, une diode électroluminescente et un microscope standard pour imprimer directement un motif de protéines. Cette méthode est particulièrement simple comparativement à la version originale de LAPAP puisqu’elle n’implique pas le contrôle de la puissance laser et de platines motorisées, mais seulement d’envoyer l’image du motif désiré au modulateur spatial. Finalement, nous avons utilisé LAPAP pour démontrer que notre technique peut être utilisée dans des analyses de haut contenu pour quantifier les changements morphologiques résultant de la croissance neuronale sur des gradients de protéines de guidage. Nous avons produit des milliers de gradients de laminin-1 ayant différentes pentes et analysé les variations au niveau du guidage de neurites provenant d’une lignée cellulaire neuronale (RGC-5). Un algorithme pour analyser les images des cellules sur les gradients a été développé pour détecter chaque cellule et quantifier la position du centroïde du soma ainsi que les angles d’initiation, final et de braquage de chaque neurite. Ces données ont démontré que les gradients de laminine influencent l’angle d’initiation des neurites des RGC-5, mais n’influencent pas leur braquage. Nous croyons que les résultats présentés dans cette thèse faciliteront l’utilisation de motifs de protéines liées au substrat dans les laboratoires des sciences de la vie, puisque LAPAP peut être effectué à l’aide d’un microscope confocal ou d’un microscope standard légèrement modifié. Cela pourrait contribuer à l’augmentation du nombre de laboratoires travaillant sur le guidage avec des gradients liés au substrat afin d’atteindre la masse critique nécessaire à des percées majeures en neuroscience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse effectuée en cotutelle avec l'École des hautes études en sciences sociales, Paris. Pour
 respecter
 les
 droits
 d’auteur,
 la
 version
 électronique
 de
 cette
 thèse
 
a 
été 
dépouillée
 de 
ses 
documents 
visuels. 
La
 version 
intégrale
 de
 la 
thèse 
a 
été 
déposée
 au 
Service 
de 
la 
gestion 
des 
documents 
et 
des 
archives
 de
 l'Université
 de 
Montréal.