714 resultados para Optique adaptative
Resumo:
Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.
Resumo:
Cette thèse examine en profondeur la nature et l’application du concept de genre en jeu vidéo. Elle se divise en trois parties. La première fait l’inventaire des théories des genres en littérature et en études cinématographiques. Les propriétés essentielles du genre comme concept sont identifiées : il s’agit d’une catégorisation intuitive et irraisonnée, de nature discursive, qui découle d’un consensus culturel commun plutôt que de systèmes théoriques, et qui repose sur les notions de tradition, d’innovation et d’hybridité. Dans la deuxième partie, ces constats sont appliqués au cas du genre vidéoludique. Quelques typologies sont décortiquées pour montrer l’impossibilité d’une classification autoritaire. Un modèle du développement des genres est avancé, lequel s’appuie sur trois modalités : l’imitation, la réitération et l’innovation. Par l’examen de l’histoire du genre du first-person shooter, la conception traditionnelle du genre vidéoludique basée sur des mécanismes formels est remplacée par une nouvelle définition centrée sur l’expérience du joueur. La troisième partie développe l’expérience comme concept théorique et la place au centre d’une nouvelle conception du genre, la pragmatique des effets génériques. Dans cette optique, tout objet est une suite d’amorces génériques, d’effets en puissance qui peuvent se réaliser pourvu que le joueur dispose des compétences génériques nécessaires pour les reconnaître. Cette nouvelle approche est démontrée à travers une étude approfondie d’un genre vidéoludique : le survival horror. Cette étude de cas témoigne de l’applicabilité plus large de la pragmatique des effets génériques, et de la récursivité des questions de genre entre le jeu vidéo, la littérature et le cinéma.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
L’autophagie est un processus cellulaire catabolique qui a été conservé durant l’évolution de la levure à l’homme. Cet important mécanisme consiste en une dégradation des composants cytoplasmiques dans une structure lytique, le lysosome. Il existe trois types de l’autophagie : la microautophagie, l’autophagie médiée par les chaperones et la macroautophagie nommée « autophagie ». Il a été démontré que lors de l’autophagie, le matériel cytoplasmique (protéines cytosoliques et organites) est séquestré dans l’autophagosome qui finit par fusionner avec le lysosome, formant ainsi l’autophagolysosome. Le matériel séquestré et la membrane interne de l’autophagosome seront dégradés par les hydrolases lysosomales. Plusieurs études se sont focalisées sur la détermination de la machinerie moléculaire et les mécanismes de l’autophagie. Il a été démontré l’implication de 31 molécules Atg essentielles dans le processus de l’autophagie. L’identification de ces protéines a permis de déceler le rôle de l’autophagie non seulement dans le maintien de l’homéostasie cellulaire mais aussi dans la défense contre les agents pathogènes. En effet, l’autophagie joue un rôle important dans l’immunité innée conduisant à contrôler l’évasion des pathogènes dont les bactéries et les virus. Également, l’autophagie est impliquée dans l’immunité adaptative en favorisant la présentation des antigènes viraux par le CMH de classe II aux cellules T CD4+. De plus, une étude récente suggère que l’autophagie contribue à la présentation antigénique par le CMH de classe I aux cellules T CD8+ durant une infection virale par le virus HSV-1 (Herpes simplex type 1). Toutefois, certains virus y compris HSV-1 ont pu développer des mécanismes pour contourner et inhiber en partie le rôle protecteur de l’autophagie. Récemment, une étude dans notre laboratoire a mis en évidence, lors d’une infection virale par HSV-1 des cellules macrophages BMA, la présence d’une nouvelle structure autophagique dans une phase tardive de l’infection. Cette nouvelle structure est différente des autophagosomes classiques à double membrane et est caractérisée morphologiquement par quatre membranes dérivées de l’enveloppe nucléaire interne et externe. Peu de choses ont été rapportées sur cette nouvelle voie autophagique qui peut être un mécanisme de défense cellulaire quand l’autophagie classique dans le cytosol est inhibée par HSV-1. Il devient donc intéressant de caractériser les molécules impliquées dans la formation de ces autophagosomes issus du noyau par spectrométrie de masse. Pour ce faire, il était impératif d’établir un outil d’isolation des noyaux à partir de macrophages infectés par HSV-1 dans lesquels les autophagosomes issus des noyaux seront formés. La validation de cette méthode d’isolation a été effectuée en déterminant la pureté et l’intégrité des noyaux isolés à partir des cellules non infectées (contrôle) et infectées par HSV-1. La pureté des préparations de noyaux isolés a été caractérisée par l’absence de contaminants cellulaires et un enrichissement en noyaux. Également, il a fallu déterminer la cinétique de formation des autophagosomes issus des noyaux pour les deux lignées cellulaires de macrophages utilisées dans ce projet. Dans une perspective future, l’analyse protéomique à partir des échantillons purs des noyaux isolés (non infectés et infectés) mènera à identifier les protéines impliquées dans la formation des autophagosomes dérivés des noyaux, ce qui permettra ultérieurement d’effectuer des études sur les mécanismes moléculaires et les fonctions de cette nouvelle voie autophagique.
Resumo:
La diversification des signaux aposématiques dans un cadre de mimétisme müllérien est un phénomène intrigant. Alors que la théorie relative à l'aposématisme et au mimétisme suggère l'évolution vers un signal aposématique unique, d'impressionnantes variations peuvent être observées entre les populations, et cela à petite échelle spatiale. Il a été supposé que la variation spatiale des pressions de sélection engendrées par différents prédateurs puisse être à l'origine de ce phénomène. Afin de tester cette hypothèse, nous avons étudié la transition entre deux systèmes géographiques caractérisés par des patrons aposématiques distincts chez des grenouilles mimétiques et toxiques du nord du Pérou (Dendrobatidae) en combinant les outils de génétique des populations aux outils écologiques. Dans chacun de ces systèmes, Ranitomeya imitator vit en sympatrie avec R. ventrimaculata ou R. variabilis. Il s'agit du principal exemple empirique suggérant que dans un cadre de mimétisme müllérien, il n'y a pas convergence des signaux aposématiques des deux espèces, mais plutôt convergence unidirectionnelle où R. imitator, étant polymorphe, imite des espèces monomorphes avec lesquelles elle est sympatrique. Premièrement, les résultats réfutent les prémisses qui suggèrent que R. imitator converge vers le signal aposématique d’une autre espèce. La haute similarité génétique entre les espèces modèles suggère qu'elles ont divergé plus récemment que les populations de R. imitator ou qu'elles sont encore connectées par du flux génique. Ces résultats indiquent que ces espèces ont été identifiées à tort comme des espèces différentes. De fait, l'identification de l'espèce imitatrice basée sur la variabilité phénotypique est invalidée dans ce système puisque R. imitator et R. variabilis/ventrimaculata démontrent la même variabilité. Deuxièmement, nos résultats démontrent que la prédation varie spatialement, autant en intensité qu'en direction, créant ainsi un paysage hétérogène de pressions de sélection. Ainsi, de fortes pressions de prédation stabilisatrice permettent le maintien de l'organisation géographique de différents signaux aposématiques et expliquent l'uniformité de ces signaux ainsi que les relations mimétiques. Par contre, le relâchement temporaire des pressions de prédation permet l'apparition de nouveaux phénotypes aposématiques via les processus évolutifs neutres, conduisant à un haut polymorphisme au niveau de ces populations. L'interaction de ces modes sélectifs nous a permis de démontrer pour la première fois comment la théorie évolutive de Wright (shifting balance theory) permet la diversification adaptative dans un système naturel. Pour conclure, cette étude a permis de mettre en évidence à quel point les systèmes de mimétisme müllérien peuvent être dynamiques. L'alternance spatiale entre les processus évolutifs neutres et la sélection naturelle permet l'émergence de nouveaux phénotypes aposématiques à une échelle locale, ainsi que l'apparition d'une organisation géographique des signaux d'avertissement et des relations de mimétisme müllérien.
Resumo:
De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.
Resumo:
Les maladies cardio-vasculaires (MCV), telles que l’hypertension et l’athérosclérose, s’accompagnent de modifications structurales et fonctionnelles au niveau vasculaire. Un fonctionnement aberrant de la migration, l’hypertrophie et la prolifération des cellules musculaires lisses vasculaires (CMLV) sont des évènements cellulaires à l’origine de ces changements. L’endothéline-1 (ET-1) contribue à la pathogénèse des anomalies vasculaires, notamment via l’activation des protéines MAPK et PI3-K/PKB, des composantes clés impliquées dans les voies prolifératives et de croissance cellulaires. Il a été suggéré que le stress oxydant jouerait un rôle intermédiaire dans les effets pathophysiologiques vasculaires de l’ET-1. En conséquence, une modulation de la signalisation induite par l’ET-1 peut servir comme éventuelle stratégie thérapeutique contre le développement des MCV. Il apparaît de nos jours un regain d’intérêt dans l’utilisation des agents phyto-chimiques pour traiter plusieurs maladies. La curcumine, constituant essentiel de l’épice curcuma, est dotée de plusieurs propriétés biologiques parmi lesquelles des propriétés anti-oxydantes, anti-prolifératrices et cardio-protectrices. Cependant, les mécanismes moléculaires de son effet cardio-protecteur demeurent obscurs. Dans cette optique, l’objectif de cette étude a été d’examiner l’efficacité de la curcumine à inhiber la signalisation induite par l’ET-1 dans les CMLV. La curcumine a inhibé la phosphorylation des protéines IGF-1R, PKB, c-Raf et ERK1/2, induite par l’ET-1 et l’IGF-1. De plus, la curcumine a inhibé l’expression du facteur de transcription Egr-1 induite par l’ET-1 et l’IGF-1, dans les CMLV. Ces résultats suggèrent que la capacité de la curcumine à atténuer ces voies de signalisation serait un mécanisme d’action potentiel de ses effets protecteurs au niveau cardiovasculaire.
Resumo:
Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.
Resumo:
Ce mémoire porte sur l’insertion des Haïtiens de seconde génération sur le marché de l’emploi. L’insertion professionnelle est la condition principale permettant une intégration sociale. En effet, avoir un emploi a des répercussions au niveau économique, social et psychologique. Les écrits ont montré que les jeunes et particulièrement ceux faisant partie d’une minorité visible ont plus de difficulté à s’insérer sur le marché du travail. C’est dans cette optique que nous nous sommes penchés sur la condition des Haïtiens de deuxième génération. La littérature fait état des multiples difficultés sociales et économiques auxquelles est confrontée cette tranche de la population. Nous nous sommes donc intéressés aux caractéristiques de l’insertion professionnelle des ces Haïtiens de seconde génération. Nous avions comme objectif général d’analyser la trajectoire d’insertion de cette population sur le marché du travail. Notre démarche de type qualitatif s’est basée sur une série d’entrevues réalisées à l’hiver 2010 avec des hommes et des femmes Québécois d’origine haïtienne. Les thèmes abordés durant ces entrevues nous ont menés à des résultats différents de ceux recensés dans la littérature académique portant sur les Haïtiens de deuxième génération. En effet, nous avons rencontré des hommes et des femmes qui ont rencontré certains obstacles et qui continuent à faire face à des difficultés en lien avec leur vécu comme individu ayant une origine ethnique différente de celle de la majorité. Ces difficultés se manifestent également dans leur insertion en emploi. Cependant, cela n’a pas empêché ces enfants d’immigrants haïtiens de surmonter les obstacles et réussir leur intégration aux plans professionnel, économique et social.
Resumo:
S’intéressant aux différents rôles du son dans les jeux vidéo d’horreur, ce mémoire vise à exposer le travail cognitif effectué par le joueur lors de son activité de jeu. De la structuration des sons jusqu’à la production de sens à partir de leurs fonctions, cette recherche mesure l’implication du phénomène sonore dans la mise en scène de la peur vidéoludique. Dans cette optique, elle présente, critique et développe une pluralité de concepts portant sur la jouabilité, les postures d’écoute, la diégèse, les générateurs sonores, les fonctions sonores systémiques et immersives ainsi que sur la création de la peur à l’aide de différentes stratégies sonores.
Resumo:
Notre aptitude à déterminer si un extrait de musique est gai ou triste réside dans notre capacité à extraire les caractéristiques émotionnelles de la musique. Une de ces caractéristiques, le mode, est liée aux hauteurs musicales et une autre, le tempo, est temporelle (Hevner, 1937; 1935). Une perception déficitaire de l’une de ces caractéristiques (ex. les hauteurs) devrait affecter l’expérience émotionnelle. L’amusie congénitale est caractérisée par un traitement anormal des hauteurs (Peretz, 2008). Toutefois, peu de données ont été accumulées sur les réponses émotionnelles des amusiques face à la perception du mode. La perception émotionnelle liée à celui-ci pourrait être préservée, chez les amusiques en raison de leur perception implicite des hauteurs (Peretz, et coll., 2009). Dans un premier temps, cette étude cherchera à déterminer dans quelle mesure les amusiques adultes utilisent le mode relativement au tempo dans la distinction d’une pièce gaie, d’une triste. Dans cette optique, onze amusiques et leurs contrôles appariés ont jugé des extraits de musique classique gais et tristes, dans leur forme originale et dans deux versions modifiées : (1) mode inversé (transcrit dans le mode opposé mineur ↔ majeur) et (2) tempo neutralisé (réglé à une valeur médiane), où le mode émerge comme caractéristique dominante. Les participants devaient juger si les extraits étaient gais ou tristes sur une échelle de 10-points, pendant que leurs réponses électromyographiques (zygomatique et corrugateur) étaient enregistrées. Les participants ont par la suite été réinvités au laboratoire pour réaliser une tâche non émotionnelle de discrimination des modes (majeur, mineur), dans laquelle des paires de stimuli composés de versions plus courtes des extraits originaux et leur version au mode inversé leur étaient présentées. Les participants (14; 7 amusiques) devaient juger si les paires étaient identiques (même stimulus, même mode) ou différentes (même stimulus, modes différents). Dans cette dernière tâche, les amusiques ont eu plus de difficulté que leurs contrôles à discriminer les modes, mais les amusiques comme leurs contrôles se sont montrés sensibles aux manipulations du mode et du tempo, dans la tâche émotionnelle. Ces résultats supportés par des réponses EMG normales présupposent des habiletés préservées ou implicites de traitement tonal dans l’amusie congénitale.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Comme la représentation théâtrale est une forme d’art fugitive qui, en raison de son caractère performatif, possède son propre monde fictionnel, la question de l’oposition entre représentation et réalité occupe une place centrale dans les études théâtrales. Ainsi, les œuvres scèniques d’un metteur en scène comme Frank Castorf représentent des objets d’analyse particulièrement appropriés. Parce que Castorf met d’abord l’accent sur le moment présent et la réalité de la représentation théâtrale, il est légitime de se demander quelle est la part qu’occupe la représentation d’un monde fictionel dans ses spectacles. Ce travail vise précisément à identifier l’importance qu’accorde Castorf à la performativité dans deux adaptations théâtrales des romans de Dostoïevski Les démons et l’Idiot. Comme notre société donne une place grandissante aux médias reproductibles tels que la télévision et le cinéma, et que l’être humain tend toujours davantage à se méditiaser lui-même, le théâtre comme toutes les autres formes d’art s’en trouve transformé. C’est dans cette optique que ces deux adaptations théâtrales ont donné lieu à d’autres manifestations artistiques, soit deux films et deux livres. Cet ouvrage retrace également le processus de re-représentation, c’est-à-dire du passage d’un média à un autre, dans le but d’analyser l’interrelation entre ces œuvres ainsi que de comprendre les raisons qui ont poussé le metteur en scène et son théâtre, la Volksbühne Berlin, à transposer d’abord des romans en spectacle de théâtre pour ensuite en faire des films et des livres. De plus, malgré son utilisation croissante au théâtre, la vidéo représente encore pour certains puristes un envahisseur à bannir. Elle introduirait la perte de l’essence du théâtre : le caractère performatif, qui consiste en une rencontre du public et des acteurs dans un même espace-temps. Par contre, les images vidéo-projetées en direct peuvent conserver une part de performativité puisqu’elles sont susceptibles d’influer sur le spectateur, et inversement. En prenant comme exemple l’Idiot de Frank Castorf, ce travail montre comment les caméras et leur dispositif de transmission en direct ont la capacité de se substituer aux principaux objets du spectacle théâtral : les acteurs.
Resumo:
Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie.