966 resultados para réseau de connaissances
Resumo:
Dans un bassin versant, la connectivité hydrologique constitue un état hydrologique qui lie le versant à la zone riveraine. Ses impacts sur la production du débit et le transfert des éléments dissous vers le cours d’eau sont présumés substantiels. L’étude vise à 1) détecter les hydrotopes et les connexions hydrologiques à l’aide d’un réseau de puits qui permet la mesure des fluctuations de la nappe phréatique (NP); 2) identifier la variabilité spatio-temporelle et la signature géochimique des sources potentielles en eau à l’aide des éléments majeurs et traces et 3) examiner la contribution spatio-temporelle respective des sources en eau du bassin lors d’un événement de précipitation. L’étude s’effectue dans un bassin versant forestier du Bouclier canadien (l’Hermine). Nous démontrons l’existence de quatre hydrotopes représentant un gradient de convergence de l’eau, soulignant la diversité de comportement de NP. Les connexions hydrologiques se caractérisent par des coefficients de Spearman élevés des relations entre la profondeur de la NP et le débit, dans leur partie en aval, et s’enclenchent par le fill and spill. Le comportement de NP est influencé par la distance aux limites du bassin, l’horizonation du sol et la topographie souterraine. En somme, trois sources en eau se connectent à partir du versant vers la zone riveraine durant l’événement pluvial de manière chronologique: 1) les horizons B et la NP de l’ensemble du bassin (Sr); 2) les horizons LFH des zones de convergence (Ba et Zn) et 3) une dépression de sol humide sur le versant nord (Co et Mn).
Resumo:
Ce mémoire présente les recherches et réflexions entourant la conception d’une application à base d’ontologie dédiée au e-recrutement dans le domaine des services de dotation de personnel en technologies de l’information à l’ère du Web Social. Cette application, nommée Combine, vise essentiellement à optimiser et enrichir la Communication Médiée par Ordinateur (CMO) des acteurs du domaine et utilise des concepts issus du paradigme technologique émergent qu’est le Web sémantique. Encore très peu discuté dans une perspective CMO, le présent mémoire se propose donc d’examiner les enjeux communicationnels relatifs à ce nouveau paradigme. Il présente ses principaux concepts, dont la notion d’ontologie qui implique la modélisation formelle de connaissances, et expose le cas de développement de Combine. Il décrit comment cette application fut développée, de l’analyse des besoins à l’évaluation du prototype par les utilisateurs ciblés, tout en révélant les préoccupations, les contraintes et les opportunités rencontrées en cours de route. Au terme de cet examen, le mémoire tend à évaluer de manière critique le potentiel de Combine à optimiser la CMO du domaine d’activité ciblé. Le mémoire dresse au final un portrait plutôt favorable quant à la perception positive des acteurs du domaine d’utiliser un tel type d’application, et aussi quant aux nets bénéfices en frais d’Interactions Humain-Ordinateur (IHO) qu’elle fait miroiter. Il avertit toutefois d’une certaine exacerbation du problème dit « d’engagement ontologique » à considérer lors de la construction d’ontologies modélisant des objets sociaux tels que ceux dont le monde du recrutement est peuplé.
Resumo:
Introduction En juin 2009, l’Organisation Mondiale de la Santé (OMS) a déclaré l’état de pandémie pour le nouveau virus influenza A(H1N1). Malgré les recommandations des autorités de santé publique, lors de la mise en place de la campagne de vaccination de masse au Québec contre ce virus pandémique, certains groupes de la population ont été plus enclins à être vaccinés que d’autres groupes. Ceci souligne l’importance des déterminants psychosociaux du comportement humain, sujet qui a donné cadre à notre étude. Objectifs Le but de cette étude a été de documenter les attitudes, les connaissances et les influences sociales des parents dont les enfants fréquentent des services de garde éducatifs (SGE) vis-à-vis la vaccination contre la pandémie ainsi que la couverture vaccinale. Méthodologie Un questionnaire auto-administré et anonyme basé sur la théorie des comportements interpersonnels de Triandis a été distribué aux parents d’enfants âgés de 0-59 mois de neuf centres de la petite enfance sur l’île de Montréal. Résultats Le taux de réponse de l’enquête a été de 32,0% (N=185). Le taux de vaccination des enfants s’est retrouvé à 83,4%; ceci représente une couverture plus élevée que la moyenne régionale et nationale. Toutefois, à une question sur l’intention des parents face à une autre pandémie, seuls 46% des parents feraient vacciner leur enfant. Les facteurs les plus significatifs associés à la vaccination de leur enfant ont été les croyances personnelles positives, de bonnes habitudes vaccinales et l’influence des média, tous mesurés par plusieurs indicateurs (RC respectifs de 7,7, 3,1 et 4,2, p<0,05). Conclusion Pour la grippe A(H1N1), plusieurs facteurs contextuels ont joué en faveur des taux de vaccination acceptables chez les enfants. Toutefois, la mise en place d’une campagne de la vaccination par les instances gouvernementales et de santé publique en utilisant divers média pourraient contribuer à un taux de vaccination encore plus élevé en cas d’épidémie ou de pandémie.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Les trichothécènes de Fusarium appartiennent au groupe des sesquiterpènes qui sont des inhibiteurs la synthèse des protéines des eucaryotes. Les trichothécènes causent d’une part de sérieux problèmes de santé aux humains et aux animaux qui ont consommé des aliments infectés par le champignon et de l’autre part, elles sont des facteurs importants de la virulence chez plantes. Dans cette étude, nous avons isolé et caractérisé seize isolats de Fusarium de la pomme de terre infectée naturellement dans un champs. Les tests de pathogénicité ont été réalisés pour évaluer la virulence des isolats sur la pomme de terre ainsi que leur capacité à produire des trichothécènes. Nous avons choisi F. sambucinum souche T5 comme un modèle pour cette étude parce qu’il était le plus agressif sur la pomme de terre en serre en induisant un flétrissement rapide, un jaunissement suivi de la mort des plantes. Cette souche produit le 4,15-diacétoxyscirpénol (4,15-DAS) lorsqu’elle est cultivée en milieu liquide. Nous avons amplifié et caractérisé cinq gènes de biosynthèse trichothécènes (TRI5, TRI4, TRI3, TRI11, et TRI101) impliqués dans la production du 4,15-DAS. La comparaison des séquences avec les bases de données a montré 98% et 97% d'identité de séquence avec les gènes de la biosynthèse des trichothécènes chez F. sporotrichioides et Gibberella zeae, respectivement. Nous avons confrenté F. sambucinum avec le champignon mycorhizien à arbuscule Glomus irregulare en culture in vitro. Les racines de carotte et F. sambucinum seul, ont été utilisés comme témoins. Nous avons observé que la croissance de F. sambucinum a été significativement réduite avec la présence de G. irregulare par rapport aux témoins. Nous avons remarqué que l'inhibition de la croissance F. sambucinum a été associée avec des changements morphologiques, qui ont été observés lorsque les hyphes de G. irregulare ont atteint le mycélium de F. sambucinum. Ceci suggère que G. irregulare pourrait produire des composés qui inhibent la croissance de F. sambucinum. Nous avons étudié les patrons d’expression des gènes de biosynthèse de trichothécènes de F. sambucinum en présence ou non de G. irregulare, en utilisant le PCR en temps-réel. Nous avons observé que TRI5 et TRI6 étaient sur-exprimés, tandis que TRI4, TRI13 et TRI101 étaient en sous-exprimés en présence de G. irregulare. Des analyses par chromatographie en phase-gazeuse (GC-MS) montrent clairement que la présence de G. irregulare réduit significativement la production des trichothécènes par F. sambucinum. Le dosage du 4,15-DAS a été réduit à 39 μg/ml milieu GYEP par G. irregulare, comparativement à 144 μg/ml milieu GYEP quand F. sambucinum est cultivé sans G. irregulare. Nous avons testé la capacité de G. irregulare à induire la défense des plants de pomme de terre contre l'infection de F. sambucinum. Des essais en chambre de croissance montrent que G. irregulare réduit significativement l’incidence de la maladie causée par F. sambucinum. Nous avons aussi observé que G. irregulare augmente la biomasse des racines, des feuilles et des tubercules. En utilisant le PCR en temps-réel, nous avons étudié les niveaux d’expression des gènes impliqué dans la défense des plants de pommes de terre tels que : chitinase class II (ChtA3), 1,3-β-glucanase (Glub), peroxidase (CEVI16), osmotin-like protéin (OSM-8e) et pathogenèses-related protein (PR-1). Nous avons observé que G. irregulare a induit une sur-expression de tous ces gènes dans les racines après 72 heures de l'infection avec F. sambucinum. Nous avons également trové que la baisse provoquée par F. sambucinum des gènes Glub et CEVI16 dans les feuilles pourrait etre bloquée par le traitement AMF. Ceci montre que l’inoculation avec G. irregulare constitut un bio-inducteur systémique même dans les parties non infectées par F. sambucinum. En conclusion, cette étude apporte de nouvelles connaissances importantes sur les interactions entre les plants et les microbes, d’une part sur les effets directs des champignons mycorhiziens sur l’inhibition de la croissance et la diminution de la production des mycotoxines chez Fusarium et d’autre part, l’atténuation de la sévérité de la maladie dans des plantes par stimulation leur défense. Les données présentées ouvrent de nouvelles perspectives de bio-contrôle contre les pathogènes mycotoxinogènes des plantes.
Resumo:
La prolongation de l’intervalle électrocardiographique QT est un facteur de risque d’arythmie ventriculaire et de mort subite. Cette anomalie, retrouvée chez certains patients atteints de lupus érythémateux disséminé, pourrait contribuer à la mortalité cardiovasculaire élevée dans cette population. L’anti-Ro/SSA, un auto-anticorps retrouvé chez environ 30% des patients atteints de lupus, est associé à la présence de blocs cardiaques chez le nouveau-né et pourrait aussi augmenter le risque de prolongation pathologique de l’intervalle QT chez l’adulte. Le présent mémoire est constitué de cinq chapitres traitant de l’association potentielle entre l’anticorps anti-Ro/SSA et la prolongation de l’intervalle QT. Le premier chapitre constitue une introduction permettant de mettre en contexte les éléments essentiels à la compréhension du projet d’étude. Le deuxième chapitre constitue une revue de l’état des connaissances actuelles sur le lien potentiel entre anti-Ro/SSA et intervalle QT. Le troisième chapitre présente le projet d’étude par l’intermédiaire d’un article publié dans Arthritis Care and Research. Dans cette étude, les patients de la cohorte de lupiques du Centre Universitaire de santé McGill ont subi des électrocardiogrammes dans l’objectif d’estimer l’association entre l’anti-Ro/SSA et les anomalies électrocardiographiques, en tenant compte d’autres facteurs démographiques et cliniques. L’association entre la prolongation de l’intervalle QT et la présence de l’anti-Ro/SSA a été démontrée (rapports de cotes ajustés de 5.1 à 12.6) et les patients porteurs de l’anti-Ro/SSA pourraient donc bénéficier de dépistage électrocardiographique systématique. Les points faibles et forts de cet article sont discutés dans le quatrième chapitre et des perspectives de recherches futures sont finalement abordées.
Resumo:
Ce mémoire s'emploie à étudier les corps quadratiques réels ainsi qu'un élément particulier de tels corps quadratiques réels : l'unité fondamentale. Pour ce faire, le mémoire commence par présenter le plus clairement possible les connaissances sur différents sujets qui sont essentiels à la compréhension des calculs et des résultats de ma recherche. On introduit d'abord les corps quadratiques ainsi que l'anneau de ses entiers algébriques et on décrit ses unités. On parle ensuite des fractions continues puisqu'elles se retrouvent dans un algorithme de calcul de l'unité fondamentale. On traite ensuite des formes binaires quadratiques et de la formule du nombre de classes de Dirichlet, laquelle fait intervenir l'unité fondamentale en fonction d'autres variables. Une fois cette tâche accomplie, on présente nos calculs et nos résultats. Notre recherche concerne la répartition des unités fondamentales des corps quadratiques réels, la répartition des unités des corps quadratiques réels et les moments du logarithme de l'unité fondamentale. (Le logarithme de l'unité fondamentale est appelé le régulateur.)
Resumo:
La période de l’après-guerre posa d’importants défis commerciaux à l’économie canadienne. Les années entre 1945 et 1950 furent effectivement marquées par la rupture de son système commercial traditionnel et la recherche d’une stratégie alternative. Le pays dut composer avec un déficit commercial croissant à l’égard des États-Unis, ainsi qu’une chute de ses exportations à destination du Royaume-Uni, ruiné par les années de guerre. Ce déséquilibre commercial qui menaçait d’épuiser les réserves canadiennes de dollars américains reflétait l’écart entre les capacités productives des deux rives de l’Atlantique. Le programme de reconstruction des économies européennes, ou plan Marshall, fut accueilli avec enthousiasme à Ottawa puisqu’il devait non seulement rétablir les marchés du Vieux Continent, mais également faciliter la mise en place d’un réseau multilatéral d’échanges et la libéralisation du commerce international. Les tensions de la guerre froide limitèrent toutefois l’ouverture de ces marchés aux marchandises canadiennes, puisque l’endiguement du communisme commanda une consolidation européenne qui privilégia le démantèlement des entraves aux échanges intra-européens, aux dépens du commerce transatlantique. Les préoccupations de Washington en matière de sécurité collective devaient néanmoins laisser place à une stratégie alternative pour le Canada, en poussant la coopération économique des deux pays, dans le but d’optimiser une production de défense destinée aux pays membres de l’OTAN, dont la demande était soutenue par l’aide Marshall. L’incorporation du Canada dans ce dispositif de défense élargie à la communauté atlantique permit ainsi d’assurer un accès privilégié à ses marchandises sur le marché américain, et par conséquent de progresser vers l’équilibre commercial.
Resumo:
Au moment où les territoires périurbains se transforment rapidement sous l’impulsion des stratégies de développement de l’industrie immobilière, les préoccupations sociales en matière de qualité des paysages et des cadres de vie se font de plus en plus grandes. Devant ces enjeux, les actions aménagistes privilégient le plus souvent des solutions à partir d’un regard « expert » généralement étranger aux demandes sociales en présence. Devant l’insuffisance des connaissances des regards citoyens, il y a une urgence à développer des méthodes originales aptes à révéler ce savoir local. Une enquête menée à l’automne 2009 à Saint-Bruno-de-Montarville, sur la Rive-Sud de Montréal, révèle la pertinence d’une approche anthropologique sous-utilisée et novatrice en particulier pour les recherches en aménagement : celle du « récit-parcours ». Permettant un accès privilégié aux récits ancrés aux lieux de vies, cette méthode a permis de susciter des discours singuliers et collectifs sur le territoire, de révéler des propos sur les imaginaires portés sur la ville et d’offrir un espace d’expression des préoccupations, des valorisations et des aspirations des résidants. Les résultats de l’enquête à cet effet sont concluants : ce que nous révèlent les résidants de par leurs expériences vécues des lieux et leurs cheminements spatiaux est incontestablement riche et pertinent pour la compréhension des enjeux collectifs d’un milieu. Les logiques existantes derrière les transformations de ces territoires bénéficieraient grandement de ce savoir localisé, complexe et ingénieux dont dispose les résidants de la géographie, de l’environnement, de l’urbanisation et des caractéristiques sociales de leur ville. Ce faisant, le territoire change alors de statut : d’un objet d’évaluation experte, il devient une mise en scène dynamique où s’inscrivent des fragments significatifs d’histoires faisant référence à l’expérience du vécu quotidien, mais aussi, à la potentialité des lieux. Par le biais d’une telle démarche et en conjonction avec des méthodes participatives, il devient possible d’engager une véritable réflexion plurielle envers l’avenir des territoires périurbains, en résonance avec les aspirations locales.
Resumo:
Contexte et objectifs. Depuis plusieurs années, la criminalité économique génère des coûts économiques et sociaux importants. Plusieurs acteurs, dont les entreprises privées, se sont mobilisés pour lutter contre ce phénomène. La fraude par carte de débit est un crime économique en expansion contre lequel plusieurs organisations ont entrepris des actions. L’objectif de ce mémoire est d’améliorer les connaissances sur les effets des mesures de prévention situationnelle appliquées dans les succursales d’un commerce de détail et leur impact sur le processus décisionnel des délinquants impliquées dans le clonage de cartes de débit. Méthodologie. Les effets des mesures de prévention mises en place sont évalués à l’aide d’analyses de séries chronologiques interrompues. En complément des analyses statistiques, des entrevues et une analyse documentaire sont effectuées. Les entrevues sont réalisées avec des enquêteurs du service de sécurité de l’entreprise de commerce de détail. L’analyse documentaire est basée sur les rapports d’événement ouverts lors des fraudes par carte de débit. Résultats. Les mesures de prévention ont produit différents effets. Selon la mesure, il fut possible de constater soit une hausse ou une baisse dans le nombre de délits commis. Certaines mesures ont, en outre, provoqué un déplacement spatial, un déplacement dans le choix de la cible, un déplacement dans le type de crime commis et, finalement, un déplacement tactique. Conclusion. Les résultats suggèrent que les mesures de prévention adoptées ont empêché la réalisation des délits associés à la fraude par carte de débit. Par contre, la présence de plusieurs formes de déplacement indique que les fraudeurs se sont adaptés aux mesures de prévention. Afin de documenter adéquatement cette forme de crime et les déplacements générés, d’autres études s’avèrent nécessaires.
Resumo:
La thérapie génique, qui consiste à modifier le génome d'un individu, est la progression logique de l'application de la recherche fondamentale à la médecine. Au moment où l'on célèbre le décryptage du génome humain, surgissent les premières guérisons par la thérapie génique qui soulèvent l'espoir d'un traitement par la génétique pour des maladies jusqu'ici incurables. Paradoxalement, est survenu au même moment le décès d'un adolescent au cours d'un essai clinique de thérapie génique aux Etats-Unis démontrant les risques sérieux de la thérapie génique et notre manque de connaissances scientifiques. À la lumière de ces derniers épisodes, il est important de réévaluer l'encadrement normatif des essais cliniques de la thérapie génique au Canada. Nous devons nous demander si la thérapie génique, hautement expérimentale, diffère d'un point de vue juridique, des autres types de recherche biomédicale. Une analyse comparative de différents modèles normatifs encadrant la thérapie génique permet de faire ressortir les avantages et les inconvénients de chacun. Le modèle québécois a intégré simplement la thérapie génique aux régimes normatifs préexistants (celui de l'expérimentation et celui des drogues). Le modèle français se distingue par l'insertion d'un régime d'exception dans le Code de la santé publique et le Code civil pour encadrer de façon spécifique la thérapie génique. Le Royaume-Uni offre un modèle intéressant d'auto-régulation alors que les États-Unis ont des normes spécifiques malheureusement restreintes aux recherches financées par les fonds publics. Il subsiste plusieurs lacunes dans l'encadrement canadien et québécois. Afin de l'améliorer, le Canada et le Québec devraient notamment se pencher sur la création d'une autorité nationale spécialisée et de normes spécifiques à la thérapie génique, l'implantation d'une évaluation structurée des risques de dissémination d'OGMs et l'établissement d'un suivi à long terme des participants.
Resumo:
L’asymétrie de mise en charge (MEC) lors du passage assis à debout (PAD) chez les personnes hémiparétiques est une observation clinique connue mais peu expliquée. Ce projet visait donc le développement de connaissances sur les facteurs explicatifs de l’asymétrie de MEC chez cette clientèle en s’intéressant plus spécifiquement au lien entre la distribution des efforts aux genoux lors du PAD et l’asymétrie de MEC observée ainsi qu’à la perception de ces deux éléments lors de cette tâche. Ainsi, les objectifs généraux étaient de : 1) déterminer si l’exécution spontanée asymétrique du PAD des sujets hémiparétiques est expliquée par une distribution des efforts symétriques aux genoux en quantifiant ces efforts par le Taux d’utilisation musculaire électromyographique (TUMEMG) et, 2) déterminer si les individus hémiparétiques sont conscients des stratégies motrices qu’ils utilisent en évaluant leurs perceptions de MEC et d’efforts aux genoux durant le PAD. La première étude a évalué la capacité des personnes hémiparétiques à percevoir leur distribution de MEC aux membres inférieurs lors du PAD. Par rapport aux participants sains, leur distribution de MEC fut davantage asymétrique et leurs erreurs de perception plus élevées. La deuxième étude a quantifié la distribution des efforts aux genoux chez les sujets sains et hémiparétiques lors du PAD spontané. Les deux groupes ont montré une association entre leur distribution de MEC et leur distribution d’effort. Toutefois, la relation était plus faible chez les patients. Le classement des participants hémiparétiques en sous-groupes selon leur degré d’asymétrie de force maximale des extenseurs des genoux (faible, modéré, sévère) a révélé une similarité des efforts aux genoux parétique et non parétique chez le groupe ayant une atteinte sévère. La troisième étude a déterminé si la perception de la distribution des efforts aux genoux des sujets hémiparétiques était reliée à leur distribution réelle d’effort mesurée lors de PAD exécutés dans différentes positions de pieds. En plus d’être incapables de percevoir les changements de distribution d’effort induits par les différentes positions de pieds, leurs erreurs de perception d’effort furent plus élevées que celles de MEC. Par le biais du test fonctionnel assis-debout de cinq répétitions, la dernière étude a déterminé l’influence du nombre de répétitions du PAD sur les distributions de MEC et d’efforts aux genoux chez les sujets sains et hémiparétiques. Contrairement aux contrôles, les distributions des sujets hémiparétiques furent plus asymétriques à la première répétition du test fonctionnel que lors de l’exécution spontanée unique du PAD. En somme, les résultats de cette thèse ont démontré que la distribution des efforts aux genoux doit être considérée parmi les facteurs explicatifs de l’asymétrie de MEC des individus hémiparétiques lors du PAD et qu’il y a un besoin de mieux documenter la perception des personnes hémiparétiques lorsqu’elles exécutent des tâches fonctionnelles.
Resumo:
Brooklyn est depuis quelques années un épicentre de la musique indépendante aux États-Unis. En utilisant la démarche ethnographique, l’auteur s’intéresse au rôle des médiateurs dans la définition du réseau socio-musical de la scène « indie » de Brooklyn à New York. Il met en relief la façon dont historiquement, le quartier brooklynois de Williamsburg est devenu un lieu important d’établissement des Brooklyn est depuis quelques années un épicentre de la musique indépendante aux États-Unis. En utilisant la démarche ethnographique, l’auteur s’intéresse au rôle des médiateurs dans la définition du réseau socio-musical de la scène « indie » de Brooklyn à New York. Il met en relief la façon dont historiquement, le quartier brooklynois de Williamsburg est devenu un lieu important d’établissement des musiciens alternatifs. Il aborde la façon dont les hipsters, comme communauté, font appel à différentes pratiques pour contourner le rapport d’infériorité avec les étiquettes majors. Il s’intéresse aussi au « do it yourself » ainsi qu’au rôle de New York dans le milieu musical mondial. Finalement, il s’intéresse aux médias qui définissent et structurent le milieu de la musique indépendante de Brooklyn.
Resumo:
Notre recherche a comme objectif de déterminer si le statut d’immigrant agit comme modérateur de la relation entre l’état de faible revenu et ses déterminants au Canada. Elle est basée sur les données du Recensement de 2006. Notre étude cherche à comprendre s'il existe des différences selon l'appartenance à la population immigrante ou à la population native quant à la probabilité d’être dans un état de faible revenu. Également, nous avons accordé une attention particulière à la région d'origine des immigrants. Nos résultats soutiennent qu'effectivement l'effet des déterminants retenus sur la probabilité de connaître l’état de faible revenu varie entre les immigrants et les natifs ainsi qu’entre les immigrants selon leur région d'origine. C'est surtout chez les immigrants issus des pays non traditionnels que l'écart dans l'effet des variables est le plus marqué et ce, par rapport aux natifs. Les immigrants issus des pays traditionnels se trouvent dans une situation intermédiaire, soit entre les deux groupes. Par exemple, l'éducation a un effet négatif moins important sur la probabilité d’être dans un état de faible revenu chez les immigrants originaires des pays non traditionnels comparativement aux natifs et aux immigrants originaires des pays traditionnels. Par contre, l’appartenance à une minorité visible, le statut d’étudiant et l’intensité de travail produisent un effet plus important sur la probabilité en question chez les immigrants issus des pays non traditionnels comparativement aux autres groupes. La connaissance des langues officielles du Canada produit un effet négatif bien plus important dans le cas des immigrants issus des pays non traditionnels. C’est surtout les immigrants bilingues qui sont les moins exposés à l’état de faible revenu, alors que ceux qui ne parlent aucune langue officielle du Canada sont les plus touchés. Nous retrouvons les mêmes effets chez les immigrants issus des pays traditionnels, mais dans une moindre mesure. En somme, cette étude apporte des nouvelles connaissances dans le domaine et permet d’arriver à une meilleure compréhension de l’état de faible revenu chez les personnes âgées de 15 ans et plus au Canada.
Resumo:
Bien que le changement dans le choix des substrats énergétiques des acides gras (AGs) vers les glucides soit considéré comme bénéfique pour le cœur insuffisant, il n’est pas clair à savoir pourquoi les patients atteints de désordres de la β-oxydation (β-OX) des AGs à chaîne longue (AGCLs) développent des troubles du rythme et des cardiomyopathies. De plus, le traitement actuel ne permet pas de prévenir l’apparition du phénotype clinique chez tous les patients, spécifiquement en condition de jeûne ou de stress. Ainsi, plusieurs modèles de souris déficientes pour des enzymes impliquées dans l’oxydation des acides gras ont été développés de manière à améliorer les connaissances de la maladie ainsi que les traitements offerts aux patients. À cet égard, cette étude vise à évaluer le phénotype métabolique et fonctionnel des cœurs de souris déficientes pour le récepteur activé de la prolifération des peroxysomes-α (PPARα), un facteur de transcription des gènes impliqués notamment dans la β-OX des AGs, et pour la déshydrogénase des acyl-CoA à très longue chaîne (very-long chain acyl-CoA dehydrogenase, VLCAD), le déficit de l’oxydation des AGCLs le plus commun chez l’humain. L’approche expérimentale utilisée comprend plusieurs techniques dont (i) la perfusion ex vivo de cœur de souris au travail combinée à l’utilisation de substrats marqués au carbone 13 (13C) et à l’analyse par chromatographie gazeuse-spectrométrie de masse (GCMS), (ii) l’analyse de l’expression génique par qPCR et (iii) l’analyse de l’activité électrique du cœur in vivo par télémétrie. De manière inattendue, les résultats de cette étude menée chez la souris ont permis de mettre en évidence que des déficits pour des protéines impliquées dans l’oxydation des AGCLs sont associés à des altérations du métabolisme (i) des glucides, (ii) des AGs polyinsaturés (AGPIs), et (iii) mitochondrial, incluant l’anaplérose, en plus d’être liés à des désordres de la fonction électrique du cœur, à savoir une prolongation du segment QTc. Pris dans leur ensemble, les résultats de cette thèse pourraient servir à l’élaboration de nouvelles interventions métaboliques destinées à améliorer les traitements possibles et donc, la qualité de vie des patients atteints de désordres héréditaires de la β-OX des AGCLs.