86 resultados para Courant metric
Resumo:
Cette étude avait comme objectif d’évaluer la coagulation par l’utilisation de la thrombélastographie (TEG®) et de la génération de thrombine (GT) chez des beagles en santé recevant de la prednisone ainsi que chez des chiens atteints d’hyperadrénocorticisme (HAC). Dans un premier temps, six beagles adultes en santé ont été évalués dans une étude prospective longitudinale au courant de laquelle chaque individu recevait 1 mg/kg/jour de prednisone par la voie orale pendant 2 semaines. Après un arrêt de traitement d’une durée de 6 semaines, ils ont finalement reçu 4 mg/kg/jour de prednisone pour encore 2 semaines. Les tracés TEG® et les mesures de la GT ont été obtenus au temps 0, à la fin des 6 semaines d’interruption de traitement, ainsi qu’à la suite des 2 dosages de prednisone. Suite aux 2 traitements avec la prednisone, des résultats significatifs,lorsque comparés aux valeurs de base, ont été obtenus pour la cinétique du caillot (« clot kinetics » ou K), l’angle alpha (α) et l’amplitude maximale (« maximal amplitude » ou MA). La GT avait augmenté de manière significative mais seulement après la dose de 1 mg/kg/jour de prednisone. Dans un deuxième temps, 16 chiens atteints d’HAC ont été évalués avant l’initiation d’un traitement pour leur condition. Quinze chiens ont été évalués par TEG® et 15 par GT. Les données obtenues ont ensuite été comparées aux valeurs normales. L’analyse par TEG® a démontré que 12/15 chiens avaient au moins un paramètre suggérant un état d’hypercoagulabilité. L’analyse par GT a démontré que 4/15 chiens avaient des changements compatibles avec un état d’hypercoagulabilité. Un test t-pairé pour des valeurs de variance inégales a démontré que le groupe de chiens atteints d’HAC avait des tracés hypercoagulables et un potentiel endogène de thrombine (« endogenous thrombin potential » ou ETP) plus élevé, lorsque comparé à la population de référence.
Resumo:
La documentation des programmes aide les développeurs à mieux comprendre le code source pendant les tâches de maintenance. Toutefois, la documentation n’est pas toujours disponible ou elle peut être de mauvaise qualité. Le recours à la redocumentation s’avère ainsi nécessaire. Dans ce contexte, nous proposons de faire la redocumentation en générant des commentaires par application de techniques de résumé par extraction. Pour mener à bien cette tâche, nous avons commencé par faire une étude empirique pour étudier les aspects quantitatifs et qualitatifs des commentaires. En particulier, nous nous sommes intéressés à l’étude de la distribution des commentaires par rapport aux différents types d’instructions et à la fréquence de documentation de chaque type. Aussi, nous avons proposé une taxonomie de commentaires pour classer les commentaires selon leur contenu et leur qualité. Suite aux résultats de l’étude empirique, nous avons décidé de résumer les classes Java par extraction des commentaires des méthodes/constructeurs. Nous avons défini plusieurs heuristiques pour déterminer les commentaires les plus pertinents à l’extraction. Ensuite, nous avons appliqué ces heuristiques sur les classes Java de trois projets pour en générer les résumés. Enfin, nous avons comparé les résumés produits (les commentaires produits) à des résumés références (les commentaires originaux) en utilisant la métrique ROUGE.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
Le cheval est souvent victime de plaies traumatiques, dont la guérison est fréquemment problématique, et ce, principalement quand la plaie survient sur le membre. Il est courant de voir chez le cheval le développement d’un tissu de granulation exubérant ou « bouton de chair », qui mène à une cicatrisation excessive due à la surproduction de tissu fibreux. Ce tissu cicatriciel, non épithélialisé, est caractérisé par une occlusion au niveau de la microcirculation due à l’hypertrophie des cellules endothéliales, qui laisse supposer la présence d’hypoxie tissulaire. Une hypoxie relative a effectivement été mesurée par spectroscopie dans le proche infrarouge au niveau des plaies appendiculaires prédisposées au développement de tissu de granulation exubérant, par rapport aux plaies corporelles. De plus, une étude thermographique a révélé un patron spatial similaire de la perfusion. Au niveau moléculaire, la littérature rapporte que le facteur de transcription «hypoxia inducible factor» (HIF) est à l’origine de plusieurs changements dans les niveaux d’expression de divers gènes régulés par l’hypoxie. L’objectif du présent projet de recherche était de définir la contribution de l’hypoxie à la guérison cutanée chez le cheval. Le premier volet (in vivo) du projet visait à mesurer l’expression protéique temporelle du HIF1A dans des échantillons tissulaires en provenance de plaies cutanées guérissant normalement et d’autres développant une cicatrisation excessive, selon divers sites anatomiques (tronc, membre). Les résultats obtenus suggèrent que la mesure de HIF1A, dans les échantillons pluricellulaires de cette étude, reflète l’épithélialisation de la plaie plutôt que les niveaux d’oxygène tissulaire. En effet, le HIF1A semble réguler l’homéostasie et la prolifération des kératinocytes. Le second volet (in vitro), consistait en la mise en culture de fibroblastes dermiques équins provenant du tronc ou du membre, en condition de normoxie ou d’hypoxie (à 1% d’O2 ou à l’aide d’un mimétique, le CoCl2) afin d’en étudier le comportement (capacités de prolifération et de synthèse protéique). Les résultats obtenus soutiennent une contribution de l’hypoxie à la cicatrisation extensive chez le cheval puisque l’hypoxie favorise la prolifération des fibroblastes en plus d’encourager la synthèse de collagène de type 1 et de diminuer la synthèse de la métalloprotéinase de type 2. Les changements observés semblent dépendre de facteurs extrinsèques (environnementaux) car les fibroblastes dermiques se comportent de façon similaire indépendamment de la provenance anatomique. En somme, les deux volets de l’étude ont permis d’élucider une part des mécanismes sous-jacents à la formation du tissu de granulation exubérant lors de guérison cutanée chez le cheval. La poursuite des recherches dans ce domaine mènera à une meilleure compréhension de la pathologie et ainsi, permettra de développer des méthodes de traitement spécifiques à la condition.
Resumo:
Cette thèse de doctorat est une biographie politique de Paul Levi, militant marxiste qui a fait carrière en Allemagne durant la période de l’entre-deux-guerres. Dès 1914, Levi incarne un courant radical à l’intérieur du Parti social-démocrate d’Allemagne (SPD). Il dénonce, entre autres, aux côtés de Rosa Luxemburg l’appui du parti à l’effort militaire national. Levi s’inspire également de Lénine qu’il rencontre pour la première fois en Suisse en 1916-1917. Lorsqu’il prend les commandes du Parti communiste d’Allemagne (KPD) en 1919, Levi dirige celui-ci d’une main de fer, selon le concept du « centralisme démocratique ». Il fait également tout en son pouvoir pour faire éclater la révolution ouvrière en Allemagne afin d’installer une dictature du prolétariat qui exclurait toutes les classes non ouvrières du pouvoir. En ce sens, Levi imagine un État socialiste semblable à celui fondé par Lénine en Russie en 1917. Contrairement à l’historiographie traditionnelle, notre thèse montre conséquemment que Levi n’était guère un « socialiste démocrate ». Il était plutôt un militant marxiste qui, par son radicalisme, a contribué à diviser le mouvement ouvrier allemand ce qui, en revanche, a fragilisé la république de Weimar. Cette thèse fait également ressortir le caractère résolument rebelle de Paul Levi. Partout où il passe, Levi dénonce les politiques bourgeoises des partis non-ouvriers, mais aussi celles de la majorité des organisations dont il fait partie, c’est-à-dire les partis ouvriers de la république de Weimar et le Reichstag. Son tempérament impulsif fait de lui un homme politique isolé qui, d’ailleurs, se fait de nombreux ennemis. En 1921, à titre d’exemple, il se brouille avec d’importants bolcheviques, ce qui met fin à sa carrière au sein du KPD. Les communistes voient désormais en lui un ennemi de la classe ouvrière et mènent contre lui de nombreuses campagnes diffamatoires. Levi, de son côté, dénonce ouvertement la terreur stalinienne qui, selon lui, est en train de contaminer le mouvement communiste européen. Notre travail montre également que Levi, cette fois en tant qu’avocat juif, lutte corps et âme contre les nazis. En 1926, dans le cadre d’une commission d’enquête publique du Reichstag chargée de faire la lumière sur des meurtres politiques commis en Bavière, il tente par tous les moyens d’inculper certains criminels nazis. Levi est conséquemment la cible de la presse antisémite allemande. Il refuse toutefois de céder à l’intimidation et choisit plutôt de poursuivre en justice quelques-uns des plus importants membres du Parti nazi, dont Alfred Rosenberg et Hitler lui-même, en plus de forcer de nombreux autres nazis à comparaître devant la commission d’enquête du Reichstag. Bref, si ce travail se veut critique envers la pensée révolutionnaire de Levi, il souligne aussi l’intégrité politique de cet homme dont les convictions sont demeurées inébranlables face aux dérives criminelles des extrêmes idéologiques de son époque.
Resumo:
Ce mémoire est composé de deux parties : une recherche sur le film Lagaan (2001) du réalisateur indien Ashutosh Gowariker, et un scénario de moyen métrage de fiction. La partie théorique analyse un courant émergeant du cinéma indien que Gowariker a initié avec Lagaan. Ce courant véhicule une vision progressiste de l’identité nationale et semble donc s’opposer au mouvement nationaliste hindutva par ses préoccupations gandhiennes proches de la Nouvelle vague indienne. Pourtant, du point de vue dramatique et esthétique, il adopte une facture commerciale qui correspond bien plus aux attentes du public du Bollywood post-1990. Conjuguant dimension intellectuelle militante et divertissement populaire, il cherche ainsi à réorienter sa vision de la société indienne. Mon analyse, à la fois formelle et sociologique, permettra de comprendre cette tendance dans son contexte sociopolitique. Le scénario raconte l’histoire d’Aastha, une jeune Indienne de caste inférieure luttant pour exister entre tradition et modernité dans l'Inde rurale contemporaine. Il montre la relation ambiguë qu’elle entretient avec une culture qu'elle aime profondément, mais qui est paradoxalement trop oppressante pour lui permettre de s'affirmer.
Resumo:
Les protéines sont les produits finaux de la machinerie génétique. Elles jouent des rôles essentiels dans la définition de la structure, de l'intégrité et de la dynamique de la cellule afin de promouvoir les diverses transformations chimiques requises dans le métabolisme et dans la transmission des signaux biochimique. Nous savons que la doctrine centrale de la biologie moléculaire: un gène = un ARN messager = une protéine, est une simplification grossière du système biologique. En effet, plusieurs ARN messagers peuvent provenir d’un seul gène grâce à l’épissage alternatif. De plus, une protéine peut adopter plusieurs fonctions au courant de sa vie selon son état de modification post-traductionelle, sa conformation et son interaction avec d’autres protéines. La formation de complexes protéiques peut, en elle-même, être déterminée par l’état de modifications des protéines influencées par le contexte génétique, les compartiments subcellulaires, les conditions environmentales ou être intrinsèque à la croissance et la division cellulaire. Les complexes protéiques impliqués dans la régulation du cycle cellulaire sont particulièrement difficiles à disséquer car ils ne se forment qu’au cours de phases spécifiques du cycle cellulaire, ils sont fortement régulés par les modifications post-traductionnelles et peuvent se produire dans tous les compartiments subcellulaires. À ce jour, aucune méthode générale n’a été développée pour permettre une dissection fine de ces complexes macromoléculaires. L'objectif de cette thèse est d'établir et de démontrer une nouvelle stratégie pour disséquer les complexes protéines formés lors du cycle cellulaire de la levure Saccharomyces cerevisiae (S. cerevisiae). Dans cette thèse, je décris le développement et l'optimisation d'une stratégie simple de sélection basée sur un essai de complémentation de fragments protéiques en utilisant la cytosine déaminase de la levure comme sonde (PCA OyCD). En outre, je décris une série d'études de validation du PCA OyCD afin de l’utiliser pour disséquer les mécanismes d'activation des facteurs de transcription et des interactions protéine-protéines (IPPs) entre les régulateurs du cycle cellulaire. Une caractéristique clé du PCA OyCD est qu'il peut être utilisé pour détecter à la fois la formation et la dissociation des IPPs et émettre un signal détectable (la croissance des cellules) pour les deux types de sélections. J'ai appliqué le PCA OyCD pour disséquer les interactions entre SBF et MBF, deux facteurs de transcription clés régulant la transition de la phase G1 à la phase S. SBF et MBF sont deux facteurs de transcription hétérodimériques composés de deux sous-unités : une protéine qui peut lier directement l’ADN (Swi4 ou Mbp1, respectivement) et une protéine commune contenant un domain d’activation de la transcription appelée Swi6. J'ai appliqué le PCA OyCD afin de générer un mutant de Swi6 qui restreint ses activités transcriptionnelles à SBF, abolissant l’activité MBF. Nous avons isolé des souches portant des mutations dans le domaine C-terminal de Swi6, préalablement identifié comme responsable dans la formation de l’interaction avec Swi4 et Mbp1, et également important pour les activités de SBF et MBF. Nos résultats appuient un modèle où Swi6 subit un changement conformationnel lors de la liaison à Swi4 ou Mbp1. De plus, ce mutant de Swi6 a été utilisé pour disséquer le mécanisme de régulation de l’entrée de la cellule dans un nouveau cycle de division cellulaire appelé « START ». Nous avons constaté que le répresseur de SBF et MBF nommé Whi5 se lie directement au domaine C-terminal de Swi6. Finalement, j'ai appliqué le PCA OyCD afin de disséquer les complexes protéiques de la kinase cycline-dépendante de la levure nommé Cdk1. Cdk1 est la kinase essentielle qui régule la progression du cycle cellulaire et peut phosphoryler un grand nombre de substrats différents en s'associant à l'une des neuf protéines cycline régulatrice (Cln1-3, Clb1-6). Je décris une stratégie à haut débit, voir à une échelle génomique, visant à identifier les partenaires d'interaction de Cdk1 et d’y associer la cycline appropriée(s) requise(s) à l’observation d’une interaction en utilisant le PCA OyCD et des souches délétées pour chacune des cyclines. Mes résultats nous permettent d’identifier la phase(s) du cycle cellulaire où Cdk1 peut phosphoryler un substrat particulier et la fonction potentielle ou connue de Cdk1 pendant cette phase. Par exemple, nous avons identifié que l’interaction entre Cdk1 et la γ-tubuline (Tub4) est dépendante de Clb3. Ce résultat est conforme au rôle de Tub4 dans la nucléation et la croissance des faisceaux mitotiques émanant des centromères. Cette stratégie peut également être appliquée à l’étude d'autres IPPs qui sont contrôlées par des sous-unités régulatrices.
Resumo:
Plusieurs hypothèses planant autour de la danse, des cultures juvéniles et de l’intervention permettent de repérer l’existence d’une multiplicité de regards, mais sans rapport apparent entre eux. Les tenants du courant humaniste s'intéressent à la forme et à la structure de la danse en tant qu'art dans les pays de culture occidentale. Les tenants de l’approche anthropologique y voient un instrument de socialisation qui permet de créer, refléter ou renforcer des liens entre les participants, tout en transmettant les valeurs de la culture héritée (Blacking: 1963, Spencer: 1985, Ward: 1993, Bourdieu: 2002). D’un point de vue somatique, la danse permet la prédominance du corps sur l’esprit, car l’apprentissage se fait généralement par imitation (Guilcher: 1963, Faure: 2004). Dans ce cas, les participants sont appelés à « s’ouvrir à autrui » en montrant et en apprenant des autres, créant une circularité dans leurs échanges sur un rythme qui « unit » les participants (Schott-Billman: 2001, Hampartzoumian : 2004). Ce projet se pose comme une réflexion sur le ou les sens de la danse comme outil d’intervention sociale auprès de jeunes amateurs amenés à vivre des inégalités sociales. En privilégiant un contexte d’atelier, où certains ajustements sont tolérés par l’enseignant, un espace de créativité s’organise de manière informelle face à un objectif donné : une représentation publique dansée. Cet angle d’approche s’inspire de « la métaphore du bricolage » au sujet des cultures populaires par M. De Certeau (1980), où la créativité populaire est repérable dans « les manières de faire avec » les produits imposés par la culture dominante, la politique, l’économie et les enjeux sociaux dominants. Ainsi, le participant qui « perturbe » les règles d’usage d’une intervention prescrite n’est pas un sujet en marge de la société. C’est par des actions pareilles qu’il prend sa place comme acteur social. Cet événement permet « d’in-corps-porer » le double discours existant entre les danses de représentation et les danses populaires chez les participants.
Resumo:
Le présent mémoire s’inscrit dans un projet, financé par le CRSH, visant l’étude des conditions de vie dans l’enfance et la survie aux grands âges L’augmentation de la longévité et de la mortalité observée dans les pays industrialisés depuis plus d’un siècle ont mené à l’émergence d’un courant de recherche visant à identifier les causes de ces progrès. Il a été soulevé que les conditions de vie dans l’enfance pourraient y jouer un rôle. L’objectif de ce mémoire est donc de mettre en lumière les déterminants qui sont en cause en étudiant la mortalité au-delà de 40 ans d’une population urbaine canadienne-française en phase d’industrialisation, soit, celle de la ville de Québec au début du 20ème siècle. Plus spécifiquement, une analyse descriptive de la population étudiée sera effectuée et suivra une analyse statistique à l’aide de modèles de risques proportionnels de Cox qui prendront en compte différentes facettes des conditions de vie. Au coeur de ce mémoire a été l’élaboration d’une base de données se basant sur le Canadian Families Project et créée à partir du recensement canadien de 1901. Cette dernière nous a permis de dresser un portrait des conditions de vie dans l’enfance, telles qu’elles étaient au tournant du 20ème siècle, de la population étudiée. Nous avons complété cette base de données en recueillant des informations sur les mariages à l’aide des fichiers de du projet BALSAC ainsi que les âges au décès des individus de l’échantillon en consultant les fiches de l’État civil. Nous avons pu mettre en lumière que les individus ayant passé leur enfance dans un ménage de type complexe affichent une mortalité moins élevée (de près de 35%) que pour les structures familiales simples. De plus, les individus qui ont grandi dans un ménage dont le chef était bilingue ou occupait un emploi qualifié ont des risques de mortalité inférieurs de près du tiers par rapport aux autres. Nous avons aussi trouvé que les résidents de la Basse-Ville courraient un risque de mortalité jusqu’à 50% plus élevé que celui de ceux provenant d’autres districts de la ville.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Dans la présente recherche, nous nous sommes penchés sur le processus du transfert intra-organisationnel de connaissances au sein d’entreprises multinationales (EM). Partant du triple constat suivant : les connaissances organisationnelles constituent un avantage stratégique (Barney, 1991 ; Bartlett et Ghoshal, 1998), les transferts intra-organisationnels constituent la raison d’être des EM (Gupta et Govindarajan, 2000), lesquelles ont accès à un vaste bassin de connaissances disséminées à travers le monde par le biais de leurs filiales et les mécanismes organisationnels internes sont plus efficaces que ceux du marché (Williamson, 1987 ; Casson, 1976) pour transférer des connaissances entre unités organisationnelles; nous nous sommes intéressés aux facteurs pouvant affecter l’efficacité de ce processus de transfert. Ayant identifié, lors de notre revue des écrits théoriques, une multitude d’approches permettant d’appréhender ce phénomène, nous proposons, dans notre recherche, un modèle théorique intégrant les trois étapes propres au processus de transfert, soit : la détermination des connaissances à transférer, la sélection des mécanismes de transfert appropriés et, finalement, l’évaluation, d’une part, de l’efficacité des transferts et, d’autre part, de l’ensemble des facteurs contextuels ayant un impact sur l’efficacité de ce processus. Sur le plan théorique, cette recherche oppose deux courants dominant ce champ disciplinaire. L’approche stratégique, exprimée par la théorie des ressources, met l’accent sur l’importance prépondérante des facteurs organisationnels internes sur l’efficacité de toute action organisationnelle (Bartlett et Ghoshal, 1998 ; Barney, 1991). Cette approche s’oppose au courant institutionnel, lequel considère plutôt que les choix et les actions organisationnels sont surtout conditionnés par les contraintes de l’environnement externe (Ferner, 1997; Kostova, 1999; Scott, 1991). Les résultats de notre recherche démontrent que, malgré l’existence de contraintes de nature institutionnelle et culturelle, l’efficacité du processus de transfert des connaissances associées à la gestion des ressources humaines relève davantage des conditions organisationnelles internes et, plus particulièrement, de l’implication de la haute direction, du rôle accordé à la fonction RH et de l’alignement entre la stratégie corporative, la stratégie RH et la culture organisationnelle. Sur le plan méthodologique, il s’agit d’une recherche exploratoire qualitative menée auprès de trois EM (2 canadiennes et 1 française) oeuvrant dans les secteurs de la métallurgie et des télécommunications. Les données empiriques proviennent de 17 entrevues approfondies que nous ont accordées, au Canada, en France, en Allemagne et en Suisse des cadres responsables de la gestion des ressources humaines, affectés au siège social des EM en question ou œuvrant au sein de leurs filiales, et de sources documentaires secondaires.
Resumo:
Dans mon projet de doctorat, j’ai étudié des fonctions primordiales de l’épithélium respiratoire telles que la régulation du transport ionique, la clairance liquidienne et la réparation épithéliale. J’ai particulièrement mis l’emphase sur le rôle des canaux potassiques qui interviennent dans ces trois fonctions de l’épithélium respiratoire. J’ai tout d’abord prouvé que la modulation des canaux potassiques régulait l’activité du promoteur de αENaC, en partie via la voie de signalisation ERK1/2, dans des cellules alvéolaires. Cette régulation entraîne une variation de l’expression génique et protéique du canal ENaC. Physiologiquement, il en résulte une augmentation du phénomène de clairance liquidienne suite à l’activation des canaux K+, tandis que l’inhibition de ces canaux la diminue sévèrement. J’ai aussi pu démontrer que l’absence de canal KvLQT1 entraînait une diminution du courant (ENaC) sensible à l’amiloride, dans les cellules de trachée en culture primaire, isolées de souris KO pour kcnq1. Dans la seconde partie de mon étude, j’ai évalué l’impact de l’hyperglycémie sur la capacité de transport ionique et de réparation de cellules épithéliales bronchiques saines ou Fibrose Kystique. Mes résultats montrent que l’hyperglycémie diminue le transport transépithélial de chlore et le transport basolatéral de potassium. Des études préalables du laboratoire ayant montré que les canaux K+ et Cl- contrôlent les processus de réparation, j’ai donc évalué si ceux-ci étaient modifiés par l’hyperglycémie. Et en effet, l’hyperglycémie ralentit la vitesse de réparation des cellules issues des voies aériennes (CFBE-wt et CFBE-ΔF508). J’ai donc démontré que le transport de potassium intervenait dans des fonctions clés de l’épithélium respiratoire, comme dans la régulation génique de canaux ioniques, le contrôle de la clairance liquidienne alvéolaire, et que l’hyperglycémie diminuait le transport ionique (K+ et Cl-) et la réparation épithéliale.
Resumo:
Les études qui portent sur l’intégration professionnelle des travailleurs immigrants s’intéressent majoritairement aux résultats des acteurs sur le marché du travail ou à leur parcours d’intégration en mettant l’accent sur les barrières à l’intégration, plus rarement sur les stratégies des acteurs. Peu d’études s’intéressent aux trajectoires des travailleurs qualifiés qui ont réussi leur intégration socioprofessionnelle depuis une perspective centrée sur leur expérience subjective. Notre étude se situe résolument dans une approche micro-individuelle, donc, centrée sur les acteurs, ici, de nouveaux immigrants, travailleurs qualifiés, en processus d’intégration. Elle porte sur le déroulement de leur processus d’intégration, depuis leur décision d’immigrer jusqu’à la situation actuelle, après 5 à 10 ans passés au Québec. Notre perspective, axée sur l’expérience individuelle de l’immigrant, visait en même temps à relier les facteurs micro, macro et meso sociaux interagissant continuellement pour produire des trajectoires d’intégration uniques. Cette recherche qualitative, inspirée par le courant de la sociologie clinique, analyse les trajectoires socioprofessionnelles de sujets qui occupaient au moment de l’entrevue des emplois qualifiés, situés minimalement au niveau de leur diplôme. Elle portait sur la situation pré-migratoire : les motifs de départ, le choix de la destination; puis le parcours d’intégration socioprofessionnelle au Québec et finalement la situation actuelle du point de vue des objectifs et de la satisfaction personnelle des sujets. Il nous importait de mettre en lumière l’expérience personnelle d’intégration vue depuis la perspective subjective des acteurs. Ce faisant, nous avons étudié l’agentivité des travailleurs qualifiés qui se sont posés en tant qu’acteurs actifs et réflexifs face aux déterminant sociaux et limitations qui pesaient sur eux. Une deuxième question de recherche reliée à celle des trajectoires portait sur le regard subjectif des sujets sur l’intégration. Nous avons voulu savoir ce que c’est pour chacun que l’« intégration réussie » (au Québec) et l’intégration professionnelle « réussie ». De cette façon, il devient possible de révéler la diversité des positions et des perceptions individuelles des sujets quant à la question de l’intégration sans présumer du ou des résultats possibles de leur cheminement. Nos résultats révèlent la diversité des attentes individuelles face à l’immigration et à l’intégration dans le pays de destination et donc, ils nous invitent à tenir compte de la particularité de chaque sujet. L’immigration et l’intégration s’inscrivent pour les sujets dans une démarche individuelle plus large, celle de la réalisation de leurs projets de vie. Ces projets se situent à plusieurs niveaux et leur réalisation agit comme un guide des démarches individuelles qui visent à atteindre une vie qui s’avère satisfaisante, réussie, pleine ou complète, selon les acteurs. Il nous a été possible de rendre visibles les efforts que les acteurs ont déployés et déploient pour accomplir leurs projets et poursuivre leur chemin vers la réalisation de soi. Notre recherche a démontré qu’il est nécessaire de tenir compte tant de la subjectivité et des différences entre les acteurs au moment d’analyser leurs parcours que des résultats de leur intégration afin de concevoir des programmes qui intègrent davantage la complexité des processus en marche. Au final, il s’agit de contribuer plus efficacement à ce que les diverses expériences d’immigration et d’intégration soient « réussies ».
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.