808 resultados para Méthodes épidémiologiques
Resumo:
Les nouvelles technologies mobiles, Internet et les plateformes d’échanges réseautiques ont-ils un effet tangible sur les habitudes de travail des journalistes politiques de la presse écrite? Comment ces nouveaux outils participent-ils à la construction identitaire de ces journalistes? Dans le but de mieux comprendre leur contexte de travail et de (re)construction identitaire, nous avons choisi d’analyser le rôle qu’occupent les nouvelles technologies dans leur quotidien, tant du point de vue de leurs pratiques actuelles que du point de vue de leurs perceptions d’eux-mêmes et du métier. Dans cette étude qualitative, sept journalistes politiques francophones de médias traditionnels écrits ont été interviewés dans le but de nous aider à mieux cerner les libertés mais aussi les contraintes qui accompagnent l’adoption de nouveaux outils technologiques ainsi que les nouvelles pratiques qui y sont rattachées. Les nouvelles technologies et les plateformes réseautiques ne sont pas que de simples outils de travail, ils redéfinissent le rôle même du journaliste dans la société. Hormis les adaptations quotidiennes qu’elles supposent dans les changements de méthodes de travail, elles contribuent souvent à déstabiliser le journaliste dans ses valeurs traditionnelles les plus solidement ancrées. Ces nouveaux outils deviennent le lieu d’échanges accrus où le journaliste se retrouve, bien malgré lui, à devoir défendre un rôle qui lui était autrefois acquis. Vecteurs d’autovalorisation pour le public, ils sont plus souvent le lieu de résistance pour les journalistes.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
La maladie de Parkinson (MP) est la deuxième maladie neurodégénérative la plus commune. Les symptômes principalement observés chez les patients atteints de la MP sont la rigidité, les tremblements, la bradykinésie et une instabilité posturale. Leur sévérité est souvent asymétrique. La cause principale de ces symptômes moteurs est la dégénérescence du circuit dopaminergique nigro-striatal qui mène à un débalancement d’activité du circuit cortico-striatal. Ce débalancement de circuits est le point essentiel de cette thèse. Dans les protocoles de recherche décrits ici, des patients atteints de la MP (avant et après une dose de levodopa) et des participants contrôles sains ont effectué des mouvements auto-initiés ou en réponse à des stimulis externes pendant que l’on mesurait leur activité cérébrale en imagerie par résonance magnétique fonctionnelle (IRMf). Dans cette thèse, nous abordons et mettons en évidence quatre (4) points principaux. En première partie (chapitre 2), nous présentons un recensement de la littérature sur les cicruits cortico-striataux et cortico-cérébelleux dans la MP. En utilisant des méthodes de neuroimagerie, des changements d’activité cérébrale et cérébelleuse ont été observés chez les patients atteints de la MP comparés aux participants sains. Même si les augmentations d’activité du cervelet ont souvent été attribuées à des mécanismes compensatoires, nos résultats suggèrent qu’elles sont plus probablement liées aux changements pathophysiologiques de la MP et à la perturbation du circuit cortico-cérébelleux. En général, nous suggérons (1) que le circuit cortico-cérébelleux est perturbé chez les patients atteints de la MP, et que les changements d’activité du cervelet sont liés à la pathophysiologie de la MP plutôt qu’à des mécanismes compensatoires. En deuxième partie (chapitre 3), nous discutons des effets de la levodopa sur les hausses et baisses d’activité observés chez les patients atteints de la MP, ainsi que sur l’activité du putamen pendant les mouvements d’origine interne et externe. De nombreuses études en neuroimagerie ont montré une baisse d’activité (hypo-activité) préfrontale liée à la déplétion de dopamine. En revanche, l’utilisation de tâches cognitives a montré des augmentations d’activité (hyper-activité) corticale chez les patients atteints de la MP comparés aux participants sains. Nous avons suggéré précédemment que ces hypo- et hyper-activités des régions préfrontales dépendent de l’implication du striatum. Dans cette thèse nous suggérons de plus (2) que la levodopa ne rétablit pas ces hyper-activations, mais plutôt qu’elles sont liées à la perturbation du circuit méso-cortical, et aussi possiblement associées à l’administration de médication dopaminergique à long terme. Nous montrons aussi (3) que la levodopa a un effet non-spécifique à la tâche sur l’activité du circuit cortico-striatal moteur, et qu’elle n’a pas d’effet sur l’activité du circuit cortico-striatal cognitif. Nous montrons enfin (chapitre 4) que la levodopa a un effet asymétrique sur les mouvements de la main droite et gauche. À peu près 50% des patients atteints de la MP démontrent une asymétrie des symptômes moteurs, et ceci persiste à travers la durée de la maladie. Nos résultats suggèrent (4) que la levodopa pourrait avoir un plus grand effet sur les patrons d’activations des mouvements de la main la plus affectée.
Resumo:
En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.
Resumo:
Le Web représente actuellement un espace privilégié d’expression et d’activité pour plusieurs communautés, où pratiques communicationnelles et pratiques documentaires s’enrichissent mutuellement. Dans sa dimension visible ou invisible, le Web constitue aussi un réservoir documentaire planétaire caractérisé non seulement par l’abondance de l’information qui y circule, mais aussi par sa diversité, sa complexité et son caractère éphémère. Les projets d’archivage du Web en cours abordent pour beaucoup cette question du point de vue de la préservation des publications en ligne sans la considérer dans une perspective archivistique. Seuls quelques projets d’archivage du Web visent la préservation du Web organisationnel ou gouvernemental. La valeur archivistique du Web, notamment du Web organisationnel, ne semble pas être reconnue malgré un effort soutenu de certaines archives nationales à diffuser des politiques d’archivage du Web organisationnel. La présente thèse a pour but de développer une meilleure compréhension de la nature des archives Web et de documenter les pratiques actuelles d’archivage du Web organisationnel. Plus précisément, cette recherche vise à répondre aux trois questions suivantes : (1) Que recommandent en général les politiques d’archivage du Web organisationnel? (2) Quelles sont les principales caractéristiques des archives Web? (3) Quelles pratiques d’archivage du Web organisationnel sont mises en place dans des organisations au Québec? Pour répondre à ces questions, cette recherche exploratoire et descriptive a adopté une approche qualitative basée sur trois modes de collecte des données, à savoir : l’analyse d’un corpus de 55 politiques et documents complémentaires relatifs à l’archivage du Web organisationnel; l’observation de 11 sites Web publics d’organismes au Québec de même que l’observation d’un échantillon de 737 documents produits par ces systèmes Web; et, enfin, des entrevues avec 21 participants impliqués dans la gestion et l’archivage de ces sites Web. Les résultats de recherche démontrent que les sites Web étudiés sont le produit de la conduite des activités en ligne d’une organisation et documentent, en même temps, les objectifs et les manifestations de sa présence sur le Web. De nouveaux types de documents propres au Web organisationnel ont pu être identifiés. Les documents qui ont migré sur le Web ont acquis un autre contexte d’usage et de nouvelles caractéristiques. Les méthodes de gestion actuelles doivent prendre en considération les propriétés des documents dans un environnement Web. Alors que certains sites d’étude n’archivent pas leur site Web public, d’autres s’y investissent. Toutefois les choix établis ne correspondent pas toujours aux recommandations proposées dans les politiques d’archivage du Web analysées et ne garantissent pas la pérennité des archives Web ni leur exploitabilité à long terme. Ce constat nous a amenée à proposer une politique type adaptée aux caractéristiques des archives Web. Ce modèle décrit les composantes essentielles d’une politique pour l’archivage des sites Web ainsi qu’un éventail des mesures que pourrait mettre en place l’organisation en fonction des résultats d’une analyse des risques associés à l’usage de son site Web public dans la conduite de ses affaires.
Resumo:
En lien avec l’avancée rapide de la réduction de la taille des motifs en microfabrication, des processus physiques négligeables à plus grande échelle deviennent dominants lorsque cette taille s’approche de l’échelle nanométrique. L’identification et une meilleure compréhension de ces différents processus sont essentielles pour améliorer le contrôle des procédés et poursuivre la «nanométrisation» des composantes électroniques. Un simulateur cellulaire à l’échelle du motif en deux dimensions s’appuyant sur les méthodes Monte-Carlo a été développé pour étudier l’évolution du profil lors de procédés de microfabrication. Le domaine de gravure est discrétisé en cellules carrées représentant la géométrie initiale du système masque-substrat. On insère les particules neutres et ioniques à l’interface du domaine de simulation en prenant compte des fonctions de distribution en énergie et en angle respectives de chacune des espèces. Le transport des particules est effectué jusqu’à la surface en tenant compte des probabilités de réflexion des ions énergétiques sur les parois ou de la réémission des particules neutres. Le modèle d’interaction particule-surface tient compte des différents mécanismes de gravure sèche telle que la pulvérisation, la gravure chimique réactive et la gravure réactive ionique. Le transport des produits de gravure est pris en compte ainsi que le dépôt menant à la croissance d’une couche mince. La validité du simulateur est vérifiée par comparaison entre les profils simulés et les observations expérimentales issues de la gravure par pulvérisation du platine par une source de plasma d’argon.
Resumo:
La quantité de données générée dans le cadre d'étude à grande échelle du réseau d'interaction protéine-protéine dépasse notre capacité à les analyser et à comprendre leur sens; d'une part, par leur complexité et leur volume, et d'un autre part, par la qualité du jeu de donnée produit qui semble bondé de faux positifs et de faux négatifs. Cette dissertation décrit une nouvelle méthode de criblage des interactions physique entre protéines à haut débit chez Saccharomyces cerevisiae, la complémentation de fragments protéiques (PCA). Cette approche est accomplie dans des cellules intactes dans les conditions natives des protéines; sous leur promoteur endogène et dans le respect des contextes de modifications post-traductionnelles et de localisations subcellulaires. Une application biologique de cette méthode a permis de démontrer la capacité de ce système rapporteur à répondre aux questions d'adaptation cellulaire à des stress, comme la famine en nutriments et un traitement à une drogue. Dans le premier chapitre de cette dissertation, nous avons présenté un criblage des paires d'interactions entre les protéines résultant des quelques 6000 cadres de lecture de Saccharomyces cerevisiae. Nous avons identifié 2770 interactions entre 1124 protéines. Nous avons estimé la qualité de notre criblage en le comparant à d'autres banques d'interaction. Nous avons réalisé que la majorité de nos interactions sont nouvelles, alors que le chevauchement avec les données des autres méthodes est large. Nous avons pris cette opportunité pour caractériser les facteurs déterminants dans la détection d'une interaction par PCA. Nous avons remarqué que notre approche est sous une contrainte stérique provenant de la nécessité des fragments rapporteurs à pouvoir se rejoindre dans l'espace cellulaire afin de récupérer l'activité observable de la sonde d'interaction. L'intégration de nos résultats aux connaissances des dynamiques de régulations génétiques et des modifications protéiques nous dirigera vers une meilleure compréhension des processus cellulaires complexes orchestrés aux niveaux moléculaires et structuraux dans les cellules vivantes. Nous avons appliqué notre méthode aux réarrangements dynamiques opérant durant l'adaptation de la cellule à des stress, comme la famine en nutriments et le traitement à une drogue. Cette investigation fait le détail de notre second chapitre. Nous avons déterminé de cette manière que l'équilibre entre les formes phosphorylées et déphosphorylées de l'arginine méthyltransférase de Saccharomyces cerevisiae, Hmt1, régulait du même coup sont assemblage en hexamère et son activité enzymatique. L'activité d'Hmt1 a directement un impact dans la progression du cycle cellulaire durant un stress, stabilisant les transcrits de CLB2 et permettant la synthèse de Cln3p. Nous avons utilisé notre criblage afin de déterminer les régulateurs de la phosphorylation d'Hmt1 dans un contexte de traitement à la rapamycin, un inhibiteur de la kinase cible de la rapamycin (TOR). Nous avons identifié la sous-unité catalytique de la phosphatase PP2a, Pph22, activé par l'inhibition de la kinase TOR et la kinase Dbf2, activé durant l'entrée en mitose de la cellule, comme la phosphatase et la kinase responsable de la modification d'Hmt1 et de ses fonctions de régulations dans le cycle cellulaire. Cette approche peut être généralisée afin d'identifier et de lier mécanistiquement les gènes, incluant ceux n'ayant aucune fonction connue, à tout processus cellulaire, comme les mécanismes régulant l'ARNm.
Resumo:
Introduction: Le supplément d’oxygène et la nutrition parentérale (NP) sont les deux sources majeures de stress oxydant chez le nouveau-né. Lors de la détoxification des oxydants, le potentiel redox du glutathion s’oxyde. Notre hypothèse est que le supplément d’oxygène et la durée de la NP sont associés à un potentiel redox plus oxydé et à une augmentation de la sévérité de la dysplasie bronchopulmonaire (DBP). Patients et Méthodes: Une étude observationnelle prospective incluant des enfants de moins de 29 semaines d’âge gestationnel. Les concentrations sanguines de GSH et GSSG à jour 6-7 et à 36 semaines d’âge corrigé étaient mesurées par électrophorèse capillaire et le potentiel redox était calculé selon l’équation de Nernst. La sévérité de la DBP correspondait à la définition du NICHD. Résultats: Une FiO2≥ 25% au 7ième jour de vie ainsi que plus de 14 jours de NP sont significativement associés à un potentiel redox plus oxydé et à une DBP plus sévère. Ces relations sont indépendantes de l’âge de gestation et de la gravité de la maladie initiale. La corrélation entre le potentiel redox et la sévérité de la DBP n’est pas significative. La durée de la NP était responsable de 15% de la variation du potentiel redox ainsi que de 42% de la variation de la sévérité de la DPB. Conclusion: Ces résultats suggèrent que l’oxygène et la NP induisent un stress oxydant et que les stratégies visant une utilisation plus judicieuse de l’oxygène et de la NP devraient diminuer la sévérité de la DBP.
Resumo:
L’instrument le plus fréquemment utilisé pour la mesure de l’amplitude de mouvement du coude est le goniomètre universel. Or celui-ci ne fait pas l’unanimité : plusieurs auteurs remettent en question sa fiabilité et validité. Cette étude détaille donc, en trois étapes, une alternative beaucoup plus précise et exacte : une méthode radiographique de mesure. Une étude de modélisation a d’abord permis de repérer les sources d’erreur potentielles de cette méthode radiographique, à ce jour jamais utilisée pour le coude. La méthode a ensuite servi à évaluer la validité du goniomètre. À cette fin, 51 volontaires ont participé à une étude clinique où les deux méthodes ont été confrontées. Finalement, la mesure radiographique a permis de lever le voile sur l’influence que peuvent avoir différents facteurs démographiques sur l’amplitude de mouvement du coude. La méthode radiographique s’est montrée robuste et certaines sources d’erreurs facilement évitables ont été identifiées. En ce qui concerne l’étude clinique, l’erreur de mesure attribuable au goniomètre était de ±10,3° lors de la mesure du coude en extension et de ±7,0° en flexion. L’étude a également révélé une association entre l’amplitude de mouvement et différents facteurs, dont les plus importants sont l’âge, le sexe, l’IMC et la circonférence du bras et de l’avant-bras. En conclusion, l’erreur du goniomètre peut être tolérée en clinique, mais son utilisation est cependant déconseillée en recherche, où une erreur de mesure de l’ordre de 10° est inacceptable. La méthode radiographique, étant plus précise et exacte, représente alors une bien meilleure alternative.
Resumo:
L’Amérique centrale, théâtre des dernières batailles rangées de la guerre froide, est aujourd’hui la région la plus violente au monde, selon les Nations unies. Notre étude s’intéresse à la forme de guerre irrégulière livrée par l’État guatémaltèque contre sa propre population pendant la deuxième moitié du vingtième siècle. À la lumière de rares témoignages d’exécutants et d’archives militaires et policières, nous examinons un mécanisme clandestin de répression dont les trois principales composantes – les enlèvements, la torture et les exécutions sommaires – pouvaient s’abattre sur toute personne soupçonnée, à tort ou à raison, de conspirer contre un statu quo d’exclusion. Au moment de leur articulation, ces moyens répressifs ont constitué un dispositif qui, à partir de 1966, s’est avéré d’une redoutable efficacité. Arme de prédilection des adeptes de la guerre antisubversive pendant plus de vingt ans, le dispositif permettait, telle une chaîne de production, l’accumulation des renseignements jugés indispensables à cette forme de guerre, ainsi que les cadavres dont l’absence éternelle ou la présence outrageuse sur la place publique servaient d’avertissement funeste à l’ensemble du corps social. Où chercher les origines d’un tel dispositif? À partir des ouvrages de référence cités dans le manuel de guerre contre-subversive de l’armée guatémaltèque, la réponse à cette question nous fera découvrir des parachutistes français pour qui la défaite militaire en Indochine et en Algérie pendant les années 1950 n’était pas une option et pour qui la victoire justifiait absolument tous les moyens. Le penchant de ces pionniers de la guerre hors-norme pour les cours magistraux, les entrevues et les articles, nous a permis d’étudier les méthodes qu’ils préconisaient et de repérer leurs traces au Guatemala. Alors que la guerre qui avait servi de prétexte au maintien du dispositif est terminée, sa très réputée efficacité assure encore aujourd’hui sa pérennité auprès de ceux qui peuvent s’offrir le service. En ce sens, la contre-insurrection se poursuit, et ce, malgré l’absence depuis une quinzaine d’années d’un conflit armé. Cette thèse aborde l’histoire de la guerre irrégulière et son déroulement au Guatemala. Les archives et les témoignages à notre disposition contredisent le déni des crimes commis dans les villes et les campagnes guatémaltèques, dont le génocide de 1982. Finalement, certains signes avant-coureurs indiquent que la violence et l’impunité actuelles au pays pourraient mener à la répétition de tels crimes à l’avenir.
Resumo:
Depuis quelques années, l'évolution moléculaire cherche à caractériser les variations et l'intensité de la sélection grâce au rapport entre taux de substitution synonyme et taux de substitution non-synonyme (dN/dS). Cette mesure, dN/dS, a permis d'étudier l'histoire de la variation de l'intensité de la sélection au cours du temps ou de détecter des épisodes de la sélection positive. Les liens entre sélection et variation de taille efficace interfèrent cependant dans ces mesures. Les méthodes comparatives, quant a elle, permettent de mesurer les corrélations entre caractères quantitatifs le long d'une phylogénie. Elles sont également utilisées pour tester des hypothèses sur l'évolution corrélée des traits d'histoire de vie, mais pour être employées pour étudier les corrélations entre traits d'histoire de vie, masse, taux de substitution ou dN/dS. Nous proposons ici une approche combinant une méthode comparative basée sur le principe des contrastes indépendants et un modèle d'évolution moléculaire, dans un cadre probabiliste Bayésien. Intégrant, le long d'une phylogénie, sur les reconstructions ancestrales des traits et et de dN/dS nous estimons les covariances entre traits ainsi qu'entre traits et paramètres du modèle d'évolution moléculaire. Un modèle hiérarchique, a été implémenté dans le cadre du logiciel coevol, publié au cours de cette maitrise. Ce modèle permet l'analyse simultané de plusieurs gènes sans perdre la puissance donnée par l'ensemble de séquences. Un travail deparallélisation des calculs donne la liberté d'augmenter la taille du modèle jusqu'à l'échelle du génome. Nous étudions ici les placentaires, pour lesquels beaucoup de génomes complets et de mesures phénotypiques sont disponibles. À la lumière des théories sur les traits d'histoire de vie, notre méthode devrait permettre de caractériser l'implication de groupes de gènes dans les processus biologique liés aux phénotypes étudiés.
Resumo:
La douleur est une expérience humaine des plus universelles et d’une riche variabilité culturelle. Néanmoins, il y a peu d’études sur ce sujet en général et qui plus est, la recherche sur la douleur chez les Amérindiens est presque inexistante. L’expérience de douleur de quelques 28 millions d’Amérindiens en Amérique du Sud, dont les Quichuas (Inca), est encore méconnue. Cette recherche interdisciplinaire, psychophysiologique et anthropologique, vise deux buts : (1) Étudier les effets de type analgésique du défi verbal culturellement significatif chez les Quichuas ; et (2) Faire un survol de leur système de croyances concernant la douleur, leur façon de la percevoir, de la décrire, et de la contrôler. Pour le volet expérimental, on a recruté 40 hommes en bonne santé. Les volontaires étaient assignés de façon alternée soit au groupe expérimental (20) soit au groupe contrôle (20). On a enregistré chez eux les seuils de la douleur, et celui de la tolérance à la douleur. Chez le groupe expérimental, on a, de plus, mesuré le seuil de la tolérance à la douleur avec défi verbal. La douleur était provoquée par pression au temporal, et mesurée à l’aide d’un algésimètre. Après chaque seuil, on a administré une échelle visuelle analogique. Pour le deuxième volet de l’étude, un groupe de 40 participants (15 femmes et 25 hommes) a répondu verbalement à un questionnaire en quichua sur la nature de la douleur. Celui-ci touchait les notions de cause, de susceptibilité, les caractéristiques de la douleur, les syndromes douloureux, les méthodes de diagnostic et de traitement, ainsi que la prévention. Notre étude a révélé que les participants ayant reçu le défi verbal ont présenté une tolérance accrue à la douleur statistiquement significative. Les valeurs de l’échelle visuelle analogique ont aussi augmenté chez ce groupe, ce qui indique un état accru de conscience de la douleur. L’expérience de la douleur chez les Quichuas est complexe et les stratégies pour la combattre sont sophistiquées. Selon leur théorie, le vécu d’émotions intenses, dues à des évènements de la vie, à l’existence d’autres maladies qui affectent la personne de façon concomitante, et aux esprits présents dans la nature ou chez d’autres personnes joue un rôle dans l’origine, le diagnostic et le traitement de la douleur. Les Quichuas accordent une grande crédibilité à la biomédecine ainsi qu’à la médecine traditionnelle quichua. Ils perçoivent la famille et le voisinage comme étant des sources supplémentaires de soutien. Il ressort également que les Quichuas préfèrent un service de santé de type inclusif et pluraliste. En conclusion, cette étude a révélé que des mots culturellement significatifs ayant une connotation de défi semblent augmenter la tolérance à la douleur chez les Quichuas. Il s’agit de la première étude à documenter les effets analgésiques de la parole. D’autre part, cette étude souligne également la potentielle utilité clinique de connaître le système quichua de croyances entourant la douleur et le contrôle de cette dernière. Ceci s’avère particulièrement utile pour les cliniciens soucieux d’offrir des soins de santé de meilleure qualité, culturellement adaptés, dans les Andes.
Resumo:
Will Kymlicka a formulé une théorie libérale du droit des minorités en arguant que l'on doit protéger les cultures minoritaires des influences extérieures, car, selon lui, ces cultures fournissent aux individus un contexte de choix significatif qui permet la prise de décision autonome. Il limite donc la portée de sa théorie aux minorités « culturelles », c'est-à-dire les minorités nationales et immigrantes, qui peuvent fournir ce contexte de choix significatif aux individus. Évidemment, les injustices vécues par ces deux types de minorités, aussi sévères soient-elles, n'épuisent pas les expériences d'injustices vécues par les membres de groupes minoritaires et minorisés (i.e. minorités sexuelles, femmes, Afro-Américains, etc.). On pourrait donc être tenté d'élargir la portée de la théorie du droit des minorités pour rendre compte de toutes les injustices vécues en tant que minorité. Toutefois, je défends la thèse selon laquelle cette extension est impossible dans le cadre d'une théorie libérale, car une de ses méthodes typiques, la « théorie idéale », limite la portée critique des thèses de Kymlicka et parce que l'autonomie individuelle a un caractère si fondamental pour les libéraux, qu'ils ne peuvent rendre compte du fait que certaines décisions individuelles autonomes peuvent contribuer à perpétuer des systèmes et des normes injustes.
Resumo:
Objectif : L’objectif général de cette étude est de comprendre en quoi l’utilisation des services de santé et de disponibilité des ressources en santé au Québec sont équitables. Méthodes : De type transversal et corrélationnel, cette étude intéresse les 95 territoires CSSS du Québec, et couvre les années 2006-2007 et 2008-2009. L’indice de défavorisation matérielle et sociale de Pampalon est mis en lien avec deux séries de variables, soit celles d’utilisation des services par CSSS (services hospitaliers; services médicaux; services CLSC) et celles de disponibilité des ressources (capacité financière; capacité matérielle, capacité humaine; viabilité). Pour ce faire, des analyses de variance ont été effectuées. Le modèle intégrateur de la performance des services de santé EGIPSS et celui de l’utilisation des services de santé de Donabedian servent de cadre d’analyse. Résultats : L’utilisation des services de santé est équitable en ce qui concerne la défavorisation matérielle, mais pas en ce qui a trait à la défavorisation sociale. L’utilisation des services médicaux dispensés par les omnipraticiens est plus élevée chez les populations les plus favorisées socialement comparativement aux populations les plus défavorisées. Toutefois, l’utilisation des médecins spécialistes est plus équitable que celle des omnipraticiens, cela, chez les populations défavorisées autant matériellement que socialement. Les hospitalisations évitables sont plus élevées chez les populations les défavorisées socialement comparativement aux populations les plus favorisées. En termes de disponibilité des ressources, les populations défavorisées disposent de plus de ressources que les plus favorisées, sauf en ce qui concerne la répartition du personnel. Conclusion : En général, il existe très peu d’iniquités dans l’utilisation des services de santé au Québec. Par ailleurs, la disponibilité des ressources en santé est relativement équitable au Québec, exception faite de la disponibilité du personnel.