625 resultados para hypothèse linéaire uniforme


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous cherchions à explorer les compétences que les intervenants du service des urgences (SU), des médecins et des infirmières travaillant en équipe dans des rôles complémentaires, ont développées dans la divulgation d‘un décès, pour éclairer l‘apprentissage de cette compétence de « Communicateur ». Nous avons utilisé des entrevues semi-dirigées et un échantillonnage non probabiliste de 8 intervenants. Nous avons analysé les entrevues à l‘aide de méthodes qualitatives reconnues. Le nombre total de présences de nos intervenants à une divulgation est estimé supérieur à 2000. Notre analyse a démontré qu‘ils utilisent une structure de divulgation uniforme. Néanmoins, ils repoussaient l‘utilisation d‘un protocole, parce que jugé trop rigide. La flexibilité et l‘empathie se sont révélées des qualités essentielles pour les intervenants. Nous représentons la visite de la famille comme un épisode de désorganisation/dysfonction qui se résorbe partiellement durant le séjour au SU. Nous proposons un modèle pédagogique qui est basé sur nos résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le benzo-a-pyrène (BaP) est un cancérogène reconnu pour l'homme, contaminant présent dans notre environnement. Il cause des dommages à l'ADN que nous avons mesurés dans les lymphocytes exposés à de faibles concentrations de BaP, provenant de 20 jeunes volontaires non fumeurs et en santé. Suite à l’exposition, la fréquence des micronoyaux (MN) augmente significativement et décrit une courbe dose-réponse non linéaire, suggérant le déclenchement du processus de détoxification et la réparation de l’ADN. Des différences entre les individus et entre les sexes sont présentes dans la réponse génotoxique produite par le BaP. Le test des aberrations chromosomiques montre que le pourcentage de chromosomes cassés augmente significativement dans les cellules exposées au BaP. Combinés avec l'augmentation de la fréquence des MN, nos résultats confirment l'effet clastogène du BaP déjà rapporté dans la littérature. L’hybridation in situ en fluorescence (FISH) des MN avec une sonde pancentromérique est aussi utilisée pour établir leur mécanisme de formation. La FISH révèle que la majorité des MN formés après une exposition au BaP contient un centromère et plus, ce qui est significativement différent de la condition non exposée. Plus précisément, dans nos conditions expérimentales, les MN induits par le BaP contiennent surtout trois centromères et plus, indiquant également la présence d'un effet aneugène. L'effet clastogène du BaP est relié à son rôle d'initiateur dans la cancérogenèse, alors que l'effet aneugène le relierait à l'étape de progression. Ces résultats sont importants puisque l'exposition aux composés de la classe du BaP est de longue durée (cigarette, air pollué).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique. Basée sur les constats effectués lors d’un essai clinique randomisé qui visait à évaluer les effets du lait maternel de fin d’expression sur la croissance et le développement de nouveau-nés prématurés et qui s’est soldé par un recrutement infructueux, une intervention de soutien à la lactation chez les mères de nouveau-nés prématurés a été développée. La mère d’un nouveau-né prématuré est en effet trois fois plus à risque qu’une autre de présenter une production lactée insuffisante. Il est donc crucial de soutenir ces mères dans l’établissement et le maintien d’une production lactée adéquate. Le but de cette étude pilote est d’estimer les effets d’une intervention de soutien à la lactation sur l’expression de lait maternel et la production lactée de mères ayant donné naissance prématurément ainsi que d’évaluer les aspects d’acceptabilité et de faisabilité de l’intervention, de l’étude et de ses procédures. Hypothèse de recherche. Les mères de nouveau-nés prématurés qui reçoivent une intervention de soutien à la lactation expriment leur lait significativement plus longtemps et plus fréquemment et produisent significativement un plus grand volume de lait à plus grande concentration lipidique sur une base quotidienne que celles qui reçoivent les soins usuels. Méthode. Devis : Projet-pilote de type essai clinique randomisé. Échantillon: Quarante mères de nouveau-nés prématurés de <30 semaines de gestation admis à une unité de soins intensifs néonatals. Procédures: Les mères du groupe témoin reçoivent les soins usuels alors que celles du groupe expérimental reçoivent une intervention de soutien à la lactation. Cette dernière comporte quatre volets: une séance d’enseignement portant sur l’établissement et le maintien d’une production lactée suffisante, un suivi téléphonique, une ligne d’aide téléphonique et le prêt d’un tire-lait électrique double pompage. Dans les deux groupes, les mères sont amenées à tenir un journal de bord de leurs séances d’expression et du volume de lait maternel exprimé. Résultats. L’étude et ses procédures de même que l’intervention de soutien sont acceptables et faisables. Les résultats observés en lien avec l’hypothèse de recherche sont orientés dans la même direction que cette dernière à l’exception de la concentration lipidique du lait maternel. Recommandations. Une étude à plus grande échelle doit être réalisée afin d’évaluer les effets de l’intervention de soutien à la lactation sur la production lactée de mères de nouveau-nés prématurés. Quant à la clinique, des actions concertées doivent être menées afin de créer un contexte propice et des conditions favorables à l’expression de lait maternel chez les mères de nouveau-nés prématurés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

HHV-6 is a ubiquitous human herpesvirus. Most individuals become infected at the age of 2 years. Primary infection by the virus causes a self-limiting febrile illness called exanthem subitum or roseola. In adults, primary infection may cause mononucleosis-like illnesses. The infection usually remains latent in healthy individuals, but often reactivates in immunocompromised individuals, for example, transplant patients and AIDS patients. The virus has also been associated with cancers and lymphoproliferative disorders. The virus encodes two proteins that interact with p53. However, little is known concerning the impact of the virus on cell cycle progression in human cells. The investigations reported in the thesis were focused on this issue. We show here that that HHV-6 infection delays the cell cycle progression in human T cell line HSB-2, as well as in primary human T cells and causes their accumulation in S and G2/M phase. By degrading the viral DNA in the virus-infected cells, we show that the infected cells accumulate in the G2/M and not in the S phase. We observed an increase in the kinase activity of cdc2 in virus-infected cells despite lower levels of its catalytic partners, cyclin A and cyclin B. We show here that the viral early antigen p41 associates with, and increases the kinase activity of, CDK1. Our studies have shown that there is a drastic reduction of p21 protein, despite the virus-induced stabilization and activation of p53 suggesting that p53 may be transcriptionally inactivated in the virus-infected cells. This decrease of p21 in infected cells was partially restored by proteasome inhibitors. These results suggest that HHV-6 causes perturbations in the normal progression of cell cycle in human T cells. Autophagy is a physiological cell process during which old cellular constituents and long-lived proteins in cells are degraded. This process is regulated in a cell cycle-dependent manner. We show here that infection with HHV-6 induces autophagy in HSB-2 cells. This was shown by the induction of LC-3 II as well as by the appearance of autophagic vacuoles in the virus-infected cells. However, we found that the virus inhibits fusion between autophagic vacuoles and lysosomes formed in infected cells, thus evading the autophagic response of infected host cells. Finally we tried to investigate replication of the virus in human cells in the absence of P53; a tumor suppressor gene which is also known as "the guardian of the genome ". During these investigations, we found that that inhibition of p53 gene expression mediated by siRNA as well as its inhibition by pharmacological inhibitors leads to massive cell death in human T cell line HSB-2 that carries a wild-type p53. We show that this death also occurs in another cell line CEM, which carries a transcriptionally mutated p53. Interestingly, the cell death could be prevented by pharmacological inhibitors of autophagy and necroptosis. Taken together, our results provide important novel insights concerning the impact of HHV-6 on cell cycle regulation and autophagy as well as of basal level p53 in cell survival.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s'articule autour de trois essais portant sur des questions internationales en économie des ressources naturelles. Le premier essai examine la production et l'échange des ressources non-renouvelables dans un modèle spatial et souligne le rôle de la superficie des pays et du coût des transports dans la détermination du sens de l'échange. Le deuxième essai considère le tarif d'extraction de la rente de rareté liée aux ressources naturelles non-renouvelables avec le modèle spatial développé dans premier essai. Le cadre spatial (plus général) permet de représenter des pays qui sont à la fois importateurs et producteurs de la ressource, ce qui n'est pas possible dans les modèles traditionnels de commerce international où les pays sont traités comme des points (sans dimension). Le troisième essai aborde la question des droits de propriétés sur les zones maritimes et examine l'allocation d'une population de pêcheurs entre les activités productives et non-productives dans une communauté côtière. Le premier chapitre propose un modèle spatial de commerce international des ressources non-renouvelables. Le cadre spatial considère explicitement la différence de taille géographique (superficie) entre les pays et permet ainsi de tenir compte du fait que les gisements naturels et leurs utilisateurs soient dispersés dans l'espace, même à l'intérieur d'un pays. En utilisant un modèle spatial à la Hotelling, nous examinons l'évolution dans le temps du sens de l'échange entre deux pays (ou régions) qui diffèrent du point de vue de leur technologie de production, de leur superficie et de leur dotation en gisement d'une ressource naturelle non-renouvelable. Le chapitre met en évidence le rôle de la taille géographique dans la détermination du sens de l'échange, à côté des explications traditionnelles que sont l'avantage comparatif et les dotations des facteurs. Notre analyse est fondamentalement différente des autres contributions dans la littérature sur le commerce international des ressources naturelles parce qu'elle souligne l'importance de la taille géographique et du coût de transport par rapport à d'autres facteurs dans la détermination des flux de ressource à l'équilibre. Le coût unitaire de transport joue un rôle capital pour déterminer si la différence de superficie entre les pays influence le sens de l'échange à l'équilibre plus que les autres facteurs. Le chapitre discute aussi du caractère régional des échanges qui a été observé pour certaines ressources telles que le minerai de fer et la bauxite. Le chapitre deux aborde la question de la répartition de la rente de rareté liée aux ressources naturelles non-renouvelables entre les pays producteurs et les pays consommateurs. Cette question a été abordée dans la littérature sous une hypothèse quelque peu restrictive. En effet, dans la plupart des travaux portant sur ce sujet le pays importateur est automatiquement considéré comme dépourvu de gisement et donc non producteur de la ressource. Pourtant la réalité est qu'il existe des ressources pour lesquelles un pays est à la fois producteur et importateur. Le cadre d'analyse de ce second essai est le modèle spatial développé dans le premier essai, qui permet justement qu'un pays puisse être à la fois importateur et producteur de la ressource. Le pays importateur détermine alors simultanément le tarif optimal et le taux d'extraction de son propre stock. Nous montrons que le tarif optimal croît au taux d'intérêt et de ce fait, ne crée aucune distorsion sur le sentier d'extraction de la ressource. Le tarif optimal permet de récupérer toute la rente lorsque le pays exportateur ne consomme pas la ressource. Néanmoins, la possibilité pour le pays exportateur de consommer une partie de son stock limite la capacité du pays importateur à récupérer la rente chez le pays exportateur. La présence de gisements de la ressource dans le pays importateur réduit la rente du pays exportateur et de ce fait renforce la capacité du pays importateur à récupérer la rente chez le pays exportateur. Le tarif initial est une fonction décroissante du stock de ressource dans le pays importateur. Cet essai aborde également la question de la cohérence dynamique du tarif obtenu avec la stratégie en boucle ouverte. Le troisième chapitre examine un problème d'allocation de l'effort entre les activités productives (par exemple la pêche) et les activités non productives (par exemple la piraterie maritime) dans une population de pêcheurs. La répartition de la population entre les activités de pêche et la piraterie est déterminée de façon endogène comme une conséquence du choix d'occupation. Nous établissons l'existence d'une multiplicité d'équilibres et mettons en évidence la possibilité d'une trappe de piraterie, c'est-à-dire un équilibre stable où une partie de la population est engagée dans les actes de piraterie. Le modèle permet d'expliquer l'augmentation significative des attaques de piraterie dans le Golfe d'Aden au cours des dernières années. Le chapitre discute aussi des différents mécanismes pour combattre la piraterie et souligne le rôle crucial des droits de propriété.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire décrit le développement d’une nouvelle méthodologie d’expansion de cycle irréversible à partir de N-alkyl-3,4-déhydroprolinols pour former des N-alkyl tétrahydropyridines 3-substituées en passant par un intermédiaire aziridinium bicyclique. Cette méthode permet l’introduction d’un vaste éventail de substituants à la position 3 et tolère bien la présence de groupements aux positions 2 et 6, donnant accès à des pipéridines mono-, di- ou trisubstituées avec un excellent diastéréocontrôle. De plus, il est démontré que l’information stéréogénique du 3,4-déhydroprolinol de départ est totalement transférée vers le produit tétrahydropyridine. Additionnellement, une méthodologie fut dévelopée pour la préparation des produits de départ 3,4-déhydroprolinols en forme énantiopure, avec ou sans substituants aux positions 2 et 5, avec un très bon stéréocontrôle. Le premier chapitre présente un résumé de la littérature sur le sujet, incluant un bref survol des méthodes existantes pour la synthèse de pipéridines 3-substituées, ainsi qu’une vue d’ensemble de la chimie des aziridiniums. L’hypothèse originale ainsi que le raisonnement pour l’entreprise de ce projet y sont également inclus. Le second chapitre traite de la synthèse des N-alkyl-3,4-déhydroprolinols utilisés comme produits de départ pour l’expansion de cycle vers les tétrahydropyridines 3-substituées, incluant deux routes synthétiques différentes pour leur formation. Le premier chemin synthétique utilise la L-trans-4-hydroxyproline comme produit de départ, tandis que le deuxième est basé sur une modification de la réaction de Petasis-Mannich suivie par une métathèse de fermeture de cycle, facilitant l’accès aux précurseurs pour l’expansion de cycle. Le troisième chapitre présente une preuve de concept de la viabilité du projet ainsi que l’optimisation des conditions réactionnelles pour l’expansion de cycle. De plus, il y est démontré que l’information stéréogénique des produits de départs est transférée vers les produits. iv Au quatrième chapitre, l’étendue des composés pouvant être synthétisés par cette méthodologie est présentée, ainsi qu’une hypothèse mécanistique expliquant les stéréochimies relatives observées. Une synthèse énantiosélective efficace et divergente de tétrahydropyridines 2,3-disubstituées est également documentée, où les deux substituants furent introduits à partir d’un intermédiaire commun en 3 étapes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous avons préalablement démontré que l'endothéline-1 (ET-1), un peptide vasoconstricteur de 21 acides aminés, joue un rôle central dans le métabolisme des tissus articulaires et a des fonctions cataboliques sur le cartilage articulaire dans l'ostéoarthrose, en liant son récepteur de type A (ETA). Suite à la relâche du nonapeptide vasodilatateur bradykinine (BK), et l'augmentation d'expression du récepteur B1 des kinines (BKB1), ces médiateurs engendrent un cycle d'inflammation, une destruction du cartilage, et une douleur articulaire. Lors de cette étude, l'efficacité thérapeutique des antagonistes spécifiques du ETA et/ou BKB1 dans un modèle animal d'ostéoarthrose a été testée. Notre hypothèse est que l'antagonisme va diminuer la progression de la pathologie et de la douleur articulaire. L'ostéoarthrose a été induite chez des rats par rupture chirurgicale du ligament croisé antérieur. Les animaux ont été traités par injections intra articulaire hebdomadaires des antagonistes peptidiques spécifiques du ETA et/ou BKB1. La douleur articulaire a été évaluée par le test d'incapacitance statique durant les deux mois postopératoires ; la morphologie articulaire a été examinée post mortem par radiologie et histologie. On constate que le traitement a diminué la douleur et a préservé la morphologie articulaire ; la double inhibition a été plus efficace que la simple inhibition. En conclusion, l'antagonisme double d'ETA et BKB1 améliore la douleur chronique et prévient la dégradation articulaire dans l'ostéoarthrose, ce qui suggère que ces récepteurs peuvent être des cibles thérapeutiques potentiels pour le traitement de cette pathologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude porte sur les aspects Nature-Culture relatifs à l’émergence de variations interindividuelles quant à la capacité universelle de régulation d’une émotion primaire, la tristesse. Cette problématique représente un exemple du lien entre la conception évolutionniste d’une nature humaine universelle, innée et génétiquement prescrite, mais susceptible de variation dans son expression en fonction d’expériences individuelles liées aux processus de socialisation et d’enculturation. À l’aide du devis génétiquement informatif des jumeaux, nous nous sommes d’abord penchés sur l’étiologie gènes-environnement de la dépression à l’enfance, une dysfonction du système de régulation émotionnelle de la tristesse. Puis, nous nous sommes interrogés quant à l’influence du traitement et de l’état psychique maternels sur cet aspect du développement émotionnel de l’enfant. Nos analyses de la symptomatologie dépressive indiquent une absence d’influence génétique dans le développement de ce trouble de l’humeur. Les variations individuelles de la régulation de la tristesse reposent ainsi uniquement sur les effets de l’environnement. Nos résultats révèlent également l’existence d’une relation importante entre l’état psychique de la mère, évalué lorsque les jumeaux avaient cinq mois, et la présence de symptômes dépressifs chez ces derniers mesurés huit ans plus tard. L’état psychique de la mère est considéré comme l’un des meilleurs indicateurs de la qualité du traitement maternel en bas âge. Nos mesures directes des comportements maternels envers le nourrisson et le développement ultérieur du trouble de dépression indiquent également l’existence de tendances statistiques allant dans le sens de notre hypothèse d’un traitement maternel sous-optimal contribuant au développement de dysfonctions émotionnelles ultérieures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les ataxies héréditaires sont des désordres neuro-dégénératifs qui causent une ataxie comme symptôme primaire; soit une perte de coordination des mouvements volontaires, un sens de l’équilibre déficient et un trouble à la motricité. Elles forment un groupe cliniquement et génétiquement hétérogène. De ce fait, de nombreuses classifications existent basées sur différents critères. Cependant, le consensus actuel veut que le mode de transmission soit le critère premier de classement. On estime la prévalence mondiale des ataxies héréditaires à 6/100 000 bien que ce nombre diffère entre régions. C’est le cas du Québec où la structuration historique du bassin génétique canadien-français a menée à des effets fondateurs régionaux, ce qui a eu comme conséquence de hausser la prévalence régionale de certaines maladies. L’Acadie est également une région canadienne-française avec des effets fondateurs où le taux de prévalence de certaines ataxies héréditaires est plus élevé. Nous avons recruté huit familles canadiennes-françaises provenant de diverses régions du Québec, ayant un lien génétique plus ou moins rapproché avec l’Acadie, dans lesquelles nous avons observé dix cas d’une forme d’ataxie spastique autosomique récessive relativement légère qui a résistée à l’analyse des gènes d’ataxies connues. Nous avons émis l’hypothèse d’être en présence d’une nouvelle forme d’ataxie à effet fondateur pour la population canadienne-française. Afin d’identifier le gène muté responsable de cette ataxie, un criblage génomique des marqueurs SNP pour les individus recrutés fut effectué. Puis, par cartographie de l’homozygotie, une région de 2,5 Mb fut identifiée sur le chromosome 17p13 dans une famille. Une revue de la littérature nous a permis de constater, qu’en 2007, quatre familles nord-africaines atteintes d’une ataxie dénommée SPAX2 qui présentaient des manifestations cliniques semblables avaient déjà été liées au même locus sur le chromosome 17. Afin de supporter notre hypothèse que les malades étaient porteurs de deux copies de la même mutation fondatrice et de cartographier plus finement notre région d’intérêt, les haplotypes de tous les atteints de nos huit familles furent étudiés. Nous avons établie qu’un intervalle de 200 kb (70 SNP), soit du marqueur rs9900036 à rs7222052, était partagé par tous nos participants. Les deux gènes les plus prometteurs des 18 se trouvant dans la région furent séquencés. Aucune mutation ne fut trouvée dans les gènes SLC25A11 et KIF1C. Par la suite, une analyse de liaison génétique stricte avec calcul de LOD score nous a permis d’exclure ce locus de 200 kb comme étant celui porteur du gène muté causant l’ataxie dans la majorité de nos familles. Nous avons donc conclus que malgré qu’une famille soit homozygote pour une grande région du chromosome 17, l’absence d’Informativité des marqueurs SNP dans la région de 200 kb fut responsable de l’apparent partage d’haplotype homozygote. Le travail reste donc entier afin d’identifier les mutations géniques responsables de la présentation ataxique chez nos participants de souche acadienne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre recherche vise à vérifier s'il existe un lien entre l'intérêt des Américains pour les investissements étrangers et le maintien des structures opaques de la finance internationale. Les pratiques d'opacité financière (utilisation abusive du secret bancaire, faibles mesures d'identification du client, faible règlementation bancaire, absence d’échange d’information fiscale, absence d’obligations d’enregistrements de compagnies et de fiducies, possibilité d’établir la propriété d’une société avec des prête-noms, utilisation de bons au porteur, manque d’encadrement des fiducies, etc.) semblent accommoder les États qui les dénoncent. Utilisant les théories des jeux à deux niveaux de Putnam, de la règlementation et de l’équilibre de Nash, nous faisons le lien entre le niveau national et international. Notre recherche consiste en deux études de cas. La première traite d’un projet de règlement de l’Internal Revenue Service visant à assurer la déclaration de revenus d’intérêt sur les dépôts bancaires des non-résidents. La seconde traite d’une série de projets de loi déposés au Sénat et à la Chambre des représentants des États-Unis. Ils cherchent à assurer la transparence du processus d’enregistrement de compagnies de manière à faciliter l’accès des agences d’application de la loi à l’information sur les bénéficiaires effectifs des compagnies formées en sol américain. Notre recherche ne permet pas de confirmer notre hypothèse avec certitude. Cependant, nos données tendent à indiquer que les groupes d’intellectuels et les groupes de pression financiers incitent le gouvernement des États-Unis à freiner la mise en application de certaines mesures prévues par le régime antiblanchiment (particulièrement l’identification du client et le partage d’information avec des pays tiers) pour attirer l’investissement étranger.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour objet le niveau d’autonomie du Brésil par rapport à la première puissance hémisphérique, les États-Unis. La problématique est de comprendre quels sont les facteurs qui ont déterminé le niveau d’autonomie du Brésil durant les années où le président Luiz Inácio Lula da Silva a été au pouvoir (2003-2010). Les hypothèses avancées sont les suivantes : le contexte pour l’action a fortement favorisé l’accroissement du niveau d’autonomie du Brésil; les stratégies de politique étrangère ont permis une augmentation du niveau d’autonomie du Brésil. La première hypothèse, celle portant sur l’influence du contexte pour l’action, sera analysée en deux parties principales. D’une part, le contexte international qui est caractérisé par l’environnement international post-11 septembre 2001 et par l’émergence de nouvelles puissances sur la scène internationale. D’autre part, le contexte continental sera analysé en fonction des relations actuelles entre les États-Unis et l’Amérique latine, sous-continent longtemps considéré comme la cour-arrière américaine. L’évaluation de la seconde hypothèse consistera à faire l’analyse de trois stratégies de politique étrangère mises en place durant l’administration Lula. La première est le développement de relations Sud-Sud ou l’horizontalisation des relations. La seconde est la stratégie régionale du Brésil, soit celle de jouer un rôle de leader et de favoriser l’intégration politique et économique dans la région sud-américaine. La troisième stratégie consiste en une distanciation relative vis-à-vis des États-Unis en s’opposant de façon ponctuelle à la puissance américaine. Nous concluons, sur la base de l’étude du contexte pour l’action et des stratégies brésiliennes de politique étrangère, que le niveau d’autonomie du Brésil par rapport aux États-Unis a augmenté durant la période de l’administration Lula.