994 resultados para Guy anchors


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’agrégation érythrocytaire est le principal facteur responsable des propriétés non newtoniennes sanguines pour des conditions d’écoulement à faible cisaillement. Lorsque les globules rouges s’agrègent, ils forment des rouleaux et des structures tridimensionnelles enchevêtrées qui font passer la viscosité sanguine de quelques mPa.s à une centaine de mPa.s. Cette organisation microstructurale érythrocytaire est maintenue par des liens inter-globulaires de faible énergie, lesquels sont brisés par une augmentation du cisaillement. Ces propriétés macroscopiques sont bien connues. Toutefois, les liens étiologiques entre ces propriétés rhéologiques générales et leurs effets pathophysiologiques demeurent difficiles à évaluer in vivo puisque les propriétés sanguines sont dynamiques et fortement tributaires des conditions d’écoulement. Ainsi, à partir de propriétés rhéologiques mesurées in vitro dans des conditions contrôlées, il devient difficile d’extrapoler leurs valeurs dans un environnement physiologique. Or, les thrombophlébites se développent systématiquement en des loci particuliers du système cardiovasculaire. D’autre part, plusieurs études cliniques ont établi que des conditions hémorhéologiques perturbées constituent des facteurs de risque de thrombose veineuse mais leurs contributions étiologiques demeurent hypothétiques ou corrélatives. En conséquence, un outil de caractérisation hémorhéologique applicable in vivo et in situ devrait permettre de mieux cerner et comprendre ces implications. Les ultrasons, qui se propagent dans les tissus biologiques, sont sensibles à l’agrégation érythrocytaire. De nature non invasive, l’imagerie ultrasonore permet de caractériser in vivo et in situ la microstructure sanguine dans des conditions d’écoulements physiologiques. Les signaux ultrasonores rétrodiffusés portent une information sur la microstructure sanguine reflétant directement les perturbations hémorhéologiques locales. Une cartographie in vivo de l’agrégation érythrocytaire, unique aux ultrasons, devrait permettre d’investiguer les implications étiologiques de l’hémorhéologie dans la maladie thrombotique vasculaire. Cette thèse complète une série de travaux effectués au Laboratoire de Biorhéologie et d’Ultrasonographie Médicale (LBUM) du centre de recherche du Centre hospitalier de l’Université de Montréal portant sur la rétrodiffusion ultrasonore érythrocytaire et menant à une application in vivo de la méthode. Elle se situe à la suite de travaux de modélisation qui ont mis en évidence la pertinence d’un modèle particulaire tenant compte de la densité des globules rouges, de la section de rétrodiffusion unitaire d’un globule et du facteur de structure. Ce modèle permet d’établir le lien entre la microstructure sanguine et le spectre fréquentiel du coefficient de rétrodiffusion ultrasonore. Une approximation au second ordre en fréquence du facteur de structure est proposée dans ces travaux pour décrire la microstructure sanguine. Cette approche est tout d’abord présentée et validée dans un champ d’écoulement cisaillé homogène. Une extension de la méthode en 2D permet ensuite la cartographie des propriétés structurelles sanguines en écoulement tubulaire par des images paramétriques qui mettent en évidence le caractère temporel de l’agrégation et la sensibilité ultrasonore à ces phénomènes. Une extrapolation menant à une relation entre la taille des agrégats érythrocytaires et la viscosité sanguine permet l’établissement de cartes de viscosité locales. Enfin, il est démontré, à l’aide d’un modèle animal, qu’une augmentation subite de l’agrégation érythrocytaire provoque la formation d’un thrombus veineux. Le niveau d’agrégation, la présence du thrombus et les variations du débit ont été caractérisés, dans cette étude, par imagerie ultrasonore. Nos résultats suggèrent que des paramètres hémorhéologiques, préférablement mesurés in vivo et in situ, devraient faire partie du profil de risque thrombotique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire aborde la question de la responsabilité précontractuelle en regardant son incidence en droit québécois ainsi qu'en droit international. Plus précisément, il s'agit de savoir comment est traitée la rupture des négociations lorsqu'aucun avant-contrat n'a été rédigé à cet effet. Afin de pouvoir déterminer ses grands paramètres, le texte aborde dans un premier temps la nature de cette responsabilité. N'étant pas codifiée en droit québécois et ne faisant l'objet d'aucune spécification dans les grands instruments internationaux, cette nature doit être associée à l'un des deux grands régimes de responsabilité soit: contractuel ou extracontractuel. L'importance de cette détermination n'est pas simplement théorique puisqu'elle a une influence directe sur plusieurs éléments comme la prescription ou le droit international privé. Au Québec, la doctrine et la jurisprudence ont choisi d'associer la responsabilité précontractuelle au domaine extracontractuel. Ainsi, elle devra suivre le modèle classique de faute, dommage et lien causal. Cependant, en droit international, la question de la nature reste encore nébuleuse compte tenu de la diversité des membres qui composent les comités d'élaboration des normes. Tous s'entendent pourtant sur un concept fondamental entourant la responsabilité précontractuelle : la bonne foi. Elle est au centre de la faute et dicte une éthique des pourparlers. Ainsi, dans un deuxième temps, la mise en œuvre de la responsabilité est abordée. De cette notion de bonne foi découlent de nombreux devoirs que les parties négociantes se doivent de respecter. Ils sont de création jurisprudentielle et demandent une étude au cas par cas. La liberté contractuelle étant le principe de base dans la formation des contrats, les tribunaux québécois sanctionnent rarement les cas de rupture des négociations. C'est ce principe de liberté qui empêche les pays de common law d'accepter le concept de bonne foi et de responsabilité précontractuelle, même s'ils sanctionnent, par l'intermédiaire de mécanismes, les comportements fautifs dans les pourparlers. Finalement, les dommages et les intérêts pouvant être réclamés varient. Au Québec et en France, autant les pertes subies que les gains manqués sont indemnisés tandis que les instruments internationaux sont plus réticents pour accorder un montant pour le gain manqué. Bref, la responsabilité précontractuelle est en pleine construction et son utilisation devant les tribunaux est encore peu fréquente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le domaine des relations industrielles, on a vu apparaître, ces dernières années, différents changements au niveau des relations du travail, notamment en matière de négociation collective. En effet, de nouvelles formes de négociation ont vu le jour en réponse aux changements qui se sont produits sur le marché du travail. De façon plus précise, les théoriciens se sont penchés, d’une part, sur des méthodes de négociation moins conflictuelles et les acteurs concernés par la négociation collective ont su les mettre en pratique, d’autre part. Cependant, bien que certains aient tenté de substituer ces méthodes plus coopératives à la négociation traditionnelle de façon intégrale, les théoriciens et praticiens se sont aperçus qu’il était plutôt difficile de les adopter à l’état pur et ce, de façon alternative à la négociation traditionnelle. Afin d’optimiser les gains mutuels lors de la négociation d’une entente, les négociateurs vont plutôt opter pour un usage combiné des méthodes plus traditionnelles et des nouvelles formes dites plus coopératives; on parle alors de négociation mixte. Toutefois, peu d’études portant sur la négociation mixte ont été conduites. Nous croyons néanmoins que cette forme de négociation est plus appropriée, notamment en raison de la nature des enjeux traités à l’occasion d’une négociation collective. S’insérant dans ce contexte, l’objet de notre recherche est donc l’étude, par l’entremise d’un cas particulier, de la négociation mixte. De façon plus précise, nous cherchons à évaluer la méthode de négociation adoptée lors de la négociation collective ayant eu lieu entre le Centre de la petite enfance Pomme Soleil (CPE) et le Syndicat des intervenantes en petite enfance de Montréal (SIPEM) – CSQ en 2005. Afin d’y parvenir, nous avons vérifié les propositions et hypothèses suivantes : (1) la nature du climat des négociations précédentes a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (2) la nature du climat des relations industrielles a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (3) le passage du temps a un effet de transition sur la méthode de négociation de type mixte qui manifeste une dominante intégrative dans les étapes initiales de la négociation et une dominante distributive dans les étapes finales, (4) les négociateurs ayant reçu une formation à la négociation basée sur la résolution de problèmes ou basée sur les intérêts adoptent une méthode de négociation de type mixte à dominante intégrative, (5) l’expérience des négociateurs patronal et syndical a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (6) la stratégie de négociation initiale adoptée par les parties a une influence sur la méthode de négociation de type mixte au cours de la négociation de la convention collective et (7) la négociation des clauses à incidence pécuniaire donne lieu à une méthode de négociation de type mixte à dominante distributive. Grâce aux résultats que nous avons recueillis par l’entremise de l’observation de la négociation collective entre le CPE Pomme Soleil et le SIPEM, mais principalement par le biais des entrevues, nous sommes en mesure d’affirmer que, conformément à notre question de recherche, la négociation fut mixte, à dominante intégrative. Cependant, la question salariale, bien qu’elle ne fut pas abordée à la table de négociation mais avec le gouvernement provincial, prit une tangente distributive. En ce sens, nous pouvons dire que la négociation fut mixte et ce, de façon séquentielle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le but de vérifier l’impact d’un changement soudain dans l’agrégation érythrocytaire sur certains paramètres cardiovasculaires, une transfusion par échange sanguin du tiers du volume a été effectuée avec du sang hyperagrégeant chez le rat de souche Brown Norway. La pression caudale, le volume cardiaque systolique, la fraction d’éjection, le débit cardiaque, le rythme cardiaque et la résistance périphérique à l’écoulement sanguin ont été observés non-intrusivement sur 19 jours suite à la transfusion. Les rats ont été sacrifiés plus d’un mois suivant la transfusion et une étude ex vivo de la réponse à deux agents dilatateurs (l’acétylcholine et le nitroprussiate de sodium) a été menée sur les artérioles mésentériques. Des variations des paramètres cardiovasculaires, soit le débit, le volume systolique et la résistance périphérique, ont été remarquées dans les trois premiers jours posttransfusion. Une résistance du muscle vasculaire lisse au monoxyde d’azote a été notée chez les rats transfusés au sang hyperagrégeant alors qu’aucune dysfonction endothéliale n’était apparente en réponse à l’acétylcholine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les avocats, praticiens et universitaires qui sont engagés dans le droit des transports internationaux de marchandises par mer ont l’habitude de travailler avec un régime complexe de responsabilité du transporteur maritime. La coexistence de plusieurs conventions régissant ce régime et l’imprécision des textes de ces différentes législations rendent leur application difficile d’où l’échec permanent du voeu d’uniformisation de ce droit. En premier lieu, nous retrouvons le régime de base celui de la Convention de Bruxelles sur l’unification de certaines règles en matière de connaissement, ratifiée le 25 août 1924 et ses Protocoles modificatifs annexés en 1968 et 1979. Il s’agit d’un régime fondé sur la présomption de responsabilité comprenant une liste de cas exonératoires appelés « cas exceptés ». En second lieu figurent les Règles de Hambourg, édictées en 1978, qui établissent un régime basé sur la présomption de faute du transporteur à l’exception de deux cas exonératoires : l’incendie et l’assistance ou la tentative de sauvetage. Enfin, apparaît la Convention sur le contrat de transport international de marchandises effectué entièrement ou partiellement par mer, adoptée par les Nations unies en 2009, sous l’appellation « Les Règles de Rotterdam », qui adopte un régime de responsabilité « particulier ». Cette étude a tenté d’analyser ces mécanismes juridiques mis en place. Pour ce faire, nous nous sommes concentrées sur les sources du dysfonctionnement de ces régimes, afin de favoriser le développement d’initiatives d’uniformisation des règles de responsabilité du propriétaire du navire. L’analyse des textes positifs, de la doctrine et de la jurisprudence, nous a permis de constater que les différentes approches du régime juridique du transporteur maritime des marchandises sous ces différentes législations ne garantissent pas la prévisibilité et la sécurité juridiques recherchées par les différents acteurs maritimes. Par conséquent, l’absence d’un régime cohérent et unifié a créé des incertitudes au sein de la communauté maritime internationale et au sein des tribunaux en cas de litige. Pour surmonter cette réalité complexe, notre thèse propose une approche qui pourra simplifier ce régime, l’approche objective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’augmentation observée de la prévalence du surpoids et de l’obésité au Québec comme ailleurs en Occident inquiète tant les gouvernements que les autorités médicales. Afin de contenir ce phénomène qui est désormais décrit comme une pandémie d’obésité, ces organisations y sont allées de différentes initiatives et recommandations, dans un contexte d’inefficacité avérée des interventions de gestion de poids à caractère clinique et d’émergence de stratégies de prévention dont l’efficacité et la sécurité à long terme restent encore à démontrer. Méthode : L’objet de cette recherche a été de décrire l’évolution du discours des organismes officiels de santé au Québec en matière de gestion du poids par l’analyse de contenu. Cette analyse a eu recours à une grille de plus de 160 documents produits au cours des 60 dernières années par les gouvernements, les autorités professionnelles et les médias québécois. Résultats et discussion : L’analyse révèle que l’évolution du discours de ces organisations s’inscrit dans trois continuums : le pathologique (une évolution, une gradation, une inflation étymologique du sens qui est donné au poids problématique); la surveillance (avec l’établissement de critères rationnels, la surveillance d’abord individuelle est devenue collective et s’est institutionnalisée); la responsabilisation (la responsabilité du poids s’est déplacée de l’individu vers le collectif puis vers le social). Ces continuums illustrent un déplacement de la manière de conceptualiser le poids de la sphère privée vers la sphère publique. Cette analyse révèle aussi qu’il y a à l’œuvre un exercice disciplinaire propre à une moralisation qui s’appuie sur la prémisse que l’augmentation de la prévalence touche toute la population de manière égale. Or, il n’en est rien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’hémoglobine est une protéine contenue dans les globules rouges dont la principale fonction est le transport de l’oxygène. Chaque molécule d’hémoglobine est un tétramère constitué de deux paires de globines identiques de type α et β. La β-thalassémie est une maladie génétique hématopoïétique provenant de mutations du gène encodant l'hémoglobine. Ce désordre se caractérise par une diminution ou une absence totale de la synthèse de la chaîne β-globine résultant principalement en une anémie hémolytique sévère ainsi que des complications multisystémiques, telles que la splénomégalie, des déformations osseuses et une dysfonction hépatique et rénale. Actuellement, les transfusions sanguines chroniques représentent le traitement standard des patients β-thalassémiques. Cette thérapie nécessite l’administration conjointe d’un traitement chélateur de fer puisqu’elle entraîne une accumulation pathologique du fer, considéré à ce jour comme la source principale des complications cardiovasculaires de la β-thalassémie. Néanmoins, malgré le traitement efficace de la surcharge de fer transfusionnelle, l’insuffisance cardiaque demeure encore la principale cause de mortalité chez les patients atteints de β-thalassémie. Cette observation indique possiblement la présence d’un mécanisme complémentaire dans le développement de la physiopathologie cardiaque β-thalassémique. L’objectif du présent projet consistait donc à étudier les altérations cardiovasculaires de la β-thalassémie indépendamment de la surcharge de fer transfusionnelle. En utilisant un modèle murin non-transfusé de la β-thalassémie majeure, nous avons d’abord évalué in vivo, par méthode d’imagerie novatrice échographique à haute fréquence, les propriétés hémodynamiques vasculaires. Nos résultats d’index de Pourcelot ainsi que de résistance vasculaire périphérique totale ont démontré une perturbation de l’écoulement microcirculatoire chez les souris β-thalassémiques non-transfusées. Subséquemment, nous avons étudié la fonction endothéliale de régulation du tonus vasculaire de vaisseaux mésentériques isolés. Nos résultats ont révélé un dysfonctionnement de la réponse vasodilatatrice dépendante de l’endothélium chez les souris β-thalassémiques malgré une augmentation de l’expression de l’enzyme de synthèse du monoxyde d’azote ainsi qu’un remodelage de la carotide commune caractérisé par un épaississement de la paroi vasculaire. Finalement, notre étude échocardiographique de la fonction et la morphologie cardiaque a montré, chez les souris β-thalassémiques, le développement d’une hypertrophie et une dysfonction ventriculaire gauche en l’absence de transfusions sanguines chroniques ou de dépôts directs de fer dans le myocarde. L’ensemble des résultats présentés dans le cadre de cette thèse indique la présence d’une pathologie cardiovasculaire chez les souris β-thalassémiques non-transfusés. Nos travaux permettent de proposer un mécanisme de la pathophysiologie cardiovasculaire β-thalassémique, indépendant de la charge de fer transfusionnelle, impliquant les effets compensatoires d’une anémie chronique combinés à une vasculopathie complexe initiée par les érythrocytes endommagés et l’hémolyse intravasculaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Syndrome d’Impatiences Musculaires de l’Éveil (SIME) est une maladie neurologique caractérisée par un besoin urgent de bouger les jambes. C’est également l’une des causes les plus fréquentes d’insomnie. C’est une maladie très répandue, avec une prévalence de presque 15 % dans la population générale. Les maladies multifactorielles comme le SIME sont souvent le résultat de l’évolution d’une composante génétique et d’une composante environnementale. Dans le cadre du SIME, les études d’association génomique ont permis l’identification de 4 variants à effet modéré ou faible. Cependant, ces quatre variants n’expliquent qu’une faible partie de la composante génétique de la maladie, ce qui confirme que plusieurs nouveaux variants sont encore à identifier. Le rôle des déséquilibres génomiques (Copy Number Variations ou CNVs) dans le mécanisme génétique du SIME est à ce jour inconnu. Cependant, les CNVs se sont récemment positionnés comme une source d’intérêt majeur de variation génétique potentiellement responsable des phénotypes. En collaboration avec une équipe de Munich, nous avons réalisé deux études CNVs à échelle génomique (biopuces à SNP et hybridation génomique comparée (CGH)) sur des patients SIME d’ascendance germanique. À l’aide d’une étude cas-contrôle, nous avons pu identifier des régions avec une occurrence de CNVs différentes pour les patients SIME, comparés à différents groupes contrôles. L’une de ces régions est particulièrement intéressante, car elle est concordante à la fois avec des précédentes études familiales ainsi qu’avec les récentes études d’associations génomiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La schizophrénie est une maladie psychiatrique grave qui affecte approximativement 1 % de la population. Il est clairement établi que la maladie possède une composante génétique très importante, mais jusqu’à présent, les études ont été limitées au niveau de l’identification de facteurs génétiques spécifiquement liés à la maladie. Avec l’avènement des nouvelles avancées technologiques dans le domaine du séquençage de l’ADN, il est maintenant possible d’effectuer des études sur un type de variation génétique jusqu’à présent laissé pour compte : les mutations de novo, c.-à-d. les nouvelles mutations non transmises de manière mendélienne par les parents. Ces mutations peuvent avoir deux origines distinctes : une origine germinale au niveau des gamètes chez les parents ou une origine somatique, donc au niveau embryonnaire directement chez l’individu. L’objectif général de la présente recherche est de mieux caractériser les mutations de novo dans la schizophrénie. Comme le rôle de ces variations est peu connu, il sera également nécessaire de les étudier dans un contexte global au niveau de la population humaine. La première partie du projet consiste en une analyse exhaustive des mutations de novo dans la partie codante (exome) de patients atteints de schizophrénie. Nous avons pu constater que non seulement le taux de mutations était plus élevé qu’attendu, mais nous avons également été en mesure de relever un nombre anormalement élevé de mutations non-sens, ce qui suggère un profil pathogénique. Ainsi, nous avons pu fortement suggérer que les mutations de novo sont des actrices importantes dans le mécanisme génétique de la schizophrénie. La deuxième partie du projet porte directement sur les gènes identifiés lors de la première partie. Nous avons séquencé ces gènes dans une plus grande cohorte de cas et de contrôles afin d’établir le profil des variations rares pour ces gènes. Nous avons ainsi conclu que l’ensemble des gènes identifiés par les études de mutations de novo possède un profil pathogénique, ce qui permet d’établir que la plupart de ces gènes ont un rôle réel dans la maladie et ne sont pas des artéfacts expérimentaux. De plus, nous avons pu établir une association directe avec quelques gènes qui montrent un profil aberrant de variations rares. La troisième partie du projet se concentre sur l’effet de l’âge paternel sur le taux de mutations de novo. En effet, pour la schizophrénie, il est démontré que l’âge du père est un facteur de risque important. Ainsi, nous avons tenté de caractériser l’effet de l’âge du père chez des patients en santé. Nous avons observé une grande corrélation entre l’âge du père et le taux de mutations germinales et nous avons ainsi pu répertorier certaines zones avec un grand nombre de mutations de novo, ce qui suggère l’existence de zone chaude pour les mutations. Nos résultats ont été parmi les premiers impliquant directement les mutations de novo dans le mécanisme génétique de la schizophrénie. Ils permettent de jeter un nouveau regard sur les réseaux biologiques à l’origine de la schizophrénie en mettant sous les projecteurs un type de variations génétiques longtemps laissé pour compte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin de mieux comprendre l’évolution des fonctions du récepteur EphA4 pendant le développement du système nerveux central (SNC), nous avons étudié sa localisation cellulaire et subcellulaire dans l’hippocampe du rat, d’abord chez l’adulte, puis pendant le développement postnatal, ainsi que ses rôles potentiels dans la genèse, la migration ou la maturation des cellules granulaires dans l’hippocampe adulte. Pour ce faire, nous avons utilisé la méthode d’immunocytochimie en microscopie photonique, électronique et confocale. En microscopie photonique, une forte immunoréactivité (peroxydase/DAB) pour EphA4 est observée aux jours 1 et 7 suivant la naissance (P1 et P7) dans les couches de corps cellulaires, avec un marquage notamment associé à la surface des corps cellulaires des cellules granulaires et pyramidales, ainsi que dans les couches de neuropile du gyrus dentelé et des secteurs CA3 et CA1. L’intensité du marquage diminue progressivement dans les couches de corps cellulaires, entre P7 et P14, pour devenir faible à P21 et chez l’adulte, tandis qu’elle persiste dans les couches de neuropile, sauf celles qui reçoivent des afférences du cortex entorhinal. En microscopie électronique, après marquage à la peroxydase/DAB, EphA4 décore toute la surface des cellules pyramidales et granulaires, du corps cellulaire jusqu’aux extrémités distales, entre P1 et P14, pour devenir confiné aux extrémités synaptiques, c’est-à-dire les terminaisons axonales et les épines dendritiques, à P21 et chez l’adulte. À la membrane plasmique des astrocytes, EphA4 est redistribué comme dans les neurones, marquant le corps cellulaire et ses prolongements proximaux à distaux, à P1 et P7, pour devenir restreint aux prolongements périsynaptiques distaux, à partir de P14. D’autre part, des axones en cours de myélinisation présentent souvent une forte immunoréactivité punctiforme à leur membrane plasmique, à P14 et P21. En outre, dans les neurones et les astrocytes, le réticulum endoplasmique, l’appareil de Golgi et les vésicules de transport, organelles impliquées dans la synthèse, la modification posttraductionnelle et le transport des protéines glycosylées, sont aussi marqués, et plus intensément chez les jeunes animaux. Enfin, EphA4 est aussi localisé dans le corps cellulaire et les dendrites des cellules granulaires générées chez l’adulte, au stade de maturation où elles expriment la doublecortine (DCX). De plus, des souris adultes knockouts pour EphA4 présentent des cellules granulaires DCX-positives ectopiques, c’est-à-dire positionnées en dehors de la zone sous-granulaire, ce qui suggère un rôle d’EphA4 dans la régulation de leur migration. Ces travaux révèlent ainsi une redistribution d’EphA4 dans les cellules neuronales et gliales en maturation, suivant les sites cellulaires où un remodelage morphologique s’effectue : les corps cellulaires lorsqu’ils s’organisent en couches, les prolongements dendritiques et axonaux pendant leur croissance, guidage et maturation, puis les épines dendritiques, les terminaisons axonales et les prolongements astrocytaires distaux associés aux synapses excitatrices, jusque chez l’adulte, où la formation de nouvelles synapses et le renforcement des connexions synaptiques existantes sont exercés. Ces localisations pourraient ainsi correspondre à différents rôles d’EphA4, par lesquels il contribuerait à la régulation des capacités plastiques du SNC, selon le stade développemental, la région, l’état de santé, ou l’expérience comportementale de l’animal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La neuropathie sensitive et motrice héréditaire avec agénésie du corps calleux (NSMH/ACC) se traduit par une atteinte neurodégénérative sévère associée à des anomalies développementales dans le système nerveux central et du retard mental. Bien que rare dans le monde, ce désordre autosomique récessif est particulièrement fréquent dans la population Québécoise du Canada Français du fait d’un effet fondateur. L’unique étude réalisée sur la mutation québécoise du gène qui code pour le co-transporteur de potassiumchlore 3 (KCC3) a montré qu’il y a une perte de fonction de la protéine. Cependant, la maladie est également retrouvée hors du Québec et il reste encore à élucider les pathomécanismes mis en jeu. Nous avons donc séquencé les 26 exons du gène KCC3 chez des individus recrutés dans le monde entier et suspectés d’être atteints de la maladie. Nous avons ainsi identifié trois nouvelles mutations. L’étude fonctionnelle de ces mutations nous a confirmé la perte de fonction systématique des co-transporteurs mutés. Puisque l’inactivation de KCC3 se produit majoritairement via l’élimination de segments peptidiques en C-terminus, nous avons concentré notre attention sur l’identification des interactions qui s’y produisent. À l’aide d’approches double hybride, pull-down et immunomarquage, nous avons déterminé que KCC3 interagit avec la créatine kinase CK-B et que cette interaction est perturbée par les mutations tronquantes. De plus, l’utilisation d’un inhibiteur de créatine kinase inactive KCC3, ce qui démontre qu’il existe bien un lien fonctionnel et pathologique entre KCC3 et ses partenaires C-terminaux. Nous avons aussi identifié des anomalies majeures de localisation membranaire des KCC3 mutés. Que KCC3 soit tronqué ou pleine longueur, sa distribution subcellulaire est affectée dans des cellules en culture, dans les ovocytes de Xenopes et dans des échantillons de cerveau de patients. La perte d’interaction entre KCC3 et CK-B et/ou les défauts de transit intracellulaire de KCC3 sont donc les mécanismes pathologiques majeurs de la NSMH/ACC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse de doctorat réalisée en cotutelle avec la Faculté de droit de l'Université Aix-Marseille 3.