968 resultados para Notation musicale. aquitaine sur portée avec une ligne rouge
Resumo:
Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.
Resumo:
Notre patrimoine génétique dévoile, de plus en plus, les passerelles démogénétiques d’une susceptibilité plus accrue de certains individus à des maladies infectieuses complexes. En vue d’une caractérisation de la variabilité génétique des populations ouest-africaines, nous avons analysé 659 chromosomes X au locus dys44 qui comprend, 35 SNPs et un microsatellite distribués sur 2853 pb en amont et 5034 pb en aval de l’exon 44 du gène de la dystrophine en Xp21.3. Les génotypes obtenus, par ASO dynamique et électrophorèse sur gel d’acrylamide, ont servi à la détermination des haplotypes. Des paramètres comme la diversité haplotypique (G) et l'indice de fixation (Fst) ont été calculés. Des analyses en composantes principales ainsi que multidimensionnelles ont été réalisées. Sur 68 haplotypes détectés, 26 sont nouveaux, et cette région, avec une diversité haplotypique moyenne (Gmoy) de 0,91 ± 0,03, se révèle beaucoup plus hétérogène que le reste du continent (Gmoy = 0,85 ± 0,04). Toutefois, malgré l’existence de disparités sous régionales dans la distribution des variants du marqueur dys44, l’AMOVA montre d’une manière générale, une faible érosion de l’éloignement génétique entre les populations subsahariennes (Fst = 1,5% ; p<10-5). Certains variants tel que l’haplotype eurasien B006 paraissent indiquer des flux transsahariens de gènes entre les populations nord-africaines et celles subsahariennes, comme l’exemplifie le pool génétique de l’une des populations ubiquitaires de la famille linguistique Nigéro-congolaise : Les Fulani. Nos résultats vont aussi dans le sens d’un héritage phylétique commun entre les Biaka, les Afro-américains et les populations de la sous-famille de langues Volta-Congo.
Resumo:
Introduction : Les individus présentant des troubles cognitifs légers ou Mild Cognitive Impairment (MCI) sont plus à risque de développer une maladie d’Alzheimer (MA) que le reste de la population âgée. Objectif : Cette étude repose sur le recours à un devis de type étude de cas multiples dont l’objectif est de contribuer à l’identification d’indices biologiques en quantifiant, à l’aide de la résonance magnétique spectroscopique (MRS), des changements métaboliques précoces chez les individus avec MCI, susceptibles d’évoluer vers la MA. Méthodologie : Huit individus MCI sont comparés à huit individus âgés normaux. Chaque participant est soumis à un examen MRS. Résultats : Parmi les huit participants MCI recrutés, l’un d’entre eux présente désormais un profil cognitif concordant avec une MA. L’analyse spectrale des métabolites de cet individu montre des ratios de glutamate plus élevés au niveau du cortex préfrontal gauche et de la régioncingulaire postérieure gauche. Bien qu’une diminution de NAA/Cr soit fréquemment observée chez la population MCI en voie d’évoluer vers la démence, les résultats obtenus ne démontrent rien en ce sens. Discussion/Conclusion : Le rôle du glutamate dans les processus neurodégénératifs est encore mal établi. L’augmentation de glutamate observée est contraire à la diminution habituellement observée au cours de la MA. Ces résultats sont toutefois explicables par l’existence possible d’excitotoxicité précoce chez les MCI en voie de d’évoluervers la démence. Cela pourrait aussi illustrer des mécanismes de compensation présents avant qu’un déclin cognitif ne soit objectivable.
Resumo:
Le vieillissement de la population entraîne une hausse des maladies chroniques telle que la maladie d’Alzheimer dans nos sociétés occidentales. L’enjeu du vieillissement se répercute aussi dans les réformes de nos politiques sociales, et plus généralement dans la gestion des services publics. Dans ce contexte, le régime de santé publique québécois connaît diverses modifications concernant la prestation de soins de première ligne. De nouveaux acteurs acquièrent des rôles et des responsabilités définissant des enjeux particuliers. Nous étudierons l’un de ces enjeux. Ce mémoire vise à spécifier les processus sociaux à la base de l’isolement des aidants familiaux de personnes atteintes par la maladie d’Alzheimer. La stigmatisation des aidants et les microprocessus afférents sont les principaux mécanismes analysés. Les données sont extraites d’entrevues semi-structurées réalisées avec une cohorte d’aidants familiaux (N=60) suivie longitudinalement depuis le début de leur trajectoire de soins. Une démarche qualitative soutient ce projet. Nous avons analysé un échantillon de douze participants au moyen d’une approche séquentielle. Trois processus typiques ont été identifiés : le stigma de forme en ruptures (séparation sociale), le stigma de forme transitoire (stigma transitoire) et le stigma de forme anomique (anomie sociale). Les résultats suggèrent que les réseaux sociaux des aidants sont soumis à un ensemble de conditions favorisant la structuration du stigma social, la principale condition étant un enjeu de pouvoir concernant le contrôle de la personne malade. Les aidants conjoints de personnes atteintes sont plus enclins à la stigmatisation en début de trajectoire.
Resumo:
La dépression postnatale (DP) est un problème de santé publique très fréquent dans différentes cultures (Affonso et al, 2000). En effet, entre 10% à 15% des mères souffrent d’une symptomatogie dépressive ainsi que l’indiquent Gorman et al. (2004). La prévention de la DP est l’objectif de différents programmes prénatals et postnatals (Dennis, 2005; Lumley et al, 2004). Certains auteurs notent qu’il est difficile d’avoir accès aux femmes à risque après la naissance (Evins et al, 2000; Georgiopoulos et al, 2001). Mais, les femmes fréquentent les centres de santé pendant la grossesse et il est possible d’identifier les cas à risque à partir des symptômes prénataux dépressifs ou somatiques (Riguetti-Veltema et al, 2006); d’autant plus qu’un grand nombre de facteurs de risque de la DP sont présents pendant la grossesse (O’Hara et Gorman, 2004). C’est pourquoi cette étude fut initiée pendant le premier trimestre de la grossesse à partir d’une détection précoce du risque de DP chez n= 529 femmes de classes moyenne et défavorisée, et, cela, au moyen d’un questionnaire validé utilisé à l’aide d’une entrevue. L’étude s’est effectuée dans trois villes : Barcelone, Figueres, et Béziers au cours des années 2003 à 2005. Objectif général : La présente étude vise à évaluer les effets d’un programme prénatal de groupes de rencontre appliqué dans la présente étude chez des couples de classe socioéconomique non favorisée dont les femmes sont considérées comme à risque de dépression postnatale. L’objectif spécifique est de comparer deux groupes de femmes (un groupe expérimental et un groupe témoin) par rapport aux effets du programme prénatal sur les symptômes de dépression postnatale mesurés à partir de la 4ème semaine après l’accouchement avec l’échelle EPDS. Hypothèse: Les femmes participant au programme prénatal de groupe adressé aux couples parentaux, composé de 10 séances hebdomadaires et inspiré d’une orientation psychosomatique présenteront, au moins, un taux de 6% inférieur de cas à risque de dépression postnatale que les femmes qui ne participent pas, et cela, une fois évaluées avec l’échelle EPDS (≥12) 4 semaines après leur accouchement. Matériel et méthode: La présente étude évaluative est basée sur un essai clinique randomisé et longitudinal; il s’étend de la première ou deuxième visite d’échographie pendant la grossesse à un moment situé entre la 4ème et la 12ème semaine postnatale. Les participants à l’étude sont des femmes de classes moyenne et défavorisée identifiées à risque de DP et leur conjoint. Toutes les femmes répondant aux critères d’inclusion à la période du recrutement ont effectué une entrevue de sélection le jour de leur échographie prénatale à l’hôpital (n=529). Seules les femmes indiquant un risque de DP furent sélectionnées (n= 184). Par la suite, elles furent distribuées de manière aléatoire dans deux groupes: expérimental (n=92) et témoin (n=92), au moyen d’un programme informatique appliqué par un statisticien considérant le risque de DP selon le questionnaire validé par Riguetti-Veltema et al. (2006) appliqué à l’aide d’une entrevue. Le programme expérimental consistait en dix séances hebdomadaires de groupe, de deux heures et vingt minutes de durée ; un appel téléphonique entre séances a permis d’assurer la continuité de la participation des sujets. Le groupe témoin a eu accès aux soins habituels. Le programme expérimental commençait à la fin du deuxième trimestre de grossesse et fut appliqué par un médecin et des sages-femmes spécialement préparées au préalable; elles ont dirigé les séances prénatales avec une approche psychosomatique. Les variables associées à la DP (non psychotique) comme la symptomatologie dépressive, le soutien social, le stress et la relation de couple ont été évaluées avant et après la naissance (pré-test/post-test) chez toutes les femmes participantes des deux groupes (GE et GC) utilisant : l’échelle EPDS (Cox et al,1987), le Functional Social Support Questionnaire (Broadhead et al, 1988), l’évaluation du stress de Holmes et Rahe (1967) et, l’échelle d’ajustement dyadique de Spanier (1976). La collecte des données prénatales a eu lieu à l’hôpital, les femmes recevaient les questionnaires à la fin de l’entrevue, les complétaient à la maison et les retournaient au rendez-vous suivant. Les données postnatales ont été envoyées par les femmes utilisant la poste locale. Résultats: Une fois évalués les symptômes dépressifs postnatals avec l’échelle EPDS entre la 4ème et la 12ème semaine postnatale et considérant le risque de DP au point de césure ≥ 12 de l’échelle, le pourcentage de femmes à risque de DP est de 39,34%; globalement, les femmes étudiées présentent un taux élevé de symptomatologie dépressive. Les groupes étant comparables sur toutes les variables prénatales, notons une différence dans l’évaluation postnatale de l’EPDS (≥12) de 11,2% entre le groupe C et le groupe E (45,5% et 34,3%). Et la différence finale entre les moyennes de l’EPDS postnatal est de 1,76 ( =11,10 ±6,05 dans le groupe C et =9,34 ±5,17 dans le groupe E) ; cette différence s’aproche de la limite de la signification (p=0,08). Ceci est dû à un certain nombre de facteurs dont le faible nombre de questionnaires bien complétés à la fin de l’étude. Les femmes du groupe expérimental présentent une diminution significative des symptômes dépressifs (t=2,50 / P= 0,01) comparativement au pré-test et indiquant une amélioration au contraire du groupe témoin sans changement. Les analyses de régression et de covariance montrent que le soutien social postnatal, les symptômes dépressifs prénatals et le stress postnatal ont une relation significative avec les symptômes dépressifs postnatals (P<0,0001 ; P=0.003; P=0.004). La relation du couple n’a pas eu d’impact sur le risque de DP dans la présente étude. Par contre, on constate d’autres résultats secondaires significatifs: moins de naissances prématurées, plus d’accouchements physiologiques et un plus faible taux de somatisations non spécifiques chez les mères du groupe expérimental. Recommandations: Les résultats obtenus nous suggèrent la considération des aspects suivants: 1) il faudrait appliquer les mesures pour détecter le risque de DP à la période prénatale au moment des visites d’échographie dont presque toutes les femmes sont atteignables; il est possible d’utiliser à ce moment un questionnaire de détection validé car, son efficacité semble démontrée; 2) il faudrait intervenir auprès des femmes identifiées à risque à la période prénatale à condition de prolonger le programme préventif après la naissance, tel qu’indiqué par d’autres études et par la demande fréquente des femmes évaluées. L’intervention prénatale de groupe n’est pas suffisante pour éviter le risque de DP chez la totalité des femmes. C’est pourquoi une troisième recommandation consisterait à : 3) ajouter des interventions individuelles pour les cas les plus graves et 4) il paraît nécessaire d’augmenter le soutien social chez des femmes défavorisées vulnérables car cette variable s’est révélée très liée au risque de dépression postnatale.
Resumo:
Contexte: Les centres de jour offrent des interventions de groupe à des personnes âgées qui présentent des incapacités, dans le but de favoriser leur maintien à domicile. Des études récentes tendent à démontrer qu’une utilisation régulière du service serait nécessaire pour induire des effets bénéfiques. Objectifs: Cette recherche visait à documenter l’utilisation des centres de jour par des personnes âgées qui présentent des incapacités. Elle comportait trois principaux objectifs: 1) Caractériser les utilisateurs de centre de jour et ce qui les distingue des non-utilisateurs et analyser les déterminants de l’utilisation du centre de jour. 2) Explorer l’adéquation entre les activités offertes par les centres de jour et les caractéristiques d’autonomie et de santé des utilisateurs. 3) Définir les facteurs associés à la régularité de la participation. Méthodes: Cette recherche s’appuie sur une analyse secondaire de données recueillies auprès de 723 personnes âgées qui ont participé au projet de démonstration SIPA (Services intégrés pour personnes âgées) implanté dans deux CLSC de la région de Montréal. L’utilisation du centre de jour a été documentée pendant une période de six mois, auprès des cinq centres de jour existant sur ce même territoire. Des informations sur le fonctionnement des centres de jour ont été obtenues par des entrevues et des rencontres de groupe auprès de coordonnateurs de ces centres. Les données ont été analysées à l’aide de statistiques descriptives, d’analyses en regroupement et d’analyses de régression logistique et multiple. Résultats: Les résultats sont présentés dans trois articles, soit un pour chacun des objectifs. Article 1: La proportion d’utilisateurs de centre de jour est de 18,8% (IC-0,95: 16,0 à 21,7%). Les facteurs suivants augmentent la probabilité d’utiliser le centre de jour: être plus jeune (RC: 1,12; IC-0,95: 1,06 à 1,19); ne pas avoir une éducation universitaire (RC: 1,92; IC-0,95: 1,04 à 3,57); recevoir l’aide du CLSC pour les activités de vie quotidienne plus d’une fois par semaine (RC: 1,73 et 2,48 pour aide de deux à cinq fois par semaine et aide de six à sept fois par semaine respectivement; IC-0,95: 1,06 à 2,80 et 1,22 à 5,06); faire partie du bassin de desserte d’un centre de jour dont les coûts sont moins élevés (RC: 1,054 ; IC-0,95: 1,001 à 1,108 pour chaque augmentation de 1$); et pour les hommes seulement, avoir déjà subi un accident vasculaire cérébral et présenter davantage d’incapacités fonctionnelles (interaction entre le sexe et la présence d’un AVC: RC: 0,298; IC-0,95: 0,108 à 0,825; interaction entre le sexe et les capacités fonctionnelles mesurées à l’OARS: RC: 1,096; IC-0,95: 1,019 à 1,178). De plus, on observe une plus grande probabilité d’utiliser le centre de jour chez les personnes qui cohabitent avec une personne de soutien. Toutefois, cette relation ne s’observe que chez les personnes nées au Canada (interaction entre la cohabitation avec la personne de soutien et le pays de naissance: RC: 0,417; IC-0,95: 0,185 à 0,938). Article 2: Des analyses en regroupement ont permis de distinguer quatre profils de participants ayant des caractéristiques similaires: 1) les personnes fragilisées par un âge avancé et un grand nombre de problèmes de santé; 2) les participants plus jeunes et plus autonomes que la moyenne, qui semblent des utilisateurs précoces; 3) les personnes qui présentent des incapacités d’origine cognitive; et 4) celles qui présentent des incapacités d’origine motrice. Les activités de groupe des centres de jour ont été regroupées en huit catégories: exercices physiques; groupe spécifique pour un diagnostic ou un problème fonctionnel commun; activités fonctionnelles; stimulation cognitive; activités musicales ou de réminiscence; sports et jeux physiques; intégration sociale; prévention et promotion de la santé. Les activités les plus fréquentes sont les exercices physiques et les activités d’intégration sociale auxquelles ont participé plus de 90% des utilisateurs de centre de jour, et ce en moyenne à respectivement 78% (±23%) et 72% (±24%) de leurs présences au centre de jour. Les autres catégories d’activités rejoignent de 45% à 77% des participants, et ce en moyenne à 35% (±15%) à 46% (±33%) de leurs présences. La participation aux diverses catégories d’activités a été étudiée pour chaque profil d’utilisateurs et comparée aux activités recommandées pour divers types de clientèle. On observe une concordance partielle entre les activités offertes et les besoins des utilisateurs. Cette concordance apparaît plus grande pour les participants qui présentent des problèmes de santé physique ou des incapacités d’origine motrice et plus faible pour ceux qui présentent des symptômes dépressifs ou des atteintes cognitives. Article 3: Les participants au centre de jour y sont inscrits en moyenne à raison de 1,56 (±0,74) jours par semaine mais sont réellement présents à 68,1% des jours attendus. Les facteurs suivants sont associés à une participation plus régulière au centre de jour en termes de taux de présences réelles / présences attendues: ne pas avoir travaillé dans le domaine de la santé (b: ,209; IC-0,95: ,037 à ,382); recevoir de l’aide du CLSC les jours de fréquentation du centre de jour (b: ,124; IC-0,95: ,019 à ,230); être inscrit pour la journée plutôt que la demi-journée (b: ,209: IC-0,95: ,018 à ,399); lors de ses présences au centre de jour, avoir une moins grande proportion d’activités de prévention et promotion de la santé (b: ,223; IC-0,95: ,044 à ,402); et enfin, avoir un aidant qui présente un fardeau moins élevé pour les personnes avec une atteinte cognitive et un fardeau plus élevé pour les personnes sans atteinte cognitive (interaction entre la présence d’atteinte cognitive et le fardeau de l’aidant: b: -,008; IC-0,95: -,014 à -,044). Conclusion: Conformément à leur mission, les centres de jour rejoignent une bonne proportion des personnes âgées qui présentent des incapacités. Cette étude fait ressortir les caractéristiques des personnes les plus susceptibles d’y participer. Elle suggère la nécessité de revoir la planification des activités pour assurer une offre de services qui tienne davantage compte des besoins des participants, en particulier de ceux qui présentent des atteintes cognitives et des symptômes de dépression. Elle démontre aussi que l’intensité d’exposition au service semble faible, ce qui soulève la question des seuils d’exposition nécessaires pour induire des effets favorables sur le maintien à domicile et sur la qualité de vie de la clientèle cible.
Resumo:
La plupart des molécules d’ARN doivent se replier en structure tertiaire complexe afin d’accomplir leurs fonctions biologiques. Cependant, les déterminants d’une chaîne de polynucléotides qui sont nécessaires à son repliement et à ses interactions avec d’autres éléments sont essentiellement inconnus. L’établissement des relations structure-fonction dans les grandes molécules d’ARN passe inévitablement par l’analyse de chaque élément de leur structure de façon individuelle et en contexte avec d’autres éléments. À l’image d’une construction d’immeuble, une structure d’ARN est composée d’unités répétitives assemblées de façon spécifique. Les motifs récurrents d’ARN sont des arrangements de nucléotides retrouvés à différents endroits d’une structure tertiaire et possèdent des conformations identiques ou très similaires. Ainsi, une des étapes nécessaires à la compréhension de la structure et de la fonction des molécules d’ARN consiste à identifier de façon systématique les motifs récurrents et d’en effectuer une analyse comparative afin d’établir la séquence consensus. L’analyse de tous les cas d’empaquetage de doubles hélices dans la structure du ribosome a permis l’identification d’un nouvel arrangement nommé motif d’empaquetage le long du sillon (AGPM) (along-groove packing motif). Ce motif est retrouvé à 14 endroits dans la structure du ribosome de même qu’entre l’ARN ribosomique 23S et les molécules d’ARN de transfert liées aux sites ribosomaux P et E. Le motif se forme par l’empaquetage de deux doubles hélices via leur sillon mineur. Le squelette sucre-phosphate d’une hélice voyage le long du sillon mineur de l’autre hélice et vice versa. Dans chacune des hélices, la région de contact comprend quatre paires de bases. L’empaquetage le plus serré est retrouvé au centre de l’arrangement où l’on retrouve souvent une paire de bases GU dans une hélice interagissant avec une paire de bases Watson-Crick (WC) dans l’autre hélice. Même si la présence des paires de bases centrales GU versus WC au centre du motif augmente sa stabilité, d’autres alternatives existent pour différents représentants du motif. L’analyse comparative de trois librairies combinatoires de gènes d’AGPM, où les paires de bases centrales ont été variées de manière complètement aléatoire, a montré que le contexte structural influence l’étendue de la variabilité des séquences de nucléotides formant les paires de bases centrales. Le fait que l’identité des paires de bases centrales puisse varier suggérait la présence d’autres déterminants responsables au maintien de l’intégrité du motif. L’analyse de tous les contacts entre les hélices a révélé qu’en dehors du centre du motif, les interactions entre les squelettes sucre-phosphate s’effectuent via trois contacts ribose-ribose. Pour chacun de ces contacts, les riboses des nucléotides qui interagissent ensemble doivent adopter des positions particulières afin d’éviter qu’ils entrent en collision. Nous montrons que la position de ces riboses est modulée par des conformations spécifiques des paires de bases auxquelles ils appartiennent. Finalement, un autre motif récurrent identifié à l’intérieur même de la structure de trois cas d’AGPM a été nommé « adenosine-wedge ». Son analyse a révélé que ce dernier est lui-même composé d’un autre arrangement, nommé motif triangle-NAG (NAG-triangle). Nous montrons que le motif « adenosine-wedge » représente un arrangement complexe d’ARN composé de quatre éléments répétitifs, c’est-à-dire des motifs AGPM, « hook-turn », « A-minor » et triangle-NAG. Ceci illustre clairement l’arrangement hiérarchique des structures d’ARN qui peut aussi être observé pour d’autres motifs d’ARN. D’un point de vue plus global, mes résultats enrichissent notre compréhension générale du rôle des différents types d’interactions tertiaires dans la formation des molécules d’ARN complexes.
Resumo:
L’augmentation croissante du nombre de nouvelles maladies et des possibilités de traitements existants ou en cours d’étude et ayant pour but la guérison des patients atteints, ont amené les chercheurs à pousser davantage leurs recherches biomédicales sur des sujets humains. La conduite de recherches biomédicales sur des sujets humains est une étape cruciale pour la compréhension de la maladie et, par conséquent, l’avancement des connaissances permettant d’éradiquer un jour certaines maladies répandues à l’échelle planétaire, tel le virus de l’immunodéficience humaine (VIH) causant le syndrome d’immunodéficience acquise (SIDA). Aujourd’hui, ces importantes recherches sont conduites partout à travers le monde mais plus particulièrement dans des pays en développement où les populations sont davantage vulnérables. C’est précisément à cause de cette pratique que différents acteurs de ce milieu ont reconsidéré certains aspects éthiques de ces recherches. Ce mémoire examine donc les différentes normes éthiques en vigueur qui gouvernent la recherche sur des sujets humains, afin de voir comment celles-ci tiennent compte des caractéristiques des populations des pays en développement. Cette comparaison nous guide ensuite vers un survol de trois approches philosophiques pour fins d’application à la recherche biomédicale sur des sujets humains et ce, par le biais d'une étude de cas. Suite à ces trois étapes et à la lumière d’une analyse critique des différents écrits recensés sur le sujet, une conclusion s’impose quant à l’importance de renforcer l’application des normes éthiques universelles entourant la recherche biomédicale sur des sujets humains et ce, justement parce celle-ci est surtout conduite sur des populations vulnérables de pays en développement.
Resumo:
La thérapie de resynchronisation cardiaque (CRT) est un traitement qui diminue la mortalité et améliore la qualité de vie des patients atteints d’insuffisance cardiaque et présentant un dyssynchronisme de la contraction ventriculaire gauche. Malgré le succès de cette thérapie, plus de 30% des patients ne présentent pas l’amélioration désirée. Plusieurs études portant sur le synchronisme électrique ou mécanique de la contraction ont été effectuées mais peu d’entres elles se sont attardées sur le couplage électromécanique à l'échelle macroscopique. Ce projet a comme objectif d’observer le comportement électromécanique des ventricules canins en présence d’un resynchronisateur cardiaque. Un logiciel a été développé pour permettre l’analyse des informations provenant de la cartographie endocardique sans contact et de la ventriculographie isotopique tomographique chez 12 sujets canins insuffisants. Pour observer la réponse mécanique suite à l’activation électrique, nous avons premièrement recalé les surfaces issues des 2 modalités. Ensuite, nous avons défini les limites du cycle cardiaque, analysé les signaux électriques et les courbes de déplacement de la paroi endocardique. Le début de la contraction est défini par un déplacement radial de 10% vers le centre du ventricule. Les résultats démontrent que la durée d’activation du ventricule gauche et la largeur du QRS augmentent en présence d’une stimulation externe et que les délais électromécaniques sont indépendants dans les modes de stimulation étudiés (sinusal, LVbasal, RVapex ou BIV) avec une moyenne de 84,56±7,19 ms. Finalement, nous avons noté que la stimulation basolatérale procure une fonction cardiaque optimale malgré une durée prolongée du QRS.
Resumo:
Les Cellules Endothéliales Progénitrices ("Endothelial Progenitor Cells", EPCs) sont des précurseurs endothéliaux qui jouent un rôle émergeant en biologie vasculaire. Les EPCs ont été localisées dans le cordon ombilical, la moelle osseuse, le sang périphérique et dans certains tissus régénérateurs. Les interactions des EPCs avec les cellules sanguines et vasculaires peuvent largement influencer leurs propriétés biologiques et dicter leur fonctionnement pendant la réparation endothéliale. Plus spécifiquement, les interactions des EPCs avec les plaquettes circulantes induisent leur migration, leur recrutement et leur différentiation en cellules endothéliales aux sites de lésions vasculaires. Cependant, l’impact d’une telle interaction sur la fonction plaquettaire n’a pas été recherché. Le but de mon projet était de :1) générer des EPCs à partir des cellules mononucléaires du sang humain périphérique ("Peripheral Blood Mononuclear Cells", PBMCs); 2) étudier les interactions adhésives entre les EPCs et les plaquettes; 3) déterminer leur impact sur la fonction plaquettaire et la formation du thrombus et 4) décrire le mécanisme d’action des EPCs sur les plaquettes et le thrombus. Mises en culture sur une surface de fibronectine dans un milieu conditionné, les PBMCs fraîchement isolées possédaient une morphologie ronde et une petite taille. Après cinq jours, les PBMCs adhérentes donnaient naissance à des colonies, puis formaient une monocouche de cellules aplaties caractéristiques des EPCs après dix jours de culture. Les EPCs différenciées étaient positives pour l’Ulex-lectine et l’Acétyle des lipoprotéines de faible densité ("Acetylated Low Density Lipoprotein", Ac-LDL), exprimaient les marqueurs progéniteurs (CD34, P-sélectine, VEGFR2, vWF et VE-Cadhérine) tandis que les marqueurs leucocytaires (CD14, PSGL-1 et L-sélectine) étaient absents. Ces EPCs interagissaient avec les plaquettes activées par un mécanisme dépendant de la P-sélectine plaquettaire, inhibaient l’activation et l’agrégation plaquettaire et réduisaient significativement l’adhésion plaquettaire, principalement par l’action de prostacycline (PGI2). En fait, ceci était associé avec une augmentation de l’expression de la cyclooxygénase-2 (COX-2) et du monoxyde d’azote (NO) synthéthase inductible (iNOS). Toutefois, les effets inhibiteurs des EPCs sur la fonction plaquettaire ont été renversés par une inhibition de la COX et non pas du NO. Bien que les EPCs fussent en mesure de lier les plaquettes via la P-sélectine, leurs effets prédominants étaient médiés essentiellement par une sécrétion paracrine, impliquant la PGI2. Néanmoins, un rapprochement étroit ou un bref contact entre les EPCs et les plaquettes était requis pour que cette fonction soit complètement réalisée. D’ailleurs, cet aspect a été investigué chez des souris déficientes en P-sélectine (P-sel-/-) et chez leurs congénères de phénotype sauvage (Wild Type, WT). Chez les souris WT, les EPCs inhibaient l’agrégation plaquettaire dans le sang complet de manière concentration-dépendante alors que dans les souris P-sel-/-, l’action des EPCs n’avait pas d’effet significatif. De plus, en utilisant un modèle murin de thrombose artérielle, nous avons démontré que l’infusion systémique des EPCs altéraient la formation du thrombus et réduisaient significativement sa masse chez les souris WT, mais non pas chez les souris P-sel-/-. En outre, le nombre des EPCs incorporées au niveau du thrombus et de la paroi vasculaire était visiblement réduit chez les P-sel-/- par rapport aux souris WT. Dans cette étude, nous sommes parvenus à différentier adéquatement des EPCs à partir des PBMCs, nous avons étudié les interactions adhésives entre les EPCs et les plaquettes, et nous avons décrit leur impact sur la fonction plaquettaire et la formation du thrombus. De plus, nous avons identifié la PGI2 comme étant le principal facteur soluble sécrété par les EPCs en culture et responsable de leurs effets inhibiteurs sur l’activation, l’adhésion et l’agrégation plaquettaire in vitro. De surcroît, nous avons élucidé le mécanisme d’action des EPCs sur l’agrégation plaquettaire et la formation du thrombus, in vivo, et nous avons souligné le rôle de la P-sélectine plaquettaire dans ce processus. Ces résultats ajoutent de nouvelles connaissances sur la biologie des EPCs et définissent leur rôle potentiel dans la régulation de la fonction plaquettaire et la thrombogenèse.
Resumo:
La bio-informatique est un champ pluridisciplinaire qui utilise la biologie, l’informatique, la physique et les mathématiques pour résoudre des problèmes posés par la biologie. L’une des thématiques de la bio-informatique est l’analyse des séquences génomiques et la prédiction de gènes d’ARN non codants. Les ARN non codants sont des molécules d’ARN qui sont transcrites mais pas traduites en protéine et qui ont une fonction dans la cellule. Trouver des gènes d’ARN non codants par des techniques de biochimie et de biologie moléculaire est assez difficile et relativement coûteux. Ainsi, la prédiction des gènes d’ARNnc par des méthodes bio-informatiques est un enjeu important. Cette recherche décrit un travail d’analyse informatique pour chercher des nouveaux ARNnc chez le pathogène Candida albicans et d’une validation expérimentale. Nous avons utilisé comme stratégie une analyse informatique combinant plusieurs logiciels d’identification d’ARNnc. Nous avons validé un sous-ensemble des prédictions informatiques avec une expérience de puces à ADN couvrant 1979 régions du génome. Grace à cette expérience nous avons identifié 62 nouveaux transcrits chez Candida albicans. Ce travail aussi permit le développement d’une méthode d’analyse pour des puces à ADN de type tiling array. Ce travail présente également une tentation d’améliorer de la prédiction d’ARNnc avec une méthode se basant sur la recherche de motifs d’ARN dans les séquences.
Resumo:
Les pyréthrinoïdes et les pyréthrines sont des insecticides neurotoxiques auxquels on attribue également des effets néfastes sur les systèmes immunitaire, hormonal et reproducteur. Ils sont abondamment utilisés en agriculture, mais aussi en horticulture, en extermination et dans le traitement d’infestations parasitaires humaines et animales (gale, poux). Il y a donc un intérêt en santé environnementale à connaître l’ampleur de l’exposition humaine à ces pesticides. La mesure des métabolites urinaires des pyréthrinoïdes et des pyréthrines apparaît une approche de choix pour arriver à cette fin puisqu’elle permet, en théorie, d’obtenir un portrait global de l’exposition. Or,traditionnellement et par soucis de simplicité les concentrations volumiques ou ajustées pour la créatinine) de ces biomarqueurs dans des urines ponctuelles sont déterminées, mais l’effet de l’utilisation de ces unités sur la validité des estimations de dose quotidienne absorbée n’a jamais été vérifié. L’objectif général de cette thèse était donc de développer, appliquer et valider une nouvelle stratégie de mesure et d’analyse de biomarqueurs pour améliorer la précision et la fiabilité des évaluations de l’exposition individuelles et populationnelles aux pyréthrinoïdes et pyréthrines. Les objectifs spécifiques étaient : i) de caractériser l’exposition humaine à ces contaminants en région urbaine et rurale au Québec et ii) de comparer la validité de la nouvelle stratégie de mesure et d’analyse de biomarqueurs urinaires proposée avec les autres méthodes plus usuelles utilisées pour estimer l’exposition individuelle et populationnelle et les doses absorbées de pyréthrinoïdes. Des adultes et des enfants, recrutés dans la population de l’Île de Montréal et de la Montérégie ont recueilli leurs urines pendant une période d’au moins douze heures et complété un questionnaire documentant les sources potentielles d’exposition. Les quantités de métabolites de pyréthrinoïdes et pyréthrines (pmol) mesurées dans les urines ont été ajustées pour une période de douze heures exactement et pour le poids corporel. Les quantités excrétées en région urbaine ont été comparées à celles excrétées en région rurale et les données individuelles et populationnelles ont été comparées à celles qui auraient été obtenues si des concentrations volumiques ou ajustées pour la créatinine avaient été mesurées. Les résultats montrent que l’exposition à ces pesticides est ubiquiste puisque plus de 90% des participants excrétaient les principaux métabolites de pyréthrinoïdes et pyréthrines à un niveau supérieur au seuil de détection analytique. Les résultats suggèrent que l’alimentation pourrait être à l’origine de ce niveau de base puisque les autres sources d’exposition connues n’ont été que rarement rapportées. Au Québec, l’exposition en milieu rural apparaissait légèrement plus importante qu’en milieu urbain et certains facteurs d’exposition, comme l’utilisation de pesticides domestiques, ont été rapportés plus fréquemment en milieu rural. Enfin, il a été démontré que la mesure des concentrations volumiques ou ajustées pour la créatinine de biomarqueurs est une approche qui peut entraîner des biais importants (jusqu’à 500% d’erreur et plus) en particulier lors de l’évaluation de l’exposition individuelle. Il est évident que les autorités de santé publique et de santé environnementale employant des biomarqueurs urinaires afin d’évaluer l’exposition aux pyréthrinoïdes et aux pyréthrines (ainsi qu’à d’autres molécules ayant des demi-vies d’élimination similaire)devraient diriger leurs efforts vers la mesure des quantités excrétées pendant une période d’au moins douze heures pour obtenir un portrait le plus valide possible de l’exposition. Il serait aussi souhaitable de mieux documenter la toxicocinétique de ces molécules chez l’humain afin d’établir avec une plus grande confiance la relation entre les quantités excrétées de biomarqueurs et les doses absorbées de ces contaminants.
Resumo:
L'angiotensine-II (Ang-II), synthétisée à partir de sources extracardiaques et intracardiaques, régule l'homéostasie cardiaque en favorisant des effets mitogéniques et en promouvant la croissance cellulaire résultant d’une altération de l'expression génique. Dans cette étude, nous avons évalué la possibilité que les récepteurs de l'angiotensine-1 (AT1) ou les récepteurs de l'angiotensine-2 (AT2) situés sur l'enveloppe nucléaire régulent l’expression génique des cardiomyocytes. En analysant les noyaux cellulaires retenus des fractions de cœur de rat par immunobuvardage Western, nous avons détecté une co-purification préférentielle des protéines AT1 et AT2 avec un marqueur de la membrane nucléaire (Nup 62), par rapport aux marqueurs de la membrane plasmique (Calpactin I), de l’appareil de Golgi (GRP 78) ou du réticulum endoplasmique (GM130). La microscopie confocale a permis de démontrer la présence des AT1 et AT2 dans les membranes nucléaires. La microinjection de l’Ang-II-FITC sur des cardiomyocytes a provoqué une liaison de préférence aux sites nucléaires. Les enregistrements de transients calciques ont illustré que les AT1 nucléaires régulent le relâchement du Ca2+. L’incubation des ligands spécifiques d’AT1 et d’AT2 avec l’UTP [α32P] a résulté en une synthèse de novo d’ARN (par exemple, 16,9 ± 0,5 cpm/ng ADN contrôle vs 162,4 ± 29,7 cpm/ng ADN-Ang II, 219,4 ± 8,2 cpm/ng ADN L -162313 (AT1) et 126,5 ± 8,7 cpm/ng ADN CGP42112A (AT2), P <0,001). L’incubation des noyaux avec Ang-II augmente de façon significative l’expression de NFκB, une réponse qui est réprimée partiellement par la co-administration de valsartan ou de PD123177. Les expériences dose-réponse avec Ang-II administrée à l'ensemble des noyaux purifiés vs. aux cardiomyocytes seuls a montré une augmentation plus importante dans les niveaux d'ARNm de NFκB avec une affinité de ~ 3 fois plus grande (valeurs d’EC50 = 9 contre 28 pmol/L, respectivement), suggérant un rôle préférentiel nucléaire dans la signalisation. Par conséquent, nous avons conclu que les membranes cardiaques nucléaires possèdent des récepteurs d’Ang-II couplés à des voies de signalisation et à la transcription génique. La signalisation nucléaire pourrait jouer un rôle clé dans les changements de l'expression de gènes cardiaques, entraînant ainsi des implications mécanistiques et thérapeutiques diverses.
Resumo:
La première augmentation de la longévité en laboratoire fût observée à la suite d’une intervention nutritionnelle consistant en une réduction de l’apport alimentaire chez le rat. Plus tard, ce phénomène a été reproduit dans de très nombreuses espèces et référé en tant que restriction calorique. Le développement des techniques de biologie moléculaire moderne a permis de montrer dans des organismes modèles simples que cette flexibilité du processus de vieillissement était régulée par des facteurs génétiques. De fait, plusieurs mécanismes cellulaires ont alors pu être identifiés comme responsables de ce contrôle du vieillissement. Ces voies de régulation ont révélées être conservées entre les espèces, depuis les levures jusqu’aux organismes multicellulaires tels que le nématode, la mouche ou la souris, suggérant l’existence d’un programme universel de vieillissement dans le vivant. La levure s’est avéré à plusieurs reprises être un modèle puissant et fiable pour la découverte de gènes impliqués dans ce phénomène. Mon étude a consisté au développement d’un nouveau modèle unicellulaire d’étude du vieillissement à travers l’espèce Schizosaccharomyces pombe appelée aussi levure à fission. La première étape de mon travail a montré que les voies de détection des nutriments gouvernées par la sérine/thréonine protéine kinase A (Pka1) et la sérine/thréonine kinase Sck2 contrôlent le vieillissement chronologique de ces cellules comme il était connu dans la levure Saccharomyces cerevisiae. Ceci permit de valider l’utilisation de la levure à fission pour l’étude du vieillissement. Ensuite, nous avons analysé plus en détail l’effet pro-vieillissement du glucose en étudiant le rôle de sa détection par le récepteur membranaire Git3 couplé à la protéine G (Gpa2) en amont de la kinase Pka1. La perte du signal du glucose par la délétion de Git3 imite partiellement l’effet d’augmentation de longévité obtenu par baisse de la concentration en glucose dans le milieu. De plus, l’effet néfaste du signal du glucose est maintenu en absence de tout métabolisme du glucose suite à la mutation des hexokinases, premières enzymes de la glycolyse. L’ensemble de ces résultats suggèrent que la signalisation du glucose est prédominante sur son métabolisme pour son effet pro-vieillissement. D’autre part, à la fois la suppression de cette signalisation et la baisse de niveau de glucose disponible allongent la durée de vie en corrélation avec une augmentation de la résistance au stress, une hausse d’activité mitochondriale et une baisse de production de radicaux libres. Finalement, le criblage d’une banque de surexpression d’ADNc a permis d’identifier plusieurs gènes candidats responsables de ces effets en aval de la voie de signalisation Git3/PKA. La recherche sur les mécanismes moléculaires du vieillissement propose une nouvelle approche, un nouvel angle de vue, pour la compréhension des fonctions cellulaires et promet d’apporter de précieuses clefs pour mieux comprendre certaines maladies. En effet, le vieillissement est la première cause d’apparition de nombreuses affections comme les cancers, les maladies cardiovasculaires et métaboliques ou les maladies neurodégénératives tels que les syndromes d’Alzheimer et de Parkinson.
Resumo:
Il a été démontré que l’hétérotachie, variation du taux de substitutions au cours du temps et entre les sites, est un phénomène fréquent au sein de données réelles. Échouer à modéliser l’hétérotachie peut potentiellement causer des artéfacts phylogénétiques. Actuellement, plusieurs modèles traitent l’hétérotachie : le modèle à mélange des longueurs de branche (MLB) ainsi que diverses formes du modèle covarion. Dans ce projet, notre but est de trouver un modèle qui prenne efficacement en compte les signaux hétérotaches présents dans les données, et ainsi améliorer l’inférence phylogénétique. Pour parvenir à nos fins, deux études ont été réalisées. Dans la première, nous comparons le modèle MLB avec le modèle covarion et le modèle homogène grâce aux test AIC et BIC, ainsi que par validation croisée. A partir de nos résultats, nous pouvons conclure que le modèle MLB n’est pas nécessaire pour les sites dont les longueurs de branche diffèrent sur l’ensemble de l’arbre, car, dans les données réelles, le signaux hétérotaches qui interfèrent avec l’inférence phylogénétique sont généralement concentrés dans une zone limitée de l’arbre. Dans la seconde étude, nous relaxons l’hypothèse que le modèle covarion est homogène entre les sites, et développons un modèle à mélanges basé sur un processus de Dirichlet. Afin d’évaluer différents modèles hétérogènes, nous définissons plusieurs tests de non-conformité par échantillonnage postérieur prédictif pour étudier divers aspects de l’évolution moléculaire à partir de cartographies stochastiques. Ces tests montrent que le modèle à mélanges covarion utilisé avec une loi gamma est capable de refléter adéquatement les variations de substitutions tant à l’intérieur d’un site qu’entre les sites. Notre recherche permet de décrire de façon détaillée l’hétérotachie dans des données réelles et donne des pistes à suivre pour de futurs modèles hétérotaches. Les tests de non conformité par échantillonnage postérieur prédictif fournissent des outils de diagnostic pour évaluer les modèles en détails. De plus, nos deux études révèlent la non spécificité des modèles hétérogènes et, en conséquence, la présence d’interactions entre différents modèles hétérogènes. Nos études suggèrent fortement que les données contiennent différents caractères hétérogènes qui devraient être pris en compte simultanément dans les analyses phylogénétiques.