757 resultados para Produit cartésien de graphes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'imagerie intravasculaire ultrasonore (IVUS) est une technologie médicale par cathéter qui produit des images de coupe des vaisseaux sanguins. Elle permet de quantifier et d'étudier la morphologie de plaques d'athérosclérose en plus de visualiser la structure des vaisseaux sanguins (lumière, intima, plaque, média et adventice) en trois dimensions. Depuis quelques années, cette méthode d'imagerie est devenue un outil de choix en recherche aussi bien qu'en clinique pour l'étude de la maladie athérosclérotique. L'imagerie IVUS est par contre affectée par des artéfacts associés aux caractéristiques des capteurs ultrasonores, par la présence de cônes d'ombre causés par les calcifications ou des artères collatérales, par des plaques dont le rendu est hétérogène ou par le chatoiement ultrasonore (speckle) sanguin. L'analyse automatisée de séquences IVUS de grande taille représente donc un défi important. Une méthode de segmentation en trois dimensions (3D) basée sur l'algorithme du fast-marching à interfaces multiples est présentée. La segmentation utilise des attributs des régions et contours des images IVUS. En effet, une nouvelle fonction de vitesse de propagation des interfaces combinant les fonctions de densité de probabilité des tons de gris des composants de la paroi vasculaire et le gradient des intensités est proposée. La segmentation est grandement automatisée puisque la lumière du vaisseau est détectée de façon entièrement automatique. Dans une procédure d'initialisation originale, un minimum d'interactions est nécessaire lorsque les contours initiaux de la paroi externe du vaisseau calculés automatiquement sont proposés à l'utilisateur pour acceptation ou correction sur un nombre limité d'images de coupe longitudinale. La segmentation a été validée à l'aide de séquences IVUS in vivo provenant d'artères fémorales provenant de différents sous-groupes d'acquisitions, c'est-à-dire pré-angioplastie par ballon, post-intervention et à un examen de contrôle 1 an suivant l'intervention. Les résultats ont été comparés avec des contours étalons tracés manuellement par différents experts en analyse d'images IVUS. Les contours de la lumière et de la paroi externe du vaisseau détectés selon la méthode du fast-marching sont en accord avec les tracés manuels des experts puisque les mesures d'aire sont similaires et les différences point-à-point entre les contours sont faibles. De plus, la segmentation par fast-marching 3D s'est effectuée en un temps grandement réduit comparativement à l'analyse manuelle. Il s'agit de la première étude rapportée dans la littérature qui évalue la performance de la segmentation sur différents types d'acquisition IVUS. En conclusion, la segmentation par fast-marching combinant les informations des distributions de tons de gris et du gradient des intensités des images est précise et efficace pour l'analyse de séquences IVUS de grandes tailles. Un outil de segmentation robuste pourrait devenir largement répandu pour la tâche ardue et fastidieuse qu'est l'analyse de ce type d'images.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Cette recherche a débuté avec l’idée que l’Internet est en train de changer la manière dont nous créons des connaissances et du contenu culturel. Notre point de départ était d’utiliser l’Internet afin de rassembler et amplifier plusieurs points de vue dans un processus de design. Une approche complexe a exposé l’Internet comme un système et conséquemment comme une plateforme pour l’innovation. La structure ouverte de l’Internet a soutenu le mouvement participatif des usagers qui ont choisi de partager leurs besoins, leurs désirs et leurs solutions. Notre recherche a pour but d’étudier ce contenu généré par les usagers en ligne et comprendre sa valeur pour les designers. Les usagers créatifs veulent s’exprimer et participer activement dans le processus de design. Notre recherche tente de démontrer que les designers ont beaucoup à apprendre du contenu généré par les usagers car ceux-ci soumettent des éléments qui ont attrait à toutes les étapes du processus de design et révèlent des relations présentes dans la situation de design à l’étude. Pour en apprendre plus sur ce contenu nous nous demandons : Quel type d’information offre le contenu généré par les usagers pour la phase de recherche dans le processus de design. Afin de centrer la portée de l’étude, nous nous sommes aussi questionné si cette information est plus pertinente au design de produits, au design de services ou au design de système de produits et de services. Aspirant aux idéaux du design participatif, notre méthodologie fut développée afin d’apprendre comment le contenu généré par les usagers pourrait influencer le processus de design. Pour ce faire, nous avons choisi de chercher sur l’Internet pour du contenu qui concerne la mobilité via l’usage d’une automobile. Les trois différents types de média considérés étaient les vidéos sur YouTube, les images sur Flickr et les textes sur Blogger. Afin de répondre à notre première question de recherche, nous nous sommes penchés sur deux éléments lorsque l’on recherche pour le design : les espaces de design et les relations de design. Premièrement, nous avons catégorisé le contenu récolté selon l’espace problème, créatif et solution. Deuxièmement, nous avons catégorisé le contenu dépendant de laquelle des relations de design elle démontrait soit une combinaison d’usagers, objets et contextes. Dans le but de répondre à la deuxième question de cette recherche, nous avons examiné trois types V de produits de design : les automobiles privées comme produit, le partage de voiture comme système de produit et de service, et le taxi comme service. Chaque élément pertinent généré par les usagés trouvé dans cette recherche fut catégorisé jusqu’à ce que l’on récolte 50 échantillons pour chaque combinaison de ces variables. Nous en sommes arrivés avec une matrice de 50 éléments de chaque produit de design, pour chacun des médias, puis catégorisé selon les espaces de design et les relations dans le design. Cette recherche démontre que l’Internet, comme médium, produit les conditions avantageuses pour que les usagers partagent de grandes quantités de contenu original et diversifié qui est pertinent aux situations de design. À partir de nos données de recherche, nous avons identifié des tendances dans le contenu généré par les usagers. Notamment, nous sommes en mesure d’affirmer que le contenu généré par les usagers offre de l’information pertinente à la recherche pour le design, et ce dans tous les espaces de design et toutes les relations de design. Il en fut de même pour les différentes issues du design car du contenu sur les produits, les systèmes de produits et de services et les services était présent et pertinent. Bref, nous avons démontré que l’Internet supporte la créativité et conséquemment il y abonde de contenu créatif produit par les usagers. Suivant dans les traces dessinées par d’autres chercheurs en design participatif, cette étude devrait être considérée comme un nouvel exemple des moyens qu’ont les designers pour percevoir les besoins tacites des usagers en leur permettant d’exprimer leurs idées. Alors que ceux-ci créent librement et intuitivement ainsi exposant leurs besoins, solutions et idées, les designers peuvent porter un regard de tierce partie sur les résultats. Jumelant des techniques comme le crowdsourcing et le brainstorming, nous avons créé une nouvelle activité et le néologisme : brainsourcing. En demeurant dans une forme de pratique réflexive, les designers peuvent réfléchir et ajouter au contenu généré par les usagers qui lui n’est pas biaisé par une éducation ou une culture du design. Ce processus est similaire au design participatif professionnel où le brainsourcing est une activité parallèle lorsque le designer fait des recherches pour le design. C’est cette perspective sur la somme des idées des participants qui peut contribuer à comprendre la complexité de la situation de design. VI Cette recherche a aussi soulevé des questions par rapport à l’effet de démocratisation de l’Internet. Bien que les usagers n’ont pas l’éducation, ni les habiletés des designers, ils aspirent à démocratiser le processus du design en voulant participer activement et en exposant leurs besoins, idées et solutions. Nous avons pu déterminer que les usagers n’étaient pas qualifiés pour entreprendre le processus complet du design comme les designers professionnels, mais nous avons observé directement la capacité des usagers à mettre de l’avant leur créativité. À propos de la relation entre les usagers créatifs et les designers, nous avons étudié des langages communs tels les scénarios et les prototypes. Tous deux sont présents dans le contenu généré par les usagers que nous avons récolté dans nos recherches sur Internet. Ceci nous a mené vers une nouvelle perspective sur l’activité du design où des opportunités créatives ressortent d’une conversation avec les usagers. Cette recherche a dévoilé de grandes tendances dans la manière dont les usagers communiquent naturellement dans un processus de design. Nous espérons avoir offert un aperçu de comment les designers peuvent prendre avantage de tous les types de contenu généré par les usagers en ligne. Dans le futur, nous souhaitons que les designers aient la possibilité d’interagir avec les participants en prenant le rôle de facilitateur de la conversation. La responsabilité du résultat ne tombe pas sur les épaules du designer car son mandat est d’assurer le bon fonctionnement du processus. Les designers rejoignent les usagers en ne demandant plus comment les choses peuvent être créées, mais pourquoi elles devraient exister. En tant que designers, nous aspirons à générer plus à partir de nouvelles connaissances, nous aspirons à créer plus de sens. Mots clés: Recherche en design, complexité, design participatif, contenu généré par les usagers, démocratisation, Internet, créativité, crowdsourcing, brainstorming, brainsourcing, réflexion-en-action.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les molécules du complexe majeur d'histocompatibilité de classe II (CMH II) sont exprimées exclusivement à la surface des cellules présentatrices d'antigènes et servent à stimuler les cellules CD4+ initiant une réponse immunitaire. Le chargement peptidique sur HLA-DR se produit dans les endosomes tardifs et les lysosomes sous l'action de HLA-DM. Cette molécule de classe II non-classique enlève les fragments peptidiques de la chaîne invariante (Ii) restés associés aux molécules de classe II (CLIP) et édite leur répertoire d'antigènes présentés. En utilisant une forme mutante de HLA-DM (HLA-DMy) qui s'accumule à la surface plasmique, nous avons observé que HLA-DMy augmente les chargements de peptides exogènes et aussi la réponse des cellules T en comparaison avec HLA-DM sauvage. Il a été démontré que des molécules chimiques, comme le n-propanol, pouvait avoir le même effet que HLA-DM en remplaçant les peptides associés aux molécules de classe II de la surface cellulaire. De plus, HLA-DMy et le n-propanol ont présenté un effet additif sur la présentation de peptides exogènes. Certaines protéines de la voie endocytique, comme HLA-DR, HLA-DM, HLA-DO et Ii sont ciblés aux compartiments multivésiculaires (MVB) et peuvent être ciblées aux exosomes. Suite à une fusion entre les MVB et la membrane plasmique, les exosomes sont relâchés dans le milieu extracellulaire. Nous avons déterminé que le motif tyrosine de HLA-DMβ et son interaction avec HLA-DR n'affectaient pas le ciblage aux exosomes, sauf la molécule HLA-DO. Cette étude nous a permis de démontrer que HLA-DMy augmente la quantité de peptides exogènes chargés sur les CPA et que HLA-DM et HLA-DMy sont incorporés dans les exosomes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous proposons l’étude des représentations sociales du politique dans la presse quotidienne. Notre objet d’étude est le sens de la nation au Québec dans une période historique où la notion idéologique de nation s’avère un cadre de référence en profonde mutation dans de nombreuses sociétés. Plus particulièrement, nous voulons nous situer au centre des tensions à propos de la représentation sociale nationale en prenant comme observatoire un travail idéologique fédéraliste par des Québécois, qui à la fois se posent comme promoteurs de la nation, et visent une intégration dans un autre espace national et juridique : le Canada. Les résultats de cette étude qualitative sont issus d’une analyse sémantique du discours éditorial du journal La Presse. Nous avons ainsi examiné les différentes catégories de connaissance mobilisées lors de l’évocation de l’espace national, ainsi que la façon dont elles sont organisées au sein du discours lors des deux périodes référendaires, soit en 1980 et 1995. C’est donc dans le cadre d’une sociologie de la connaissance journalistique que nous menons cette étude. Le discours social, à partir de l’étude des théories des représentations sociales et de la sociologie des contenus médiatiques, ne peut se considérer qu’à travers l’ensemble des relations sociales dont il est le produit. Nous nous attachons ici à définir d’une part les spécificités du discours éditorial, et d’autre part les différentes catégories de connaissances utilisées dans notre corpus qui font sens. On perçoit alors, grâce à une description diachronique, l’évolution des représentations sociales ayant a trait à l’espace national québécois entre les deux périodes étudiées. Après avoir défini ce dont on parle lorsqu’il est question de l’espace national, nous nous emploierons à analyser la façon dont ce discours est organisé. Ainsi, nous mettons en avant d’une part, les différentes formes discursives, rhétoriques et argumentatives, mises en place dans le but de persuader et de justifier l’action (le rejet des deux référendums, et l’adhésion aux promesses de renouvellement du fédéralisme), et d’autre part la logique discursive mobilisée consistant à placer la nation comme un objet politique rationnel ou non. En effet, le discours éditorial nous permet de mettre au jour une organisation cognitive de la connaissance, qui à quelques nuances près, est structurée de façon manichéenne entre le rationnel (l’éditorialiste, le fédéralisme, l’économique, l’universalisme, la raison de sens commun) et l’irrationnel (le souverainisme, ses dirigeants n’étant que des rêveurs et des passionnés), se plaçant dès lors dans un rapport de communication politique, plus proche de la propagande que de l’exemplarité réflexive que pose le discours éditorial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des variations importantes du surenroulement de l’ADN peuvent être générées durant la phase d’élongation de la transcription selon le modèle du « twin supercoiled domain ». Selon ce modèle, le déplacement du complexe de transcription génère du surenroulement positif à l’avant, et du surenroulement négatif à l’arrière de l’ARN polymérase. Le rôle essentiel de la topoisomérase I chez Escherichia coli est de prévenir l’accumulation de ce surenroulement négatif générée durant la transcription. En absence de topoisomérase I, l’accumulation de ce surenroulement négatif favorise la formation de R-loops qui ont pour conséquence d’inhiber la croissance bactérienne. Les R-loops sont des hybrides ARN-ADN qui se forment entre l’ARN nouvellement synthétisé et le simple brin d’ADN complémentaire. Dans les cellules déficientes en topoisomérase I, des mutations compensatoires s’accumulent dans les gènes qui codent pour la gyrase, réduisant le niveau de surenroulement négatif du chromosome et favorisant la croissance. Une des ces mutations est une gyrase thermosensible qui s’exprime à 37 °C. La RNase HI, une enzyme qui dégrade la partie ARN d’un R-loop, peut aussi restaurer la croissance en absence de topoisomérase I lorsqu’elle est produite en très grande quantité par rapport à sa concentration physiologique. En présence de topoisomérase I, des R-loops peuvent aussi se former lorsque la RNase HI est inactive. Dans ces souches mutantes, les R-loops induisent la réponse SOS et la réplication constitutive de l’ADN (cSDR). Dans notre étude, nous montrons comment les R-loops formés en absence de topoisomérase I ou RNase HI peuvent affecter négativement la croissance des cellules. Lorsque la topoisomérase I est inactivée, l’accumulation d’hypersurenroulement négatif conduit à la formation de nombreux R-loops, ce qui déclenche la dégradation de l’ARN synthétisé. Issus de la dégradation de l’ARNm de pleine longueur, des ARNm incomplets et traductibles s’accumulent et causent l’inhibition de la synthèse protéique et de la croissance. Le processus par lequel l’ARN est dégradé n’est pas encore complètement élucidé, mais nos résultats soutiennent fortement que la RNase HI présente en concentration physiologique est responsable de ce phénotype. Chose importante, la RNase E qui est l’endoribonuclease majeure de la cellule n’est pas impliquée dans ce processus, et la dégradation de l’ARN survient avant son action. Nous montrons aussi qu’une corrélation parfaite existe entre la concentration de RNase HI, l’accumulation d’hypersurenroulement négatif et l’inhibition de la croissance bactérienne. Lorsque la RNase HI est en excès, l’accumulation de surenroulement négatif est inhibée et la croissance n’est pas affectée. L’inverse se produit Lorsque la RNase HI est en concentration physiologique. En limitant l’accumulation d’hypersurenroulement négatif, la surproduction de la RNase HI prévient alors la dégradation de l’ARN et permet la croissance. Quand la RNase HI est inactivée en présence de topoisomérase I, les R-loops réduisent le niveau d’expression de nombreux gènes, incluant des gènes de résistance aux stress comme rpoH et grpE. Cette inhibition de l’expression génique n’est pas accompagnée de la dégradation de l’ARN contrairement à ce qui se produit en absence de topoisomérase I. Dans le mutant déficient en RNase HI, la diminution de l’expression génique réduit la concentration cellulaire de différentes protéines, ce qui altère négativement le taux de croissance et affecte dramatiquement la survie des cellules exposées aux stress de hautes températures et oxydatifs. Une inactivation de RecA, le facteur essentiel qui déclenche la réponse SOS et le cSDR, ne restaure pas l’expression génique. Ceci démontre que la réponse SOS et le cSDR ne sont pas impliqués dans l’inhibition de l’expression génique en absence de RNase HI. La croissance bactérienne qui est inhibée en absence de topoisomérase I, reprend lorsque l’excès de surenroulement négatif est éliminé. En absence de RNase HI et de topoisomérase I, le surenroulement négatif est très relaxé. Il semble que la réponse cellulaire suite à la formation de R-loops, soit la relaxation du surenroulement négatif. Selon le même principe, des mutations compensatoires dans la gyrase apparaissent en absence de topoisomérase I et réduisent l’accumulation de surenroulement négatif. Ceci supporte fortement l’idée que le surenroulement négatif joue un rôle primordial dans la formation de R-loop. La régulation du surenroulement négatif de l’ADN est donc une tâche essentielle pour la cellule. Elle favorise notamment l’expression génique optimale durant la croissance et l’exposition aux stress, en limitant la formation de R-loops. La topoisomérase I et la RNase HI jouent un rôle important et complémentaire dans ce processus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apoptose des cellules endothéliales (CE) représente un évènement initial dans le développement de plusieurs pathologies fibrotiques telles que le rejet chronique d’allogreffe et la sclérose systémique. Nous avons démontré que les médiateurs issus des CE apoptotiques entraîne la différenciation myofibroblastique et la résistance à l’apoptose, deux mécanismes centraux à la fibrogénèse. L’activation de PI3K (phospatidylinositol-3 kinase) caractérise ces deux mécanismes. Un fragment C-terminal du perlécan (LG3) produit par les CE apoptotiques inhibe l’apoptose des fibroblastes. Les objectifs de ce travail étaient de : 1. définir les récepteurs et la signalisation impliqués dans la réponse anti-apoptotique et 2. caractériser les médiateurs fibrogéniques responsables de la différenciation myofibroblastique. En ce qui a trait à la réponse anti-apoptotique, l’inhibition des intégrines 21 ou des kinases de la famille Src (SFK) chez les fibroblastes prévient la résistance à l’apoptose et la phosphorylation d’Akt normalement induites par le milieu conditionné par des CE apoptotiques (SSC) ou le LG3. Ces résultats suggèrent que le LG3 produit par les CE apoptotiques initie un état de résistance à l’apoptose chez les fibroblastes par des voies α2β1integrines/SFK/PI3K dépendantes. Le LG3 n’induit cependant pas la différenciation myofibroblastique. Nous avons donc caractérisé le milieu SSC de façon à identifier les médiateurs responsables de la différenciation myofibroblastique. Les milieux conditionnés par des CE apoptotiques et non-apoptotiques (respectivement SSC et SSC-ZVAD) ont été analysés comparativement par chromatographie liquide bi-dimensionnelle, immunobuvardage et spectrométrie de masse. Le connective tissue growth factor (CTGF) est le seul facteur fibrogénique connu augmenté dans le milieu SSC. L’inhibition de la caspase-3 chez les CE prévient la relâche de CTGF. Au niveau du fibroblaste, l’inhibition de SFK ou de Pyk2 (proline-rich tyrosine kinase-2) prévient la différenciation myofibroblastique induite par le SSC ou le CTGF in vitro. L’anticorps neutralisant contre le TGF- (Transforming growth factor beta) n’est pas en mesure de bloquer la différenciation myofibroblastique induite par le SSC ou le CTGF. Des injections quotidiennes sous-cutanées de SSC chez la souris C3H pour 3 semaines entraîne une augmentation de l’épaisseur de la peau et des niveaux protéiques d’SMA, de vimentine et de collagène I. Cette réponse fibrogénique est réduite chez les souris qui ont reçu le SSC-ZVAD ou le SSC immunodéplété de son CTGF. Ces résultats apportent de nouvelles issues mécanistiques au niveau de la réponse fibrogénique activée par la mort des CE. L’activation des caspases chez les CE apoptotiques entraîne la production de LG3 et de CTGF qui, à leur tour, activent des voies de signalisation pro-fibrotiques SFK/PI3K dépendantes chez les fibroblastes, et ce indépendamment du TGF-.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les gènes suppresseurs de tumeurs (TSGs) contrôlent la prolifération cellulaire et leur inactivation joue un rôle important dans la leucémogénèse. Deux mécanismes épigénétiques majeurs sont impliqués dans la répression des TSGs: 1- la méthylation de l’ADN et 2- la déacétylation des histones des chromosomes. On les dit épigénétiques car ils n’affectent pas la séquence de l’ADN. Ces phénomènes sont réversibles, faisant donc d’eux des cibles thérapeutiques de choix. Dans le cadre de cette thèse, nous avons évalué le potentiel chimiothérapeutique de différents agents qui visent ces mécanismes épigénétiques et nous les avons administrés seuls et en combinaison dans le but d’améliorer leur efficacité. La 5-aza-2’-désoxycytidine (5-Aza-CdR) est un inhibiteur de la méthylation de l’ADN qui permet la ré-expression des TSGs. Cet agent s’est avéré efficace contre certaines maladies hématologiques et est d’ailleurs approuvé aux États-Unis dans le traitement du syndrome myélodysplasique depuis 2006. Cependant, le protocole d’administration optimal de cet agent, en termes de doses et de durée, n’est toujours pas établi. Nos recherches suggèrent que le celui-ci devrait être plus intensif que ce que rapporte la littérature. Les inhibiteurs des déacétylases des histones (HDACi) ont également montré une activité antinéoplasique intéressante. De récentes recherches ont montré que la combinaison d’agents ciblant à la fois la méthylation de l’ADN et la déacétylation des histones produit une réactivation synergique des TSGs, ce à quoi nous nous sommes intéressé. Nous avons observé que la co-administration d’un HDACi avec la 5-Aza-CdR potentialise son action anti-leucémique. Il est aussi possible d’augmenter l’activité de la 5-Aza-CdR en inhibant sa dégradation par l’enzyme cytidine (CR) désaminase. Nous avons observé que la co-administration du zebularine, un inhibiteur de la CR désaminase, avec la 5-Aza-CdR accroît son efficacité. Le zebularine est aussi un inhibiteur de la méthylation de l’ADN, ce qui pourrait contribuer à la potentialisation de la réponse anti-leucémique observée lors de la co-administration de ces deux agents. En résumé, il est possible d’augmenter l’efficacité anti-leucémique de la 5-Aza-CdR en : 1- intensifiant son protocole d’administration, en termes de doses et de durée, 2- la combinant avec un HDACi, et 3- diminuant sa dégradation par la CR désaminase. L’utilisation de ces résultats précliniques dans l’élaboration de protocoles cliniques pourrait être bénéfique à beaucoup de patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le p-tert-octylphénol est un produit présent dans l’environnement et issu de la dégradation des alkylphénols éthoxylés. Ce composé a la capacité de se lier au récepteur œstrogénique et d’exercer ainsi un léger effet œstrogénique. Les objectifs de cette étude étaient de 1) développer une méthode d'identification de l'octylphénol dans le sang et les tissus à l'aide de la chromatographie en phase gazeuse jumelée à la spectrométrie de masse, 2) caractériser la toxicocinétique sanguine et tissulaire de l’octylphénol chez le rat Sprague-Dawley mâle et femelle et 3) développer un modèle toxicocinétique à base physiologique permettant de décrire la cinétique sanguine et tissulaire de l’octylphénol inchangé. Pour ce faire, des rats mâle et femelle Sprague-Dawley ont reçu des doses uniques d’octylphénol par les voies intraveineuse, orale et sous-cutanée. Deux autres groupes ont reçu des doses répétées d'octylphénol par voie orale pour une durée de 35 jours consécutifs pour les femelles ou 60 jours pour les mâles. Les concentrations sanguines et tissulaires d’octylphénol ont été mesurées à différents moments après administration à partir d’une méthode d’analyse développée dans nos laboratoires dans le cadre de ce projet. Les expériences impliquant des administrations uniques ont montré que les concentrations sanguines et tissulaires d'octylphénol étaient en général plus élevées chez les femelles que chez les mâles. Des expériences réalisées avec des microsomes hépatiques ont confirmé que ces différences étaient vraisemblablement reliées au métabolisme de l'octylphénol. Les expériences impliquant des administrations répétées ont montré qu'il n'y avait pas d'accumulation d'octylphénol dans l'organisme aux doses étudiées. Les résultats obtenus expérimentalement ont servi à développer et valider un modèle toxicocinétique à base physiologique. Ce modèle a permis de simuler adéquatement les concentrations sanguines et tissulaires d'octylphénol suite à des expositions intraveineuses, orales et sous-cutanées. En conclusion, cette étude a fourni des données essentielles sur la toxicocinétique de l'octylphénol. Ces données sont nécessaires pour établir la relation entre la dose externe et la dose interne et vont contribuer à une meilleure évaluation des risques liés à l'octylphénol.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dépression est une maladie chronique, récurrente et potentiellement mortelle qui affecte plus de 20 % de la population à travers le monde. Les mécanismes sous-jacents de la dépression demeurent incompris et la pharmacothérapie actuelle, largement basée sur l’hypothèse monoaminergique, fait preuve d’une efficacité sous optimale et d’une latence thérapeutique élevée. Par conséquent, la recherche est amenée à élaborer de nouveaux traitements pharmacologiques. Pour détecter leur action, il est avant tout nécessaire de développer des outils expérimentaux adéquats. Dans cette optique, notre but a été de mesurer l’anhédonie, un symptôme cardinal de la dépression, chez le rat de laboratoire. L’anhédonie a été définie comme une réduction de la récompense et a été mesurée avec le test de consommation de sucrose et la technique d’autostimulation intracérébrale. En vue d’induire l’anhédonie, nous avons effectué une bulbectomie olfactive, une procédure qui entraîne divers changements biochimiques, cellulaires et comportementaux similaires à ceux de l’état dépressif et qui peuvent être renversés par un traitement antidépresseur chronique. Nos résultats montrent que la bulbectomie olfactive produit également l’anhédonie, reflétée par une réduction durable de la consommation de sucrose et par une réduction de l’efficacité de l’amphétamine dans le test d’autostimulation intracérébrale. Ces effets ont été présents jusqu’à trois à quatre semaines suivant la chirurgie. La bulbectomie olfactive a aussi été associée à une augmentation de l’élément de réponse liant l’AMPc dans le striatum, un index moléculaire associé à l’anhédonie. Ces découvertes suggèrent que l’anhédonie peut être produite et étudiée de façon fiable dans le modèle de bulbectomie olfactive et que le circuit de récompense pourrait constituer une cible cohérente pour de nouvelles drogues en vue du traitement de la dépression.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’intérêt marqué porté actuellement aux recherches NBIC (nano-bio-info-cognitivo technologies) visant l’optimisation des capacités humaines augure d’un profond bouleversement dans nos représentations du corps humain et du rapport humain-machine. Tour à tour, des travaux issus des domaines du génie génétique, de la pharmacologie, des biotechnologies ou des nanotechnologies nous promettent un corps moins sujet à la maladie, mieux « adapté » et surtout plus malléable. Cette construction en laboratoire d’un corps amélioré fait amplement écho aux préoccupations contemporaines concernant la santé parfaite, le processus de vieillissement, l’inaptitude, l’apparence, la performance, etc. En vue d’analyser les transformations qu’induisent ces recherches sur les représentations du corps, nous avons construit un modèle théorique appuyé, d’une part, sur des travaux en sociologie du corps et, d’autre part, sur des travaux en épistémologie des sciences. Puis, en scrutant différents textes de vulgarisation scientifique produits par des chercheurs transhumanistes – militant ouvertement en faveur d’une optimisation radicale des capacités humaines par le biais des technosciences –, il a été observé que les représentations du corps s’organisent autour de trois principaux noyaux. Le corps humain est présenté, dans ce discours, comme étant à la fois informationnel, technologiquement perfectible et obsolète. Cette représentation tripartite du corps permet aux transhumanistes d’ériger leur modèle d’action (i.e. amélioration des capacités physiques, intellectuelles, sensitives, émotionnelles, etc.) à titre de nécessité anthropologique. À leurs yeux, l’amélioration des conditions humaines doit passer par une mutation contrôlée de la biologie (i.e. une hybridation avec la machine) du fait que le corps serait « inadapté » au monde contemporain. Ainsi, les promesses NBIC, une fois récupérées par les chercheurs transhumanistes, se voient exacerbées et prennent une tonalité péremptoire. Ceci contribue vivement à la promotion du posthumain ou du cyborg, soit d’un individu transformé dans l’optique d’être plus robuste et intelligent, de moduler sa sensitivité et ses états émotifs et de vivre plus longtemps, voire indéfiniment. Enfin, situé à mi-chemin entre la science et la science-fiction, ce projet est qualifié de techno-prophétie en ce qu’il produit d’innombrables prévisions basées sur les avancées technoscientifiques actuelles et potentielles. Afin d’accroître l’acceptabilité sociale de leur modèle d’action, les transhumanistes ne font pas uniquement appel à la (potentielle) faisabilité technique; ils s’appuient également sur des valeurs socialement partagées, telles que l’autodétermination, la perfectibilité humaine, l’égalité, la liberté ou la dignité. Néanmoins, la lecture qu’ils en font est parfois surprenante et rompt très souvent avec les conceptions issues de la modernité. À leur avis, le perfectionnement humain doit s’opérer par le biais des technosciences (non des institutions sociales), sur le corps même des individus (non sur l’environnement) et en vertu de leur « droit » à l’autodétermination compris comme un droit individuel d’optimiser ses capacités. De même, les technosciences doivent, disent-ils, être démocratisées afin d’en garantir l’accessibilité, de réduire les inégalités biologiques et de permettre à chacun de renforcer son sentiment d’identité et d’accomplissement. L’analyse du discours transhumaniste nous a donc permis d’observer leurs représentations du corps de même que la résonance culturelle du projet qu’ils proposent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La douleur est une expérience subjective multidimensionnelle accompagnée de réponses physiologiques. Ces dernières sont régulées par des processus cérébraux qui jouent un rôle important dans la modulation spinale et cérébrale de la douleur. Cependant, les mécanismes de cette régulation sont encore mal définis et il est essentiel de bien les comprendre pour mieux traiter la douleur. Les quatre études de cette thèse avaient donc comme objectif de préciser les mécanismes endogènes de modulation de la douleur par la contreirritation (inhibition de la douleur par une autre douleur) et d’investiguer la dysfonction de ces mécanismes chez des femmes souffrant du syndrome de l’intestin irritable (Sii). Dans un premier temps, un modèle expérimental a été développé pour mesurer l’activité cérébrale en imagerie par résonance magnétique fonctionnelle concurremment à l’enregistrement du réflexe nociceptif de flexion (RIII : index de nociception spinale) et des réponses de conductance électrodermale (SCR : index d’activation sympathique) évoqués par des stimulations électriques douloureuses. La première étude indique que les différences individuelles d’activité cérébrale évoquée par les stimulations électriques dans les cortex orbitofrontal (OFC) et cingulaire sont associées aux différences individuelles de sensibilité à la douleur, de réactivité motrice (RIII) et de réactivité autonomique (SCR) chez des sujets sains. La deuxième étude montre que l’analgésie par contreirritation produite chez des sujets sains est accompagnée de l’inhibition de l’amygdale par OFC et d’une modulation du réflexe RIII par la substance grise périaqueducale (PAG) et le cortex somesthésique primaire (SI). Dans les troisième et quatrième études, il est montré que la contreirritation ne produit pas d’inhibition significative de la douleur et du réflexe RIII chez les patientes Sii en comparaison aux contrôles. De plus, les résultats indiquent que la sévérité des symptômes psychologiques est associée au déficit de modulation de la douleur et à une hypersensibilité diffuse chez les patientes Sii. Dans l’ensemble, cette thèse précise le rôle de certaines structures cérébrales dans les multiples composantes de la douleur et dans l’analgésie par contreirritation et montre que les patientes Sii présentent une dysfonction des mécanismes spinaux et cérébraux impliqués dans la perception et la modulation de la douleur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet découle du Canadian Sport Centre Dietary Study qui avait pour objectif d’évaluer les habitudes de consommation de suppléments alimentaires chez les athlètes canadiens et de déterminer si des différences régionales existaient. Un nombre de sujets était prédéterminé pour chaque province en considération du nombre d’athlètes identifiés comme Excellence, Élite ou Relève par les Centres d’entraînement nationaux et les organismes gouvernementaux. Pour ce mémoire, seules les données associées aux athlètes du Québec ont été considérées. Quarante-trois athlètes ont répondu à un questionnaire sur l’utilisation des suppléments alimentaires, 71 ont fourni un journal alimentaire de trois jours et 42 parmi ces derniers ont remis les deux documents. La prévalence d’utilisation des suppléments alimentaires était de 90,7%. Les utilisateurs consommaient en moyenne 3,35 produits différents, particulièrement des boissons énergétiques (48,8%), des multivitamines-minéraux (37,2%), des produits de santé naturels (37,2%) et des suppléments de protéines en poudre (34,9%). Les athlètes souhaitaient maintenir leur santé (27,9%) et améliorer leur niveau d’énergie (27,9%) ou leur récupération (25,6%). Les sources d’information citées étaient les entraîneurs physiques (25,6%), la famille ou les amis (16,3%) et les coéquipiers (16,3%). Les sujets se procuraient ces produits dans les épiceries (16,3%), les pharmacies (14,0%) et les magasins spécialisés (9,3%). Soixante-dix pour cent des sujets croyaient que l’arrêt de l’utilisation des suppléments alimentaires n’aurait aucun impact sur leurs performances ou ne savaient pas comment cela les influencerait. Ils démontraient un vif intérêt au sujet de l’efficacité (69,8%), la légalité (55,8%) et la sécurité (53,5%) de ces produits. Des sujets qui utilisaient un supplément de protéines, 81% présentaient un apport alimentaire supérieur à leurs besoins. L’utilisation de suppléments de multivitaminesminéraux permettait de combler l’apport insuffisant en calcium et en folate, mais pas en potassium. Nos résultats soulignent que ces utilisateurs présentaient des apports dépassant l’apport maximal tolérable pour le sodium, le magnésium, la niacine, le folate, la vitamine A et le fer. Nous pouvons donc conclure que ces deux types de suppléments alimentaires n’étaient pas utilisés d’une façon pertinente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une maladie dont la cause est encore inconnue, et qui génère des déformations complexes du rachis, du thorax et du bassin. La prévalence est de 4% dans la population adolescente au Québec. Cette pathologie affecte surtout les filles durant leur poussée de croissance pubertaire. Parmi plusieurs hypothèses émises, l’hypothèse neuroendocrinienne, impliquant une déficience en mélatonine comme agent étiologique de la SIA a suscité beaucoup d’intérêt. Cette hypothèse découle du fait que l’ablation de la glande pinéale chez le poulet produit une scoliose ressemblant sous plusieurs aspects à la pathologie humaine. La pertinence biologique de la mélatonine dans la scoliose est controversée, étant donné que la majorité des études chez l’homme n’ont pu mettre en évidence une diminution significative des niveaux de mélatonine circulante chez les patients scoliotiques. Nous avons démontré un dysfonctionnement dans la signalisation de la mélatonine au niveau des tissus musculo-squelettiques chez une série de patients atteints de SIA (Moreau & coll. 2004). Nous avons confirmé ce défaut chez un plus grand nombre de patients ainsi qu’en utilisant une nouvelle technologie (spectroscopie cellulaire diélectrique) n’ayant pas recours à un prétraitement des cellules donnant ainsi des résultats plus précis. Cette technique a montré la présence des mêmes groupes fonctionnels identifiés auparavant par la technique d’AMPc. Le dysfonctionnement de la signalisation de la mélatonine est dû à une phosphorylation accrue des protéines G inhibitrices. Ce défaut pourrait être causé par un déséquilibre de l’activité des kinases et phosphatases capables de réguler la phosphorylation des protéines Gi. Parmi ces kinases, PKCd a suscité initialement notre intérêt vu qu’elle peut phosphoryler les protéines Gi. Nous avons démontré que cette kinase interagit avec le récepteur de la mélatonine MT2 et que cette interaction varie selon le groupe fonctionnel auquel un patient SIA appartient. Par la suite nos travaux se sont dirigés vers la découverte d’effecteurs cellulaires régulés par la mélatonine et plus spécifiquement l’ostéopontine (OPN), compte tenu de son rôle présumé comme mécanorécepteur et dans certaines structures jouant un rôle dans la proprioception, le contrôle postural et la fonction vestibulaire. L’OPN a été identifiée initialement par sa surexpression au niveau protéique et de l’ARNm dans la musculature paraspinale uniquement chez les poulets scoliotiques. Nous avons également utilisé un autre modèle animal, la souris C57Bl/6 naturellement déficiente en mélatonine. Nous avons généré des souris bipèdes en amputant les membres antérieurs de souris OPN KO, des souris CD44 KO ainsi que des souris contrôles C57Bl/6. Nos résultats ont montré qu’aucune souris OPN KO (n=50) ou CD44 KO (n=60) ne développe la maladie, contrairement aux souris contrôles C57Bl/6 (n=50) dont 45% deviennent scoliotiques. Ces résultats nous ont poussés à investiguer le rôle de cette protéine dans l’étiopathogenèse de la maladie chez l’humain. Nos résultats ont montré une augmentation des niveaux circulants d’OPN chez les patients atteints de la SIA et que l’élevation en OPN corrélait avec la sévérité de la maladie. Nos études chez les enfants asymptomatiques nés de parents scoliotiques et qui sont plus à risque de développer la maladie ont aussi démontré des différences significatives au niveau des concentrations en OPN en comparaison avec les sujets sains. En effet, plusieurs enfants à risque présentaient des niveaux d’OPN supérieurs à 800ng/ml suggérant un plus grand risque de développer une scoliose indiquant aussi que l’augmentation des niveaux en OPN précède le début de la maladie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'acide désoxyribonucléique (ADN) et l'acide ribonucléique (ARN) sont des polymères de nucléotides essentiels à la cellule. À l'inverse de l'ADN qui sert principalement à stocker l'information génétique, les ARN sont impliqués dans plusieurs processus métaboliques. Par exemple, ils transmettent l’information génétique codée dans l’ADN. Ils sont essentiels pour la maturation des autres ARN, la régulation de l’expression génétique, la prévention de la dégradation des chromosomes et le ciblage des protéines dans la cellule. La polyvalence fonctionnelle de l'ARN résulte de sa plus grande diversité structurale. Notre laboratoire a développé MC-Fold, un algorithme pour prédire la structure des ARN qu'on représente avec des graphes d'interactions inter-nucléotidiques. Les sommets de ces graphes représentent les nucléotides et les arêtes leurs interactions. Notre laboratoire a aussi observé qu'un petit ensemble de cycles d'interactions à lui seul définit la structure de n'importe quel motif d'ARN. La formation de ces cycles dépend de la séquence de nucléotides et MC-Fold détermine les cycles les plus probables étant donnée cette séquence. Mon projet de maîtrise a été, dans un premier temps, de définir une base de données des motifs structuraux et fonctionnels d'ARN, bdMotifs, en terme de ces cycles. Par la suite, j’ai implanté un algorithme, MC-Motifs, qui recherche ces motifs dans des graphes d'interactions et, entre autres, ceux générés par MC-Fold. Finalement, j’ai validé mon algorithme sur des ARN dont la structure est connue, tels que les ARN ribosomaux (ARNr) 5S, 16S et 23S, et l'ARN utilisé pour prédire la structure des riborégulateurs. Le mémoire est divisé en cinq chapitres. Le premier chapitre présente la structure chimique, les fonctions cellulaires de l'ARN et le repliement structural du polymère. Dans le deuxième chapitre, je décris la base de données bdMotifs. Dans le troisième chapitre, l’algorithme de recherche MC-Motifs est introduit. Le quatrième chapitre présente les résultats de la validation et des prédictions. Finalement, le dernier chapitre porte sur la discussion des résultats suivis d’une conclusion sur le travail.