222 resultados para nouvel impératif catégorique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Thèse présentée à la Faculté des études supérieures En vue de l'obtention du grade de Docteur en droit (LL.D.)"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit (L.L.M.)"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de LL.M. Droit Dans le cadre du programme de Maîtrise en droit(LL.M.) 2-325-1-0 en option recherche et droit des affaires"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

article

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’exercice d’allocation de ressources en santé, relevant du Ministère de la santé, se voit fortement influencé autant par les besoins variés de la population que par les exigences des intervenants en santé. Quel rôle ces différents intérêts peuvent-ils jouer dans l’intégration de nouvelles technologies dans la distribution des soins de santé ? La pharmacogénomique, branche émergente de la pharmacologie intégrant les données issues du projet génome humain au processus de développement du médicament, est perçue comme une technologie qui permettrait de personnaliser la médecine. Son intégration aux processus de développement ou de prescription de médicaments promet de minimiser l’apparition d’effets secondaires néfastes découlant de la prise de médicaments. Serait-il alors judicieux pour le gouvernement du Québec, considérant la conjoncture actuelle d’allocation de ressources, d’investir dans la pharmacogénomique en tant que nouvel outil de développement du médicament ou nouveau mode pronostic de médication pour sa population ? Nous aborderons cette question à l’aide de critères de sélection dictés par Caulfield et ses collaborateurs (2001)[1] pour évaluer la pertinence de l’investissement public dans la mise sur pied d’un test génétique, soit l’acceptabilité, l’utilité, la non-malfaisance et la présence d’un bénéfice clair – à coût raisonnable – pour la population. La génomique avoisinant la génétique, ces facteurs s’avèrent applicables dans notre discussion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Attendue, débattue, décriée … l’impulsion française de ces dernières années tendant à faire du salarié un acteur à part entière de l’entreprise interpelle. En effet, le microcosme de la firme s’en trouve bouleversé et l’évidence d’une réalité sociale condamnée à évoluer pose la nécessité de rechercher un nouvel équilibre. Reste à disséquer les implications de cette tendance récente, à en comprendre les fondements et à en mesurer les enjeux. Le dispositif juridique français est animé d’une préoccupation qui ne cesse de prendre de l’ampleur depuis la fin des années 2000 : faire du salarié un partenaire impliqué dans la vie de l’entreprise. L’étude de cette perception innovante d’une gouvernance axée sur la collaboration des salariés ne peut être menée sans appréhender les travaux de l’OCDE qui, dans ses Principes de gouvernement d’entreprise, fournit une grille d’analyse complète. En conséquence, le droit s’inscrit en droite ligne des nombreux écrits d’autres disciplines prônant une implication croissante des employés. Toutefois, l’accélération de la prise en compte des salariés dont témoignent les textes récemment adoptés en France rend complexe la synthèse de ce phénomène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cardiomyopathie/dysplasie arythmogène du ventricule droit (ARVC/D) est un désordre d’origine génétique caractérisé par le remplacement du myocarde par du tissus fibro-adipeux dans le ventricule droit. Ce désordre est responsable d’un grand pourcentage de mort subite, spécialement chez les plus jeunes. ARVC/D est difficile à diagnostiquer avec les outils cliniques actuels. Elle est causée en grande majorité par des mutations dans les protéines desmosomales. ARVC/D a donc des implications d’une grande importance chez les membres de la famille, qui peuvent sans le savoir, être aussi à risque de mort subite. Dans le but d’améliorer le diagnostique, un nouvel outil, le test génétique, est de plus en plus utilisé. Hypothèses: Dans le but d’évaluer la valeur du test génétique en complément du test clinique classique chez ARVC/D nous avons effectué une investigation clinique et génétique chez 23 cas-index atteints. Méthodes: Les cas-index sont diagnostiqué après une mort subite dans la famille ou après un examen clinique poussé pour arythmies. Le diagnostique d’ARVC/D a été fait avec les outils cliniques selon les critères. L’analyse génétique des protéines desmosomales associées à la maladie a été effectuée en séquençant leurs exons ainsi que les régions introniques nécessaires à l’épissage alternatif. Résultats: Le diagnostique clinique était clair dans 18/23 et incertain dans 5/23 des individus. Nous avons identifié 15 différentes mutations chez 10 cas-index. 64% des mutations n’avaient jamais été décrites. De plus, nous avons observé la présence de double ou triple mutant dans 40% des cas-index positifs. Les individus avec mutations sont plus jeunes et ont plus de symptômes que les individus sans mutation. Conclusion: Les tests génétiques sont positifs dans 43% des patients avec ARVC/D. L’utilisation de la technologie génétique basée sur l’identification de mutations connues a une valeur limitée vu le haut pourcentage des mutations nouvelles dans la maladie. La présence de double, même de triple mutant n’est pas associé avec un phénotype plus sévère, mais renforce l’idée de la nécessité d’un test génétique pour tous les gènes. Le test génétique est un outil fort utile à ajouter aux tests cliniques pour le diagnostique des patients qui ne remplissent pas tous les critères cliniques de la maladie. Mots clés: génétique, ARVC/D, mort subite, desmosome

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Cette recherche a débuté avec l’idée que l’Internet est en train de changer la manière dont nous créons des connaissances et du contenu culturel. Notre point de départ était d’utiliser l’Internet afin de rassembler et amplifier plusieurs points de vue dans un processus de design. Une approche complexe a exposé l’Internet comme un système et conséquemment comme une plateforme pour l’innovation. La structure ouverte de l’Internet a soutenu le mouvement participatif des usagers qui ont choisi de partager leurs besoins, leurs désirs et leurs solutions. Notre recherche a pour but d’étudier ce contenu généré par les usagers en ligne et comprendre sa valeur pour les designers. Les usagers créatifs veulent s’exprimer et participer activement dans le processus de design. Notre recherche tente de démontrer que les designers ont beaucoup à apprendre du contenu généré par les usagers car ceux-ci soumettent des éléments qui ont attrait à toutes les étapes du processus de design et révèlent des relations présentes dans la situation de design à l’étude. Pour en apprendre plus sur ce contenu nous nous demandons : Quel type d’information offre le contenu généré par les usagers pour la phase de recherche dans le processus de design. Afin de centrer la portée de l’étude, nous nous sommes aussi questionné si cette information est plus pertinente au design de produits, au design de services ou au design de système de produits et de services. Aspirant aux idéaux du design participatif, notre méthodologie fut développée afin d’apprendre comment le contenu généré par les usagers pourrait influencer le processus de design. Pour ce faire, nous avons choisi de chercher sur l’Internet pour du contenu qui concerne la mobilité via l’usage d’une automobile. Les trois différents types de média considérés étaient les vidéos sur YouTube, les images sur Flickr et les textes sur Blogger. Afin de répondre à notre première question de recherche, nous nous sommes penchés sur deux éléments lorsque l’on recherche pour le design : les espaces de design et les relations de design. Premièrement, nous avons catégorisé le contenu récolté selon l’espace problème, créatif et solution. Deuxièmement, nous avons catégorisé le contenu dépendant de laquelle des relations de design elle démontrait soit une combinaison d’usagers, objets et contextes. Dans le but de répondre à la deuxième question de cette recherche, nous avons examiné trois types V de produits de design : les automobiles privées comme produit, le partage de voiture comme système de produit et de service, et le taxi comme service. Chaque élément pertinent généré par les usagés trouvé dans cette recherche fut catégorisé jusqu’à ce que l’on récolte 50 échantillons pour chaque combinaison de ces variables. Nous en sommes arrivés avec une matrice de 50 éléments de chaque produit de design, pour chacun des médias, puis catégorisé selon les espaces de design et les relations dans le design. Cette recherche démontre que l’Internet, comme médium, produit les conditions avantageuses pour que les usagers partagent de grandes quantités de contenu original et diversifié qui est pertinent aux situations de design. À partir de nos données de recherche, nous avons identifié des tendances dans le contenu généré par les usagers. Notamment, nous sommes en mesure d’affirmer que le contenu généré par les usagers offre de l’information pertinente à la recherche pour le design, et ce dans tous les espaces de design et toutes les relations de design. Il en fut de même pour les différentes issues du design car du contenu sur les produits, les systèmes de produits et de services et les services était présent et pertinent. Bref, nous avons démontré que l’Internet supporte la créativité et conséquemment il y abonde de contenu créatif produit par les usagers. Suivant dans les traces dessinées par d’autres chercheurs en design participatif, cette étude devrait être considérée comme un nouvel exemple des moyens qu’ont les designers pour percevoir les besoins tacites des usagers en leur permettant d’exprimer leurs idées. Alors que ceux-ci créent librement et intuitivement ainsi exposant leurs besoins, solutions et idées, les designers peuvent porter un regard de tierce partie sur les résultats. Jumelant des techniques comme le crowdsourcing et le brainstorming, nous avons créé une nouvelle activité et le néologisme : brainsourcing. En demeurant dans une forme de pratique réflexive, les designers peuvent réfléchir et ajouter au contenu généré par les usagers qui lui n’est pas biaisé par une éducation ou une culture du design. Ce processus est similaire au design participatif professionnel où le brainsourcing est une activité parallèle lorsque le designer fait des recherches pour le design. C’est cette perspective sur la somme des idées des participants qui peut contribuer à comprendre la complexité de la situation de design. VI Cette recherche a aussi soulevé des questions par rapport à l’effet de démocratisation de l’Internet. Bien que les usagers n’ont pas l’éducation, ni les habiletés des designers, ils aspirent à démocratiser le processus du design en voulant participer activement et en exposant leurs besoins, idées et solutions. Nous avons pu déterminer que les usagers n’étaient pas qualifiés pour entreprendre le processus complet du design comme les designers professionnels, mais nous avons observé directement la capacité des usagers à mettre de l’avant leur créativité. À propos de la relation entre les usagers créatifs et les designers, nous avons étudié des langages communs tels les scénarios et les prototypes. Tous deux sont présents dans le contenu généré par les usagers que nous avons récolté dans nos recherches sur Internet. Ceci nous a mené vers une nouvelle perspective sur l’activité du design où des opportunités créatives ressortent d’une conversation avec les usagers. Cette recherche a dévoilé de grandes tendances dans la manière dont les usagers communiquent naturellement dans un processus de design. Nous espérons avoir offert un aperçu de comment les designers peuvent prendre avantage de tous les types de contenu généré par les usagers en ligne. Dans le futur, nous souhaitons que les designers aient la possibilité d’interagir avec les participants en prenant le rôle de facilitateur de la conversation. La responsabilité du résultat ne tombe pas sur les épaules du designer car son mandat est d’assurer le bon fonctionnement du processus. Les designers rejoignent les usagers en ne demandant plus comment les choses peuvent être créées, mais pourquoi elles devraient exister. En tant que designers, nous aspirons à générer plus à partir de nouvelles connaissances, nous aspirons à créer plus de sens. Mots clés: Recherche en design, complexité, design participatif, contenu généré par les usagers, démocratisation, Internet, créativité, crowdsourcing, brainstorming, brainsourcing, réflexion-en-action.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La plupart des molécules d’ARN doivent se replier en structure tertiaire complexe afin d’accomplir leurs fonctions biologiques. Cependant, les déterminants d’une chaîne de polynucléotides qui sont nécessaires à son repliement et à ses interactions avec d’autres éléments sont essentiellement inconnus. L’établissement des relations structure-fonction dans les grandes molécules d’ARN passe inévitablement par l’analyse de chaque élément de leur structure de façon individuelle et en contexte avec d’autres éléments. À l’image d’une construction d’immeuble, une structure d’ARN est composée d’unités répétitives assemblées de façon spécifique. Les motifs récurrents d’ARN sont des arrangements de nucléotides retrouvés à différents endroits d’une structure tertiaire et possèdent des conformations identiques ou très similaires. Ainsi, une des étapes nécessaires à la compréhension de la structure et de la fonction des molécules d’ARN consiste à identifier de façon systématique les motifs récurrents et d’en effectuer une analyse comparative afin d’établir la séquence consensus. L’analyse de tous les cas d’empaquetage de doubles hélices dans la structure du ribosome a permis l’identification d’un nouvel arrangement nommé motif d’empaquetage le long du sillon (AGPM) (along-groove packing motif). Ce motif est retrouvé à 14 endroits dans la structure du ribosome de même qu’entre l’ARN ribosomique 23S et les molécules d’ARN de transfert liées aux sites ribosomaux P et E. Le motif se forme par l’empaquetage de deux doubles hélices via leur sillon mineur. Le squelette sucre-phosphate d’une hélice voyage le long du sillon mineur de l’autre hélice et vice versa. Dans chacune des hélices, la région de contact comprend quatre paires de bases. L’empaquetage le plus serré est retrouvé au centre de l’arrangement où l’on retrouve souvent une paire de bases GU dans une hélice interagissant avec une paire de bases Watson-Crick (WC) dans l’autre hélice. Même si la présence des paires de bases centrales GU versus WC au centre du motif augmente sa stabilité, d’autres alternatives existent pour différents représentants du motif. L’analyse comparative de trois librairies combinatoires de gènes d’AGPM, où les paires de bases centrales ont été variées de manière complètement aléatoire, a montré que le contexte structural influence l’étendue de la variabilité des séquences de nucléotides formant les paires de bases centrales. Le fait que l’identité des paires de bases centrales puisse varier suggérait la présence d’autres déterminants responsables au maintien de l’intégrité du motif. L’analyse de tous les contacts entre les hélices a révélé qu’en dehors du centre du motif, les interactions entre les squelettes sucre-phosphate s’effectuent via trois contacts ribose-ribose. Pour chacun de ces contacts, les riboses des nucléotides qui interagissent ensemble doivent adopter des positions particulières afin d’éviter qu’ils entrent en collision. Nous montrons que la position de ces riboses est modulée par des conformations spécifiques des paires de bases auxquelles ils appartiennent. Finalement, un autre motif récurrent identifié à l’intérieur même de la structure de trois cas d’AGPM a été nommé « adenosine-wedge ». Son analyse a révélé que ce dernier est lui-même composé d’un autre arrangement, nommé motif triangle-NAG (NAG-triangle). Nous montrons que le motif « adenosine-wedge » représente un arrangement complexe d’ARN composé de quatre éléments répétitifs, c’est-à-dire des motifs AGPM, « hook-turn », « A-minor » et triangle-NAG. Ceci illustre clairement l’arrangement hiérarchique des structures d’ARN qui peut aussi être observé pour d’autres motifs d’ARN. D’un point de vue plus global, mes résultats enrichissent notre compréhension générale du rôle des différents types d’interactions tertiaires dans la formation des molécules d’ARN complexes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La première augmentation de la longévité en laboratoire fût observée à la suite d’une intervention nutritionnelle consistant en une réduction de l’apport alimentaire chez le rat. Plus tard, ce phénomène a été reproduit dans de très nombreuses espèces et référé en tant que restriction calorique. Le développement des techniques de biologie moléculaire moderne a permis de montrer dans des organismes modèles simples que cette flexibilité du processus de vieillissement était régulée par des facteurs génétiques. De fait, plusieurs mécanismes cellulaires ont alors pu être identifiés comme responsables de ce contrôle du vieillissement. Ces voies de régulation ont révélées être conservées entre les espèces, depuis les levures jusqu’aux organismes multicellulaires tels que le nématode, la mouche ou la souris, suggérant l’existence d’un programme universel de vieillissement dans le vivant. La levure s’est avéré à plusieurs reprises être un modèle puissant et fiable pour la découverte de gènes impliqués dans ce phénomène. Mon étude a consisté au développement d’un nouveau modèle unicellulaire d’étude du vieillissement à travers l’espèce Schizosaccharomyces pombe appelée aussi levure à fission. La première étape de mon travail a montré que les voies de détection des nutriments gouvernées par la sérine/thréonine protéine kinase A (Pka1) et la sérine/thréonine kinase Sck2 contrôlent le vieillissement chronologique de ces cellules comme il était connu dans la levure Saccharomyces cerevisiae. Ceci permit de valider l’utilisation de la levure à fission pour l’étude du vieillissement. Ensuite, nous avons analysé plus en détail l’effet pro-vieillissement du glucose en étudiant le rôle de sa détection par le récepteur membranaire Git3 couplé à la protéine G (Gpa2) en amont de la kinase Pka1. La perte du signal du glucose par la délétion de Git3 imite partiellement l’effet d’augmentation de longévité obtenu par baisse de la concentration en glucose dans le milieu. De plus, l’effet néfaste du signal du glucose est maintenu en absence de tout métabolisme du glucose suite à la mutation des hexokinases, premières enzymes de la glycolyse. L’ensemble de ces résultats suggèrent que la signalisation du glucose est prédominante sur son métabolisme pour son effet pro-vieillissement. D’autre part, à la fois la suppression de cette signalisation et la baisse de niveau de glucose disponible allongent la durée de vie en corrélation avec une augmentation de la résistance au stress, une hausse d’activité mitochondriale et une baisse de production de radicaux libres. Finalement, le criblage d’une banque de surexpression d’ADNc a permis d’identifier plusieurs gènes candidats responsables de ces effets en aval de la voie de signalisation Git3/PKA. La recherche sur les mécanismes moléculaires du vieillissement propose une nouvelle approche, un nouvel angle de vue, pour la compréhension des fonctions cellulaires et promet d’apporter de précieuses clefs pour mieux comprendre certaines maladies. En effet, le vieillissement est la première cause d’apparition de nombreuses affections comme les cancers, les maladies cardiovasculaires et métaboliques ou les maladies neurodégénératives tels que les syndromes d’Alzheimer et de Parkinson.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’interféron-α pegylé en combinaison avec la ribavirin est le seul traitement approuvé pour le traitement de l’infection au virus de l’hépatite C (VHC). L’efficacité est de 50-75%, la thérapie est coûteuse et induit beaucoup d’effets secondaires. Il est impératif d’avoir une meilleure compréhension de la pathogenèse du VHC afin de développer des traitements plus efficaces ou un vaccin. À cette fin, notre approche est de caractériser la réponse immunitaire cellulaire induite par ARFP, un antigène nouveau et conservé chez le VHC, et de cartographier les épitopes de la réponse immunitaire cellulaire d’un patient infecté au génotype 3a ayant résolu spontanément. Le génotype 3a, étant prévalant chez les utilisateurs de drogues intraveineuses (IDUs) constitue 60% des nouvelles infections. Peu d’épitopes furent identifiés auparavant pour ce génotype, ce qui rend l’étude de la réponse immunitaire difficile chez cette population. Dans cette étude, pour la réponse immunitaire cellulaire dirigée contre ARFP, nous n’avons pas observé de différence significative entre les patients ayant résolu spontanément comparativement avec ceux ayant développé une infection persistante. Ceci suggère fortement que ARFP ne joue pas un rôle majeur lors de la résolution de l’infection aigue au VHC. Pour la caractérisation de la réponse immunitaire cellulaire chez un des patients infectés au génotype 3a, nous avons identifié et caractérisé 5 épitopes spécifiquement reconnus par des lymphocytes T, CD3+, CD4+ et CD8- : E2504-521, NS31064-1081, NS4b1759-1776, NS5a2074-2091, NS5b2421-2436. Nous avons comparé avec ceux connus pour le génotype 1a. Nous avons identifié 4 nouveaux épitopes. Enfin, l’épitope NS4b1759-1776, identifié auparavant, pourrait s’avérer être un candidat intéressant dans la mise au point d’un vaccin à base de peptides immunogéniques contre le VHC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le dihydrofolate réductase (DHFR) est la principale cible du méthotrexate, un important composant du traitement de la leucémie lymphoblastique aiguë (LLA). Une association des polymorphismes du promoteur de DHFR avec l’issue de la LLA a été mise en évidence au laboratoire. Une survie sans événement (EFS) réduite corrélait avec les allèles A -317 et C -1610, et l’haplotype *1, défini par ces allèles. L’haplotype *1 était aussi associé à une expression élevée du DHFR. Dans cette étude, nous étendons l’analyse à la région régulatrice adjacente, d’environ 400 pb, correspondant au transcrit mineur non-codant du DHFR, qui joue un rôle essentiel dans la régulation de la transcription au niveau du promoteur majeur. Six polymorphismes ont été identifiés, parmi lesquels 5 étaient des SNPs et un polymorphisme de longueur composé d’un nombre variable d’éléments de 9 pb et d’une insertion/délétion de 9 pb. L’analyse d’haplotype, incluant tous les polymorphismes promoteurs, a révélé une diversification de l’haploytpe *1 en 5 sous-types (*1a à *1e). Les variations du promoteur majeur et les sous-types de l’haplotype *1 ont été par la suite analysés pour l’association avec l’issue de LLA. Un EFS réduit corrélait avec l’allèle A du polymorphisme G308A (p=0,02) et avec l’haplotype *1 (p=0,01). Des niveaux élevées d’ARNm étaient trouvés chez les porteurs de l’haplotype *1b (p=0,005) et pas pour les autres sous-types de l’haplotype *1. Alors, la mauvaise issue de LLA associée avec l'haplotype *1 est en effet déterminée par le sous-type *1b. Cette étude donne un nouvel aperçu des polymorphismes régulateurs du DHFR définissant plus précisément les variations du DHFR prédisposant un événement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous avons démontré l’utilité du groupement protecteur tert-butylsulfonyle (N-Bus) pour la chimie des acides aminés et des peptides. Celui-ci est préparé en deux étapes, impliquant la réaction d’une amine avec le chlorure de tert-butylsulfinyle, suivie par l’oxydation par du m-CPBA, pour obtenir les tert-butylsulfonamides correspondants avec d’excellents rendements. Le groupement N-Bus peut être clivé par traitement avec 0.1 N TfOH/DCM/anisole à 0oC en 10h pour régénérer le sel d’ammonium. Une variété d’acides aminés N-Bus protégés ainsi que d’autres aminoacides peuvent alors être utilisés pour préparer divers dipeptides et tripeptides. A l’exception du groupe N-Fmoc, les conditions de déprotection du groupe N-Bus clivent également les groupements N-Boc, N-Cbz et O-Bn. Une déprotection sélective et orthogonale des groupes N-Boc, N-Cbz, N-Fmoc et O-Bn est également possible en présence du groupe protecteur N-Bus. Le nouvel acide aminé non-naturel (3R, 2R) 3–méthyl-D-leucine (β-Me-Leu) et son régioisomère 2-méthyle ont été synthétisés par ouverture d’une N-Ts aziridine en présence d’un excès de LiMe2Cu. Chacun des régioisomères du mélange (1:1,2) a été converti en la méthylleucine correspondante, puis couplé à l’acide D-phényllactique puis au motif 2-carboxyperhydroindole 4-amidinobenzamide en présence de DEPBT. Des élaborations ultérieures ont conduit à des analogues peptidiques non-naturels d’aeruginosines telles que la chlorodysinosine A. Les deux analogues ont ensuite été évalués pour leur activité inhibitrice de la thrombine et la trypsine. La présumée aeruginosine 3-sulfate 205B et son anomère β ont été synthétisés avec succès à partir de 5 sous-unités : la 3-chloroleucine, l’acide D-phényllactique, le D-xylose, le 2-carboxy-6-hydroxyoctahydroindole et l’agmatine. La comparaison des données RMN 1H et 13C reportées avec celles obtenues avec l’aeruginosine synthétique 205B révèle une différence majeure pour la position du groupe présumé 3'-sulfate sur l’unité D-xylopyranosyle. Nous avons alors synthétisés les dérivés méthyl-α-D-xylopyranosides avec un groupement sulfate à chacune des positions hydroxyles, afin de démontrer sans ambiguïté la présence du sulfate en position C-4' par comparaison des données spectroscopiques RMN 1H et 13C. La structure de l’aeruginosine 205B a alors été révisée. Une des étapes-clés de cette synthèse consiste en la formation du glycoside avec le groupe hydroxyle en C-6 orienté en axial sur la sous-unité Choi. Le 2-thiopyridylcarbonate s’est avéré une méthode efficace pour l’activation anomérique. Le traitement par AgOTf et la tétraméthylurée en solution dans un mélange éther-DCM permet d’obtenir l’anomère α désiré, qui peut alors être aisément séparé de l’anomère β par chromatographie