111 resultados para Accommodement raisonnable
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (LL.M.)"
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maître en droit LL.M."
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit option droit des affaires". Ce mémoire a été classé parmi les 15% des mémoires de la discipline.
Resumo:
L’exercice d’allocation de ressources en santé, relevant du Ministère de la santé, se voit fortement influencé autant par les besoins variés de la population que par les exigences des intervenants en santé. Quel rôle ces différents intérêts peuvent-ils jouer dans l’intégration de nouvelles technologies dans la distribution des soins de santé ? La pharmacogénomique, branche émergente de la pharmacologie intégrant les données issues du projet génome humain au processus de développement du médicament, est perçue comme une technologie qui permettrait de personnaliser la médecine. Son intégration aux processus de développement ou de prescription de médicaments promet de minimiser l’apparition d’effets secondaires néfastes découlant de la prise de médicaments. Serait-il alors judicieux pour le gouvernement du Québec, considérant la conjoncture actuelle d’allocation de ressources, d’investir dans la pharmacogénomique en tant que nouvel outil de développement du médicament ou nouveau mode pronostic de médication pour sa population ? Nous aborderons cette question à l’aide de critères de sélection dictés par Caulfield et ses collaborateurs (2001)[1] pour évaluer la pertinence de l’investissement public dans la mise sur pied d’un test génétique, soit l’acceptabilité, l’utilité, la non-malfaisance et la présence d’un bénéfice clair – à coût raisonnable – pour la population. La génomique avoisinant la génétique, ces facteurs s’avèrent applicables dans notre discussion.
Resumo:
Lors du phénomène d’hémostase primaire ou de thrombose vasculaire, les plaquettes sanguines doivent adhérer aux parois afin de remplir leur fonction réparatrice ou pathologique. Pour ce faire, certains facteurs rhéologiques et hémodynamiques tels que l’hématocrite, le taux de cisaillement local et les contraintes de cisaillement pariétal, entrent en jeu afin d’exclure les plaquettes sanguines de l’écoulement principal et de les transporter vers le site endommagé ou enflammé. Cette exclusion pourrait aussi être influencée par l’agrégation de globules rouges qui est un phénomène naturel présent dans tout le système cardiovasculaire selon les conditions d’écoulement. La dérive de ces agrégats de globules rouges vers le centre des vaisseaux provoque la formation de réseaux d’agrégats dont la taille et la complexité varient en fonction de l’hématocrite et des conditions de cisaillement présentes. Il en résulte un écoulement bi-phasique avec un écoulement central composé d’agrégats de globules rouges avoisinés par une région moins dense en particules où l’on peut trouver des globules rouges singuliers, des petits rouleaux de globules rouges et une importante concentration en plaquettes et globules blancs. De ce fait, il est raisonnable de penser que plus la taille des agrégats qui occupent le centre du vaisseau augmente, plus il y aura de plaquettes expulsées vers les parois vasculaires. L'objectif du projet est de quantifier, in vitro, la migration des plaquettes sanguines en fonction du niveau d’agrégation érythrocytaire présent, en faisant varier l’hématocrite, le taux de cisaillement et en promouvant l’agrégation par l’ajout d’agents tels que le dextran à poids moléculaire élevé. Cependant, le comportement non Newtonien du sang dans un écoulement tubulaire peut être vu comme un facteur confondant à cause de son impact sur l’organisation spatiale des agrégats de globules rouges. De ce fait, les études ont été réalisées dans un appareil permettant de moduler, de façon homogène, la taille et la structure de ces agrégats et de quantifier ainsi leur effet sur la migration axiale des plaquettes. Du sang de porc anti coagulé a été ajusté à différents taux d’hématocrite et insérer dans un appareil à écoulement de Couette, à température ambiante. Les plaquettes sanguines, difficilement isolables in vitro sans en activer certains ligands membranaires, ont été remplacées par des fantômes en polystyrène ayant un revêtement de biotine. La quantification de la migration de ces fantômes de plaquettes a été réalisée grâce à l’utilisation de membranes biologiques fixées sur les parois internes de l’entrefer du rhéomètre de Couette. Ces membranes ont un revêtement de streptavidine assurant une très forte affinité d’adhésion avec les microparticules biotynilées. À 40% d’hématocrite, à un cisaillement de 2 s-1, 566 ± 53 microparticules ont été comptées pour un protocole préétabli avec du sang non agrégeant, comparativement à 1077 ± 229 pour du sang normal et 1568 ± 131 pour du sang hyper agrégeant. Les résultats obtenus suggèrent une nette participation de l’agrégation érythrocytaire sur le transport des fantômes de plaquettes puisque l’adhésion de ces derniers à la paroi du rhéomètre de Couette augmente de façon quasi exponentielle selon le niveau d’agrégation présent.
Resumo:
L’hypothèse de cette thèse est qu’une pratique collaborative médecins de famille-pharmaciens communautaires (PCMP) où le pharmacien fournit des soins pharmaceutiques avancés avec ajustement posologique d’une statine permettrait aux patients avec une dyslipidémie une réduction plus importante de leur LDL et augmenterait le nombre de patients atteignant leurs cibles lipidiques. Dans une étude clinique contrôlée et randomisée en grappe visant à évaluer une PCMP pour des patients ayant une dyslipidémie (l’étude TEAM), une journée de formation basée sur un protocole de traitement et des outils cliniques a été offerte aux pharmaciens PCMP pour les préparer à fournir des soins pharmaceutiques avancés. Les connaissances des pharmaciens sur les dyslipidémies étaient faibles avant la formation mais se sont améliorées après (moyenne de 45,8% à 88,2%; p < 0,0001). Après la formation, les pharmaciens avaient un haut niveau d’habiletés cliniques théoriques et pratiques. Bref, une journée de formation basée sur un protocole de traitement et des outils cliniques était nécessaire et adéquate pour préparer les pharmaciens à fournir des soins pharmaceutiques avancés à des patients ayant une dyslipidémie dans le contexte d’une étude clinique. Dans l’étude TEAM, 15 grappes de médecins et de pharmaciens (PCMP : 8; soins habituels (SH) : 7) ont suivi pendant un an, 225 patients (PCMP : 108; SH : 117) à risque modéré ou élevé de maladie coronarienne qui débutaient ou étaient déjà traités par une monothérapie avec une statine mais qui n’avaient pas atteint les cibles lipidiques. Au départ, par rapport aux patients SH, les patients PCMP avaient un niveau de LDL plus élevé (3,5 mmol/L vs 3,2 mmol/L) et recevaient moins de statine à puissance élevée (11,1 % vs 39,7 %). Après 12 mois, la différence moyenne du changement de LDL entre les groupes était égale à -0,2 mmol/L (IC95%: -0,3 à -0,1) et -0,04 (IC95%: -0,3 à 0,2), sans ajustement et avec ajustement, respectivement. Le risque relatif d’atteindre les cibles lipidiques était 1,10 (IC95%: 0,95 à 1,26) et 1,16 (1,01 à 1,32), sans ajustement et avec ajustement, respectivement. Les patients PCMP ont eu plus de visites avec un professionnel de la santé et d’analyses de laboratoire et étaient plus enclins à rapporter des changements de style de vie. La PCMP a amélioré l’adhésion aux lignes directrices en augmentant la proportion de patients aux cibles lipidiques. Les données intérimaires de l’étude TEAM (PCMP : 100 patients; SH : 67 patients) ont permis d’évaluer les coûts directs annuels du suivi du pharmacien du groupe PCMP (formation, visites, laboratoire), du médecin (visites, laboratoire) et du traitement hypolipémiant. Le suivi du pharmacien a coûté 404,07$/patient, incluant 320,67$ pour former les pharmaciens. Le coût global incrémental était 421,01$/patient. Une pratique collaborative pour des patients ayant une dyslipidémie engendre un coût raisonnable.
Resumo:
La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.
Resumo:
L’exposition du fœtus à l’éthanol est reconnue comme étant la principale cause de maladies évitables lors du développement. Une forte exposition à l’alcool durant la gestation peut occasionner des dysmorphies cranio-faciales et des retards mentaux, ainsi que des troubles d’apprentissages et du comportement. Le développement du système visuel est également perturbé chez une grande majorité d’enfants qui ont été exposés à l’alcool. Lorsque les doses prises sont élevées, le système visuel peut présenter une panoplie de symptômes comme une augmentation de la tortuosité des vaisseaux rétiniens, de la myopie, de l’hypermétropie, du strabisme et une hypoplasie du nerf optique. Cependant, très peu d’études se sont penchées sur les effets de plus faibles doses sur le développement du système visuel du primate. Le singe est un excellent modèle pour étudier le système visuel car il possède plusieurs similitudes avec l’humain tant au niveau développemental qu’au niveau structurel. De plus, le singe utilisé, le Chlrocebus aethiops sabeus, possède l’avantage que des individus de cette espèce ont une consommation naturelle et volontaire à l’alcool. Une étude (Clarren et al., 1990) a suggéré qu’une faible exposition à l’alcool du fœtus du primate non humain occasionnait une diminution du nombre de cellules ganglionnaires de la rétine (CGRs). Étant donné que le corps genouillé latéral dorsal (CGLd) reçoit la plupart de ses intrants de la rétine, il est raisonnable d’assumer que les couches rétino-récipientes du CGLd devraient être aussi affectées. Nous avons alors émis l’hypothèse que le CGLd devrait également subir une diminution du nombre de neurones. Pour la première fois, nous avons utilisé une méthode stéréologique pour quantifier le nombre de cellules dans les couches parvo- (P) et magnocellulaires (M) du CGLd. Contrairement à notre hypothèse de départ, nous n’avons pas observé de diminution dans le nombre global de neurones dans le CGLd des animaux exposés à l’alcool par rapport à des sujets contrôles, ni une diminution de son volume. Nous avons toutefois observé une diminution de la taille du corps cellulaire seulement dans la population M du CGLd. Ces résultats suggèrent que le système visuel est affecté par une faible exposition à l’alcool durant son développement qui devrait se traduire sur le comportement par des déficits dans les fonctions de la voie M.
Resumo:
This paper proposes a theory of the good life for use in answering the question how much money the rich should spend on fighting poverty. The paper moves from the abstract to the concrete. To begin with, it investigates various ways to get an answer to the question what is good, and finds itself drawn to objective theories of the good. It then develops, taking Bernard Williams and Martha Nussbaum as its guides, a broad outline of a theory of the good. It holds that something evil happens to people if they do not have a real choice from a reasonable number of projects that realize most of their key capacities to a certain degree, and in connection to this it points to the great importance of money. The paper goes on specifically to consider what criticisms of Nussbaum's version of the capability approach are implied in this outline of a theory of the good. Next, it gets more specific and asks how much money the rich can give -and how they can be restricted in spending their money- without suffering any evil. It does three suggestions: the tithe suggestion, the ecological (or footprint) suggestion, and the fair trade suggestion. To conclude, the paper returns to the question how much money the rich should spend on fighting poverty.
Resumo:
Notre recherche visait au départ l'analyse de la substance du dommage moral: retrouver les sentiments à l'intérieur des chefs de dommage moral. Une première lecture des jugements québécois publiés, rendus entre le 1er janvier 1950 et le 31 décembre 2008 et à l'intérieur desquels des dommages et intérêts ont été octroyés pour réparer un dommage moral en matière de responsabilité civile extracontractuelle, laisse une impression de confusion et de désordre, tant au plan terminologique qu'au plan conceptuel. Dommage moral, préjudice extrapatrimonial, dommage non pécuniaire, préjudice moral: autant de termes qui rendent impossible une synthèse des chefs de préjudice. C'est finalement à l'analyse des raisons de cette confusion, aux formes qu'elle prend, aux moyens déployés par les juristes pour, sinon la surmonter, du moins la contenir, que la présente thèse est consacrée. Malgré cette confusion et ce désordre, un constat général d'homogénéité et de stabilité des discours judiciaire et juridique sur le préjudice extrapatrimonial peut d'abord être tracé. Le dommage moral et le préjudice extrapatrimonial (les deux étant couramment assimilés) sont réputés difficilement réparables. Afin de contenir l'arbitraire et la subjectivité qui caractérisent le préjudice extrapatrimonial, un discours dominant rationnel et raisonnable s'est construit et une évaluation globale du préjudice est pratiquée par les juges. Il en résulte une stabilité des montants des dommages et intérêts octroyés à titre de réparation. Mais pourquoi autant de mots pour décrire une même réalité? Dommage et préjudice sont actuellement employés en droit québécois comme s'ils étaient terminologiquement et conceptuellement indistincts; il en résulte une sursimplification de la responsabilité civile. Nous proposons que le dommage (qu'il soit corporel, matériel ou moral) et le préjudice (qu'il soit extrapatrimonial ou patrimonial) sont distincts. Le dommage se qualifie au siège de l'atteinte (des corps, des choses, des sentiments et valeurs) et le préjudice se qualifie au regard de la nature des répercussions du dommage (répercussions patrimoniales ou extrapatrimoniales). Ainsi distingués, dommage et préjudice retrouvent un sens tout en faisant ressortir les deux temps composant la responsabilité civile: l'établissement d'une responsabilité à l'aide de la faute, du dommage et du lien de causalité les unissant (1er temps) et la réparation du préjudice accompagnant le dommage (2e temps). Par une telle distinction, la sursimplification de la responsabilité civile est dépassée et force est de constater que bien peu de choses sont dites dans les jugements sur la substance du dommage moral et même sur le dommage moral tout court. Le discours dominant porte essentiellement sur la difficile détermination de la quotité des dommages et intérêts pour réparer le préjudice extrapatrimonial. Si le dommage moral et le préjudice extrapatrimonial n'étaient pas confondus et employés par les juristes avec une apparente cohérence, une synthèse des chefs de préjudice extrapatrimonial, telle qu'envisagée au départ, aurait peut-être été possible…
Resumo:
Résumé La ribonucléase P (RNase P) est une ribonucléoprotéine omniprésente dans tous les règnes du vivant, elle est responsable de la maturation en 5’ des précurseurs des ARNs de transfert (ARNts) et quelques autres petits ARNs. L’enzyme est composée d'une sous unité catalytique d'ARN (ARN-P) et d'une ou de plusieurs protéines selon les espèces. Chez les eucaryotes, l’activité de la RNase P cytoplasmique est distincte de celles des organelles (mitochondrie et chloroplaste). Chez la plupart des espèces, les ARN-P sont constituées de plusieurs éléments structuraux secondaires critiques conservés au cours de l’évolution. En revanche, au niveau de la structure, une réduction forte été observé dans la plupart des mtARN-Ps. Le nombre de protéines composant la RNase P est extrêmement variable : une chez les bactéries, environ quatre chez les archéobactéries, et dix chez la forme cytoplasmique des eucaryotes. Cet aspect est peu connu pour les formes mitochondriales. Dans la plupart des cas, l’identification de la mtRNase P est le résultat de longues procédures de purification comprenant plusieurs étapes dans le but de réduire au minimum le nombre de protéines requises pour l’activité (exemple de la levure et A. nidulans). Cela mène régulièrement à la perte de l’activité et de l’intégrité des complexes ribonucléo-protéiques natifs. Dans ce travail, par l’utilisation de la technique de BN-PAGE, nous avons développé une procédure d’enrichissement de l’activité RNase P mitochondriale native, donnant un rendement raisonnable. Les fractions enrichies capables de cette activité enzymatique ont été analysées par LC/MS/MS et les résultats montrent que l’holoenzyme de la RNase P de chacune des fractions contient un nombre de protéines beaucoup plus grand que ce qui était connue. Nous suggérons une liste de protéines (principalement hypothétiques) qui accompagnent l’activité de la RNase P. IV De plus, la question de la localisation de la mtRNase P de A. nidulans a été étudiée, selon nos résultats, la majorité de la mtRNase P est attachée á la membrane interne de la mitochondrie. Sa solubilisation se fait par l’utilisation de différents types de détergent. Ces derniers permettent l’obtention d’un spectre de complexes de la RNase P de différentes tailles.
Resumo:
La thèse délaisse l’étude des biais, des erreurs et des influences externes qui modulent les décisions de justice et formule l’hypothèse que les individus, confrontés à un dilemme normatif (quelle serait la juste peine?), manifestent un souci de justice qu’il est pertinent d’analyser en lui-même. Les résultats de cette thèse indiquent qu’une proportion appréciable des choix et des jugements des citoyens et des acteurs judiciaires interrogés témoignent, en raison de leur cohérence interne et de leur modération, d’un souci manifeste de justice. Les données de la thèse s’appuient sur un sondage sentenciel dans lequel on demandait à des répondants du public (n=297), mais aussi à un échantillon d’acteurs judiciaires (n=235), de prendre des décisions de détermination pénale dans trois histoires de cas bien détaillées. La thèse s’intéresse à la détermination de la juste peine, laquelle incorpore trois prises de décision distinctes. Le premier chapitre de la thèse s’attarde à la qualité des échelles individuelles de sévérité des peines qui peuvent être infligées pour sanctionner un délinquant reconnu coupable d’actes criminels. Les résultats indiquent que les citoyens, tous comme les acteurs judiciaires, n’utilisent pas la même métrique pour statuer sur la sévérité des peines, mais que certains d’entre eux, font usage d’une métrique pénale plus cohérente et plus raisonnable que d’autres. Un test décisif pour jauger de la valeur d’une métrique est son aptitude à établir des équivalences pénales entre les peines de prison, de probation, de travaux communautaires et d’amendes. Le deuxième chapitre s’attarde à la qualité des choix sentenciels des citoyens et des acteurs judiciaires. Deux critères sont utilisés pour distinguer les sentences les plus justes : 1) le critère de proportionnalité ou de cohérence interne (les sentences données sont-elles toujours proportionnelles à la gravité de l’infraction commise ?); 2) le critère de modération ou de cohérence externe (la sentence donnée peut-elle rallier le plus grand nombre de points de vue?). Les deux critères sont importants parce qu’ils contribuent tous deux à réduire la marge d’incertitude du dilemme sentenciel. Le troisième chapitre prend acte que toute sentence fera possiblement l’objet d’un aménagement subséquent. Les formes les plus manifestes d’aménagement pénal sont régies par l’octroi d’une libération conditionnelle qui écourte la durée de peine qui sera purgée en prison. Certains acteurs judiciaires choisiront de tenir compte de cette libération anticipée en gonflant leur sentence, alors que d’autres se refuseront à le faire. Le dernier chapitre s’attarde aux raisons qui motivent leurs choix.
Resumo:
Tout au long de la vie, le cerveau développe des représentations de son environnement permettant à l’individu d’en tirer meilleur profit. Comment ces représentations se développent-elles pendant la quête de récompenses demeure un mystère. Il est raisonnable de penser que le cortex est le siège de ces représentations et que les ganglions de la base jouent un rôle important dans la maximisation des récompenses. En particulier, les neurones dopaminergiques semblent coder un signal d’erreur de prédiction de récompense. Cette thèse étudie le problème en construisant, à l’aide de l’apprentissage machine, un modèle informatique intégrant de nombreuses évidences neurologiques. Après une introduction au cadre mathématique et à quelques algorithmes de l’apprentissage machine, un survol de l’apprentissage en psychologie et en neuroscience et une revue des modèles de l’apprentissage dans les ganglions de la base, la thèse comporte trois articles. Le premier montre qu’il est possible d’apprendre à maximiser ses récompenses tout en développant de meilleures représentations des entrées. Le second article porte sur l'important problème toujours non résolu de la représentation du temps. Il démontre qu’une représentation du temps peut être acquise automatiquement dans un réseau de neurones artificiels faisant office de mémoire de travail. La représentation développée par le modèle ressemble beaucoup à l’activité de neurones corticaux dans des tâches similaires. De plus, le modèle montre que l’utilisation du signal d’erreur de récompense peut accélérer la construction de ces représentations temporelles. Finalement, il montre qu’une telle représentation acquise automatiquement dans le cortex peut fournir l’information nécessaire aux ganglions de la base pour expliquer le signal dopaminergique. Enfin, le troisième article évalue le pouvoir explicatif et prédictif du modèle sur différentes situations comme la présence ou l’absence d’un stimulus (conditionnement classique ou de trace) pendant l’attente de la récompense. En plus de faire des prédictions très intéressantes en lien avec la littérature sur les intervalles de temps, l’article révèle certaines lacunes du modèle qui devront être améliorées. Bref, cette thèse étend les modèles actuels de l’apprentissage des ganglions de la base et du système dopaminergique au développement concurrent de représentations temporelles dans le cortex et aux interactions de ces deux structures.
Resumo:
Les avocats, praticiens et universitaires qui sont engagés dans le droit des transports internationaux de marchandises par mer ont l’habitude de travailler avec un régime complexe de responsabilité du transporteur maritime. La coexistence de plusieurs conventions régissant ce régime et l’imprécision des textes de ces différentes législations rendent leur application difficile d’où l’échec permanent du voeu d’uniformisation de ce droit. En premier lieu, nous retrouvons le régime de base celui de la Convention de Bruxelles sur l’unification de certaines règles en matière de connaissement, ratifiée le 25 août 1924 et ses Protocoles modificatifs annexés en 1968 et 1979. Il s’agit d’un régime fondé sur la présomption de responsabilité comprenant une liste de cas exonératoires appelés « cas exceptés ». En second lieu figurent les Règles de Hambourg, édictées en 1978, qui établissent un régime basé sur la présomption de faute du transporteur à l’exception de deux cas exonératoires : l’incendie et l’assistance ou la tentative de sauvetage. Enfin, apparaît la Convention sur le contrat de transport international de marchandises effectué entièrement ou partiellement par mer, adoptée par les Nations unies en 2009, sous l’appellation « Les Règles de Rotterdam », qui adopte un régime de responsabilité « particulier ». Cette étude a tenté d’analyser ces mécanismes juridiques mis en place. Pour ce faire, nous nous sommes concentrées sur les sources du dysfonctionnement de ces régimes, afin de favoriser le développement d’initiatives d’uniformisation des règles de responsabilité du propriétaire du navire. L’analyse des textes positifs, de la doctrine et de la jurisprudence, nous a permis de constater que les différentes approches du régime juridique du transporteur maritime des marchandises sous ces différentes législations ne garantissent pas la prévisibilité et la sécurité juridiques recherchées par les différents acteurs maritimes. Par conséquent, l’absence d’un régime cohérent et unifié a créé des incertitudes au sein de la communauté maritime internationale et au sein des tribunaux en cas de litige. Pour surmonter cette réalité complexe, notre thèse propose une approche qui pourra simplifier ce régime, l’approche objective.
Resumo:
La majorité des auteurs qui s’intéressent à la surqualification la comprennent et l’analysent habituellement comme une situation de suréducation ou de déclassement scolaire. Ce mémoire fait l’hypothèse que le sens qu’accordent les individus au fait d’être surqualifié est beaucoup plus large. Même s’il est raisonnable de croire que la majorité des diplômés espèrent pouvoir obtenir un emploi à la hauteur de leur diplôme, le fait de définir le sentiment de surqualification de façon substantialiste, en ne considérant que le niveau de diplôme obtenu par le travailleur et exigé par l’employeur, semble quelque peu réducteur. Le sentiment de surqualification naît d’un jugement social : il est empirique, contextualisé et dynamique. À la croisée des mesures objectives et subjectives, nous explorons ainsi les facteurs explicatifs du sentiment de surqualification chez les diplômés canadiens à partir d’une analyse statistique des déterminants de ce sentiment dans les premières années qui suivent l’obtention de leur diplôme d’études postsecondaires. Nous montrons d’abord que l’utilisation de compétences en emploi et le lien entre le diplôme obtenu et l’emploi expliquent bien plus le sentiment de surqualification que la suréducation objective. Nous montrons aussi que l’impact du niveau d’utilisation d’une compétence donnée sur le sentiment de surqualification varie substantiellement selon le domaine d’études du diplômé et la nature de cette compétence.