999 resultados para Synthèse totale et diastéréosélective
Resumo:
Dans ce mémoire, nous présentons un nouveau type de problème de confection de tour- née pour un seul véhicule avec cueillettes et livraisons et contrainte de chargement. Cette variante est motivée par des problèmes similaires rapportés dans la littérature. Le véhi- cule en question contient plusieurs piles où des colis de hauteurs différentes sont empilés durant leur transport. La hauteur totale des items contenus dans chacune des piles ne peut dépasser une certaine hauteur maximale. Aucun déplacement n’est permis lors de la li- vraison d’un colis, ce qui signifie que le colis doit être sur le dessus d’une pile au moment d’être livré. De plus, tout colis i ramassé avant un colis j et contenu dans la même pile doit être livré après j. Une heuristique à grand voisinage, basé sur des travaux récents dans le domaine, est proposée comme méthode de résolution. Des résultats numériques sont rapportés pour plusieurs instances classiques ainsi que pour de nouvelles instances.
Resumo:
Dans ce mémoire, il sera question de la formation de dérivés pipéridines en utilisant la fragmentation de Grob. Tout d’abord, une introduction sur les alcaloïdes ainsi que sur l’expertise du groupe Charette associée à leur formation démontrera l’importance de ces composés dans le domaine de la chimie organique. Cela sera suivi par un résumé de la fragmentation de Grob incluant les conditions de réactions utilisées, l’importance de la structure de la molécule initiale, les prérequis stéréoélectroniques ainsi que les modifications qui y ont été apportées. Le chapitre 2 sera dédié au développement de la méthodologie c’est-à-dire, à l’optimisation de tous les paramètres jouant un rôle dans la fragmentation de Grob. Par la suite, l’étendue de la réaction ainsi que des explications sur la régiosélectivité et la diastéréosélectivité de la réaction seront fournies. La méthodologie peut être exploitée dans un contexte de synthèse qui sera démontré dans le chapitre 3. De plus, elle servira pour une étude mécanistique qui est encore d’actualité à partir du concept d’effet frangomérique. Finalement, quelques projets futurs, notamment des améliorations possibles de la méthodologie, seront présentés dans le dernier chapitre. Le tout sera suivi d’une conclusion résumant l’ensemble des travaux effectués.
Resumo:
Dans l’historiographie du cinéma québécois, un certain manque est notable concernant le cinéma populaire du début des années 1970 (1968-1975). Historiens et chercheurs accordèrent peu d’importance à cette section de notre cinématographie par déni d’un type de cinéma populaire exploitant la sexualité. Ce qui fut péjorativement appelé la vague de « films de fesses » n’eut droit à aucune étude académique sérieuse et nous proposons, donc, de la revisiter afin de mieux comprendre son apparition et son existence. Dans ce dessein, nous suggérons de l’aborder sous l’angle du cinéma d’exploitation, cinéma populaire méconnu et controversé. Pour cela, nous devrons expliquer les contours de ce cinéma puisque, lui aussi, souffre d’un léger manque d’études sérieuses et approfondies. Nous ferons au premier chapitre un panorama de la norme cinématographique qu’est le cinéma hollywoodien, afin de bien cerner, au deuxième chapitre, le cinéma d’exploitation qui selon nous s’efforce d’être en constante opposition avec le cinéma mainstream. Par la suite, nous mettrons en place le contexte socio-historique et cinématographique qui permit l’apparition d’un cinéma d’exploitation québécois et nous ferons l’énumération des différents titres qui se retrouvent dans ce corpus filmique. Les chapitres IV et V présenteront les analyses de différentes œuvres qui, selon nous, récupèrent de façon partielle ou totale des éléments du cinéma d’exploitation afin de créer une résistance culturelle quant au cinéma dominant américain.
Resumo:
Réalisé en cotutelle avec l'Université Bordeaux 1 (France)
Resumo:
Le diabète insipide néphrogénique (DIN) autosomal peut être causé par les mutations du gène codant pour le canal à eau aquaporine-2 (AQP2). Un modèle couramment utilisé pour l’étude des protéines membranaires telle l’AQP2 est l’expression hétérologue dans les ovocytes de Xenopus laevis. Malheureusement, les techniques déjà existantes de purification de membranes plasmiques sont soit trop longues, trop difficiles ou demandent trop de matériel, ne permettent pas l’analyse adéquate du ciblage des formes sauvage comme mutantes, un élément crucial de ce type d’étude. Nous avons donc dans un premier temps mis au point une technique rapide et efficace de purification de membranes plasmiques qui combine la digestion partielle de la membrane vitelline, sa polymérisation à la membrane plasmique suivi de centrifugations à basse vitesse pour récolter les membranes purifiées. Nous avons utilisé cette technique dans l’étude de deux nouveaux cas familiaux de patients hétérozygotes possédant les mutations V24A et R187C dans un cas et K228E et R187C dans le second cas. Pour chaque mutation, nous avons analysé autant les éléments de fonctionnalité que les paramètres d’expression des protéines mutantes. Les expériences de perméabilité membranaire démontrent que les ovocytes exprimant AQP2-V24A (Pf = 16.3 ± 3.5 x 10-4 cm/s, 10 ng) et AQP2- K228E (Pf = 19.9 ± 7.0 x 10-4 cm/s, 10 ng) ont des activités similaires à celle exprimant la forme native (Pf = 14.4 ± 5.5 x 10-4 cm/s, 1 ng), tandis que AQP2- R187C (Pf = 2.6 ± 0.6 x 10-4 cm/s, 10 ng) ne semble avoir aucune activité comme ce qui est observé chez les ovocytes non-injectés (Pf = 2.8 ± 1.0 x 10-4 cm/s). Les études de co-expression ont démontré un effet d’additivité lorsque AQP2-V24A et -K228E sont injectées avec la forme native et un effet s’apparentant à la dominance négative lorsque AQP2-R187C est injecté avec la forme native, avec AQP2-V24A ou avec –K228E. Les résultats obtenus par immunobuvardage représente bien ce qui a été démontré précédemment, on remarque la présence des mutations K228E, V24A et la forme sauvage à la membrane plasmique, contrairement à la mutation R187C. Cependant, lorsque les mutations sont exprimées dans des cellules mIMCD-3, il n’y a qu’une faible expression à la membrane de la forme –K228E et une absence totale des formes –V24A et –R187C à la membrane plasmique, contrairement à la forme native. Les résultats de nos études démontrent que tout dépendant du système d’expression les formes –K228E et –V24A peuvent être utiles dans l’étude des problèmes d’adressage à la membrane à l’aide de chaperonne chimique. De plus, la forme –R187C démontre des difficultés d’adressage qui devront être étudiées afin de mieux comprendre la synthèse des formes natives.
Resumo:
Cet ouvrage traite principalement de la synthèse de motifs polypropionates de type stéréopentade ainsi qu’une application à la synthèse d’une molécule naturelle possèdant des propriétés biologiques. La stratégie envisagée pour l’élaboration de ces motifs récurrents dans plusieurs structures d’origine naturelle fait appel à la chimie des radicaux. Cette thèse se divise en différents chapitres dans lesquels la versatilité de la méthodologie développée sera démontrée. En premier lieu, il sera question de présenter l’importance de la synthèse de motifs polypropionates. Le domaine couvert par la chimie de ces molécules complexes hautement fonctionnalisées a contribué énormément à l’avancement de nos connaissances en synthèse organique, particulièrement dans le contexte des réactions impliquant des molécules acyliques. Une brève description des méthodes connues est présentée afin de saisir l’étendue des défis restants pour construire efficacement tous les isomères possibles des polypropionates de type stéréopentade. La stratégie proposée est basée sur une approche contrôlée entièrement par le substrat. Ce contrôle s’appuie sur le choix judicieux de l’acide de Lewis activant les deux réactions impliquées, soit la réaction de Mukaiyama et le transfert d’hydrogène. La seconde section de cette thèse concerne principalement le développement d’une réaction de Mukaiyama impliquant un éther d’énol silylé portant un lien pouvant être homolytiquement brisé dans la réaction suivante et un aldéhyde de type propionate. Le contrôle de l’aldolisation provient de la nature de l’acide de Lewis. Une espèce monodentate (BF3·OEt2) génère une relation 3,4-syn selon le modèle dit Felkin-Anh tandis que les acides de Lewis bidentates mènent à la relation 3,4-anti via un état de transition définit comme Cram-chélate. Une optimisation des conditions réactionnelles en variant l’acidité et la stoechiométrie de l’acide de Lewis de titane a permis de construire diastéréosélectivement le produit de Mukaiyama ayant une relation 3,4-anti. En outre, la nature des complexes impliqués dans ces réactions a été élucidée par des études RMN 13C à basse température. Une fois les précurseurs radicalaires synthétisés, notre méthodologie de réduction par transfert d’hydrogène contrôlée également par les acides de Lewis s’avère très efficace. Les acides de Lewis dérivés d’aluminium mènent sélectivement à la relation 2,3-syn selon un contrôle endocyclique tandis que les acides de Lewis de bore permettent la création des relations 2,3-anti en se basant sur une stabilisation par les divers facteurs de contrôle de molécules acycliques. Cette stratégie novatrice nous a ainsi permis de construire efficacement les 16 diastéréoisomères possibles. Le chapitre suivant concerne l’application de cette méthodologie à la synthèse de l’hémisphère ouest de la salinomycine et de la narasine. Plusieurs défis synthétiques ont été relevés à cette occasion par la présence de nombreux centres stéréogènes contigus. Nous avons réalisé que la relation stéréochimique 2,3-anti de la salinomycine n’est pas accessible sélectivement par la chimie des radicaux via l’effet exocyclique. Des études ont été entreprises afin de comprendre cette perte de sélectivité. Les conclusions suggèrent que les substituants sur le cycle imposent un biais conformationnel conduisant à des faibles sélectivités. Une alternative utilisant un réactif de crotylsilane chiral a été développée pour arriver à la molécule cible. Cette situation est différente dans le cas de la narasine où la présence du méthyle sur le carbone en position β du radical bloque efficacement l’approche d’une des faces d’attaque par l’hydrure. Des sélectivités impressionnantes nous ont permis de construire le fragment C1-C9 de la narasine de manière expéditive et efficace. Finalement, l’élongation sélective utilisant à nouveau la séquence d’aldolisation de Mukaiyama/réduction radicalaire suivie d’un couplage de type aldol stéréosélectif conduit au fragment C1-C17 de la narasine (hémisphère ouest)en 19 étapes avec un rendement global de l’ordre de 7 %. En dernier lieu, nous nous sommes penchés sur la réactivité des α-bromo-β- alkoxycétones lors de transfert d’hydrogène. Nous avons découvert que la chimie de ces derniers pourrait s’avérer utile dans le contexte de la synthèse de motifs complexes polypropionates. La présence d’un centre stéréogène de l’autre coté de la cétone semble avoir un impact sur la sélectivité.
Resumo:
Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.
Resumo:
Notre laboratoire a démontré que la capacité proinflammatoire du vascular endothelial growth factor (VEGF-A165) implique la synthèse endothéliale du facteur d’activation plaquettaire (PAF) via l’activation du récepteur tyrosine kinase homodimérique VEGFR-2/R-2. La synthèse du PAF requiert l’activation de la p38 MAPK et p42/44 MAPK qui activent la phospholipase A2 secrétée de type V (sPLA2-V). Nous avons découvert que la synthèse aigue de prostacycline (PGI2) induite par le VEGF-A165 requiert l’activation des récepteurs hétérodimériques VEGFR-1/R-2. L’activation sélective des récepteurs du VEGF peut donc agir comme balance dans la synthèse de facteurs pro-(PAF) et anti-(PGI2) inflammatoire. Cependant, les tyrosines impliquées dans la transphosphorylation de VEGFR-2/R-2 menant à la synthèse du PAF sont inconnues. Par mutagenèse dirigée, nous avons effectué des transfections transitoires de cellules endothéliales avec des plasmides codant pour le VEGFR-2 dont les tyrosines ciblées ont été remplacées de façon séquentielle par une phénylalanine. Un vecteur vide pcDNA a été utilisé comme contrôle négatif. La stimulation des cellules endothéliales de l’aorte bovine (BAEC) transfectées avec le VEGF-A165 (1nM) pendant 15 minutes augmente la synthèse du PAF de 300%, laquelle était similaire dans les BAEC non transfectées. Dans les BAEC transfectées avec les vecteurs pcDNA codant pour les mutations Y801F, Y1059F, Y1175F et Y1214F, nous avons observé une réduction de 54, 73, 68, et 57% respectivement de la synthèse du PAF induite par le VEGF par rapport au pcDNA témoin. Nos résultats apportent un nouvel aperçu sur le mécanisme par lequel le VEGF induit la synthèse du PAF qui est connu pour sa contribution dans l’activité pro-inflammatoire du VEGF.
Resumo:
Contexte et objectif. L’évasion fiscale a généré des pertes annuelles variant entre 2 et 44 milliards au Canada entre 1976 et 1995. Avec la croissance de l’évasion fiscale dans les années 1980 et 1990 plusieurs législations se sont attaquées à ce phénomène en mettant en place des mesures telles que les amnisties, les réformes fiscales et les nouvelles lois. Ces dernières reposent non seulement sur des principes théoriques distincts, mais leur efficacité même est remise en question. Bien que plusieurs auteurs affirment que les criminels en col blanc sont réceptifs aux sanctions pénales, une telle affirmation repose sur peu de preuves empiriques. L’objectif de ce mémoire est donc de réaliser une synthèse systématique des études évaluatives afin de faire un bilan des lois fiscales et d’évaluer leurs effets sur la fraude fiscale. Méthodologie. La synthèse systématique est la méthodologie considérée comme la plus rigoureuse pour se prononcer sur l’effet produit par une population relativement homogène d’études. Ainsi, 18 bases de données ont été consultées et huit études ont été retenues sur les 23 723 références. Ces huit études contiennent neuf évaluations qui ont estimé les retombés des lois sur 17 indicateurs de fraude fiscale. L’ensemble des études ont été codifiées en fonction du type de loi et leur rigueur méthodologique. La méthode du vote-count fut employée pour se prononcer sur l’efficacité des lois. Résultats. Sur les 17 indicateurs, sept indiquent que les lois n’ont eu aucun effet sur l’évasion fiscale tandis que six témoignent d’effets pervers. Seulement quatre résultats sont favorables aux lois, ce qui laisse présager que ces dernières sont peu efficaces. Toutefois, en scindant les résultats en fonction du type de loi, les réformes fiscales apparaissent comme une mesure efficace contrairement aux lois et amnisties. Conclusion. Les résultats démontrent que les mesures basées sur le modèle économique de Becker et qui rendent le système plus équitable sont prometteuses. Les amnisties qui visent à aller chercher des fraudeurs en leur offrant des avantages économiques et en suspendant les peines sont non seulement inefficaces, mais menaceraient le principe d’autocotisation basé sur l’équité.
Resumo:
RÉSUMÉ FRANÇAIS Ce mémoire fait l’étude du régime de prévention et de sanction des conflits possibles entre les intérêts de la municipalité d’une part et de ceux de ses élus de l’autre. L’objet de recherche est abordé selon une approche historique et éthique basée sur le régime juridique actuel. Le mémoire est divisé en 3 chapitres : (1) la notion de conflit d’intérêts ; (2) le cadre juridique à la base du régime de sanction des conflits d’intérêts et (3) celui sur le régime de prévention des conflits d’intérêts dans le domaine municipal. Le chapitre préliminaire situe l’objet de recherche à l’intérieur des grandes tendances de la recherche juridique sur la question et présente un cadre de réflexion sur la notion de conflit d’intérêts. L’examen des conflits d’intérêts repose avant tout sur un questionnement et sur un jugement de nature subjective : ce qui a été considéré comme un conflit d’intérêts autrefois ne l’est pas nécessairement de nos jours et ce, en dépit du fait que le cadre juridique évolue aussi dans le temps. On ne peut donc pas dégager avec exactitude et pour toujours ce qui constitue un conflit d’intérêts de ce qui n’en constitue pas un. Le chapitre premier est divisé en 4 sections. On y traite notamment de la règle relative à l’interdiction pour un élu municipal de contracter avec la municipalité. On y démontre que l’origine de cette règle remonte aux premières lois municipales du XIXe siècle et que cette dernière a subi assez peu de modifications au fil des ans. La troisième section porte sur les cas de malversation, d’abus de confiance et les autres inconduites prohibées par la Loi sur les élections et référendums dans les municipalités (L.R.Q. c. E-2.2). Une quatrième section sur les accusations criminelles d’abus de confiance et de corruption vient clore le premier chapitre. Chacune de ces sections est abordée notamment en faisant l’historique des dispositions législatives en cause ainsi qu’en faisant certains parallèles avec la législation des autres provinces canadiennes. Le chapitre 2 sur le régime de prévention des conflits d’intérêts est divisé en 4 parties. La première section porte sur l’obligation pour un élu de déclarer annuellement ses intérêts pécuniaires. Cette obligation n’est pas unique au Québec puisqu’elle est présente dans quelques législations provinciales canadiennes. La deuxième section porte sur l’obligation pour cet élu de dénoncer verbalement son intérêt dans une question abordée par le conseil municipal réuni en séance ou en comité. Là encore, l’origine de cette approche préventive est fort ancienne et a longtemps été considéré comme le seul moyen de dénoncer son intérêt sans subir les sanctions prévues par la loi. Une troisième section s’intéresse au cadre juridique entourant les soumissions publiques et qui vise à éliminer toute situation possible de favoritisme ou de patronage. Une quatrième section aborde la question des codes d’éthique et de leur utilité ainsi que les développements récents sur cette question avec le dépôt en 2009 du rapport du Groupe de travail sur l’éthique dans le milieu municipal. Une conclusion vient clore le mémoire en présentant une synthèse de l’étude assortie de commentaires personnels sur les conclusions du Groupe de travail précité.
Resumo:
L’armée de Gaule sous le Bas-Empire fut une des trois armées principales de l’Empire romain. Son évolution de la fin du IIIe siècle jusqu’au début du Ve fut marquée par une réorganisation graduelle dans le commandement, ainsi que dans l’organisation des troupes et des fortifications. Ces réformes ont fait l’objet d’études qui ont dressé un schéma de déploiement des troupes resté longtemps populaire. À ce schéma s’est ensuite ajoutée l’idée de la stratégie à grande échelle qui y aurait été associée. Ce mémoire tâche de dresser une synthèse des derniers travaux sur l’armée romaine tardive en Gaule. L’approche choisie repose sur une réévaluation des sources sans l’influence d’un schéma défensif préconçu, ainsi que sur une critique de certaines idées reçues concernant l’armée romaine du IVe siècle.
Resumo:
Notre recherche visait au départ l'analyse de la substance du dommage moral: retrouver les sentiments à l'intérieur des chefs de dommage moral. Une première lecture des jugements québécois publiés, rendus entre le 1er janvier 1950 et le 31 décembre 2008 et à l'intérieur desquels des dommages et intérêts ont été octroyés pour réparer un dommage moral en matière de responsabilité civile extracontractuelle, laisse une impression de confusion et de désordre, tant au plan terminologique qu'au plan conceptuel. Dommage moral, préjudice extrapatrimonial, dommage non pécuniaire, préjudice moral: autant de termes qui rendent impossible une synthèse des chefs de préjudice. C'est finalement à l'analyse des raisons de cette confusion, aux formes qu'elle prend, aux moyens déployés par les juristes pour, sinon la surmonter, du moins la contenir, que la présente thèse est consacrée. Malgré cette confusion et ce désordre, un constat général d'homogénéité et de stabilité des discours judiciaire et juridique sur le préjudice extrapatrimonial peut d'abord être tracé. Le dommage moral et le préjudice extrapatrimonial (les deux étant couramment assimilés) sont réputés difficilement réparables. Afin de contenir l'arbitraire et la subjectivité qui caractérisent le préjudice extrapatrimonial, un discours dominant rationnel et raisonnable s'est construit et une évaluation globale du préjudice est pratiquée par les juges. Il en résulte une stabilité des montants des dommages et intérêts octroyés à titre de réparation. Mais pourquoi autant de mots pour décrire une même réalité? Dommage et préjudice sont actuellement employés en droit québécois comme s'ils étaient terminologiquement et conceptuellement indistincts; il en résulte une sursimplification de la responsabilité civile. Nous proposons que le dommage (qu'il soit corporel, matériel ou moral) et le préjudice (qu'il soit extrapatrimonial ou patrimonial) sont distincts. Le dommage se qualifie au siège de l'atteinte (des corps, des choses, des sentiments et valeurs) et le préjudice se qualifie au regard de la nature des répercussions du dommage (répercussions patrimoniales ou extrapatrimoniales). Ainsi distingués, dommage et préjudice retrouvent un sens tout en faisant ressortir les deux temps composant la responsabilité civile: l'établissement d'une responsabilité à l'aide de la faute, du dommage et du lien de causalité les unissant (1er temps) et la réparation du préjudice accompagnant le dommage (2e temps). Par une telle distinction, la sursimplification de la responsabilité civile est dépassée et force est de constater que bien peu de choses sont dites dans les jugements sur la substance du dommage moral et même sur le dommage moral tout court. Le discours dominant porte essentiellement sur la difficile détermination de la quotité des dommages et intérêts pour réparer le préjudice extrapatrimonial. Si le dommage moral et le préjudice extrapatrimonial n'étaient pas confondus et employés par les juristes avec une apparente cohérence, une synthèse des chefs de préjudice extrapatrimonial, telle qu'envisagée au départ, aurait peut-être été possible…
Resumo:
La réparation par excision de nucléotides (NER) est une voie critique chez l'homme pour enlever des lésions qui déforment l’hélice d'ADN et qui bloquent à la fois la réplication et la transcription. Parmi ces lésions, il y a les dimères cyclobutyliques de pyrimidines (CPDs) et les adduits pyrimidine (6-4) pyrimidone (6-4PPs) induient par les rayons ultraviolets. L'importance physiologique de la NER est mise en évidence par l’existence de la maladie Xeroderma pigmentosum (XP), causée par des mutations affectant des gènes impliqués dans cette voie de réparation. Les personnes atteintes sont caractérisées par une photosensibilité extrême et une forte prédisposition à développer des tumeurs cutanées (plus de 1000 fois). Les patients atteints du type variant de la maladie Xeroderma pigmentosum (XPV), apparemment compétents en réparation, portent plutôt des mutations dans le gène codant pour l'ADN polymérase η (polη). Polη est une ADN polymérase translésionnelle capable de contourner avec une grande fidélité certaines lésions telles que les CPDs, qui autrement bloquent les polymérases réplicatives. Ainsi, la polη prévient la formation de mutations et permet la reprise de la synthèse d'ADN. L'objectif principal de cette thèse est d'évaluer le rôle potentiel de voies de signalisation majeures dans la régulation de la NER, dont celles régulées par la kinase ATR (Ataxia Télangiectasia and Rad3-related kinase). Suite à l'irradiation UV, ATR est rapidement activée et phosphoryle des centaines de protéines qui régulent les points de contrôle du cycle cellulaire et joue un rôle notoire dans le maintient de la stabilité génomique. Nous avons postulé qu’ATR puisse réguler la NER de manière dépendante du cycle cellulaire. Cependant, tester cette hypothèse représente un grand défi car, pour des raisons techniques, les méthodes conventionnelles n’ont pas à ce jour été adaptées pour l'évaluation de la cinétique de réparation au cours des différentes phases du cycle cellulaire. Nous avons donc développé une méthode novatrice basée sur la cytométrie en flux permettant de quantifier avec grande précision la cinétique de réparation des 6-4PPs et CPDs dans chacune des phases G0/G1, S et G2/M. Avec cette nouvelle méthode, nous avons pu démontrer que l'inhibition d'ATR ou polη résulte en une très forte inhibition de la NER exclusivement durant la phase S du cycle cellulaire. Ces études ont révélé, pour la première fois, une fonction critique pour ces protéines dans le retrait des lésions qui bloquent la réplication. En outre, nous avons démontré que la synthèse d'ADN est indispensable pour l’inhibition de la réparation en phase-S, reflétant un lien potentiel entre la NER et la réplication. Curieusement, nous avons également montré que parmi six lignées cellulaires tumorales choisies aléatoirement, trois présentent une abrogation totale de la NER uniquement pendant la phase S, ce qui indique que de nombreux cancers humains pourraient être caractérisés par un tel défaut. Nos observations pourraient avoir d'importantes implications pour le traitement du cancer. En effet, le statut de la NER semble constituer un déterminant majeur dans la réponse clinique aux médicaments chimiothérapeutiques tels que le cisplatine, qui inhibent la croissance des cellules cancéreuses via l'induction de lésions à l’ADN.
Resumo:
L’utilisation des services de santé est au centre de l’organisation des soins. La compréhension des processus qui déterminent cette utilisation est essentielle pour agir sur le système de santé et faire en sorte qu’il réponde mieux aux besoins de la population. L’objectif de cette thèse est de comprendre le phénomène complexe qu’est l’utilisation des services de santé en s’intéressant à la pratique des médecins omnipraticiens. En nous appuyant sur le cadre théorique de Donabedian, nous décomposons les déterminants de l’utilisation des services de santé en trois niveaux : le niveau individuel, le niveau organisationnel, et le niveau environnemental. Pour tenir compte de la complexité des phénomènes de cette étude nous proposons de nous appuyer sur l’approche configurationnelle. Notre question de recherche est la suivante : dans quelle mesure le mode d’exercice des omnipraticiens influence-t-il la prestation des services et comment l’environnement géographique et la patientèle modulent-ils cette relation ? Nous avons utilisé des bases de données jumelées du Collège des médecins du Québec, de la Régie d’assurance maladie du Québec et de la banque de données iCLSC. Notre échantillon est constitué des médecins omnipraticiens de l’année 2002, ayant satisfait aux critères d’inclusion, ce qui représente près de 70% de la population totale. Des analyses de correspondances multiples et des classifications ascendantes hiérarchiques ont été utilisées pour réaliser la taxonomie des modes d’exercice et des contextes géographiques. Nous avons construit des indicateurs d’utilisation des services de santé pour apprécier la continuité, la globalité, l’accessibilité et la productivité. Ces indicateurs ont été validés en les comparant à ceux d’une enquête populationnelle. Nous présentons tout d’abord les modes d’exercice des médecins qui sont au nombre de sept. Deux modes d’exercice à lieu unique ont émergé : le mode d’exercice en cabinet privé d'une part, caractérisé par des niveaux de continuité et productivité élevés, le mode d’exercice en CLSC d'autre part présentant un niveau de productivité faible et des niveaux de globalité et d'accessibilité légèrement au-dessus de la moyenne. Dans les cinq autres modes d’exercice, les médecins exercent leur pratique dans une configuration de lieux. Deux modes d’exercice multi-institutionnel réunissent des médecins qui partagent leur temps entre les urgences, les centres hospitaliers et le cabinet privé ou le CLSC. Les médecins de ces deux groupes présentent des niveaux d’accessibilité et de productivité très élevés. Le mode d’exercice le moins actif réunit des médecins travaillant en cabinet privé et en CHLSD. Leur niveau d’activité est inférieur à la moyenne. Ils sont caractérisés par un niveau de continuité très élevé. Le mode d’exercice ambulatoire regroupe des médecins qui partagent leur pratique entre le CLSC, le cabinet privé et le CHLSD. Ces médecins présentent des résultats faibles sur tous les indicateurs. Finalement le mode d’exercice hospitaliste réunit des médecins dont la majorité de la pratique s’exerce en milieu hospitalier avec une petite composante en cabinet privé. Dans ce mode d’exercice tous les indicateurs sont faibles. Les analyses ont mis en évidence quatre groupes de territoires de CSSS : les ruraux, les semi-urbains, les urbains et les métropolitains. La prévalence des modes d’exercice varie selon les contextes. En milieu rural, le multi-institutionnel attire près d’un tiers des médecins. En milieu semi-urbain, les médecins se retrouvent de façon plus prédominante dans les modes d’exercice ayant une composante CLSC. En milieu urbain, les modes d’exercice ayant une composante cabinet privé attirent plus de médecins. En milieu métropolitain, les modes d’exercice moins actif et hospitaliste attirent près de 40% des médecins. Les omnipraticiens se répartissent presque également dans les autres modes d’exercice. Les niveaux des indicateurs varient en fonction de l’environnement géographique. Ainsi l’accessibilité augmente avec le niveau de ruralité. De façon inverse, la productivité augmente avec le niveau d’urbanité. La continuité des soins est plus élevée en régions métropolitaines et rurales. La globalité varie peu d’un contexte à l’autre. Pour pallier à la carence de l’analyse partielle de l’organisation de la pratique des médecins dans la littérature, nous avons créé le concept de mode d’exercice comme la configuration de lieux professionnels de pratique propre à chaque médecin. A notre connaissance, il n’existe pas dans la littérature, d’étude qui ait analysé simultanément quatre indicateurs de l’utilisation des services pour évaluer la prestation des services médicaux, comme nous l’avons fait. Les résultats de nos analyses montrent qu’il existe une différence dans la prestation des services selon le mode d’exercice. Certains des résultats trouvés sont documentés dans la littérature et plus particulièrement quand il s’agit de mode d’exercice à lieu unique. La continuité et la globalité des soins semblent évoluer dans le même sens. De même, la productivité et l’accessibilité sont corrélées positivement. Cependant il existe une tension, entre les premiers indicateurs et les seconds. Seuls les modes d’exercice à lieu unique déjouent l’arbitrage entre les indicateurs, énoncé dans l’état des connaissances. Aucun mode d’exercice ne présente de niveaux élevés pour les quatre indicateurs. Il est donc nécessaire de travailler sur des combinaisons de modes d’exercice, sur des territoires, afin d’offrir à la population les services nécessaires pour l’atteinte concomitante des quatre objectifs de prestation des services. Les modes d’exercice émergents (qui attirent les jeunes médecins) et les modes d’exercice en voie de disparition (où la prévalence des médecins les plus âgés est la plus grande) sont préoccupants. A noter que les modes d’exercice amenés à disparaître répondent mieux aux besoins de santé de la population que les modes d’exercice émergents, au regard de tous nos indicateurs. En conclusion, cette thèse présente trois contributions théoriques et trois contributions méthodologiques. Les implications pour les recherches futures et la décision indiquent que, si aucune mesure n’est mise en place pour renverser la tendance, le Québec risque de vivre des pénuries dans la prestation des services en termes de continuité, globalité et accessibilité.
Resumo:
L’insuline est une hormone essentielle qui induit des réponses complexes dans l’organisme pour maintenir l’homéostasie du glucose et des lipides. La résistance à son action est un phénomène pathologique observé dans un large éventail de situations, allant de l’obésité et du syndrome métabolique à la stéatose hépatique et au diabète de type 2, qui aboutissent au développement de l’athérosclérose et de la mortalité. Des avancées remarquables ont été réalisées dans notre compréhension des mécanismes moléculaires responsables du développement de la résistance à l’action de l’insuline. En particulier, l’induction d’un stress cellulaire par des taux élevés d’acides gras libres (AGL) et des cytokines, via l’activation des protéines Ser/Thr kinases, qui augmente la phosphorylation sur des résidus sérine, des molécules critiques impliquées dans la signalisation insulinique (p. ex. IR, IRS et p85) et conduit à la diminution de la réponse cellulaire à l’insuline. Cependant, la plupart des chercheurs ont limité leur travail dans l’investigation du rôle des protéines kinases susceptibles de modifier la réponse cellulaire à l’insuline. Donc, peu de données sont disponibles sur le rôle des Protéines Ser/Thr phosphatases (PS/TPs), même si il est bien établi que la phosphorylation de ces protéines est étroitement régulée par un équilibre entre les activités antagonistes des Ser/Thr kinases et des PS/TPs. Parmi les PS/TPS, PPM1A (également connu sous le nom PP2Cα) est une phosphatase particulièrement intéressante puisqu’il a été suggéré qu’elle pourrait jouer un rôle dans la régulation du métabolisme lipidique et du stress cellulaire. Ainsi, en se basant sur des résultats préliminaires de notre laboratoire et des données de la littérature, nous avons émis l’hypothèse selon laquelle PPM1A pourrait améliorer la sensibilité à l’insuline en diminuant l’activité des protéines kinases qui seraient activées par le stress cellulaire induit par l’augmentation des AGL. Ces effets pourraient finalement améliorer le métabolisme glucidique et lipidique dans l’hépatocyte. Ainsi, pour révéler le rôle physiologique de PPM1A à l’échelle d’un animal entier, nous avons généré un modèle animal qui la surexprime spécifiquement dans le foie. Nous décrivons ici notre travail afin de générer ce modèle animal ainsi que les premières analyses pour caractériser le phénotype de celui-ci. Tout d’abord, nous avons remarqué que la surexpression de PPM1A chez les souris C57BL/6J n’a pas d’effets sur le gain de poids sur une longue période. Deuxièmement, nous avons observé que PPM1A a peu d’effets sur l’homéostasie du glucose. Par contre, nous avons montré que sa surexpression a des effets significatifs sur l’homéostasie du glycogène et des triglycérides. En effet, nous avons observé que le foie des souris transgéniques contient moins de glycogène et de triglycérides que le foie de celles de type sauvage. De plus, nos résultats suggèrent que les effets de la surexpression de PPM1A pourraient refléter son impact sur la synthèse et la sécrétion des lipides hépatiques puisque nous avons observé que sa surexpression conduit à l’augmentation la triglycéridémie chez les souris transgéniques. En conclusion, nos résultats prouvent l’importance de PPM1A comme modulateur de l’homéostasie hépatique du glucose et des lipides. Des analyses supplémentaires restent cependant nécessaires pour confirmer ceux-ci et éclaircir l’impact moléculaire de PPM1A et surtout pour identifier ses substrats.