986 resultados para Philip Kearney, Fort, Massacre at, 1866
Resumo:
La campylobactériose représente la principale cause de gastro-entérite bactérienne dans les pays industrialisés. L’épidémiologie de la maladie est complexe, impliquant plusieurs sources et voies de transmission. L’objectif principal de ce projet était d’étudier les facteurs environnementaux impliqués dans le risque de campylobactériose et les aspects méthodologiques pertinents à cette problématique à partir des cas humains déclarés au Québec (Canada) entre 1996 et 2006. Un schéma conceptuel des sources et voies de transmission de Campylobacter a d’abord été proposé suivant une synthèse des connaissances épidémiologiques tirées d’une revue de littérature extensive. Le risque d’une récurrence de campylobactériose a ensuite été décrit selon les caractéristiques des patients à partir de tables de survie et de modèles de régression logistique. Comparativement au risque de campylobactériose dans la population générale, le risque d’un épisode récurrent était plus élevé pour les quatre années suivant un épisode. Ce risque était similaire entre les genres, mais plus élevé pour les personnes de régions rurales et plus faible pour les enfants de moins de quatre ans. Ces résultats suggèrent une absence d’immunité durable ou de résilience clinique suivant un épisode déclaré et/ou une ré-exposition périodique. L’objectif suivant portait sur le choix de l’unité géographique dans les études écologiques. Neuf critères mesurables ont été proposés, couvrant la pertinence biologique, la communicabilité, l’accès aux données, la distribution des variables d’exposition, des cas et de la population, ainsi que la forme de l’unité. Ces critères ont été appliqués à des unités géographiques dérivées de cadre administratif, sanitaire ou naturel. La municipalité affichait la meilleure performance, étant donné les objectifs spécifiques considérés. Les associations entre l’incidence de campylobactériose et diverses variables (densité de volailles, densité de ruminants, abattoirs, température, précipitations, densité de population, pourcentage de diplomation) ont ensuite été comparées pour sept unités géographiques différentes en utilisant des modèles conditionnels autorégressifs. Le nombre de variables statistiquement significatives variait selon le degré d’agrégation, mais la direction des associations était constante. Les unités plus agrégées tendaient à démontrer des forces d’association plus élevées, mais plus variables, à l’exception de l’abattoir. Cette étude a souligné l’importance du choix de l’unité géographique d’analyse lors d’une utilisation d’un devis d’étude écologique. Finalement, les associations entre l’incidence de campylobactériose et des caractéristiques environnementales ont été décrites selon quatre groupes d’âge et deux périodes saisonnières d’après une étude écologique. Un modèle de Poisson multi-niveau a été utilisé pour la modélisation, avec la municipalité comme unité. Une densité de ruminant élevée était positivement associée avec l’incidence de campylobactériose, avec une force d’association diminuant selon l’âge. Une densité de volailles élevée et la présence d’un abattoir de volailles à fort volume d’abattage étaient également associées à une incidence plus élevée, mais seulement pour les personnes de 16 à 34 ans. Des associations ont également été détectées avec la densité de population et les précipitations. À l’exception de la densité de population, les associations étaient constantes entre les périodes saisonnières. Un contact étroit avec les animaux de ferme explique le plus vraisemblablement les associations trouvées. La spécificité d’âge et de saison devrait être considérée dans les études futures sur la campylobactériose et dans l’élaboration de mesures préventives.
Resumo:
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.
Resumo:
Le récepteur X des farnésoïdes (FXR) fait partie de la superfamille des récepteurs nucléaires et agit comme un facteur de transcription suite à la liaison d’un ligand spécifique. Le récepteur FXR, activé par les acides biliaires, joue un rôle essentiel dans le métabolisme des lipides et du glucose en plus de réguler l’homéostasie des acides biliaires. Notre laboratoire a récemment mis en évidence une nouvelle voie de régulation du récepteur PPARγ en réponse au récepteur de la ghréline. En effet, la ghréline induit l’activation transcriptionnelle de PPARγ via une cascade de signalisation impliquant les kinases Erk1/2 et Akt, supportant un rôle périphérique de la ghréline dans les pathologies associées au syndrome métabolique. Il est de plus en plus reconnu que la cascade métabolique impliquant PPARγ fait également intervenir un autre récepteur nucléaire, FXR. Dans ce travail, nous montrons que la ghréline induit l’activation transcriptionnelle de FXR de manière dose-dépendante et induit également la phosphorylation du récepteur sur ses résidus sérine. En utilisant des constructions tronquées ABC et CDEF de FXR, nous avons démontré que la ghréline régule l’activité de FXR via les domaines d’activation AF-1 et AF-2. L’effet de la ghréline et du ligand sélectif GW4064 sur l’induction de FXR est additif. De plus, nous avons démontré que FXR est la cible d’une autre modification post-traductionnelle, soit la sumoylation. En effet, FXR est un substrat cellulaire des protéines SUMO-1 et SUMO-3 et la sumoylation du récepteur est ligand-indépendante. SUMO-1 et SUMO-3 induisent l’activation transcriptionnelle de FXR de façon dose-dépendante. Nos résultats indiquent que la lysine 122 est le site prédominant de sumoylation par SUMO-1, quoiqu’un mécanisme de coopération semble exister entre les différents sites de sumoylation de FXR. Avec son rôle émergeant dans plusieurs voies du métabolisme lipidique, l’identification de modulateurs de FXR s’avère être une approche fort prometteuse pour faire face à plusieurs pathologies associées au syndrome métabolique et au diabète de type 2.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
Alan Garcia, l’actuel président du Pérou, est un des politiciens les plus controversés dans l’histoire péruvienne. Le succès de sa carrière comme candidat est fort opposé aux résultats catastrophiques de sa première gestion présidentielle. Dans la culture populaire, les compétences discursives de Garcia, ainsi que le contraste entre son succès et ses pauvres performances en tant que président, l’ont élevé au rang de mythe. Ce travail de recherche présente une analyse pragmatique linguistique des stratégies discursives utilisées par le président Garcia dans son deuxième mandat (2001-2006). L’analyse sera centrée sur le rapport établi par Steven Pinker (2007) entre politesse positive et solidarité communale. Les travaux de Brown et Levinson (1978, 1987) et d’Alan Fiske (1991) sont notre base théorique. L’exclusion sociale d’une partie de la population électorale péruvienne, selon le point de vue de Vergara (2007), est l’élément clé pour mieux comprendre le succès de la stratégie discursive de Garcia. Vegara présente une analyse diachronique multi-variable de la situation politique péruvienne pour expliquer la rationalité de la population électorale péruvienne. À partir de cet encadrement théorique, nous procéderons à l’analyse lexicométrique qui nous permettra d’identifier les stratégies discursives utilisées dans le corpus des discours de Garcia qui a été choisi pour l’analyse. D’après le schéma de Pinker, les données obtenues seront classifiées selon la définition de politesse positive de Brown et Levinson. Finalement, nous évaluerons le rapport entre les résultats classifiés et le modèle de solidarité communale de Fiske. L’objectif est de démontrer que le style discursif de Garcia est structuré à partir d’une rationalité dont l’objet est de fermer la brèche sociale entre le politicien et l’électorat.
Resumo:
Les maladies cardiovasculaires (MCV) sont les principales causes de mortalité et de morbidité à travers le monde. En Amérique du Nord, on estime à 90 millions le nombre d’individus ayant une ou plusieurs MCV, à près de 1 million le nombre de décès reliés par année et à 525 milliards de dollars les coûts directs et indirects en 2010. En collaboration avec l’équipe du Dre. Boileau, notre laboratoire a récemment identifié, le troisième locus impliqué dans l’hypercholestérolémie familiale. Une étude publiée dans le New Engl J Med a révélé que l’absence de la convertase PCSK9 réduit de 88% le risque de MCV, corrélé à une forte réduction du taux de cholestérol plasmatique (LDL-C). Il fut démontré que PCSK9 lie directement le récepteur aux lipoprotéines de faible densité (LDLR) et, par un mécanisme méconnu, favorise sa dégradation dans les endosomes/lysosomes provoquant ainsi une accumulation des particules LDL-C dans le plasma. Dans cet ouvrage, nous nous sommes intéressés à trois aspects bien distincts : [1] Quels sont les cibles de PCSK9 ? [2] Quelle voie du trafic cellulaire est impliquée dans la dégradation du LDLR par PCSK9 ? [3] Comment peut-on inhiber la fonction de PCSK9 ? [1] Nous avons démontré que PCSK9 induit la dégradation du LDLR de même que les récepteurs ApoER2 et VLDLR. Ces deux membres de la famille du LDLR (fortes homologies) sont impliqués notamment dans le métabolisme des lipides et de la mise en place de structures neuronales. De plus, nous avons remarqué que la présence de ces récepteurs favorise l’attachement cellulaire de PCSK9 et ce, indépendamment de la présence du LDLR. Cette étude a ouvert pour la première fois le spectre d’action de PCSK9 sur d’autres protéines membranaires. [2] PCSK9 étant une protéine de la voie sécrétoire, nous avons ensuite évalué l’apport des différentes voies du trafic cellulaire, soit extra- ou intracellulaire, impliquées dans la dégradation du LDLR. À l’aide de milieux conditionnées dérivés d’hépatocytes primaires, nous avons d’abord démontré que le niveau extracellulaire de PCSK9 endogène n’a pas une grande influence sur la dégradation intracellulaire du LDLR, lorsqu’incubés sur des hépatocytes provenant de souris déficientes en PCSK9 (Pcsk9-/-). Par analyses de tri cellulaire (FACS), nous avons ensuite remarqué que la surexpression de PCSK9 diminue localement les niveaux de LDLR avec peu d’effet sur les cellules voisines. Lorsque nous avons bloqué l’endocytose du LDLR dans les cellules HepG2 (lignée de cellules hépatiques pour l’étude endogène de PCSK9), nous n’avons dénoté aucun changement des niveaux protéiques du récepteur. Par contre, nous avons pu démontrer que PCSK9 favorise la dégradation du LDLR par l’intermédiaire d’une voie intracellulaire. En effet l’interruption du trafic vésiculaire entre le réseau trans-Golgien (RTG) et les endosomes (interférence à l’ARN contre les chaînes légères de clathrine ; siCLCs) prévient la dégradation du LDLR de manière PCSK9-dépendante. [3] Par immunobuvardage d’affinité, nous avons identifié que la protéine Annexine A2 (AnxA2) interagit spécifiquement avec le domaine C-terminal de PCSK9, important pour son action sur le LDLR. Plus spécifiquement, nous avons cartographié le domaine R1 (acides aminés 34 à 108) comme étant responsable de l’interaction PCSK9AnxA2 qui, jusqu’à présent, n’avait aucune fonction propre. Finalement, nous avons démontré que l’ajout d’AnxA2 prévient la dégradation du LDLR induite par PCSK9. En somme, nos travaux ont pu identifier que d’autres membres de la famille du LDLR, soit ApoER2 et VLDLR, sont sensibles à la présence de PCSK9. De plus, nous avons mis en évidence que l’intégrité du trafic intracellulaire est critique à l’action de PCSK9 sur le LDLR et ce, de manière endogène. Finalement, nous avons identifié l’Annexine A2 comme unique inhibiteur naturel pouvant interférer avec la dégradation du LDLR par PCSK9. Il est indéniable que PCSK9 soit une cible de premier choix pour contrer l’hypercholestérolémie afin de prévenir le développement de MCV. Cet ouvrage apporte donc des apports considérables dans notre compréhension des voies cellulaires impliquées, des cibles affectées et ouvre directement la porte à une approche thérapeutique à fort potentiel.
Resumo:
Dans ce travail, nous posons d’abord la question de la légitimité de la contestation internationale. En partant de la conception libérale de la souveraineté étatique, nous montrons que la contestation internationale pourrait être critiquée pour l’interférence qu’elle crée entre des acteurs étrangers. Pour défendre la légitimité de la contestation, nous argumentons en faveur de la position républicaine de Philip Pettit selon laquelle la souveraineté étatique ne devrait pas être comprise comme une absence d’interférence, mais plutôt comme une absence de domination. En montrant que les problèmes environnementaux peuvent être compris en tant que domination écologique, nous tentons alors de démontrer que la contestation internationale ne pose pas nécessairement problème pour la souveraineté des États, mais qu’au contraire, celle-ci peut servir protection contre d’éventuels cas de domination. Dans la seconde partie du travail, nous explorons la question de la légitimité des moyens de contestation utilisés par les activistes. En conservant les idées de Pettit concernant la domination, nous prenons toutefois nos distances par rapport à cet auteur et sa conception délibérative de la contestation. Nous amorcerons finalement la réflexion dans le but de trouver des critères pouvant légitimer certains recours à des moyens de contestation plus radicaux. Nous défendons notamment une position originale, voulant que la contestation soit comprise en continuité avec la délibération plutôt qu’en rupture avec celle-ci.
Resumo:
Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.
Resumo:
Certains symptômes sont les indicateurs incontestés des très graves problèmes que connaît l’Église. S’ils existent aussi dans des confessions et des religions diverses, seuls seront examinés ici ceux qui concernent l’Église catholique. Parmi les plus significatifs figurent un fort déclin dans la participation à des activités religieuses comme les célébrations eucharistiques dominicales, surtout chez les jeunes, une pénurie presque catastrophique de prêtres ordonnés, une perte de prestige et d’influence de l’enseignement dispensé par l’Église. Ces symptômes varient en intensité selon les pays, mais les statistiques indiquent qu’ils se multiplient. Nombre de ces problèmes sont attribuables à l’extrême vélocité de changements qui surviennent partout et à l’apparente inaptitude de l’Église à s’adapter, en raison notamment de son attachement à la pensée néo-scolastique et à la tradition tridentine. Cette fidélité absolue à une tradition vieille de quatre cents ans l’empêche de se faire à un environnement en évolution rapide et radicale. Des changements appropriés s’imposent pratiquement partout dans l’Église. Or, pour que ceux-ci soient efficaces et respectueux de la nature propre de l’Église, la tradition est un guide qui ne suffit pas. S’appuyant sur les termes de l’encyclique Ecclesia de Eucharistia, « le moment décisif où elle (l’Église) a pris forme est certainement celui où a eu lieu l’institution de l’Eucharistie, dans la chambre à l’étage », la thèse présentée suit le plus près possible l’interprétation donnée aux paroles de Jésus, ceci est mon corps, telles qu’elles ont été prononcées la première fois. Selon cette évidence, il est permis d’affirmer que les caractéristiques définitoires de l’Église provenant de ces mots sont agape, unité, service. Tel doit être le principe directeur des changements. C’est sur une telle base que sont décrits les secteurs où les changements s’imposent ainsi que les aspects visés. Ces changements comprennent les points suivants : liturgie, sacrements, catéchèse, mystagogie, théologie, structure, gouvernance de l’Église et ses enseignements, évangélisation. Ces secteurs exigent des efforts sérieux dans la préparation des personnes touchées par ces changements et dans l’attention portée à l’exigence primordiale voulant qu’agape, unité et service soient les principes actifs et évidents régissant l’Église.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Les oligonucléotides (ONs) antisens présentent un fort potentiel en tant qu’agents thérapeutiques. Toutefois, leurs propriétés physicochimiques limitent leur utilisation en thérapie génique. Pour pallier aux divers obstacles, des systèmes de vectorisation, tels que les micelles polyioniques (PICMs), ont été développés. Grâce à leur structure unique, les micelles protégent l’ON contre une dégradation prématurée et le couplage d’un ligand à leur surface augmente leur spécificité et leur internalisation. Dans d’autres systèmes, un polymère adjuvant aux propriétés pH-sensibles peut être ajouté pour faciliter la sortie de l’endosome et augmenter l’efficacité de l’ON. L’objectif général de ce mémoire était de mettre au point des PICMs ternaires ciblées pour l’administration d’ONs. Ces micelles assureraient à la fois l’internalisation cellulaire de leur cargaison en interagissant avec des récepteurs cellulaires et sa fuite de l’endosome grâce à un mécanisme de déstabilisation de la membrane endosomale. Pour cela, des PICMs composées d’un copolymère cationique de type poly(éthylène glycol)-bloc-poly(méthacrylate d’(alkylamino)éthyle) et d’un copolymère d’acide méthacrylique ont été préparées. Les propriétés physicochimiques de ces vecteurs ont démontré qu’ils permettaient une condensation efficace de l’acide nucléique et ce, indépendamment de la nature du polymère cationique et de l’acide nucléique. Finalement, une approche de couplage par pont disulfure a été développée afin de greffer au copolymère un fragment d’anticorps dirigé contre les récepteurs de la transferrine. En conclusion, ces travaux démontrent la versatilité et le potentiel des PICMs ternaires en tant que vecteurs d’acide nucléique, et proposent une méthodologie de couplage d’un ligand afin de formuler des PICMs ciblées.
Resumo:
Mettant fin au statu quo qui régnait en matière de notation de crédit, de nouvelles dispositions ont été insérées dans le Code monétaire et financier pour placer les agences de notation de crédit sous surveillance. Sur le fondement du règlement européen n°1060/2009 du 16 septembre 2009, l’AMF se voit tout d’abord confier la mission d’enregistrer ces agences. Ensuite, la compétence règlementaire, d’enquête et de sanctions de l’autorité boursière française se trouve élargie aux activités des agences de notation. Enfin, des mesures définissant un régime de responsabilité applicable aux agences de notation ont été introduites dans le corpus normatif français. En dépit de critiques certaines, l’envahissement de la sphère financière par le rating imposait un signal fort à destination des agences de notation de crédit.
Resumo:
Les gènes codant pour des protéines peuvent souvent être regroupés et intégrés en modules fonctionnels par rapport à un organelle. Ces modules peuvent avoir des composantes qui suivent une évolution corrélée pouvant être conditionnelle à un phénotype donné. Les gènes liés à la motilité possèdent cette caractéristique, car ils se suivent en cascade en réponse à des stimuli extérieurs. L’hyperthermophilie, d’autre part, est interreliée à la reverse gyrase, cependant aucun autre élément qui pourrait y être associé avec certitude n’est connu. Ceci peut être dû à un déplacement de gènes non orthologues encore non résolu. En utilisant une approche bio-informatique, une modélisation mathématique d’évolution conditionnelle corrélée pour trois gènes a été développée et appliquée sur des profils phylétiques d’archaea. Ceci a permis d’établir des théories quant à la fonction potentielle du gène du flagelle FlaD/E ainsi que l’histoire évolutive des gènes lui étant liés et ayant contribué à sa formation. De plus, une histoire évolutive théorique a été établie pour une ligase liée à l’hyperthermophilie.
Resumo:
David Hull et Philip Kitcher présentent tous deux une description des sciences qui tient compte autant de l'articulation logique des théories que de leur dynamique sociale. Hull (1988a, 2001) tente de rendre compte du progrès scientifique par le biais d'une analyse sélectionniste, en s'appuyant sur les contingences sociales et les biais individuels en tant que pressions de sélections. Pour lui, un processus de sélection darwinien filtre les théories supérieures des théories inadéquates. Kitcher (1993) présente plutôt le progrès scientifique comme un changement de consensus résultant de processus sociaux et psychologiques qui mènent de manière fiable à la vérité. Les théories sont ainsi filtrées par une dynamique sociale qui sélectionne les théories selon la qualité de leur articulation logique. Kitcher (1988) exprime un doute à l'idée qu'un processus de sélection darwinien du type suggéré par Hull puisse ajouter quoi que ce soit à une explication du processus d'avancement des sciences. Ce mémoire tentera d'établir si cette critique de Kitcher est fondée. Dans cette optique, une analyse détaillée de l’approche de Hull sera nécessaire afin d’examiner comment il justifie le lien qu’il établit entre la pratique scientifique et un processus de sélection. Un contraste sera ensuite fait avec l’approche de Kitcher pour tester la force et la nécessité de ce lien et pour expliquer le désaccord de Kitcher. Cette analyse comparative permettra de préciser les avantages et les désavantages uniques à chacune des approches pour déterminer si une analyse sélectionniste est plus prometteuse qu’une analyse non-sélectionniste pour rendre compte du progrès scientifique.
Resumo:
3 vidéos sont dans des fichiers complémentaires à ce mémoire