971 resultados para Produits de beauté
Resumo:
Cette thèse lève en partie le voile sur l’histoire des sports féminins au Québec de 1919 à 1961, soit de l’âge d’or des sports féminins au Canada jusqu’à l’adoption de la Loi sur la condition physique et le sport amateur par le gouvernement fédéral. Elle montre comment les rapports de genre ont été re/produits dans les sports féminins en étudiant les discours et les pratiques, tout en portant une attention particulière à l’influence qu’exercent l’appartenance de classe, l’ethnicité et la religion sur les sports féminins. L’analyse se penche d’abord sur les discours des médecins, des professeurs d’éducation physique et des clercs de l’Église catholique pour étudier les prescriptions qu’ils ont formulées à l’égard de la participation sportive des femmes. Les idées de deux Montréalaises, Myrtle Cook et Cécile Grenier, sont ensuite examinées pour montrer comment elles contestent les discours dominants. Enfin, les pratiques sportives des femmes dans deux centres sportifs montréalais, soit la Palestre nationale et le Young Women’s Christian Association, ont été étudiées de manière détaillée afin de mettre en lumière les différences, mais aussi certaines similitudes, entre l’organisation des sports féminins dans les communautés francophones et anglophones de la ville. Cette thèse met en évidence les tensions qui découlent des rapports de genre, de classe, d’ethnicité et de l’appartenance religieuse, et qui sont présentes à la fois dans les discours et les pratiques. Comme ailleurs en Amérique du Nord et même ailleurs en Occident, les discours dominants au Québec ne sont pas univoques, alors que des vues divergentes les contestent et que les pratiques sont plurielles. Tout en s’inscrivant dans le mouvement plus large d’accès des femmes aux sports en Occident, les discours et les pratiques observables à Montréal s’en distinguent, notamment par la forte influence de l’Église catholique et par les tensions ethniques. Le Québec est donc un cas d’espèce tout indiqué pour mettre en lumière la complexité de la re/production des rapports de genre à travers l’analyse des sports féminins, l’étude de ce champ constituant en même temps une avenue de recherche fort stimulante pour mieux saisir l’entrée de la province dans la modernité.
Resumo:
Les métaux lourds (ML) s’accumulent de plus en plus dans les sols à l’échelle mondiale, d’une part à cause des engrais minéraux et divers produits chimiques utilisés en agriculture intensive, et d’autre part à cause des activités industrielles. Toutes ces activités génèrent des déchets toxiques qui s’accumulent dans l’environnement. Les ML ne sont pas biodégradables et leur accumulation cause donc des problèmes de toxicité des sols et affecte la biodiversité des microorganismes qui y vivent. La fertilisation en azote (N) est une pratique courante en agriculture à grande échelle qui permet d’augmenter la fertilité des sols et la productivité des cultures. Cependant, son utilisation à long terme cause plusieurs effets néfastes pour l'environnement. Par exemple, elle augmente la quantité des ML dans les sols, les nappes phréatiques et les plantes. En outre, ces effets néfastes réduisent et changent considérablement la biodiversité des écosystèmes terrestres. La structure des communautés des champignons mycorhiziens à arbuscules (CMA) a été étudiée dans des sols contaminés par des ML issus de la fertilisation à long terme en N. Le rôle des différentes espèces de CMA dans l'absorption et la séquestration des ML a été aussi investigué. Dans une première expérience, la structure des communautés de CMA a été analysée à partir d’échantillons de sols de sites contaminés par des ML et de sites témoins non-contaminés. Nous avons constaté que la diversité des CMA indigènes a été plus faible dans les sols et les racines des plantes récoltées à partir de sites contaminés par rapport aux sites noncontaminés. Nous avons également constaté que la structure de la communauté d'AMF a été modifiée par la présence des ML dans les sols. Certains ribotypes des CMA ont été plus souvent associés aux sites contaminés, alors que d’autres ribotypes ont été associés aux sites non-contaminés. Cependant, certains ribotypes ont été observés aussi bien dans les sols pollués que non-pollués. Dans une deuxième expérience, les effets de la fertilisation organique et minérale (N) sur les différentes structures des communautés des CMA ont été étudiés. La variation de la structure de la communauté de CMA colonisant les racines a été analysée en fonction du type de fertilisation. Certains ribotypes de CMA étaient associés à la fertilisation organique et d'autres à la fertilisation minérale. En revanche, la fertilisation minérale a réduit le nombre de ribotypes de CMA alors que la fertilisation organique l’a augmenté. Dans cette expérience, j’ai démontré que le changement de structure des communautés de CMA colonisant des racines a eu un effet significatif sur la productivité des plantes. Dans une troisième expérience, le rôle de deux espèces de CMA (Glomus irregulare et G. mosseae) dans l'absorption du cadmium (Cd) par des plants de tournesol cultivés dans des sols amendés avec trois niveaux différents de Cd a été évalué. J’ai démontré que les deux espèces de CMA affectent différemment l’absorption ou la séquestration de ce ML par les plants de tournesol. Cette expérience a permis de mieux comprendre le rôle potentiel des CMA dans l'absorption des ML selon la concentration de cadmium dans le sol et les espèces de CMA. Mes recherches de doctorat démontrent donc que la fertilisation en N affecte la structure des communautés des CMA dans les racines et le sol. Le changement de structure de la communauté de CMA colonisant les racines affecte de manière significative la productivité des plantes. J’ai aussi démontré que, sous nos conditions expériemntales, l’espèce de CMA G. irregulare a été observée dans tous les sites (pollués et non-pollués), tandis que le G. mosseae n’a été observé en abondance que dans les sites contaminés. Par conséquent, j’ai étudié le rôle de ces deux espèces (G. irregulare et G. mosseae) dans l'absorption du Cd par le tournesol cultivé dans des sols amendés avec trois différents niveaux de Cd en serre. Les résultats indiquent que les espèces de CMA ont un potentiel différent pour atténuer la toxicité des ML dans les plantes hôtes, selon le niveau de concentration en Cd. En conclusion, mes travaux suggèrent que le G. irregulare est une espèce potentiellement importante pour la phytoextration du Cd, alors que le G. mosseae pourrait être une espèce appropriée pour phytostabilisation du Cd et du Zn.
Resumo:
Les seize détecteurs MPX constituant le réseau ATLAS-MPX ont été placés à différentes positions dans le détecteur ATLAS et sa averne au CERN dans le but de mesurer en emps réel les champs de radiation produits ar des particules primaires (protons des faisceaux) et des particules secondaires (kaons, pions, g, protons) issues des collisions proton-proton. Des films de polyéthylène (PE) et de fluorure de lithium (6LiF) recouvrent les détecteurs afin d’augmenter leur sensibilité aux neutrons produits par les particules primaires et secondaires interagissant avec les matériaux présents dans l’environnement d’ATLAS. La reconnaissance des traces laissées par les particules dans un détecteur ATLAS-MPX se fait à partir des algorithmes du logiciel MAFalda (“Medipix Analysis Framework”) basé sur les librairies et le logiciel d’analyse de données ROOT. Une étude sur le taux d’identifications erronées et le chevauchement d’amas a été faite en reconstruisant les activités des sources 106Ru et 137Cs. L’efficacité de détection des neutrons rapides a été mesurée à l’aide des sources 252Cf et 241AmBe (neutrons d’énergie moyenne de 2.13 et 4.08 MeV respectivement). La moyenne des efficacités de détection mesurées pour les neutrons produits par les sources 252C f et 241AmBe a été calculée pour les convertisseurs 6LiF et PE et donnent (0.8580 ± 0.1490)% et (0.0254 ± 0.0031)% pour LiF et (0.0510 ± 0.0061)% et (0.0591 ± 0.0063)% pour PE à bas et à haut seuil d’énergie respectivement. Une simulation du calcul de l’efficacité de détection des neutrons dans le détecteur MPX a été réalisée avec le logiciel GEANT4. Des données MPX correspondant aux collisions proton-proton à 2.4 TeV et à 7 TeV dans le centre de masse ont été analysées. Les flux détectés d’électrons et de photons sont particulièrement élevés dans les détecteurs MPX01 et MPX14 car ils sont plus près du point de collision. Des flux de neutrons ont été estimés en utilisant les efficacités de détection mesurées. Une corrélation avec la luminosité du LHC a été établie et on prédit que pour les collisions à 14 TeV dans le centre de masse et avec une luminosité de 10^34 cm-1*s-1 il y aura environ 5.1x10^8 ± 1.5x10^7 et 1.6x10^9 ± 6.3x10^7 particules détectées par les détecteurs MPX01 et MPX14 respectivement.
Resumo:
La succession de plus en plus fréquente d’événements catastrophiques a amené les sociétés à poser les conditions d’une gestion proactive des risques « naturels ». Ainsi, dans une perspective exploratoire, nous étudions les processus de planification du rétablissement postcatastrophe et la place qu’occupe le concept de résilience urbaine au sein des pratiques de cette planification et des contenus et produits qui en sont issus. Nous entamons plus spécifiquement une réflexion entourant l’intelligibilité et l’opérationnalisation de la résilience. Pour ce faire, nous examinons deux cas signifiants d’inondation dans l’historique nord-américain, soit celui de la Nouvelle-Orléans en Louisiane et celui de la ville québécoise de La Baie, ayant été respectivement victimes des ouragans Katrina et Rita en 2005 et des pluies diluviennes de 1996. Après avoir procédé à une brève mise en contexte des désastres éprouvés, de leurs effets et des vulnérabilités physico-spatiales qu’ils ont mis en exergue, nous mettons en parallèle les logiques institutionnelles précatastrophe d’aménagement du territoire, d’urbanisme et de gestion des risques des villes. Nous observons ensuite l’évolution des deux processus de planification du rétablissement et les enjeux et débats qui les ont caractérisés, pour terminer avec une exposition des changements résilients qui en ont émané. Les deux derniers chapitres démontrent que la qualité de résilience des villes est fortement influencée par leurs cultures politiques, administratives et législatives propres et leurs traditions urbanistiques. Bien qu’elles aient su élaborer une stratégie de prévention des risques, qui accepte les inondations plutôt que de tenter de s’y opposer à tout prix, elles n’ont toutefois pas saisi l’entièreté des opportunités qui s’offraient à elles.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Resumo:
Dans cette thèse nous démontrons le travail fait sur deux matériaux de cathodes pour les piles lithium-ion. Dans la première partie, nous avons préparé du phosphate de fer lithié (LiFePO4) par deux méthodes de lithiation présentées dans la littérature qui utilisent du phosphate de fer (FePO4) amorphe comme précurseur. Pour les deux méthodes, le produit obtenu à chaque étape de la synthèse a été analysé par la spectroscopie Mössbauer ainsi que par diffraction des rayons X (DRX) pour mieux comprendre le mécanisme de la réaction. Les résultats de ces analyses ont été publiés dans Journal of Power Sources. Le deuxième matériau de cathode qui a été étudié est le silicate de fer lithié (Li2FeSiO4). Une nouvelle méthode de synthèse a été développée pour obtenir le silicate de fer lithié en utilisant des produits chimiques peu couteux ainsi que de l’équipement de laboratoire de base. Le matériau a été obtenu par une synthèse à l’état solide. Les performances électrochimiques ont été obtenues après une étape de broyage et un dépôt d’une couche de carbone. Un essai a été fait pour synthétiser une version substituée du silicate de fer lithié dans le but d’augmenter les performances électrochimiques de ce matériau.
Resumo:
La transplantation pulmonaire pour les patients avec une maladie pulmonaire en phase terminale est leur seul espoir de survie. Malheureusement, certains greffés du poumon rencontrent des difficultés après la transplantation du poumon, dont l'un est le rejet chronique du greffon pulmonaire également connu histologiquement comme la bronchiolite oblitérante et cliniquement comme syndrome de bronchiolite oblitérante. L'étiologie exacte de la BO reste mal comprise. Certaines hypothèses suggèrent l'implication des cellules épithéliales dans le processus de remodelage des voies respiratoires, conduisant à l'obstruction des voies aériennes. Un des mécanismes proposés est un processus de transition, connue sous le nom de transition épithéliale-mésenchymateuse (TEM). Lors de ce processus, les cellules perdent leurs propriétés épithéliales, acquièrent un phénotype mésenchymateux et deviennent plus mobiles et envahissantes. Cette transformation leur permet de participer activement au processus de remodelage bronchique dans la bronchiolite oblitérante. L’induction de la TEM peut être due à certains facteurs tels que l'inflammation et l'apoptose. Le principal objectif de ce travail de maîtrise est de détecter in vivo la présence de la TEM dans des biopsies transbronchiques obtenues chez des greffés et de l’associer à leurs conditions cliniques. Le deuxième objectif est d'induire la TEM in vitro dans les cellules épithéliales des petites voies aériennes à l'aide de milieux conditionnés apoptotiques et non apoptotiques produits par les cellules endothéliales microvasculaires humaines du poumon. D’autre part, nous avons évalué si des médiateurs connus pour participer au processus de TEM tels que le facteur de croissance du tissu conjonctif (CTGF)et le facteur de croissance transformant bêta (TGF-beta) ainsi que le perlecan sont présents dans les milieux conditionnés utilisés.
Resumo:
Cette thèse porte sur le recours à des mesures restrictives du commerce par le Canada comme moyen de lutte contre le travail dangereux des enfants, dans un contexte de mise en œuvre de la responsabilité internationale d’un État en cas de non respect de la Convention de l’Organisation internationale du travail nº 182 sur les pires formes de travail des enfants. Bien que la capacité d’imposer des telles mesures se rapportant à des situations de travail dangereux des enfants soit analysée, essentiellement, du point de vue du droit de l’Organisation internationale du commerce (OMC), cette étude reste circonscrite à l’application de la Convention OIT 182. De plus, cette thèse veut fournir une analyse prospective de nature spéculative portant sur l’opportunité de recourir à de telles mesures en discutant de leurs éventuelles conséquences sur les enfants qu’on vise à protéger par ce moyen. La première partie de la thèse s’intéresse à la légalité d’éventuelles sanctions commerciales imposées par le Canada afin d’amener un pays membre de l’OMC dont il importe des produits à respecter la Convention OIT 182. La légalité de ces sanctions est abordée tant du point de vue du régime général du GATT que de celui des exceptions générales. Du point de vue du régime général, l’analyse porte notamment sur l’article III de cet accord relatif au principe du traitement national. Une fois constatée leur illicéité à l’égard de l’article III du GATT, seul l’article XX de cet accord peut être invoqué pour permettre le recours à ces mesures. Nous nous attardons plus particulièrement aux exceptions de l’article XX relatives à la protection de la moralité publique et à celle de la protection de la vie et de la santé humaine. La thèse aborde les conditions auxquelles est assujetti le recours aux exceptions de l’article XX retenues comme pertinentes, notamment celles de la « nécessité » des mesures et du respect des compétences étatiques. En outre, cette étude analyse les conditions d’application des mesures restrictives du commerce découlant du préambule de l’article XX. En ce qui concerne l’exception relative à la moralité publique, cette notion est discutée dans un contexte national spécifique, soit celui du Canada. La seconde partie de la thèse s’intéresse à l’opportunité de recourir à des mesures commerciales restrictives et leurs conséquences éventuelles sur les enfants dont la protection est recherchée. La démarche, qui est éminemment prospective, prend la forme d’une étude de cas portant sur un secteur productif qui n’a jamais connu dans les faits des sanctions commerciales, soit la production floricole en Équateur. Il s’agit d’un secteur caractérisé par la présence d’enfants en situation de travail dangereux impliqués dans la production de biens destinés à l’exportation. Notre recherche est de type exploratoire. De ce fait, elle ne vise pas à formuler des conclusions fermes quant aux effets des sanctions, mais plutôt à déceler les effets potentiellement bénéfiques ou nuisibles que les mesures restrictives du commerce pourraient avoir sur les enfants exploités, ainsi qu’à évaluer la contribution des sanctions commerciales à la solution du problème.
Resumo:
La documentation des programmes aide les développeurs à mieux comprendre le code source pendant les tâches de maintenance. Toutefois, la documentation n’est pas toujours disponible ou elle peut être de mauvaise qualité. Le recours à la redocumentation s’avère ainsi nécessaire. Dans ce contexte, nous proposons de faire la redocumentation en générant des commentaires par application de techniques de résumé par extraction. Pour mener à bien cette tâche, nous avons commencé par faire une étude empirique pour étudier les aspects quantitatifs et qualitatifs des commentaires. En particulier, nous nous sommes intéressés à l’étude de la distribution des commentaires par rapport aux différents types d’instructions et à la fréquence de documentation de chaque type. Aussi, nous avons proposé une taxonomie de commentaires pour classer les commentaires selon leur contenu et leur qualité. Suite aux résultats de l’étude empirique, nous avons décidé de résumer les classes Java par extraction des commentaires des méthodes/constructeurs. Nous avons défini plusieurs heuristiques pour déterminer les commentaires les plus pertinents à l’extraction. Ensuite, nous avons appliqué ces heuristiques sur les classes Java de trois projets pour en générer les résumés. Enfin, nous avons comparé les résumés produits (les commentaires produits) à des résumés références (les commentaires originaux) en utilisant la métrique ROUGE.
Resumo:
Réalisé en cotutelle avec le Dr James G Martin de l'Université McGill (Meakins-Christie laboratories)
Resumo:
Cette thèse s’articule autour de trois chapitres indépendants qui s’inscrivent dans les champs de la macroéconomie, de l’économie monétaire et de la finance internationale. Dans le premier chapitre, je construis un modèle néo-keynesien d’équilibre général sous incertitude pour examiner les implications de la production domestique des ménages pour la politique monétaire. Le modèle proposé permet de reconcilier deux faits empiriques majeurs: la forte sensibilité du produit intérieur brut aux chocs monétaires (obtenue à partir des modèles VAR), et le faible degré de rigidité nominale observé dans les micro-données. Le deuxième chapitre étudie le role de la transformation structurelle (réallocation de la main d’oeuvre entre secteurs) sur la volatilité de la production aggregée dans un panel de pays. Le troisième chapitre quant à lui met en exergue l’importance de la cartographie des échanges commerciaux pour le choix entre un régime de change fixe et l’arrimage à un panier de devises. "Household Production, Services and Monetary Policy" (Chapitre 1) part de l’observation selon laquelle les ménages peuvent produire à domicile des substituts aux services marchands, contrairement aux biens non durables qu’ils acquièrent presque exclusivement sur le marché. Dans ce contexte, ils procèdent à d’importants arbitrages entre produire les services à domicile ou les acquerir sur le marché, dépendamment des changements dans leur revenu. Pour examiner les implications de tels arbitrages (qui s’avèrent être importants dans les micro-données) le secteur domestique est introduit dans un modèle néo-keyenesien d’équilibre général sous incertitude à deux secteurs (le secteur des biens non durables et le secteur des services) autrement standard. Je montre que les firmes du secteur des services sont moins enclin à changer leurs prix du fait que les ménages ont l’option de produire soit même des services substituts. Ceci se traduit par la présence d’un terme endogène supplémentaire qui déplace la courbe de Phillips dans ce secteur. Ce terme croit avec le degré de substituabilité qui existe entre les services produits à domicile et ceux acquis sur le marché. Cet accroissement de la rigidité nominale amplifie la sensibilité de la production réelle aux chocs monétaires, notamment dans le secteur des services, ce qui est compatible avec l’évidence VAR selon laquelle les services de consommation sont plus sensibles aux variations de taux d’intérêt que les biens non durables. "Structural Transformation and the Volatility of Aggregate Output: A Cross-country Analysis" (Chapitre 2) est basée sur l’évidence empirique d’une relation négative entre la part de la main d’oeuvre allouée au secteur des services et la volatilité de la production aggrégée, même lorsque je contrôle pour les facteurs tels que le développement du secteur financier. Ce resultat aggregé est la conséquence des développements sectoriels: la productivité de la main d’oeuvre est beaucoup plus volatile dans l’agriculture et les industries manufacturières que dans les services. La production aggregée deviendrait donc mécaniquement moins volatile au fur et à mesure que la main d’oeuvre se déplace de l’agriculture et de la manufacture vers les services. Pour évaluer cette hypothèse, je calibre un modèle de transformation structurelle à l’économie américaine, que j’utilise ensuite pour générer l’allocation sectorielle de la main d’oeuvre dans l’agriculture, l’industrie et les services pour les autres pays de l’OCDE. Dans une analyse contre-factuelle, le modèle est utlisé pour restreindre la mobilité de la main d’oeuvre entre secteurs de façon endogène. Les calculs montrent alors que le déplacement de la main d’oeuvre vers le secteur des services réduit en effet la volatilité de la production aggregée. "Exchange Rate Volatility under Alternative Peg Regimes: Do Trade Patterns Matter?" (Chapitre 3) est une contribution à la litterature économique qui s’interesse au choix entre divers regimes de change. J’utilise les données mensuelles de taux de change bilatéraux et de commerce extérieur entre 1980 et 2010 pour les pays membre de l’Union Economique et Monétaire Ouest Africaine (UEMOA). La monnaie de ces pays (le franc CFA) est arrimée au franc Francais depuis le milieu des années 40 et à l’euro depuis son introduction en 1999. Au moment de l’arrimage initial, la France était le principal partenaire commercial des pays de l’UEMOA. Depuis lors, et plus encore au cours des dix dernières années, la cartographie des échanges de l’union a significativement changé en faveur des pays du groupe des BICs, notamment la Chine. Je montre dans ce chapitre que l’arrimage à un panier de devises aurait induit une volatilité moins pronnoncée du taux de change effectif nominal du franc CFA au cours de la décennie écoulée, comparé à la parité fixe actuelle. Ce chapitre, cependant, n’aborde pas la question de taux de change optimal pour les pays de l’UEMOA, un aspect qui serait intéressant pour une recherche future.
Resumo:
Ce mémoire décrit le développement d’une nouvelle méthodologie d’expansion de cycle irréversible à partir de N-alkyl-3,4-déhydroprolinols pour former des N-alkyl tétrahydropyridines 3-substituées en passant par un intermédiaire aziridinium bicyclique. Cette méthode permet l’introduction d’un vaste éventail de substituants à la position 3 et tolère bien la présence de groupements aux positions 2 et 6, donnant accès à des pipéridines mono-, di- ou trisubstituées avec un excellent diastéréocontrôle. De plus, il est démontré que l’information stéréogénique du 3,4-déhydroprolinol de départ est totalement transférée vers le produit tétrahydropyridine. Additionnellement, une méthodologie fut dévelopée pour la préparation des produits de départ 3,4-déhydroprolinols en forme énantiopure, avec ou sans substituants aux positions 2 et 5, avec un très bon stéréocontrôle. Le premier chapitre présente un résumé de la littérature sur le sujet, incluant un bref survol des méthodes existantes pour la synthèse de pipéridines 3-substituées, ainsi qu’une vue d’ensemble de la chimie des aziridiniums. L’hypothèse originale ainsi que le raisonnement pour l’entreprise de ce projet y sont également inclus. Le second chapitre traite de la synthèse des N-alkyl-3,4-déhydroprolinols utilisés comme produits de départ pour l’expansion de cycle vers les tétrahydropyridines 3-substituées, incluant deux routes synthétiques différentes pour leur formation. Le premier chemin synthétique utilise la L-trans-4-hydroxyproline comme produit de départ, tandis que le deuxième est basé sur une modification de la réaction de Petasis-Mannich suivie par une métathèse de fermeture de cycle, facilitant l’accès aux précurseurs pour l’expansion de cycle. Le troisième chapitre présente une preuve de concept de la viabilité du projet ainsi que l’optimisation des conditions réactionnelles pour l’expansion de cycle. De plus, il y est démontré que l’information stéréogénique des produits de départs est transférée vers les produits. iv Au quatrième chapitre, l’étendue des composés pouvant être synthétisés par cette méthodologie est présentée, ainsi qu’une hypothèse mécanistique expliquant les stéréochimies relatives observées. Une synthèse énantiosélective efficace et divergente de tétrahydropyridines 2,3-disubstituées est également documentée, où les deux substituants furent introduits à partir d’un intermédiaire commun en 3 étapes.
Resumo:
Au cours du Sylvicole supérieur (1000-1500 AD), le secteur de l’embouchure du Saguenay aurait été exploité par des groupes Iroquoiens du Saint-Laurent en quête de ressources marines, et plus particulièrement du phoque. Ces groupes provenaient vraisemblablement de la région de Québec où se trouvaient leurs camps de base et auraient ainsi développé une forme d’adaptation aux ressources marines de l’estuaire, faisant d’eux les groupes iroquoiens les plus mobiles de toute la vallée du Saint-Laurent. Dans cette étude, nous proposons que l’exploitation des mammifères marins fût pratiquée en deux temps, d’abord au printemps, lors de courtes périodes par des contignents de chasseurs masculins attirés par le phoque du Groenland et puis en été, par des familles entières profitant de la présence de phoques gris et commun. Les pinnipèdes étaient probablement traqués sur la batture ou sur les glaces et abattus à la hache ou à l’arc et à la flèche. Puisque les résidus alimentaires retrouvés dans les vases de cuisson étaient surtout composés de poissons et de mammifères terrestres, il est supposé que des sous-produits de la chasse au phoque aient été rapportés dans la région de Québec et utilisés comme réserve de nourriture, comme matière première ou comme monnaie d’échange. Nous défendons également l’hypothèse que ces excursions dans l’estuaire n’étaient pas nécessairement liées à la précarité de l’agriculture dans la région de Québec puisque cette pratique aurait été adoptée tardivement, soit après 1300 AD et peut être même à partir de 1400 AD. Les données sont issues de six sites ayant fait l’objet de fouilles répartis sur une bande littorale de 40 km de longueur. Il s’agit des sites Ouellet (DaEk-6), Anse-aux-Pilotes IV (DbEj-7), Cap-de-Bon-Désir (109G), Site archéologique des Basques-de-l’Anse-à-la-Cave (DbEi-5), Pointe-à-Crapaud (DbEi-2) et Escoumins I (DcEi-1).
Resumo:
Les polymorphonucléaires neutrophiles (PMNs) représentent une arme primordiale dans la défense contre divers agents pathogènes; notamment les bactéries, les champignons, les cellules tumorales de même que les cellules infectées par des virus. Cependant, certaines pathologies reliées à l’inflammation chronique soulèvent l’implication des neutrophiles notamment dans l’arthrite rhumatoïde. La réponse inflammatoire persistante générée par l’activation et la survie des neutrophiles engendre une destruction des tissus environnants suite à la sécrétion non contrôlée de leurs produits cytotoxiques. Même si l’activation chronique des neutrophiles est néfaste dans plusieurs pathologies, elle pourrait s’avérer un bon outil en cas de neutropénie, comme c’est souvent le cas les patients ayant reçu des traitements de chimiothérapie. Ce projet fait suite aux travaux doctoraux de Lagraoui (1999). Il vise à identifier le(s) facteur(s) du liquide synovial qui augmente la survie des neutrophiles ainsi que le mécanisme d’action impliqué dans ce processus. Similairement au facteur semi-pur isolés par Lagraoui (1999), le milieu conditionné concentré (MCC) augmente la survie des PMNs de 75% (39% ± 9.5 vs 68% ± 2.5, p<0.01). Suivant le séquençage du MCC parallèlement au facteur semi-pur actif, deux protéines ont été identifiées à la fois dans le MCC et dans le facteur semi-pur soient : l’albumine et la fétuine. Notre projet vise donc à comparer les effets de l’albumine et de la fétuine à ceux du GM-CSF dans l’optique d’une thérapie alternative au GM-CSF en tant qu’adjuvant de chimiothérapie. La présence d’albumine, de fétuine ou de GM-CSF chez les PMNs incubés 24 heures avec la Mutamycin® induit une diminution du nombre de cellules en apoptose par rapport à la Mutamycin® (Ctrl : 43% ± 10; A : 74% ± 3; F : (82% ± 6 et GM : 74% ± 7; p<0.01). L’effet de l’albumine dépend de la voie de la kinase PI3 mais également celle la kinase ERK, alors que celle de la fétuine dépend de la kinase PI3. Similairement l’EPO, l’albumine et la fétuine supporte la différentiation des HSCs en précurseurs érythrocytaires de type BFU-E. Dans un modèle murin de chiomioprotection, l’albumine augmente la concentration cellulaire rapport au groupe contrôle des leukocytes de la rate (66 ±8 x106c/ml vs 81 ±16 x106c/ml) et du sang (3.6 ±0.4 x106c/ml vs 5.7 ±2.3 x106c/ml). Donc, in vitro, l’albumine et la fétuine sont comparables au GM-CSF au niveau fonctionalité et mécansimes d’action. Cependant, vu leur manque de spécificité, l’application thérapeutique en tant qu’adjuvant de chiomiothérapie de l’albumine et la fétuine est peu prometteuse. Par contre, les maladies dégénératives et les évènements ischémiques pourraient s’avérer de bonnes cibles thérapeutiques, principalement pour l’albumine.
Resumo:
Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.