262 resultados para Produits de beauté
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Resumo:
Dans cette thèse nous démontrons le travail fait sur deux matériaux de cathodes pour les piles lithium-ion. Dans la première partie, nous avons préparé du phosphate de fer lithié (LiFePO4) par deux méthodes de lithiation présentées dans la littérature qui utilisent du phosphate de fer (FePO4) amorphe comme précurseur. Pour les deux méthodes, le produit obtenu à chaque étape de la synthèse a été analysé par la spectroscopie Mössbauer ainsi que par diffraction des rayons X (DRX) pour mieux comprendre le mécanisme de la réaction. Les résultats de ces analyses ont été publiés dans Journal of Power Sources. Le deuxième matériau de cathode qui a été étudié est le silicate de fer lithié (Li2FeSiO4). Une nouvelle méthode de synthèse a été développée pour obtenir le silicate de fer lithié en utilisant des produits chimiques peu couteux ainsi que de l’équipement de laboratoire de base. Le matériau a été obtenu par une synthèse à l’état solide. Les performances électrochimiques ont été obtenues après une étape de broyage et un dépôt d’une couche de carbone. Un essai a été fait pour synthétiser une version substituée du silicate de fer lithié dans le but d’augmenter les performances électrochimiques de ce matériau.
Resumo:
La transplantation pulmonaire pour les patients avec une maladie pulmonaire en phase terminale est leur seul espoir de survie. Malheureusement, certains greffés du poumon rencontrent des difficultés après la transplantation du poumon, dont l'un est le rejet chronique du greffon pulmonaire également connu histologiquement comme la bronchiolite oblitérante et cliniquement comme syndrome de bronchiolite oblitérante. L'étiologie exacte de la BO reste mal comprise. Certaines hypothèses suggèrent l'implication des cellules épithéliales dans le processus de remodelage des voies respiratoires, conduisant à l'obstruction des voies aériennes. Un des mécanismes proposés est un processus de transition, connue sous le nom de transition épithéliale-mésenchymateuse (TEM). Lors de ce processus, les cellules perdent leurs propriétés épithéliales, acquièrent un phénotype mésenchymateux et deviennent plus mobiles et envahissantes. Cette transformation leur permet de participer activement au processus de remodelage bronchique dans la bronchiolite oblitérante. L’induction de la TEM peut être due à certains facteurs tels que l'inflammation et l'apoptose. Le principal objectif de ce travail de maîtrise est de détecter in vivo la présence de la TEM dans des biopsies transbronchiques obtenues chez des greffés et de l’associer à leurs conditions cliniques. Le deuxième objectif est d'induire la TEM in vitro dans les cellules épithéliales des petites voies aériennes à l'aide de milieux conditionnés apoptotiques et non apoptotiques produits par les cellules endothéliales microvasculaires humaines du poumon. D’autre part, nous avons évalué si des médiateurs connus pour participer au processus de TEM tels que le facteur de croissance du tissu conjonctif (CTGF)et le facteur de croissance transformant bêta (TGF-beta) ainsi que le perlecan sont présents dans les milieux conditionnés utilisés.
Resumo:
Cette thèse porte sur le recours à des mesures restrictives du commerce par le Canada comme moyen de lutte contre le travail dangereux des enfants, dans un contexte de mise en œuvre de la responsabilité internationale d’un État en cas de non respect de la Convention de l’Organisation internationale du travail nº 182 sur les pires formes de travail des enfants. Bien que la capacité d’imposer des telles mesures se rapportant à des situations de travail dangereux des enfants soit analysée, essentiellement, du point de vue du droit de l’Organisation internationale du commerce (OMC), cette étude reste circonscrite à l’application de la Convention OIT 182. De plus, cette thèse veut fournir une analyse prospective de nature spéculative portant sur l’opportunité de recourir à de telles mesures en discutant de leurs éventuelles conséquences sur les enfants qu’on vise à protéger par ce moyen. La première partie de la thèse s’intéresse à la légalité d’éventuelles sanctions commerciales imposées par le Canada afin d’amener un pays membre de l’OMC dont il importe des produits à respecter la Convention OIT 182. La légalité de ces sanctions est abordée tant du point de vue du régime général du GATT que de celui des exceptions générales. Du point de vue du régime général, l’analyse porte notamment sur l’article III de cet accord relatif au principe du traitement national. Une fois constatée leur illicéité à l’égard de l’article III du GATT, seul l’article XX de cet accord peut être invoqué pour permettre le recours à ces mesures. Nous nous attardons plus particulièrement aux exceptions de l’article XX relatives à la protection de la moralité publique et à celle de la protection de la vie et de la santé humaine. La thèse aborde les conditions auxquelles est assujetti le recours aux exceptions de l’article XX retenues comme pertinentes, notamment celles de la « nécessité » des mesures et du respect des compétences étatiques. En outre, cette étude analyse les conditions d’application des mesures restrictives du commerce découlant du préambule de l’article XX. En ce qui concerne l’exception relative à la moralité publique, cette notion est discutée dans un contexte national spécifique, soit celui du Canada. La seconde partie de la thèse s’intéresse à l’opportunité de recourir à des mesures commerciales restrictives et leurs conséquences éventuelles sur les enfants dont la protection est recherchée. La démarche, qui est éminemment prospective, prend la forme d’une étude de cas portant sur un secteur productif qui n’a jamais connu dans les faits des sanctions commerciales, soit la production floricole en Équateur. Il s’agit d’un secteur caractérisé par la présence d’enfants en situation de travail dangereux impliqués dans la production de biens destinés à l’exportation. Notre recherche est de type exploratoire. De ce fait, elle ne vise pas à formuler des conclusions fermes quant aux effets des sanctions, mais plutôt à déceler les effets potentiellement bénéfiques ou nuisibles que les mesures restrictives du commerce pourraient avoir sur les enfants exploités, ainsi qu’à évaluer la contribution des sanctions commerciales à la solution du problème.
Resumo:
La documentation des programmes aide les développeurs à mieux comprendre le code source pendant les tâches de maintenance. Toutefois, la documentation n’est pas toujours disponible ou elle peut être de mauvaise qualité. Le recours à la redocumentation s’avère ainsi nécessaire. Dans ce contexte, nous proposons de faire la redocumentation en générant des commentaires par application de techniques de résumé par extraction. Pour mener à bien cette tâche, nous avons commencé par faire une étude empirique pour étudier les aspects quantitatifs et qualitatifs des commentaires. En particulier, nous nous sommes intéressés à l’étude de la distribution des commentaires par rapport aux différents types d’instructions et à la fréquence de documentation de chaque type. Aussi, nous avons proposé une taxonomie de commentaires pour classer les commentaires selon leur contenu et leur qualité. Suite aux résultats de l’étude empirique, nous avons décidé de résumer les classes Java par extraction des commentaires des méthodes/constructeurs. Nous avons défini plusieurs heuristiques pour déterminer les commentaires les plus pertinents à l’extraction. Ensuite, nous avons appliqué ces heuristiques sur les classes Java de trois projets pour en générer les résumés. Enfin, nous avons comparé les résumés produits (les commentaires produits) à des résumés références (les commentaires originaux) en utilisant la métrique ROUGE.
Resumo:
Réalisé en cotutelle avec le Dr James G Martin de l'Université McGill (Meakins-Christie laboratories)
Resumo:
Cette thèse s’articule autour de trois chapitres indépendants qui s’inscrivent dans les champs de la macroéconomie, de l’économie monétaire et de la finance internationale. Dans le premier chapitre, je construis un modèle néo-keynesien d’équilibre général sous incertitude pour examiner les implications de la production domestique des ménages pour la politique monétaire. Le modèle proposé permet de reconcilier deux faits empiriques majeurs: la forte sensibilité du produit intérieur brut aux chocs monétaires (obtenue à partir des modèles VAR), et le faible degré de rigidité nominale observé dans les micro-données. Le deuxième chapitre étudie le role de la transformation structurelle (réallocation de la main d’oeuvre entre secteurs) sur la volatilité de la production aggregée dans un panel de pays. Le troisième chapitre quant à lui met en exergue l’importance de la cartographie des échanges commerciaux pour le choix entre un régime de change fixe et l’arrimage à un panier de devises. "Household Production, Services and Monetary Policy" (Chapitre 1) part de l’observation selon laquelle les ménages peuvent produire à domicile des substituts aux services marchands, contrairement aux biens non durables qu’ils acquièrent presque exclusivement sur le marché. Dans ce contexte, ils procèdent à d’importants arbitrages entre produire les services à domicile ou les acquerir sur le marché, dépendamment des changements dans leur revenu. Pour examiner les implications de tels arbitrages (qui s’avèrent être importants dans les micro-données) le secteur domestique est introduit dans un modèle néo-keyenesien d’équilibre général sous incertitude à deux secteurs (le secteur des biens non durables et le secteur des services) autrement standard. Je montre que les firmes du secteur des services sont moins enclin à changer leurs prix du fait que les ménages ont l’option de produire soit même des services substituts. Ceci se traduit par la présence d’un terme endogène supplémentaire qui déplace la courbe de Phillips dans ce secteur. Ce terme croit avec le degré de substituabilité qui existe entre les services produits à domicile et ceux acquis sur le marché. Cet accroissement de la rigidité nominale amplifie la sensibilité de la production réelle aux chocs monétaires, notamment dans le secteur des services, ce qui est compatible avec l’évidence VAR selon laquelle les services de consommation sont plus sensibles aux variations de taux d’intérêt que les biens non durables. "Structural Transformation and the Volatility of Aggregate Output: A Cross-country Analysis" (Chapitre 2) est basée sur l’évidence empirique d’une relation négative entre la part de la main d’oeuvre allouée au secteur des services et la volatilité de la production aggrégée, même lorsque je contrôle pour les facteurs tels que le développement du secteur financier. Ce resultat aggregé est la conséquence des développements sectoriels: la productivité de la main d’oeuvre est beaucoup plus volatile dans l’agriculture et les industries manufacturières que dans les services. La production aggregée deviendrait donc mécaniquement moins volatile au fur et à mesure que la main d’oeuvre se déplace de l’agriculture et de la manufacture vers les services. Pour évaluer cette hypothèse, je calibre un modèle de transformation structurelle à l’économie américaine, que j’utilise ensuite pour générer l’allocation sectorielle de la main d’oeuvre dans l’agriculture, l’industrie et les services pour les autres pays de l’OCDE. Dans une analyse contre-factuelle, le modèle est utlisé pour restreindre la mobilité de la main d’oeuvre entre secteurs de façon endogène. Les calculs montrent alors que le déplacement de la main d’oeuvre vers le secteur des services réduit en effet la volatilité de la production aggregée. "Exchange Rate Volatility under Alternative Peg Regimes: Do Trade Patterns Matter?" (Chapitre 3) est une contribution à la litterature économique qui s’interesse au choix entre divers regimes de change. J’utilise les données mensuelles de taux de change bilatéraux et de commerce extérieur entre 1980 et 2010 pour les pays membre de l’Union Economique et Monétaire Ouest Africaine (UEMOA). La monnaie de ces pays (le franc CFA) est arrimée au franc Francais depuis le milieu des années 40 et à l’euro depuis son introduction en 1999. Au moment de l’arrimage initial, la France était le principal partenaire commercial des pays de l’UEMOA. Depuis lors, et plus encore au cours des dix dernières années, la cartographie des échanges de l’union a significativement changé en faveur des pays du groupe des BICs, notamment la Chine. Je montre dans ce chapitre que l’arrimage à un panier de devises aurait induit une volatilité moins pronnoncée du taux de change effectif nominal du franc CFA au cours de la décennie écoulée, comparé à la parité fixe actuelle. Ce chapitre, cependant, n’aborde pas la question de taux de change optimal pour les pays de l’UEMOA, un aspect qui serait intéressant pour une recherche future.
Resumo:
Ce mémoire décrit le développement d’une nouvelle méthodologie d’expansion de cycle irréversible à partir de N-alkyl-3,4-déhydroprolinols pour former des N-alkyl tétrahydropyridines 3-substituées en passant par un intermédiaire aziridinium bicyclique. Cette méthode permet l’introduction d’un vaste éventail de substituants à la position 3 et tolère bien la présence de groupements aux positions 2 et 6, donnant accès à des pipéridines mono-, di- ou trisubstituées avec un excellent diastéréocontrôle. De plus, il est démontré que l’information stéréogénique du 3,4-déhydroprolinol de départ est totalement transférée vers le produit tétrahydropyridine. Additionnellement, une méthodologie fut dévelopée pour la préparation des produits de départ 3,4-déhydroprolinols en forme énantiopure, avec ou sans substituants aux positions 2 et 5, avec un très bon stéréocontrôle. Le premier chapitre présente un résumé de la littérature sur le sujet, incluant un bref survol des méthodes existantes pour la synthèse de pipéridines 3-substituées, ainsi qu’une vue d’ensemble de la chimie des aziridiniums. L’hypothèse originale ainsi que le raisonnement pour l’entreprise de ce projet y sont également inclus. Le second chapitre traite de la synthèse des N-alkyl-3,4-déhydroprolinols utilisés comme produits de départ pour l’expansion de cycle vers les tétrahydropyridines 3-substituées, incluant deux routes synthétiques différentes pour leur formation. Le premier chemin synthétique utilise la L-trans-4-hydroxyproline comme produit de départ, tandis que le deuxième est basé sur une modification de la réaction de Petasis-Mannich suivie par une métathèse de fermeture de cycle, facilitant l’accès aux précurseurs pour l’expansion de cycle. Le troisième chapitre présente une preuve de concept de la viabilité du projet ainsi que l’optimisation des conditions réactionnelles pour l’expansion de cycle. De plus, il y est démontré que l’information stéréogénique des produits de départs est transférée vers les produits. iv Au quatrième chapitre, l’étendue des composés pouvant être synthétisés par cette méthodologie est présentée, ainsi qu’une hypothèse mécanistique expliquant les stéréochimies relatives observées. Une synthèse énantiosélective efficace et divergente de tétrahydropyridines 2,3-disubstituées est également documentée, où les deux substituants furent introduits à partir d’un intermédiaire commun en 3 étapes.
Resumo:
Au cours du Sylvicole supérieur (1000-1500 AD), le secteur de l’embouchure du Saguenay aurait été exploité par des groupes Iroquoiens du Saint-Laurent en quête de ressources marines, et plus particulièrement du phoque. Ces groupes provenaient vraisemblablement de la région de Québec où se trouvaient leurs camps de base et auraient ainsi développé une forme d’adaptation aux ressources marines de l’estuaire, faisant d’eux les groupes iroquoiens les plus mobiles de toute la vallée du Saint-Laurent. Dans cette étude, nous proposons que l’exploitation des mammifères marins fût pratiquée en deux temps, d’abord au printemps, lors de courtes périodes par des contignents de chasseurs masculins attirés par le phoque du Groenland et puis en été, par des familles entières profitant de la présence de phoques gris et commun. Les pinnipèdes étaient probablement traqués sur la batture ou sur les glaces et abattus à la hache ou à l’arc et à la flèche. Puisque les résidus alimentaires retrouvés dans les vases de cuisson étaient surtout composés de poissons et de mammifères terrestres, il est supposé que des sous-produits de la chasse au phoque aient été rapportés dans la région de Québec et utilisés comme réserve de nourriture, comme matière première ou comme monnaie d’échange. Nous défendons également l’hypothèse que ces excursions dans l’estuaire n’étaient pas nécessairement liées à la précarité de l’agriculture dans la région de Québec puisque cette pratique aurait été adoptée tardivement, soit après 1300 AD et peut être même à partir de 1400 AD. Les données sont issues de six sites ayant fait l’objet de fouilles répartis sur une bande littorale de 40 km de longueur. Il s’agit des sites Ouellet (DaEk-6), Anse-aux-Pilotes IV (DbEj-7), Cap-de-Bon-Désir (109G), Site archéologique des Basques-de-l’Anse-à-la-Cave (DbEi-5), Pointe-à-Crapaud (DbEi-2) et Escoumins I (DcEi-1).
Resumo:
Les polymorphonucléaires neutrophiles (PMNs) représentent une arme primordiale dans la défense contre divers agents pathogènes; notamment les bactéries, les champignons, les cellules tumorales de même que les cellules infectées par des virus. Cependant, certaines pathologies reliées à l’inflammation chronique soulèvent l’implication des neutrophiles notamment dans l’arthrite rhumatoïde. La réponse inflammatoire persistante générée par l’activation et la survie des neutrophiles engendre une destruction des tissus environnants suite à la sécrétion non contrôlée de leurs produits cytotoxiques. Même si l’activation chronique des neutrophiles est néfaste dans plusieurs pathologies, elle pourrait s’avérer un bon outil en cas de neutropénie, comme c’est souvent le cas les patients ayant reçu des traitements de chimiothérapie. Ce projet fait suite aux travaux doctoraux de Lagraoui (1999). Il vise à identifier le(s) facteur(s) du liquide synovial qui augmente la survie des neutrophiles ainsi que le mécanisme d’action impliqué dans ce processus. Similairement au facteur semi-pur isolés par Lagraoui (1999), le milieu conditionné concentré (MCC) augmente la survie des PMNs de 75% (39% ± 9.5 vs 68% ± 2.5, p<0.01). Suivant le séquençage du MCC parallèlement au facteur semi-pur actif, deux protéines ont été identifiées à la fois dans le MCC et dans le facteur semi-pur soient : l’albumine et la fétuine. Notre projet vise donc à comparer les effets de l’albumine et de la fétuine à ceux du GM-CSF dans l’optique d’une thérapie alternative au GM-CSF en tant qu’adjuvant de chimiothérapie. La présence d’albumine, de fétuine ou de GM-CSF chez les PMNs incubés 24 heures avec la Mutamycin® induit une diminution du nombre de cellules en apoptose par rapport à la Mutamycin® (Ctrl : 43% ± 10; A : 74% ± 3; F : (82% ± 6 et GM : 74% ± 7; p<0.01). L’effet de l’albumine dépend de la voie de la kinase PI3 mais également celle la kinase ERK, alors que celle de la fétuine dépend de la kinase PI3. Similairement l’EPO, l’albumine et la fétuine supporte la différentiation des HSCs en précurseurs érythrocytaires de type BFU-E. Dans un modèle murin de chiomioprotection, l’albumine augmente la concentration cellulaire rapport au groupe contrôle des leukocytes de la rate (66 ±8 x106c/ml vs 81 ±16 x106c/ml) et du sang (3.6 ±0.4 x106c/ml vs 5.7 ±2.3 x106c/ml). Donc, in vitro, l’albumine et la fétuine sont comparables au GM-CSF au niveau fonctionalité et mécansimes d’action. Cependant, vu leur manque de spécificité, l’application thérapeutique en tant qu’adjuvant de chiomiothérapie de l’albumine et la fétuine est peu prometteuse. Par contre, les maladies dégénératives et les évènements ischémiques pourraient s’avérer de bonnes cibles thérapeutiques, principalement pour l’albumine.
Resumo:
Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.
Resumo:
Ces travaux ont été réalisés en collaboration avec le groupe du professeur William Skene.
Resumo:
Scénarios d’aveuglement dans la littérature d’Orhan Pamuk, d’Ernesto Sábato, et de José Saramago analyse trois œuvres importantes de trois auteurs contemporains : Mon nom est Rouge d’Orhan Pamuk ; « Rapport sur les aveugles » du roman Héros et tombes d’Ernesto Sábato ; et L’aveuglement de José Saramago. Malgré leurs différences, ces romans ont des points communs évidents, synthétisés dans la figure de l’aveuglement. Cette figure signale l’avènement, dans les textes, d’un régime de connaissance alternatif, centré moins sur le primat de la raison et du visuel que sur une nouvelle capacité cognitive, basée sur une logique spéciale du destin. L’aveuglement s’ouvre également sur une nouvelle compréhension de l’histoire, grâce à une capacité du récit de fiction qui passe par le point de fuite de la cécité. Pour Pamuk, l’aveuglement est le couronnement paradoxal d’une vision du monde, gravement mise en crise à la fin du XVIe siècle par le perspectivisme et le réalisme de la Renaissance, la voie d’entrée vers un monde imaginal qui n’est plus accessible à l’imaginaire occidental. Pour Sábato, il représente la variante renversée d’une quête de l’absolu qui passe par les antres de l’inceste, de l’enfer et du crime, tandis que le monde décrit par Saramago est un monde qui sombre sur la pente de la déchéance, en suivant une logique implacable. Il est l’équivalent de plusieurs formes de cécité qui menacent le monde contemporain, comme le fondamentalisme religieux, l’homogénéité préconisée par la société de masse, l’exclusion raciale, l’oppression idéologique. La thèse se divise en trois parties, La violente beauté du monde, Un mythe hérétique de la caverne et Une épidémie à cause inconnue, chacune d’entre elles analysant l’œuvre d’un auteur, mais établissant également des liens avec les autres chapitres. L’approche adoptée est interdisciplinaire, un croisement entre études littéraires, philosophie et histoire de l’art. Dans leur quête de nouveaux concepts et de nouvelles formes de pensée qui s’écartent du modèle rationnel dominant de la modernité, les trois auteurs partent de la présupposition que regarder les choses n’est pas du tout l’équivalent de voir les choses. Ils tentent d’articuler une logique du voir qui ressemble plutôt à la vision et à la clairvoyance qu’à la conformité logique. La figure de l’aveuglement sert de tremplin vers le monde imaginal (Pamuk), la pensée magique (Sábato) et la vision dystopique (Saramago) – des espaces ontologiquement différents où les auteurs mènent leurs attaques contre la rationnalité à tout prix. C’est précisément ces espaces que nous avons choisi d’explorer dans les trois romans. Nous soutenons également que ces trois textes proposent un nouveau régime de « connaissance » qui met en question les règles de pensée héritées de la Renaissance et surtout des Lumières, qui constituent un discours dominant dans la culture visuelle et philosophique moderne.
Resumo:
L’intensification des pratiques agricoles a été identifiée comme cause majeure du déclin de la biodiversité. Plusieurs études ont documenté l’impact de la fragmentation du paysage naturel et de l’agriculture intensive sur la diversité des espèces, mais très peu ont quantifié le lien entre la structure du paysage et les interactions trophiques, ainsi que les mécanismes d’adaptation des organismes. J’ai étudié un modèle biologique à trois niveaux trophiques composé d’un oiseau hôte, l’hirondelle bicolore Tachycineta bicolor, de mouches ectoparasites du genre Protocalliphora et de guêpes parasitoïdes du genre Nasonia, au travers d’un gradient d’intensification agricole dans le sud du Québec. Le premier objectif était de déterminer l’abondance des espèces de mouches ectoparasites et de leurs guêpes parasitoïdes qui colonisent les nids d’hirondelles dans la zone d’étude. La prévalence de nids infectés par Protocalliphora spp. était de 70,8% en 2008 et 34,6% en 2009. Le pourcentage de nids comprenant des pupes de Protocalliphora parasitées par Nasonia spp. était de 85,3% en 2008 et 67,2% en 2009. Trois espèces de Protocalliphora ont été observées (P. sialia, P. bennetti et P. metallica) ainsi que deux espèces de Nasonia (N. vitripennis et N. giraulti). Il s’agit d’une première mention de P. bennetti et de N. giraulti dans la province de Québec. Mon deuxième objectif était d’évaluer l’impact de l’intensification agricole et de la structure du paysage sur les relations tri-trophiques entre les organismes à l’étude. Les résultats révèlent que les réponses à la structure du paysage de l’hirondelle, de l’ectoparasite et de l’hyperparasite dépendantent de l’échelle spatiale. L’échelle spatiale fonctionnelle à laquelle les espèces répondent le plus varie selon le paramètre du paysage modélisé. Les analyses démontrent que l’intensification des pratiques agricoles entraîne une diminution des populations d’oiseaux, d’ectoparasites et d’hyperparasites. De plus, les populations de Protocalliphora et de Nasonia sont menacées en paysage intensif puisque la dégradation du paysage associée à l’intensification des pratiques agricoles agit directement sur leurs populations et indirectement sur les populations de leurs hôtes. Mon troisième objectif était de caractériser les mécanismes comportementaux permettant aux guêpes de composer avec la variabilité de la structure du paysage et de la qualité des hôtes. Nos résultats révèlent que les femelles Nasonia ajustent la taille de leur ponte en fonction de la taille de la pupe hôte et de l’incidence d’hyperparasitisme. Le seul facteur ayant une influence déterminante sur le ratio sexuel est la proportion de paysage dédié à l’agriculture intensive. Aucune relation n’a été observée entre la structure du paysage et la taille des filles et des fils produits par les femelles Nasonia fondatrices. Ce phénomène est attribué aux comportements d’ajustement de la taille de la ponte et du ratio sexuel. En ajustant ces derniers, minimisant ainsi la compétition entre les membres de leur progéniture, les femelles fondatrices sont capables de maximiser la relation entre la disponibilité des ressources et la valeur sélective de leur progéniture. En conclusion, ce travail souligne l’importance de considérer le contexte spatial des interactions trophiques, puisqu’elles influencent la biodiversité locale et le fonctionnement de l’écosystème.
Resumo:
La politique québécoise de l’adaptation scolaire confirme que le plan d’intervention (PI) constitue l’outil privilégié pour répondre aux besoins des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. Toutefois, la recension des écrits nous informe que le plan d’intervention est encore loin d’être efficace. Le Ministère de l’Éducation, des Loisirs et des Sports du Québec (MELS, 2004) ainsi que l’Office of Special Education and Rehabilitative Services des U.S. department of Education (dans Eichler, 1999) ont bien identifié et présenté explicitement cinq à six fonctions du PI mais, aucun des deux organismes ne définit ce qu’est une fonction, à quoi elle sert, son importance relative et ce qu’elle implique. De plus, on retrouve, explicitement ou implicitement, soit dans le cadre de référence pour l’établissement des PI (MELS, 2004), soit dans la revue de la littérature, soit dans les milieux de pratique plusieurs autres fonctions que le PI remplit ou devrait remplir. Ce flou entourant le concept de fonction entraîne un manque de rigueur dans la conception des PI, car « lorsque la totalité des fonctions a été identifiée, elle permet le développement d’un produit répondant à l’usage attendu » (Langevin et coll., 1998). Il y a d’emblée une somme de fonctions qu’un PI remplit déjà et d’autres sûrement à remplir. Or, cela n’a pas été élucidé, précisé et validé. Le but de la présente recherche a été de définir les rôles du PI au regard des besoins de ses différents utilisateurs. Les objectifs spécifiques ont été les suivants, 1) Identifier les différents utilisateurs d’un PI, 2) Identifier les besoins des différents utilisateurs d’un PI, 3) Identifier les fonctions qu’un PI doit remplir afin de satisfaire les besoins de ses utilisateurs, 4) Créer un cahier des charges fonctionnel pour la conception et l’évaluation d’un PI, 5) Identifier certains coûts reliés à la conception d’un PI. Afin d’atteindre les objectifs précités, nous avons eu recours à la méthode de l’analyse de la valeur pédagogique (AVP) (Langevin, Rocque et Riopel, 2008). La méthode d’AVP comportait une analyse des besoins des différents utilisateurs potentiels, une analyse de la recension des écrits, une analyse des encadrements légaux, une analyse de produits types et une analyse écosystémique. En conclusion, nous avons identifié les différents utilisateurs potentiels d’un PI, identifié les différents besoins de ces utilisateurs, identifié les fonctions qu’un PI doit remplir pour satisfaire leurs besoins, crée un cahier des charges fonctionnel (CdCF) pour la conception et l’évaluation des PI et identifié certains coûts liés à la conception d’un PI. Le CdCF pourra servir à concevoir des PI et à évaluer leur efficience. Une partie du CdCF pourra aussi remplir un rôle prescriptif pour la conception d’outil de soutien à l’élaboration du PI. Enfin, le CdCF pourra servir à la formation et à la recherche en éducation.