937 resultados para Recycled tires
Resumo:
Les processus Markoviens continus en temps sont largement utilisés pour tenter d’expliquer l’évolution des séquences protéiques et nucléotidiques le long des phylogénies. Des modèles probabilistes reposant sur de telles hypothèses sont conçus pour satisfaire la non-homogénéité spatiale des contraintes fonctionnelles et environnementales agissant sur celles-ci. Récemment, des modèles Markov-modulés ont été introduits pour décrire les changements temporels dans les taux d’évolution site-spécifiques (hétérotachie). Des études ont d’autre part démontré que non seulement la force mais également la nature de la contrainte sélective agissant sur un site peut varier à travers le temps. Ici nous proposons de prendre en charge cette réalité évolutive avec un modèle Markov-modulé pour les protéines sous lequel les sites sont autorisés à modifier leurs préférences en acides aminés au cours du temps. L’estimation a posteriori des différents paramètres modulants du noyau stochastique avec les méthodes de Monte Carlo est un défi de taille que nous avons su relever partiellement grâce à la programmation parallèle. Des réglages computationnels sont par ailleurs envisagés pour accélérer la convergence vers l’optimum global de ce paysage multidimensionnel relativement complexe. Qualitativement, notre modèle semble être capable de saisir des signaux d’hétérogénéité temporelle à partir d’un jeu de données dont l’histoire évolutive est reconnue pour être riche en changements de régimes substitutionnels. Des tests de performance suggèrent de plus qu’il serait mieux ajusté aux données qu’un modèle équivalent homogène en temps. Néanmoins, les histoires substitutionnelles tirées de la distribution postérieure sont bruitées et restent difficilement interprétables du point de vue biologique.
Resumo:
Le 1,1'-bi-2-naphtol ou Binol, présentant une chiralité axiale, est un ligand très utilisé en catalyse asymétrique. Au cours des vingt dernières années, le Binol a servi de synthon à l’élaboration de très nombreux ligands permettant la catalyse asymétrique de tous types de réactions, allant de l’hydrogénation, à l’alkylation, en passant par diverses réactions péricycliques. Le grand intérêt pour ce ligand vient de sa versatilité et des nombreuses possibilités de fonctionnalisation qu’il offre, permettant d’altérer ses propriétés catalytiques à volonté, aussi bien en modifiant son caractère électronique, qu’en introduisant des facteurs stériques autour du site catalytique. Parallèlement aux développements de la catalyse par des dérivés de Binol, le domaine des liquides ioniques a connu un intérêt croissant ces dernières années. Les liquides ioniques, sels dont le point de fusion est inférieur à 100°C, cumulent de nombreuses qualités convoitées : faible pression de vapeur, stabilité thermique et chimique et fort pouvoir de solvatation. Dû à ces propriétés, les liquides ioniques ont principalement été étudiés dans l’optique de développer une gamme de solvants recyclables. Alors que les propriétés des liquides ioniques sont facilement modulables en fonction de l’anion et du cation choisi, le concept de liquide ionique à tâche spécifique va plus loin et propose d’introduire directement, sur le cation ou l’anion, un groupement conférant une propriété particulière. En suivant cette approche, plusieurs ligands ioniques ont été rapportés, par simple couplage d’un cation organique à un ligand déjà connu. Étonnamment, le Binol a fait l’objet de très peu de travaux pour l’élaboration de ligands ioniques. Dans cette thèse, nous proposons l’étude d’une famille de composés de type Binol-imidazolium dont les unités Binol et imidazolium sont séparées par un espaceur méthylène. Différents homologues ont été synthétisés en variant le nombre d’unités imidazolium et leur position sur le noyau Binol, la longueur de la chaîne alkyle portée par les unités imidazolium et la nature du contre-anion. Après une étude des propriétés thermiques de ces composés, l’utilisation des Binol-imidazoliums en tant que ligands dans une réaction asymétrique d’éthylation d’aldéhydes aromatique a été étudiée en milieu liquide ionique. La réaction a été conduite en solvant liquide ionique dans le but de recycler aussi bien le ligand Binol-imidazolium que le solvant, en fin de réaction. Cette étude nous a permis de démontrer que la sélectivité de ces ligands ioniques dépend grandement de leur structure. En effet, seuls les Binols fonctionnalisés en positions 6 et 6’ permettent une sélectivité de la réaction d’éthylation. Alors que les dérivés de Binol fonctionnalisés en positions 3 et 3’ ne permettent pas une catalyse énantiosélective, il a déjà été rapporté que ces composés avaient la capacité de complexer des anions. D’autre part, il a déjà été rapporté par notre groupe, que les composés comportant des unités imidazolium pouvaient permettre le transport d’anions à travers des bicouches lipidiques en fonction de leur amphiphilie. Ceci nous a amenés à la deuxième partie de cette thèse qui porte sur les propriétés ionophores des Binols fonctionnalisés en positions 3 et 3’ par des unités imidazoliums. Dans un premier temps, nous nous sommes intéressés à l’étude de la relation structure-activité et au mécanisme de transport de ces composés. Le transport d’anions étant un processus clé dans la biologie cellulaire, l’activité biologique des composés présentant une activité ionophore dans des systèmes modèles (liposomes) a été étudiée par la suite. L’activité antibactérienne des nos composés a été testée sur quatre souches de bactéries. Il s’est avéré que les composés Binol-imidazolium sont actifs uniquement sur les bactéries Gram positives. Finalement, la cytotoxicité des composés présentant une activité antibactérienne a été étudiée sur des cellules humaines.
Resumo:
Dans le cadre de la Western Climate Iniative, le Québec a déployé en 2012, un système de plafonnement et d’échange de droits d’émission de gaz à effet de serre (SPEDE). Il s’agit de l’un des premiers régimes de ce type en Amérique du Nord et celui-ci pourrait à terme, constituer l'un des maillons d’un marché commun du carbone à l’échelle du continent. Toutefois, le SPEDE appartient à une catégorie d’instruments économiques de protection de l’environnement encore peu connue des juristes. Il s’inscrit en effet dans la régulation économique de l’environnement et repose sur des notions tirées de la théorie économique, dont la rareté, la propriété et le marché. La thèse s’insère donc dans le dialogue entre juristes et économistes autour de la conception et de la mise en œuvre de ce type d’instrument. Afin d’explorer son architecture et de révéler les enjeux juridiques qui le traversent, nous avons eu recours à la méthode de l’analyse économique du droit. Celle-ci permet notamment de montrer les dynamiques d'incitation et d’efficacité qui sont à l'œuvre dans les règles qui encadrent le SPEDE. Elle permet également à donner un aperçu du rôle décisif joué par la formulation des règles de droit dans l’opérationnalisation des hypothèses économiques sous-jacentes à cette catégorie d’instrument. L’exploration est menée par l’entremise d’une modélisation progressive de l’échange de droits d’émission qui prend en compte les coûts de transaction. Le modèle proposé dans la thèse met ainsi en lumière, de manière générale, les points de friction qui sont susceptibles de survenir aux différentes étapes de l'échange de droits d'émission et qui peuvent faire obstacle à son efficacité économique. L’application du modèle aux règles du SPEDE a permis de contribuer à l’avancement des connaissances en donnant aux juristes un outil permettant de donner une cohérence et une intelligibilité à l’analyse des règles de l’échange. Elle a ainsi fourni une nomenclature des règles encadrant l’échange de droits d’émission. Cette nomenclature fait ressortir les stratégies de diversification de l’échange, d’institutionnalisation de ses modalités ainsi que les enjeux de la surveillance des marchés, dont celui des instruments dérivés adossés aux droits d’émission, dans un contexte de fragmentation des autorités de tutelle.
Resumo:
Traditionnellement, le construit de la phobie sociale a été défini selon une vision intrapersonnelle, en tant que trouble de l’anxiété. Une autre conception se propose de la définir d’un point de vue interpersonnel, comme un pattern global d’autoprotection. L’objectif principal de cette thèse est de tester des hypothèses tirées du modèle interpersonnel de la phobie sociale. Deux études, présentées sous forme d’articles, ont permis d’examiner si des patterns spécifiques d’autoprotection, tels que l’impuissance et la soumission, caractérisent le mode de fonctionnement des phobiques sociaux. Les études ont également évalué si l’autoprotection et l’anxiété sont interreliées. Pour la première étude, les patterns interpersonnels de 132 phobiques sociaux, évalués à l’aide d’une mesure dérivée du Circumplex interpersonnel, ont été comparés à ceux de 85 individus célibataires ayant une dysfonction sexuelle et 105 sujets normaux. La relation entre les patterns d’autoprotection, l’anxiété sociale, la détresse générale et le fonctionnement social a également été examinée chez les phobiques sociaux. La seconde étude a permis d’examiner l’évolution des patterns d’autoprotection ainsi que de l’anxiété sociale, de la détresse générale et du fonctionnement social, chez 85 phobiques sociaux à quatre moments : avant et après un traitement d’approche interpersonnelle, ainsi qu’aux relances de six mois et d’un an. L’étude a également comparé les participants en rémission et ceux satisfaisant les critères de la phobie sociale un an suivant la fin du traitement. Les résultats suggèrent que les patterns d’impuissance et de soumission sont caractéristiques de la phobie sociale. Plus précisément, ces patterns décrivent davantage les comportements des phobiques sociaux plutôt que ceux des groupes de comparaison. De plus, une réduction significative de l’autoprotection a été notée au post-traitement et maintenue jusqu’au suivi d’un an, surtout chez les participants en rémission.En outre, une relation entre l’autoprotection, l’anxiété sociale et la détresse générale a été mise en évidence chez les phobiques sociaux. Une amélioration de l’anxiété, de la détresse subjective et du fonctionnement social cohérente avec la dissolution des patterns d’autoprotection a également été obtenue au post-traitement. En conclusion, les résultats des deux études appuient une conception interpersonnelle de la phobie sociale.
Resumo:
Ce mémoire présente une analyse comparative des paramètres atmosphériques obtenus à l’aide des techniques photométrique et spectroscopique. Pour y parvenir, les données photométriques et spectroscopiques de 1375 naines blanches de type DA tirées du Sloan Digital Sky Survey (SDSS) ainsi que les données spectroscopiques du Villanova White Dwarf Catalog ont été utilisées. Il a d’abord fallu s’assurer que les données photométriques et spectroscopiques étaient bien calibrées. L’analyse photométrique a démontré que la photométrie ugriz ne semblait pas avoir de problème de calibration autre que le décalage des points zéro, qui est compensé en appliquant les corrections photométriques appropriées. De plus, le fait que le filtre u laisse passer le flux à certaines longueurs d’onde dans le rouge ne semble pas affecter la détermination des paramètres atmosphériques. L’analyse spectroscopique a ensuite confirmé que l’application de fonctions de correction permettant de tenir compte des effets hydrodynamiques 3D est la solution au problème de log g élevés. La comparaison des informations tirées des données spectroscopiques des deux différentes sources suggère que la calibration des spectres du SDSS n’est toujours pas au point. Les paramètres atmosphériques déterminés à l’aide des deux techniques ont ensuite été comparés et les températures photométriques sont systématiquement plus faibles que celles obtenues à partir des données spectroscopiques. Cet effet systématique pourrait être causé par les profils de raies utilisés dans les modèles d’atmosphère. Une méthode permettant d’obtenir une estimation de la gravité de surface d’une naine blanche à partir de sa photométrie a aussi été développée.
Resumo:
Les « dispositions successorales spéciales » de la lex situs apportent une exception particulière au système unitaire de la loi applicable à la succession. Leur reconnaissance dans le récent Règlement du Parlement européen et du Conseil relatif à la compétence, la loi applicable, la reconnaissance et l'exécution des décisions, et l'acceptation et l'exécution des actes authentiques en matière de successions et à la création d'un certificat successoral européen du 4 juillet 2012 témoigne de l’importance et de l’actualité de cette prévision normative. L’exception trouve sa source dans l’article 15 de la Convention du 1er août 1989 sur la loi applicable aux successions à cause de mort, formule qui fut suivi par l’article 3099 al. 2 du Code civil du Québec. La conception originaire de la règle se situe à l’article 28 de la Loi d’introduction au Code civil allemand de 1896. Ces législations reconnaissent la nécessité de respecter certaines dérogations aux règles successorales ordinaires dont le contenu matériel justifie une rupture exceptionnelle de l’unité de la succession internationale. Ainsi, l’opposition traditionnelle entre le système scissionniste qui divise la loi applicable à la succession en fonction de la nature mobilière ou immobilière des biens et celui qui postule l’unité législative trouve dans le respect des « dispositions spéciales » de la lex rei sitae régissant certains biens de la succession un facteur conciliateur. Il s’agit de respecter un minimum normatif de la loi de l’État où sont situés certains biens de la succession malgré la compétence générale d’une lex successionis étrangère. Ce bloc normatif irréductible se présente comme un pont qui relie les deux solutions extrêmes dans une position intermédiaire où il n’y a plus de scission au sens classique du terme mais où l’unité est néanmoins brisée en raison de certaines considérations substantielles tirées de la destination des biens.
Resumo:
Cette recherche, traitera de la perception qu’ont les infirmières, œuvrant en milieu pédiatrique, de leur apport dans le processus de consentement aux soins et des enjeux éthique qui en découlent. L’analyse de leurs commentaires, fait voir une extension de la définition, plus classique, du concept même de consentement, pour y inclure la dimension d’un processus enclenché et poursuivi dans le dialogue et la né-gociation; un consentement sans cesse à répéter, à renégocier. Les participantes ne parlaient guère d’autonomie mais parlent surtout de ce consen-tement aux actes de soins, actes individuels, voire routiniers. Le but recherché par l’infirmière est moins une permission donnée par le patient pour que le soignant fasse son travail en toute immunité sur le plan légal, qu’une collaboration pour permettre une cogestion de la maladie. Très souvent, les infirmières discutent de l’importance qu’a pour elles le travail d’équipe, comme la façon logique de concevoir leur travail. Il devient logique aussi d’étendre aux parents et à l’enfant la participation à l’équipe thérapeutique. Ce n’est pas dire que tout se passe sans heurt. L’enfant peut s’opposer, ou le parent. Les conflits de valeurs surgissent: conflits et détresse morale suscités chez l’infirmière par la confrontation à des croyances et des valeurs culturelles et reli-gieuses différentes de celles auxquelles l’infirmière adhèrerait plus facilement. Mais souvent, l’infirmière fait montre d’une grande sensibilité culturelle et religieuse; et il lui arrive de faire appel à des collègues qui pourraient, plus qu’elle, connaître les sys-tèmes de valeurs qui posent question. Nous nous sommes servi d’un ensemble de référents interprétatifs initiaux à titre d’un cadre conceptuel intégrant des notions tirées du modèle de soins infirmiers de Corbin et Strauss, ainsi que de la perspective proposée par l’interactionnisme symbo-lique.
Resumo:
Ce mémoire propose une analyse du roman historique La Carthagénoise (Germán Espinosa, 1982). Ce roman porte sur l’échange des idées entre l’Amérique coloniale et l’Europe éclairée. L’invasion française au port caraïbe de Carthagène d’Indes en 1697 est l’événement historique qui déclenche sa trame. Cette œuvre littéraire effectue un parcours à travers deux espaces et périodes historiques – l’Amérique sous domination espagnole et l’Europe des Lumières – dans lesquels s’entrecroisent des personnages réels et fictionnels. L’analyse que propose le présent travail aborde en premier lieu les antécédents du roman historique en Amérique latine. Dans une deuxième partie, il se penche sur les stratégies narratives utilisées dans le roman d’Espinosa et sur l’impact éventuel de ces procédés sur la facette critique de l’œuvre. L’hypothèse centrale de ce travail est que la fiction historique contribue à une vision critique de l’histoire officielle et qu’elle propose une réflexion sur les causes de la stagnation épistémologique en Amérique latine ainsi que des processus historiques inachevés tels que la libération épistémologique et la consolidation des épistémologies émergentes suggérées par la théorie postcoloniale et la pensée décoloniale. Le roman montre également la naissance, la mise en œuvre et l’échec de ce projet de libération épistémologique mené par un personnage féminin. Ce projet vise à finir avec la marginalisation du savoir latino-américain plutôt qu’à sa décolonisation. Parmi les conclusions tirées par ce mémoire, il y a l’idée qu’en raison de la causalité historique de l’Amérique latine, telle que montrée par le roman, le moment n’est pas encore venu de l’avènement d’une libération culturelle qui permette la consolidation des épistémologies émergentes, dans la ligne de ce que suggèrent les études postcoloniales et la décolonialité. Une autre conclusion importante à mentionner est que l’évolution des idées est un processus historique dans lequel les courants idéologiques ne sont pas absolus et sont assujettis aux conjonctures sociales qui déterminent leur existence et permanence.
Resumo:
Ce mémoire est une recherche théorique qui tire son origine du constat selon lequel il est difficile d’analyser la réalisation du projet professionnel des candidats à l’enseignement. Tel est le cas en raison des particularités contextuelles et des pluralités théoriques relatives aux notions de formation et d’insertion. À partir de ce constat, ce mémoire propose un cadre d’analyse permettant de comprendre comment les jeunes enseignants du Québec appréhendent le « rapport entre » leur formation et leur insertion face aux différentes contraintes (i.e. rigidité du système institutionnel de la formation, marché de l’insertion fluctuant et saturé, etc.) et aux ressources disponibles (i.e. programme d’études, cours, etc.) pour réaliser leur projet professionnel. Il repose sur l’hypothèse selon laquelle, pour réaliser leur projet professionnel, les candidats à l’enseignement mobilisent des stratégies afin de négocier les contraintes et ressources de leurs contextes respectifs. Dans cette optique, la démarche de cette recherche théorique s’inscrit dans une perspective interactionniste, telle qu’elle est véhiculée par la tradition de Chicago (Chapoulie, 2001). Quelques postulats sont mobilisés pour baliser les différentes étapes d’élaboration du cadre d’analyse. Le premier postulat considère que le « point de vue » de l’acteur est prépondérant pour comprendre ses conduites (Morrissette, Guignon & Demaziére, 2011). Cela amène à articuler les ancrages théoriques nécessaires à l’élaboration du cadre d’analyse en croisant une sociologie interactionniste avec une sociologie de l’action. Plus particulièrement, les concepts de « définition de la situation » de Thomas (1923) et de la « représentation de soi » de Goffman (1969) sont mis à profit. Les notions de coopération, d’incertitude et de rationalité, tirées du modèle de l’acteur stratégique de Crozier et Friedberg (1981), viennent compléter les assises de la modélisation d’une trame de négociation (Strauss & Baszanger, 1992). Le deuxième postulat considère que les contextes, sont prépondérants pour expliquer les conduites humaines (Abbott, 1999). Ces contextes, dits «éloignés» et «rapprochés» de l’acteur, constituent le « contexte d’action » (Strauss & Baszanger, 1992). Ce faisant, ils influent sur les stratégies mobilisées par l’acteur candidat à l’enseignement. Le troisième postulat considère que le monde social est animé par des processus (re)créés au travers des interactions entre acteurs (Morrissette & Guignon, 2014). Il amène à envisager la formation et l’insertion comme des processus sujets à des redéfinitions continues. Cela conduit à repenser la réalisation du projet professionnel des candidats à l’enseignement sous l’angle du « rapport entre ». Ces trois postulats structurent le cadre d’analyse qui se présente comme une « trame de négociation ». Il est développé pour éventuellement éclairer les stratégies de négociation mobilisées en contexte par les candidats québécois à l’enseignement pour réaliser leur projet professionnel.
Resumo:
Les neurones cholinergiques et adrénergiques efférents du système nerveux cardiaque intrinsèque (SNCI) sont impliqués dans la régulation de la fonction cardiaque chronotrope. La galanine, peptide présent et libéré dans les terminaisons nerveuses cardiaques, est capable de diminuer la libération de l’acétylcholine. Notre hypothèse est d’étudier la possibilité que la galanine puisse agir comme un peptide neuromodulateur inhibiteur dans les neurones du SNCI chez le rat. Les oreillettes et les tissus associés du SNCI sont isolés à partir de rats Sprague-Dawley et perfusés en vitro. Les valeurs de la fréquence auriculaire mesurées d’un battement à l’autre sont tirées à partir d’un enregistrement bipolaire auriculaire. La perfusion de la nicotine en forme de bolus (avec des concentrations dans le bain de 20-250 µm) a induit des réponses biphasiques composées d’une réponse chronotrope négative au début suivie d’une réponse chronotrope positive. Au cours de la superfusion de la galanine (170 nM), les réponses chronotropes positives à la nicotine sont réduites chez 12/14 préparations (contrôle : 21,35 ± 17,4 à galanine : 5,46 ± 8,0 bpm, n = 14, p = 0,02), tandis que les réponses chronotropes négatives sont réduites chez 8 /14 préparations et affichent une tendance générale vers la réduction (contrôle : -16,09 ± 14,7, galanine : -12,53 ± 13,2 bpm). On peut conclure que la galanine agit comme un peptide neuromodulateur inhibiteur dans les SNCI chez le rat, en modifiant de préférence la stimulation nicotinique de neurones adrénergiques.
Resumo:
Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.
Resumo:
Les logiciels sont de plus en plus complexes et leur développement est souvent fait par des équipes dispersées et changeantes. Par ailleurs, de nos jours, la majorité des logiciels sont recyclés au lieu d’être développés à partir de zéro. La tâche de compréhension, inhérente aux tâches de maintenance, consiste à analyser plusieurs dimensions du logiciel en parallèle. La dimension temps intervient à deux niveaux dans le logiciel : il change durant son évolution et durant son exécution. Ces changements prennent un sens particulier quand ils sont analysés avec d’autres dimensions du logiciel. L’analyse de données multidimensionnelles est un problème difficile à résoudre. Cependant, certaines méthodes permettent de contourner cette difficulté. Ainsi, les approches semi-automatiques, comme la visualisation du logiciel, permettent à l’usager d’intervenir durant l’analyse pour explorer et guider la recherche d’informations. Dans une première étape de la thèse, nous appliquons des techniques de visualisation pour mieux comprendre la dynamique des logiciels pendant l’évolution et l’exécution. Les changements dans le temps sont représentés par des heat maps. Ainsi, nous utilisons la même représentation graphique pour visualiser les changements pendant l’évolution et ceux pendant l’exécution. Une autre catégorie d’approches, qui permettent de comprendre certains aspects dynamiques du logiciel, concerne l’utilisation d’heuristiques. Dans une seconde étape de la thèse, nous nous intéressons à l’identification des phases pendant l’évolution ou pendant l’exécution en utilisant la même approche. Dans ce contexte, la prémisse est qu’il existe une cohérence inhérente dans les évènements, qui permet d’isoler des sous-ensembles comme des phases. Cette hypothèse de cohérence est ensuite définie spécifiquement pour les évènements de changements de code (évolution) ou de changements d’état (exécution). L’objectif de la thèse est d’étudier l’unification de ces deux dimensions du temps que sont l’évolution et l’exécution. Ceci s’inscrit dans notre volonté de rapprocher les deux domaines de recherche qui s’intéressent à une même catégorie de problèmes, mais selon deux perspectives différentes.
Resumo:
Internet évolue avec la société et les nouvelles technologies, mais ses usages restent centrés sur le principe communicationnel de partager ses idées, ses histoires avec d’autres personnes. Comprendre les modes de communication des internautes offre des défis de taille aux chercheurs. Malgré une riche littérature sur les usages d’Internet, peu d’études se sont penchées sur l’analyse en profondeur des habitudes des internautes ordinaires. Cette thèse a pour objet d’étude le partage de contenus en ligne, car il s’agit d’une pratique permettant de réfléchir sur le rapport des usagers à la technologie. En m’inspirant des travaux d’Henri Lefebvre et de Michel de Certeau, je mobilise le concept de la vie quotidienne, concept qui met en lumière les processus à travers laquelle les gens font sens de leur vie. Afin de mieux saisir le quotidien, lequel est mobile, fluide et multiple, des métaphores spatiales tirées d’études des sciences, technologies et société (STS) seront mobilisées. Les concepts d’espace fluide et de feu sont idéaux pour étudier les pratiques de partage de vidéo que l’on peut qualifier de mutables et adaptables. Dans cette thèse, l’accent est mis sur les expériences subjectives des internautes ; ainsi, j’ai adopté une méthodologie qualitative pour recueillir les témoignages d’une dizaine de participants décrivant longuement leurs pratiques. En effet, j’ai rencontré chaque personne à plusieurs reprises et nous avons discuté d’exemples spécifiques. À travers les thèmes récurrents qui ont émergé des verbatims, et dans la tradition de la théorisation ancrée, la première partie de l’analyse fournit une riche description du quotidien des participants. J’explore en particulier la façon dont les internautes adaptent leur partage sur leurs expériences des sites de réseaux sociaux, comment la vidéo est utilisée dans le maintien de leurs relations sociales, et comment le partage des vidéos complémente leurs conversations. Sachant que les pratiques en ligne et hors ligne se fondent l’une dans l’autre, la deuxième partie de l’analyse articule la complexité de la vie quotidienne et la fluidité des pratiques de partage à l’aide du concept de l’objet fluide pour traiter des aspects complexes, dynamiques et souples des pratiques des internautes ordinaires. Cette recherche qualitative fournit un portrait de l’expérience humaine qui est autant détaillé que possible. Elle permet de souligner que c’est dans une variété contextes non remarquables – car faisant partie intégrante de la vie quotidienne – que les Internautes naviguent et que les activités humaines sont sans cesse construites et transformées, ouvrant des possibilités vers de nouvelles façons de faire et de penser. La thèse poursuit un dialogue interdisciplinaire entre la communication (les Internet Studies notamment) et les études des sciences, technologies et société (STS), tout en apportant de nombreuses données empiriques sur les pratiques des internautes « ordinaires ». De plus, la thèse offre des métaphores capables d’ouvrir de nouvelles perspectives pour l’analyse des usages du Web social. Elle apporte également une contribution originale en intégrant des approches théoriques des pratiques quotidiennes avec la théorisation ancrée. Tant les fondements conceptuels et des approches méthodologiques développées ici seront des exemples très utiles pour d’autres chercheurs intéressés à poursuivre la compréhension des pratiques quotidiennes impliquant l’Internet, surtout quand ces derniers impliquent le visuel, l’émotif et le relationnel.
Resumo:
Le tri et le transport efficace des hydrolases acides vers le lysosome jouent un rôle critique pour la fonction des cellules. Plus de 50 maladies humaines sont dues à des mutations des enzymes lysosomales, des protéines régulant des processus-clés du transport vers le lysosome ou des enzymes effectuant des modifications posttraductionnelles importantes pour la fonction du lysosome. L’objectif de cette thèse est d’identifier des protéines et des mécanismes permettant à la cellule de réguler le transport des enzymes vers le lysosome. Nous avons formulé l’hypothèse que des protéines mutées dans des maladies lysosomales et dont les fonctions étaient inconnues pouvaient jouer un rôle dans le transport vers le lysosome. Les céroïdes-lipofuscinoses neuronales forment une famille de maladies lysosomales rares mais sont aussi les maladies neurodégénératives infantiles les plus fréquentes. Plusieurs gènes impliqués dans les NCL encodent des protéines aux fonctions inconnues. Les travaux présentés dans cette thèse ont identifié la protéine « ceroid lipofuscinosis neuronal-5 » (CLN5) qui est localisée à l’endosome et au lysosome comme élément nécessaire au recrutement et à l’activation de rab7. Rab7 est une protéine Rab-clé qui contrôle le trafic à l’endosome tardif. Cette petite GTPase est impliquée dans le recrutement de retromer, un complexe protéique qui régule le trafic de l’endosome vers l’appareil de Golgi des récepteurs de tri lysosomal comme sortilin et le récepteur du mannose-6-phosphate. Dans les cellules où CLN5 est déplété, les récepteurs de tri lysosomal sont moins recyclés plus rapidement dégradés. En utilisant des expériences de photomarquage nous avons aussi pu démontrer que Rab7 est moins activées en l’absence de CLN5. Pour exécuter leur fonction les protéines rabs doivent être recrutée à la membrane et activées par l’échange d’une molécule de GDP pour une molécule de GTP. Le recrutement des Rabs à la membrane nécessite une modification posttraductionnelle lipidique pour être facilités. En utilisant un modèle de levures nous avons démontré que l’homologue de Rab7, Ypt7 est palmitoylée. Nous avons aussi démontré que la palmitoyltransférase Swif1 est nécessaire au recrutement de Ypt7 à la membrane. Nous avons aussi remarqué que les sous- unités de retromer chez la levure sont moins recrutées lorsque les palmitoyltransférases sont déplétées. Dans les cellules de mammifères nous avons démontré que Rab7 est également palmitoylé et que cette palmitoylation est possiblement effectuée par les palmitoyltransférases DHHC1 et DHHC8. La palmitoylation de Rab7 a lieu sur les cystéines en C-terminal qui sont nécessaires au recrutement membranaire et qui auparavant étaient uniquement décrites comme prénylées. En utilisant la méthode de « click chemistry » nous avons découvert que lorsque la prénylation de Rab7 est bloquée le niveau de palmitoylation augmente. Pour caractériser l’interaction entre CLN5 et Rab7 nous avons performé des expériences afin d’établir définitivement la topologie de cette protéine. Nous avons ainsi démontré que CLN5 est une protéine hautement glycosylée qui est initialement traduite en protéine transmembranaire et subséquemment clivée par un membre de la famille des peptidase de peptide signal (SPP). Cette protéine soluble peut alors possiblement interagir avec CLN3 qui est aussi palmitoylée pour recruter et activer Rab7. Nos études suggèrent pour la première fois que CLN5 pourrait être un recruteur et un activateur de Rab7 qui agirait avec la protéine CLN3 pour séquestrer Rab7 avec les autres récepteurs palmitoylés et permettre leur recyclage vers l’appareil de Golgi.
Resumo:
L'objectif de ce mémoire est de démontrer certaines propriétés géométriques des fonctions propres de l'oscillateur harmonique quantique. Nous étudierons les domaines nodaux, c'est-à-dire les composantes connexes du complément de l'ensemble nodal. Supposons que les valeurs propres ont été ordonnées en ordre croissant. Selon un théorème fondamental dû à Courant, une fonction propre associée à la $n$-ième valeur propre ne peut avoir plus de $n$ domaines nodaux. Ce résultat a été prouvé initialement pour le laplacien de Dirichlet sur un domaine borné mais il est aussi vrai pour l'oscillateur harmonique quantique isotrope. Le théorème a été amélioré par Pleijel en 1956 pour le laplacien de Dirichlet. En effet, on peut donner un résultat asymptotique plus fort pour le nombre de domaines nodaux lorsque les valeurs propres tendent vers l'infini. Dans ce mémoire, nous prouvons un résultat du même type pour l'oscillateur harmonique quantique isotrope. Pour ce faire, nous utiliserons une combinaison d'outils classiques de la géométrie spectrale (dont certains ont été utilisés dans la preuve originale de Pleijel) et de plusieurs nouvelles idées, notamment l'application de certaines techniques tirées de la géométrie algébrique et l'étude des domaines nodaux non-bornés.