371 resultados para Noyau de viabilité
A comparative study of the resilience of coal logistics chains in Australia, South Africa and Canada
Resumo:
Au cours des dernières années l'industrie du charbon a connu un essor important. L'importance du charbon dans l'économie mondiale provient d'une demande mondiale soutenue et de niveaux de production en hausse constante. De ce fait, le nombre élevé d'importateurs et d'exportateurs est à l'origine d'un système d'échange complexe où la compétition est féroce. En effet, un nombre grandissant de pays importateurs se partagent les sources d'approvisionnement tandis qu'un nombre limité de pays exportateurs s'efforcent de répondre à la demande tout en essayant de s'accaparer le plus de parts du marché mondial. L'objectif de cette recherche s'inscrit dans ce contexte en démontrant les bénéfices associés aux chaînes logistiques résilientes pour tout acteur de l'industrie soucieux de devancer la compétition. Une analyse de la logistique de l'industrie du charbon permet entre autres de se pencher sur les questions suivantes: Comment les infrastructures influencent-elles la résilience d'une chaîne logistique? Quels risques est-ce que les catastrophes naturelles présentent pour une chaîne logistique? Comment la gouvernance influence-t-elle la résilience d'une chaîne logistique? Une chaîne logistique représente le trajet effectué par un bien ou produit au cours de son cycle de vie, du point d'origine au point de consommation. Ceci étant dit, le meilleur moyen de régler les problèmes inhérents aux chaînes logistiques est de maintenir de hauts niveaux de résilience. Cette recherche évaluera donc la résilience de chaînes logistiques du charbon des industries australienne, sud-africaine et canadienne. Pour ce faire, trois variables seront étudiées: les infrastructures, les catastrophes naturelles et la gouvernance. La comparaison des trois cas à l'étude se fera par un nombre défini d'indicateurs (12 au total) pour chacune des variables étudiées. Les résultats de cette recherche démontrent que la résilience des trois cas à l'étude se ressemble. Cependant, certaines chaînes logistiques détiennent des avantages comparatifs qui améliorent grandement leur résilience et leur compétitivité. Plusieurs sujets de recherche pourraient être utilisés pour compléter cette recherche. L'analyse comparative pourrait être appliquée à d'autres chaînes logistiques pour vérifier la viabilité des résultats. Une analyse semblable pourrait également être entreprise pour le secteur en aval de la chaîne logistique. Finalement, une méthodologie basée sur des interviews pourrait ajouter un regard différent sur les questions abordées.
Resumo:
La chromatine est plus qu’un système d’empaquetage de l’ADN ; elle est le support de toutes les réactions liées à l’ADN dans le noyau des cellules eucaryotes et participe au contrôle de l’accès de l’ARN polymérase II (ARNPolII) à l’ADN. Responsable de la transcription de tous les ARNm des cellules eucaryotes, l’ARNPolII doit, suivant son recrutement aux promoteurs des gènes, transcrire l’ADN en traversant la matrice chromatinienne. Grâce au domaine C-terminal (CTD) de sa sous-unité Rpb1, elle coordonne la maturation de l’ARNm en cours de synthèse ainsi que les modifications de la chromatine, concomitantes à la transcription. Cette thèse s’intéresse à deux aspects de la transcription : la matrice, avec la localisation de la variante d’histone H2A.Z, et la machinerie de transcription avec le cycle de phosphorylation du CTD de l’ARNPolII. Suivant l’introduction, le chapitre 2 de cette thèse constitue un protocole détaillé et annoté de la technique de ChIP-chip, chez la levure Saccharomyces cerevisiae. Cette technique phare dans l’étude in vivo des phénomènes liés à l’ADN a grandement facilité l’étude du rôle de la chromatine dans les phénomènes nucléaires, en permettant de localiser sur le génome les marques et les variantes d’histones. Ce chapitre souligne l’importance de contrôles adéquats, spécifiques à l’étude de la chromatine. Au chapitre 3, grâce à la méthode de ChIP-chip, la variante d’histone H2A.Z est cartographiée au génome de la levure Saccharomyces cerevisiae avec une résolution d’environ 300 paires de bases. Nos résultats montrent que H2A.Z orne un à deux nucléosomes au promoteur de la majorité des gènes. L’enrichissement de H2A.Z est anticorrélé à la transcription et nos résultats suggèrent qu’elle prépare la chromatine pour l’activation des gènes. De plus H2A.Z semble réguler la localisation des nucléosomes. Le chapitre suivant s’intéresse à la transcription sous l’angle de la machinerie de transcription en se focalisant sur le cycle de phosphorylation de l’ARN polymérase II. Le domaine C-terminal de sa plus large sous-unité est formé de répétitions d’un heptapeptide YSPTSPS dont les résidus peuvent être modifiés au cours de la transcription. Cette étude localise les marques de phosphorylation des trois résidus sérine de manière systématique dans des souches mutantes des kinases et phosphatases. Nos travaux confirment le profil universel des marques de phosphorylations aux gènes transcrits. Appuyés par des essais in vitro, ils révèlent l’interaction complexe des enzymes impliqués dans la phosphorylation, et identifient Ssu72 comme la phosphatase de la sérine 7. Cet article appuie également la notion de « variantes » des marques de phosphorylation bien que leur étude spécifique s’avère encore difficile. La discussion fait le point sur les travaux qui ont suivi ces articles, et sur les expériences excitantes en cours dans notre laboratoire.
Resumo:
Phénomène à haute prévalence dans le monde entier, les infections acquises au cours de la prestation de soins de santé constituent une menace importante pour la santé publique. Il s’agit d’une réalité inéluctable du système de santé qui touche de nombreuses victimes en les affectant de dommages variés. Fruit d’une interaction complexe entre divers facteurs, ces infections représentent un lourd fardeau pour les victimes comme pour la société, tant au plan physique, mental et financier. Bien que les infections nosocomiales semblent être au cœur des préoccupations des autorités sanitaires québécoises, l’indemnisation des victimes demeure problématique. Actuellement, l’indemnisation se fait via le régime traditionnel de responsabilité civile mais nombreux sont les obstacles auxquels font face les patients désirant obtenir compensation. Les règles classiques s’avèrent difficiles d’application dans un contexte où la source de l’infection est souvent inconnue et les facteurs ayant pu contribuer à son développement sont multiples. Face à cette problématique et à l’insatisfaction ressentie, certaines juridictions étrangères ont reconnu le caractère inadapté du régime traditionnel et ont implanté un régime d’indemnisation sans égard à la faute dans l’espoir d’améliorer le sort des victimes. Le Québec a opté pour la même solution dans divers domaines, tels que les accidents automobiles et la vaccination. Ce mémoire propose une étude approfondie de l’opportunité d’adopter, en droit québécois, un régime d’indemnisation sans égard à la faute bénéficiant aux victimes d’infections nosocomiales. L’objectif de ce projet est de faire une esquisse des caractéristiques assurant l’efficacité et la viabilité d’un tel régime.
Resumo:
Réalisé en cotutelle avec le laboratoire M2S de Rennes 2
Resumo:
Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.
Resumo:
Les cellules T mémoires (Tm) protègent l’organisme contre les réinfections de pathogènes qu’il a déjà combattu. Les Tm possèdent plusieurs propriétés en commun avec les cellules souches hématopoïétiques (CSH), notamment la capacité de se différencier, de s’auto-renouveler et de maintenir une population relativement constante au sein de l’organisme via des mécanismes homéostatiques. Il a été démontré que Hoxb4, un membre de la famille des facteurs de transcription Hox, était capable d’induire l’expansion des CSH in vivo et in vitro de façon rapide. Au vu de ces parallèles, nous avons posé l’hypothèse que la surexpression de Hoxb4 pourrait induire l’expansion de populations de Tm. Nous avons analysé les populations de Tm et lymphocytes T naïfs (Tn) dans les organes lymphoïdes de souris transgéniques surexprimant Hoxb4 et les avons comparées à des souris de type sauvage (wt). Alors que la fréquence des cellules T matures Hoxb4 diminuait avec l’âge, leur phénotype ainsi que leur viabilité demeuraient inchangés. Ensuite, nous avons procédé à des transplantations en compétition de Tm (CD4+CD44hi) Hoxb4 et wt chez des hôtes dépourvus de lymphocytes T (CD3-/-) dans le but d’évaluer leur contribution à la reconstitution du compartiment T après 2 mois. Au final, les Tm wt avait contribué un peu plus que les Tm Hoxb4 à la reconstitution (~60%). Des analyses fonctionnelles et phénotypiques ont montré que les Tm Hoxb4 possédaient une fonctionnalité normale, mais se distinguaient des Tm wt par la présence d’une faible population qui présentait un phénotype « mémoire central » (Tcm), conférant habituellement une longévité accrue. Les cellules des ganglions lymphatiques totaux des hôtes furent transplantées de façon sérielle chez trois générations de nouveaux hôtes. Le phénotype Tcm observés chez les Tm Hoxb4 était récapitulé chez les hôtes secondaires uniquement. Les ratios sont demeurés en faveur des Tm wt lors des deux transplantations suivantes, mais les Tm Hoxb4 ont commencé à montrer un avantage compétitif chez certains hôtes quaternaires. Une transplantation en compétition à court terme de Tm Hoxb4 et wt marqués avec un marqueur cytoplasmique ont démontré la présence chez les Tm Hoxb4 seulement d’une faible population CD62Lhi proliférant lentement. Ainsi, l’expansion préférentielle de Tcm CD4 par le biais d’une sélection ou d’une différenciation induite par la surexpression de Hoxb4 pourrait potentiellement leur permettre de maintenir un état de quiescence leur permettant de persister plus longtemps suite à des transplantations sérielles.
Resumo:
Ce mémoire porte sur la présentation des estimateurs de Bernstein qui sont des alternatives récentes aux différents estimateurs classiques de fonctions de répartition et de densité. Plus précisément, nous étudions leurs différentes propriétés et les comparons à celles de la fonction de répartition empirique et à celles de l'estimateur par la méthode du noyau. Nous déterminons une expression asymptotique des deux premiers moments de l'estimateur de Bernstein pour la fonction de répartition. Comme pour les estimateurs classiques, nous montrons que cet estimateur vérifie la propriété de Chung-Smirnov sous certaines conditions. Nous montrons ensuite que l'estimateur de Bernstein est meilleur que la fonction de répartition empirique en terme d'erreur quadratique moyenne. En s'intéressant au comportement asymptotique des estimateurs de Bernstein, pour un choix convenable du degré du polynôme, nous montrons que ces estimateurs sont asymptotiquement normaux. Des études numériques sur quelques distributions classiques nous permettent de confirmer que les estimateurs de Bernstein peuvent être préférables aux estimateurs classiques.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Cette thèse vise à définir une nouvelle méthode d’enseignement pour les systèmes tutoriels intelligents dans le but d’améliorer l’acquisition des connaissances. L’apprentissage est un phénomène complexe faisant intervenir des mécanismes émotionnels et cognitifs de nature consciente et inconsciente. Nous nous intéressons à mieux comprendre les mécanismes inconscients du raisonnement lors de l’acquisition des connaissances. L’importance de ces processus inconscients pour le raisonnement est bien documentée en neurosciences, mais demeure encore largement inexplorée dans notre domaine de recherche. Dans cette thèse, nous proposons la mise en place d’une nouvelle approche pédagogique dans le domaine de l’éducation implémentant une taxonomie neuroscientifique de la perception humaine. Nous montrons que cette nouvelle approche agit sur le raisonnement et, à tour de rôle, améliore l’apprentissage général et l’induction de la connaissance dans un environnement de résolution de problème. Dans une première partie, nous présentons l’implémentation de notre nouvelle méthode dans un système tutoriel visant à améliorer le raisonnement pour un meilleur apprentissage. De plus, compte tenu de l’importance des mécanismes émotionnels dans l’apprentissage, nous avons également procédé dans cette partie à la mesure des émotions par des capteurs physiologiques. L’efficacité de notre méthode pour l’apprentissage et son impact positif observé sur les émotions a été validée sur trente et un participants. Dans une seconde partie, nous allons plus loin dans notre recherche en adaptant notre méthode visant à améliorer le raisonnement pour une meilleure induction de la connaissance. L’induction est un type de raisonnement qui permet de construire des règles générales à partir d’exemples spécifiques ou de faits particuliers. Afin de mieux comprendre l’impact de notre méthode sur les processus cognitifs impliqués dans ce type de raisonnement, nous avons eu recours à des capteurs cérébraux pour mesurer l’activité du cerveau des utilisateurs. La validation de notre approche réalisée sur quarante-trois volontaires montre l’efficacité de notre méthode pour l’induction de la connaissance et la viabilité de mesurer le raisonnement par des mesures cérébrales suite à l’application appropriée d’algorithmes de traitement de signal. Suite à ces deux parties, nous clorons la thèse par une discussion applicative en décrivant la mise en place d’un nouveau système tutoriel intelligent intégrant les résultats de nos travaux.
Resumo:
Les cellules endothéliales progénitrices («Endothelial Progenitor Cells», EPCs) sont des précurseurs endothéliaux qui possèdent un potentiel considérable dans la réparation et la régénération vasculaire. Dans le contexte des maladies cardiovasculaires, la compréhension du rôle des EPCs dans la régulation de la thrombogenèse et la réparation endothéliale est pertinente et nécessaire pour comprendre leur potentiel thérapeutique. Nous avons rapporté que les EPCs interagissent avec les plaquettes via la P-sélectine et inhibent l’adhésion, l’activation et l’agrégation des plaquettes ainsi que la formation de thrombus. Plus récemment, nous avons démontré que les EPCs expriment le récepteur inflammatoire CD40 et il est bien connu que les plaquettes constituent la source principale de la forme soluble de son agoniste le CD40L («soluble CD40 Ligand», sCD40L). Ainsi, nous avons émis l’hypothèse principale que l’axe CD40L/CD40 dans les EPCs influence leurs fonctions anti-thrombotique et pro-angiogénique. Pour vérifier cette hypothèse, nous avons réussi à générer des «early» et «late» EPCs à partir de cellules mononucléaires du sang périphérique («Peripheral Blood Mononuclear Cells», PBMCs) en culture. Nous avons mis en évidence l’existence de l’axe CD40L/CD40 dans ces EPCs en démontrant l’expression des protéines adaptatrices, nommées les facteurs associés au récepteur du facteur de nécrose tumorale («TNF Receptor Associated Factors», TRAFs). Dans une première étude, nous avons investigué l’effet du sCD40L sur la fonction des «early» EPCs dans l’agrégation plaquettaire. En effet, nous avons démontré que le sCD40L renverse leur effet inhibiteur sur l’agrégation plaquettaire, et ce sans avoir un effet significatif sur la sécrétion de prostacycline (PGI2) et d’oxyde nitrique («Nitric Oxide», NO) par ces cellules. De plus, aucun effet du sCD40L n’a été noté sur l’apoptose et la viabilité de ces cellules. Par contre, nous avons noté une augmentation importante du stress oxydatif dans les «early» EPCs suite à leur stimulation avec le sCD40L. L’inhibition du stress oxydatif renverse l’effet du sCD40L sur les «early» EPCs dans l’agrégation plaquettaire. Ces résultats pourraient expliquer, en partie, la fonction réduite des EPCs chez les individus présentant des niveaux élevés de sCD40L en circulation. Dans une deuxième étude, nous avons étudié l’effet de sCD40L dans la fonction des «early» EPCs en relation avec l’angiogenèse. Nous avons identifié, dans un premier temps,les métalloprotéinases de la matrice («Matrix Metalloproteinases», MMPs) qui sont sécrétées par ces cellules. Nous avons trouvé que les «early» EPCs relâchent principalement la MMP-9 et que cette relâche est augmentée par le sCD40L. Le sCD40L induit aussi la phosphorylation de la p38 MAPK qui contribue à augmenter la sécrétion de MMP-9. Des études fonctionnelles ont démontré que le prétraitement des «early» EPCs au sCD40L potentialise la réparation endothéliale des HUVECs. En conclusion, l’ensemble de nos travaux, dans le cadre de ce projet de doctorat, nous a permis d’élucider les mécanismes responsables de l’action du sCD40L sur les effets inhibiteur et angiogénique des «early» EPCs dans l’agrégation plaquettaire et l’angiogenèse, respectivement. Ces résultats ajoutent de nouvelles connaissances sur le rôle des EPCs et pourront constituer la base pour des études futures permettant de corréler les niveaux élevés du sCD40L circulant et l’incidence des maladies cardiovasculaires, particulièrement l’athérothrombose.
Resumo:
Notre étude a pour objet la conception, la synthèse ainsi que l’étude structurale d’architectures supramoléculaires obtenues par auto-assemblage, en se basant sur les concepts de la tectonique moléculaire. Cette branche de la chimie supramoléculaire s’occupe de la conception et la synthèse de molécules organiques appelées tectons, du grec tectos qui signifie constructeur. Le tecton est souvent constitué de sites de reconnaissance branchés sur un squelette bien choisi. Les sites de reconnaissance orientés par la géométrie du squelette peuvent participer dans des interactions intermoléculaires qui sont suffisamment fortes et directionnelles pour guider la topologie du cristal résultant. La stratégie envisagée utilise des processus d'auto-assemblage engageant des interactions réversibles entre les tectons. L’auto-assemblage dirigé par de fortes interactions intermoléculaires directionnelles est largement utilisé pour fabriquer des matériaux dont les composants doivent être positionnés en trois dimensions (3D) d'une manière prévisible. Cette stratégie peut également être utilisée pour contrôler l’association moléculaire en deux dimensions (2D), ce qui permet la construction de monocouches organisées et prédéterminées sur différents types des surfaces, tels que le graphite.Notre travail a mis l’accent sur le comportement de la fonction amide comme fonction de reconnaissance qui est un analogue du groupement carboxyle déjà utilisé dans plusieurs études précédentes. Nous avons étudié le comportement d’une série de composés contenant un noyau plat conçu pour faciliter l'adsorption sur le graphite et modifiés par l'ajout de groupes amide pour favoriser la formation de liaisons hydrogène entre les molécules ainsi adsorbées. La capacité de ces composés à former de monocouches organisées à l’échelle moléculaire en 2D a été examinée par microscopie à effet tunnel, etleur organisation en 3D a également été étudiée par cristallographie aux rayons X. Dans notre étude, nous avons systématiquement modifié la géométrie moléculaire et d'autres paramètres afin d'examiner leurs effets sur l'organisation moléculaire. Nos résultats suggèrent que les analyses structurales combinées en 2D et 3D constituent un important atout dans l'effort pour comprendre les interactions entre les molécules adsorbées et l’effet de l’interaction avec la surface du substrat.
Resumo:
Dans certaines circonstances, des actions de groupes sont plus performantes que des actions individuelles. Dans ces situations, il est préférable de former des coalitions. Ces coalitions peuvent être disjointes ou imbriquées. La littérature économique met un fort accent sur la modélisation des accords où les coalitions d’agents économiques sont des ensembles disjoints. Cependant on observe dans la vie de tous les jours que les coalitions politiques, environnementales, de libre-échange et d’assurance informelles sont la plupart du temps imbriquées. Aussi, devient-il impératif de comprendre le fonctionnement économique des coalitions imbriquées. Ma thèse développe un cadre d’analyse qui permet de comprendre la formation et la performance des coalitions même si elles sont imbriquées. Dans le premier chapitre je développe un jeu de négociation qui permet la formation de coalitions imbriquées. Je montre que ce jeu admet un équilibre et je développe un algorithme pour calculer les allocations d’équilibre pour les jeux symétriques. Je montre que toute structure de réseau peut se décomposer de manière unique en une structure de coalitions imbriquées. Sous certaines conditions, je montre que cette structure correspond à une structure d’équilibre d’un jeu sous-jacent. Dans le deuxième chapitre j’introduis une nouvelle notion de noyau dans le cas où les coalitions imbriquées sont permises. Je montre que cette notion de noyau est une généralisation naturelle de la notion de noyau de structure de coalitions. Je vais plus loin en introduisant des agents plus raffinés. J’obtiens alors le noyau de structure de coalitions imbriquées que je montre être un affinement de la première notion. Dans la suite de la thèse, j’applique les théories développées dans les deux premiers chapitres à des cas concrets. Le troisième chapitre est une application de la relation biunivoque établie dans le premier chapitre entre la formation des coalitions et la formation de réseaux. Je propose une modélisation réaliste et effective des assurances informelles. J’introduis ainsi dans la littérature économique sur les assurances informelles, quatre innovations majeures : une fusion entre l’approche par les groupes et l’approche par les réseaux sociaux, la possibilité d’avoir des organisations imbriquées d’assurance informelle, un schéma de punition endogène et enfin les externalités. Je caractérise les accords d’assurances informelles stables et j’isole les conditions qui poussent les agents à dévier. Il est admis dans la littérature que seuls les individus ayant un revenu élevé peuvent se permettre de violer les accords d’assurances informelles. Je donne ici les conditions dans lesquelles cette hypothèse tient. Cependant, je montre aussi qu’il est possible de violer cette hypothèse sous d’autres conditions réalistes. Finalement je dérive des résultats de statiques comparées sous deux normes de partage différents. Dans le quatrième et dernier chapitre, je propose un modèle d’assurance informelle où les groupes homogènes sont construits sur la base de relations de confiance préexistantes. Ces groupes sont imbriqués et représentent des ensembles de partage de risque. Cette approche est plus générale que les approches traditionnelles de groupe ou de réseau. Je caractérise les accords stables sans faire d’hypothèses sur le taux d’escompte. J’identifie les caractéristiques des réseaux stables qui correspondent aux taux d’escomptes les plus faibles. Bien que l’objectif des assurances informelles soit de lisser la consommation, je montre que des effets externes liés notamment à la valorisation des liens interpersonnels renforcent la stabilité. Je développe un algorithme à pas finis qui égalise la consommation pour tous les individus liés. Le fait que le nombre de pas soit fini (contrairement aux algorithmes à pas infinis existants) fait que mon algorithme peut inspirer de manière réaliste des politiques économiques. Enfin, je donne des résultats de statique comparée pour certaines valeurs exogènes du modèle.
Resumo:
Objectif : L’objectif général de cette étude est de comprendre en quoi l’utilisation des services de santé et de disponibilité des ressources en santé au Québec sont équitables. Méthodes : De type transversal et corrélationnel, cette étude intéresse les 95 territoires CSSS du Québec, et couvre les années 2006-2007 et 2008-2009. L’indice de défavorisation matérielle et sociale de Pampalon est mis en lien avec deux séries de variables, soit celles d’utilisation des services par CSSS (services hospitaliers; services médicaux; services CLSC) et celles de disponibilité des ressources (capacité financière; capacité matérielle, capacité humaine; viabilité). Pour ce faire, des analyses de variance ont été effectuées. Le modèle intégrateur de la performance des services de santé EGIPSS et celui de l’utilisation des services de santé de Donabedian servent de cadre d’analyse. Résultats : L’utilisation des services de santé est équitable en ce qui concerne la défavorisation matérielle, mais pas en ce qui a trait à la défavorisation sociale. L’utilisation des services médicaux dispensés par les omnipraticiens est plus élevée chez les populations les plus favorisées socialement comparativement aux populations les plus défavorisées. Toutefois, l’utilisation des médecins spécialistes est plus équitable que celle des omnipraticiens, cela, chez les populations défavorisées autant matériellement que socialement. Les hospitalisations évitables sont plus élevées chez les populations les défavorisées socialement comparativement aux populations les plus favorisées. En termes de disponibilité des ressources, les populations défavorisées disposent de plus de ressources que les plus favorisées, sauf en ce qui concerne la répartition du personnel. Conclusion : En général, il existe très peu d’iniquités dans l’utilisation des services de santé au Québec. Par ailleurs, la disponibilité des ressources en santé est relativement équitable au Québec, exception faite de la disponibilité du personnel.
Resumo:
Le mode vie autotrophique des plantes repose entièrement sur l’intégrité du chloroplaste et notamment l’étape de la biogénèse. La transcription des gènes chloroplastiques, assurée par une PEP (ARN polymérase encodée par le chloroplaste) et deux NEPs (ARN polymérase encodée par le noyau), est l’une des étapes primordiales dans le développement d’un chloroplaste photosynthétique. On distingue trois classes de gènes chloroplastiques : les gènes de classe I, transcrit par la PEP exclusivement; les gènes de classe II, transcrits par la PEP ou les NEPs; et les gènes de classe III, transcrits exclusivement par les NEPs. Pour assurer sa fonction, la PEP doit être associée à des facteurs sigmas. L’un de ceux-ci, la protéine SIG6, est un facteur sigma général et, associé à la PEP, assure la transcription de l’ensemble des gènes de classe I et II lors du développement du chloroplaste photosynthétique. Ainsi, le mutant sig6 présente un phénotype de cotylédons pâles, associé à un retard de biogénèse chloroplastique, ainsi qu’une diminution de la transcription des gènes de classe I, provoquant la diminution de la quantité de protéines de classe I. Dans le laboratoire, nous étudions les deux protéines WHIRLY chloroplastiques (WHY1 et WHY3) pour leur rôle dans le maintien de la stabilité génomique chloroplastique. Toutefois, peu de choses sont encore connues sur leur rôle potentiel dans la transcription ou la biogénèse chloroplastique. Par exemple, lorsque l’on tente de purifier la PEP, on obtient un gros complexe transcriptionnel nommé PTAC (Plastid Transcriptionally Active Chromosome) dans lequel sont retrouvées les deux protéines WHIRLY, suggérant qu’elles pourraient être impliquées dans la transcription chloroplastique. De plus, un possible rôle dans la biogénèse chloroplastique leur a été prêté, notamment chez le maïs. Dans cette étude, nous avons donc cherché à vérifier l’implication des protéines WHIRLY dans la biogénèse chloroplastique par une approche génétique de croisements entre les mutants sig6 et why1why3. Pour cela, nous avons isolé des doubles mutants sig6why1 et sig6why3, ainsi qu’un triple mutant sig6why1why3. À l’aide d’une caractérisation phénotypique et de la quantification de quelques protéines chloroplastiques, nous avons remarqué que la perte d’un des WHIRLY permet de complémenter le phénotype de cotylédons pâles du mutant sig6 et favorise l’expression normale de protéines en principe sous-exprimées dans le mutant sig6. Toutefois, la perte des deux WHIRLY ne permet pas de compenser le phénotype de cotylédons pâles et provoque l’apparition d’un phénotype persistant associé à une expression anormale des protéines chloroplastiques. Ces résultats ne peuvent être expliqués par le rôle des WHIRLY dans le maintien de la stabilité génomique chloroplastique étant donné que le triple mutant sig6why1why3 présente moins de réarrangements que le double mutant why1why3. Finalement, nous montrons que les effets de la perte d’un WHIRLY sur le mutant sig6 peuvent être mimés par l’utilisation de la rifampicine, une drogue inhibant l’ARN polymérase chloroplastique de type bactérienne (PEP). Ensemble, ces résultats démontrent donc l’implication des protéines WHIRLY chloroplastiques dans la biogénèse chloroplastique en association avec la protéine SIG6. Nous proposons un modèle selon lequel les deux protéines WHIRLY permettraient de favoriser l’activité de l’ARN polymérase de type bactérienne, notamment lors du développement du chloroplaste photosynthétique. En cas d’absence d’une des deux protéines, cette diminution partielle d’activité de la PEP favoriserait la mise en place d’un mécanisme de complémentation par le NEPs, permettant finalement de rétablir la biogénèse chloroplastique dans un mutant sig6. En l’absence des deux WHIRLY, le mécanisme de complémentation par les NEPs serait incapable de compenser la forte inhibition de la PEP, se traduisant par une aggravation du retard de développement du chloroplaste dans le mutant sig6.
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).