796 resultados para EXTRACARDIAC CONDUIT
Resumo:
L’importance que revêt la localisation des entreprises dans le fonctionnement et la compétitivité de celles-ci amène à porter l’attention sur la problématique des clusters et l’influence qu’ils peuvent avoir sur la production de connaissances. À travers une perspective théorique qui repose sur la prise en compte des travaux portant sur les districts industriels et ceux plus récents, sur les clusters, nous mettons en évidence une évolution conceptuelle du phénomène de la localisation des entreprises. La place qu’occupe la production de connaissances constitue désormais un élément central des travaux récents qui portent sur les districts et les clusters industriels. Notre examen des dynamiques de fonctionnement de ces systèmes permet d’affirmer que la production de connaissances est une caractéristique centrale des clusters ainsi que leur principal avantage compétitif. Étroitement liée aux réseaux inter-organisationnels, la production de connaissances n’est pas un phénomène naturel, elle découle des mécanismes intrinsèques aux clusters, qu’on cherche à mettre en évidence. Pour ce faire, notre méthodologie qui emprunte les principaux repères de l’analyse stratégique des organisations conduit à l’étude du fonctionnement concret d’un réseau local d’innovation, constitué d’entreprises et d’institutions locales présentes dans le cluster montréalais de l’aérospatiale. Un réseau constitué par l’intermédiaire du Consortium de Recherche et d’Innovation en Aérospatiale du Québec, une institution centrale dans le fonctionnement de ce cluster.
Resumo:
La rapamycine est un immunosuppresseur utilisé pour traiter plusieurs types de maladies dont le cancer du rein. Son fonctionnement par l’inhibition de la voie de Tor mène à des changements dans des processus physiologiques, incluant le cycle cellulaire. Chez Saccharomyces cerevisiae, la rapamycine conduit à une altération rapide et globale de l’expression génique, déclenchant un remodelage de la chromatine. Nous proposons que les modifications des histones peuvent jouer un rôle crucial dans le remodelage de la chromatine en réponse à la rapamycine. Notre objectif principal est d’identifier d’une banque de mutants d’histone les variantes qui vont échouer à répondre à la rapamycine dans une tentative de réaliser une caractérisation des modifications d’histone critiques pour la réponse à cette drogue. Ainsi, nous avons réalisé un criblage d’une banque de mutants d’histone et identifié plusieurs mutants d‘histone dont la résistance à la rapamycine a été altérée. Nous avons caractérisé une de ces variantes d’histone, à savoir H2B, qui porte une substitution de l’alanine en arginine en position 95 (H2B-R95A) et démontré que ce mutant est extrêmement résistant à la rapamycine, et non à d’autres drogues. Des immunoprécipitations ont démontré que H2B-R95A est défectueux pour former un complexe avec Spt16, un facteur essentiel pour la dissociation de H2A et H2B de la chromatine, permetant la réplication et la transcription par les ADN et ARN polymérases, respectivement. Des expériences de ChIP-Chip et de micropuce ont démontré que l’arginine 95 de H2B est requise pour recruter Spt16 afin de permettre l’expression d’une multitude de gènes, dont certains font partie de la voie des phéromones. Des évidences seront présentées pour la première fois démontrant que la rapamycine peut activer la voie des phéromones et qu’une défectuosité dans cette voie cause la résistante à cette drogue.
Resumo:
Ce mémoire est une recherche théorique qui tire son origine du constat selon lequel il est difficile d’analyser la réalisation du projet professionnel des candidats à l’enseignement. Tel est le cas en raison des particularités contextuelles et des pluralités théoriques relatives aux notions de formation et d’insertion. À partir de ce constat, ce mémoire propose un cadre d’analyse permettant de comprendre comment les jeunes enseignants du Québec appréhendent le « rapport entre » leur formation et leur insertion face aux différentes contraintes (i.e. rigidité du système institutionnel de la formation, marché de l’insertion fluctuant et saturé, etc.) et aux ressources disponibles (i.e. programme d’études, cours, etc.) pour réaliser leur projet professionnel. Il repose sur l’hypothèse selon laquelle, pour réaliser leur projet professionnel, les candidats à l’enseignement mobilisent des stratégies afin de négocier les contraintes et ressources de leurs contextes respectifs. Dans cette optique, la démarche de cette recherche théorique s’inscrit dans une perspective interactionniste, telle qu’elle est véhiculée par la tradition de Chicago (Chapoulie, 2001). Quelques postulats sont mobilisés pour baliser les différentes étapes d’élaboration du cadre d’analyse. Le premier postulat considère que le « point de vue » de l’acteur est prépondérant pour comprendre ses conduites (Morrissette, Guignon & Demaziére, 2011). Cela amène à articuler les ancrages théoriques nécessaires à l’élaboration du cadre d’analyse en croisant une sociologie interactionniste avec une sociologie de l’action. Plus particulièrement, les concepts de « définition de la situation » de Thomas (1923) et de la « représentation de soi » de Goffman (1969) sont mis à profit. Les notions de coopération, d’incertitude et de rationalité, tirées du modèle de l’acteur stratégique de Crozier et Friedberg (1981), viennent compléter les assises de la modélisation d’une trame de négociation (Strauss & Baszanger, 1992). Le deuxième postulat considère que les contextes, sont prépondérants pour expliquer les conduites humaines (Abbott, 1999). Ces contextes, dits «éloignés» et «rapprochés» de l’acteur, constituent le « contexte d’action » (Strauss & Baszanger, 1992). Ce faisant, ils influent sur les stratégies mobilisées par l’acteur candidat à l’enseignement. Le troisième postulat considère que le monde social est animé par des processus (re)créés au travers des interactions entre acteurs (Morrissette & Guignon, 2014). Il amène à envisager la formation et l’insertion comme des processus sujets à des redéfinitions continues. Cela conduit à repenser la réalisation du projet professionnel des candidats à l’enseignement sous l’angle du « rapport entre ». Ces trois postulats structurent le cadre d’analyse qui se présente comme une « trame de négociation ». Il est développé pour éventuellement éclairer les stratégies de négociation mobilisées en contexte par les candidats québécois à l’enseignement pour réaliser leur projet professionnel.
Resumo:
Dans le domaine de l’éducation, comme dans d’autres domaines d’intervention auprès des humains, les organismes d’agrément exigent de plus en plus que les pratiques professionnelles s’appuient sur des résultats de recherches qui les valident (des données probantes). Cela conduit certains chercheurs à privilégier des travaux qui suivent une démarche hypothético-déductive avec des dispositifs standardisés et des données étalonnées (quantitatives). D’autres, pour mieux comprendre ce qui se passe, privilégient l’induction analytique recourant à des dispositifs plus souples qui s’adaptent aux variations du terrain et produisent des données qui ne seront étalonnées qu’a posteriori (qualitatives). Enfin, un troisième groupe de chercheur utilise aussi des dispositifs adaptatifs, mais traite leur matériel de manière plus gestaltiste par typicalisation produisant des récits de dynamique professionnelle. Or, aucune de ces trois orientations de recherche ne parvient, comme le remarquait déjà Huberman en en 1982, à combler l’écart entre les recherches et le discours des enseignants-chercheurs d’une part, et leur participation effective à la formation de professionnels de l’intervention dont les pratiques devraient être fondées sur des données probantes. Des facteurs historiques peuvent excuser cette situation dans des départements et formations professionnelles jadis dispensées dans des grandes écoles non universitaires. Cependant, on constate que les pratiques de recherche restent largement inspirées par une image idéalisée de la recherche fondamentale ou expérimentale ou philosophique avec des visées épistémiques. Or, il y a d’autres domaines de savoir, celui de la technique, de la sagesse pratique et de l’art. Corrélativement, on peut dire qu’il y a d’autres métiers de chercheurs que celui qui consiste à développer des connaissances causales ou interprétatives alors que c’est à partir de cette seule sensibilité théorique que la notion de pôle paradigmatique a été développée et que les questions auxquelles les recherches qualitatives devaient répondre ont été établies . Aussi les questions et les réponses aux quatre pôles épistémologiques (ontologique, sémantique, instrumental et rhétorique) auront d’autres exigences de forme et de contenu pour les chercheurs engagés dans des perspectives technologiques, pratiques ou artistiques. L’hypothèse proposée pour tenter de comprendre le hiatus entre les recherches universitaires et l’attitude des praticiens porte sur le glissement opéré par trop de chercheurs entre une formulation de problèmes arrimés aux sensibilités technologiques, pratiques ou artistiques et leur reproblématisation dans la perspective d’une sensibilité théorique. Il en découle que ces recherches privilégient des dispositifs conçus pour vérifier ou découvrir des hypothèses discursives (la sémantique de l’intelligibilité de l’action, selon Barbier ), plutôt que des dispositifs semblables aux conditions de la pratique professionnelle et qui respectent ses contraintes. Or, les professionnels attendent des résultats de la recherche que ceux-ci prennent en compte les contraintes de leurs activités et que leurs conclusions soient formulées dans des formes de présentation qui leur sont appropriées : une sémantique et une rhétorique de l’action intelligente, selon la formule d’Evans qui définit la praxis comme une action pensée et finalisée autant qu’une finalité pensée et agie. Quatre cas de professeurs-chercheurs et d’étudiants illustrent cette tension et les glissements méthodologiques vers l’épistémique au détriment des sensibilités professionnelles et les difficultés qui en découlent, surtout pour les étudiants. Or, il y a moyen de résoudre autrement cette tension, à condition de changer de posture. C’est la piste que nous suggérons avec une méthodologie qui respecte les contraintes de l’activité professionnelle, qui exploite les formulations et les dispositifs propres aux praticiens, et qui utilise les confrontations entre l’activité et les praticiens eux-mêmes comme démarche de la co-construction d’une présentation explicitant l’intelligence de l’action.
Resumo:
Enfermer le porteur de l’information génétique dans le noyau a obligée la cellule a créé un système de transport complexe, qui permet l’export d’un ARNm du noyau au cytoplasme. Le mécanisme général de l’export des ARNm est encore mal connu, même si les facteurs principaux ont été découverts il y a longtemps. De récents progrès en microscopie nous ont permis d’étudier directement le comportement des ARNm durant le processus d’export. Durant ma maitrise, nous avons été capables de localiser et suivre des ARNm en temps réel pour la première fois chez Saccharomyces cerevisiae. Nous avons créé un gène rapporteur en mettant le gène GLT1 sous le contrôle du promoteur GAL1. Nous avons aussi marqué l’ARNm de GLT1 avec plusieurs boucles PP7. L’ARNm sera visible après l’attachement de plusieurs protéines PP7-GFP aux boucles. En utilisant la technique d’imagerie en cellules vivantes, nous sommes capable de visualiser et suivre chaque ARNm, depuis son relâchement du site de transcription jusqu’à l’export. Une fois relâché du site de transcription, l’ARNm diffuse librement dans le nucléoplasme, mais une fois à la périphérie nucléaire, il commence à « scanner » l’enveloppe nucléaire avant d’être exporté. Nous avons trouvé que le « scanning » dépend de la présence des Myosin Like Proteins (Mlp1p et Mlp2p), protéines qui forment le panier nucléaire, car suite à la délétion de MLP1 et MLP2, les ARNm n’étaient plus capable de « scanner ». Nous avons également trouvé que la partie C-terminale de Mlp1p était nécessaire au « scanning ». De plus, suite à la délétion du gène TOM1, gène codant pour une ubiquitine ligase, les ARNm ont un comportement similaire aux ARNm d’une souche ∆mlp1/mlp2, suggérant que le « scanning » permet à Tom1p d’ubiquitiner Yra1p, ce qui causera son relâchement de l’ARNm. Également, nous avons montré que les ARNm endogènes MDN1 et CBL2 scannent aussi la périphérie nucléaire. Ensemble, nos résultats suggèrent que le scanning est un processus par lequel passent tout les ARNm nucléaire lorsqu’ils se retrouvent à la périphérie du noyau, pour initier plusieurs étapes de réarrangements nécessaires à leurs export. De plus, nous avons examiné le rôle de Yhr127p, une protéine nouvellement identifiée qui se lie à l’ARN. Après avoir marqué cette protéine avec la GFP, nous avons montré qu’elle forme des foci dans le noyau et que ces derniers vont disparaitre suite à l’arrêt de la transcription. La délétion de YHR127 à conduit à une augmentation de la transcription de quelques gènes spécifiques, mais n’affecte pas la capacité de la cellule à exporter les ARNm. Nos résultats suggèrent que cette protéine joue un rôle dans la régulation de la transcription et/ou dans la stabilité de l’ARNm.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
La guerre et ses conséquences sont trop importantes pour que la réflexion philosophique ne s’y attarde pas. Pour comprendre ses fondements et ses mécanismes internes, il faut une pensée qui creuse au coeur même des comportements guerriers. C’est ce que Thomas Hobbes et Carl von Clausewitz ont chacun tenté de faire en réfléchissant sur la nature de la guerre. Ce mémoire vise entre autres à rendre compte de leur théorie respective sur la nature de la guerre et de voir les rapprochements possibles. L’analyse du concept d’état de guerre et de ses causes chez Hobbes, de même que la pensée de Clausewitz centrée sur la nature de la guerre, rendent compte d’une même dynamique où la relation de réciprocité qu’entretiennent les belligérants conduit à une montée de la violence. La notion de volonté est centrale chez nos auteurs, car elle explique autant cette montée continue de la violence que sa possible résolution vers la paix. Écartant la sphère de la morale et du droit pour penser le phénomène guerrier, leurs réflexions se veulent froides et sans illusion. En saisissant la dynamique relationnelle (et mimétique) qui conduit à un désir illimité de puissance, nos deux auteurs décortiquent l’essence de la guerre par une pensée fondamentalement orientée vers la paix. Ainsi nous donnent-ils des outils pour éviter le pire.
Resumo:
Les cellules souches ont attiré l’attention du public ces dernières années, grâce non-seulement à leur utilisation comme thérapies visant à s’attaquer à certains types de cancers, mais aussi en relation avec leur potentiel dans le domaine de la médecine regénérative. Il est établi que le destin cellulaire des cellules souches embryonnaires (ESC) est régulé de façon intensive par un groupe de facteur clés agissant sur leur pluripotence. Il est néanmoins envisageable que certains déterminants influençant l’auto-renouvellement et la différenciation de ces cellules soient toujours inconnus. Afin de tester cette hypothèse, nous avons généré, en utilisant une méthode par infections virales, une collection de ESC contenant des délétions chromosomales chevauchantes que nous avons baptisée DelES (Deletion in ES cells). Cette librairie contient plus de 1000 clones indépendants dont les régions délétées couvrent environ 25% du génome murin. À l’aide de cette ressource, nous avons conduit un criblage de formation de corps embryoïdes (EB), démontrant que plusieurs clones délétés avaient un phénotype de différenciation anormal. Nos études de complémentation sur un groupe de clones ont par la suite permis l’identification de Rps14 - un gène codant pour une protéine ribosomale (RP) comme étant haploinsuffisant pour la formation de EB. Dans un deuxième temps, l’analyse approfondie des résultats de notre crible a permis d’identifier un groupe de gènes codants pour des RP qui semblent essentiels pour la différenciation des ESC, mais dispensables pour leur auto-renouvellement. De manière intéressante, les phénotypes anormaux de formation en EB les plus marqués sont associés à des délétions de RP qui se retrouvent au site de sortie des ARN messagers (ARNm) du ribosome, soit Rps5, Rps14 et Rps28. Étonnament, alors qu’un débalancement des RP conduit généralement à une réponse de type p53, l’haploinsuffisance de ces trois gènes ne peut être renversée par une simple réduction des niveaux d’expression de ce gène suppresseur de tumeurs. Finalement, nos études de profilage polysomal et de séquençage à haut-débit montrent une signature spécifique de gènes liés au mésoderme chez un clone hétérozygote pour Rps5, suggérant ainsi une explication au phénotype de différenciation p53-indépendant identifié chez ces ESC. Nos travaux rapportent donc la création d’une ressource intéressante de génomique fonctionnelle qui a permis de mettre à jour le rôle essentiel que jouent les RP dans le processus de formation de EB. Nos résultats permettent aussi de documenter une réponse p53-indépendante suite à un débalancement de RP dans un contexte opposant l’auto-renouvellement et la différenciation des ESC.
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
Travail dirigé présenté à la Faculté des Sciences Infirmières en vue de l’obtention du grade de Maître ès Sciences (M. Sc.) en sciences infirmière option administration des sciences infirmières
Resumo:
Le traumatisme de la moelle épinière est à l’origine d’une inflammation locale importante caractérisée par l’augmentation massive des cellules inflammatoires et la présence de réactions oxydatives. Cette inflammation locale peut déclencher une réponse inflammatoire systémique par voie hématogène. Au niveau cervical, les lésions médullaires peuvent entraîner des faiblesses ou la paralysie des muscles respiratoires. Le patient, qui ne peut plus respirer de façon autonome, doit avoir recours à un support respiratoire. Bien que la ventilation mécanique soit la thérapie traditionnellement appliquée aux blessés médullaires souffrant d’insuffisance respiratoire, les études ont démontré qu’elle pouvait contribuer à promouvoir une réponse inflammatoire ainsi que des dommages pulmonaires. L’interaction entre le traumatisme médullaire et la ventilation mécanique, indispensable au maintien de l’équilibre des échanges respiratoires, est inconnue à ce jour. En voulant protéger les tissus, cellules et organes, l’organisme met en œuvre toute une panoplie de réponses inflammatoires à différents endroits. Nous pensons que ces réponses peuvent être altérées via l’interaction entre ce traumatisme et cette ventilation mécanique, sous l’influence de la principale source cellulaire de cytokines pour la défense de l’hôte, le macrophage, récemment classé en deux phénotypes principaux: 1) l’activation classique de type M1 et 2) l’activation alternative de type M2. Le phénotype M1 est conduit par le facteur GM-CSF et induit par l’interféron IFN-ɣ ainsi que le lipopolysaccharide. Le phénotype M2 quant à lui, est conduit par le facteur M-CSF et induit par les interleukines IL-4, IL-13 ou IL-21. M1 relâche principalement IL-1β, IL-6, TNF-α et MIP-1α tandis que M2 principalement IL-10 et MCP-1. Toutefois, nous ignorons actuellement par quel type d’activation se manifestera cette réponse immunitaire et si l’application de support respiratoire pourrait entraîner un risque inflammatoire additionnel au site du traumatisme. Nous ignorons également si la ventilation mécanique affecterait, à distance, les tissus de la moelle épinière via une inflammation systémique et amplifierait alors le dommage initial. Il n’existe pas à ce jour, de thérapie qui ait montré d’effet bénéfique réel envers une récupération fonctionnelle des patients blessés médullaires. Il paraît donc essentiel de déterminer si la ventilation mécanique peut moduler l’inflammation post-traumatique à la fois au niveau pulmonaire et au site de la lésion. Ce travail visait à caractériser les liens entre l’inflammation issue du traumatisme médullaire et celle issue de la ventilation, dans le but de fournir une meilleure compréhension des mécanismes inflammatoires activés dans ce contexte. L’étude a été menée sur un modèle animal. Elle consistait à évaluer : 1) si le traumatisme médullaire influençait les réponses inflammatoires pulmonaires induites par la ventilation mécanique, y compris le phénotype des macrophages alvéolaires et 2) si la ventilation pouvait altérer à distance, les tissus de la moelle épinière. L’impact de la blessure médullaire sur l’inflammation pulmonaire et locale, induite par la ventilation fut interprété grâce à l’analyse des cellules inflammatoires dans les lavages broncho-alvéolaires et dans les tissus prélevés à l’endroit de la blessure après 24 heures. Ces analyses ont démontré un profil spécifique des cytokines pulmonaires et médullaires. Elles ont révélé que la ventilation mécanique a engendré un environnement pro-inflammatoire en faveur d’un phénotype M1 chez les animaux ayant bénéficié de la thérapie respiratoire. Inversement, l’atteinte thoracique chez les animaux sans ventilation, a montré qu’une réponse immunitaire avait été activée en faveur d’un environnement anti-inflammatoire de phénotype M2. La lésion cervicale quant à elle a induit un profil de cytokines différent et les réponses au stress oxydatif dans le poumon induites par la ventilation ont été réduites significativement. De plus, une lésion médullaire a augmenté l’expression d’IL-6 et la ventilation a diminué l’IL-1β et augmenté le TNF-α dans les tissus de la moelle. Finalement, ces données ont fourni les premières évidences que la ventilation a induit d’avantage à un phénotype pulmonaire M1 et que le traumatisme médullaire a impacté spécifiquement les réponses inflammatoires et oxydatives dans le poumon. La ventilation a contribué non seulement à distance à une inflammation des tissus médullaires lésés mais aussi des tissus sains.
Resumo:
À travers cette thèse, nous revisitons les différentes étapes qui ont conduit à la découverte des isolants topologiques, suite à quoi nous nous penchons sur la question à savoir si une phase topologiquement non-triviale peut coexister avec un état de symétrie brisée. Nous abordons les concepts les plus importants dans la description de ce nouvel état de la matière, et tentons de comprendre les conséquences fascinantes qui en découlent. Il s’agit d’un champ de recherche fortement alimenté par la théorie, ainsi, l’étude du cadre théorique est nécessaire pour atteindre une compréhension profonde du sujet. Le chapitre 1 comprend un retour sur l’effet de Hall quantique, afin de motiver les sections subséquentes. Le chapitre 2 présente la première réalisation d’un isolant topologique à deux dimensions dans un puits quantique de HgTe/CdTe, suite à quoi ces résultats sont généralisés à trois dimensions. Nous verrons ensuite comment incorporer des principes de topologie dans la caractérisation d’un système spécifique, à l’aide d’invariants topologiques. Le chapitre 3 introduit le premier dérivé de l’état isolant topologique, soit l’isolant topologique antiferromagnétique (ITAF). Après avoir motivé théoriquement le sujet et introduit un invariant propre à ce nouvel état ITAF, qui est couplé à l’ordre de Néel, nous explorons, dans les chapitres 4 et 5, deux candidats de choix pour la phase ITAF : GdBiPt et NdBiPt.
Resumo:
Beaucoup d'efforts dans le domaine des matériaux polymères sont déployés pour développer de nouveaux matériaux fonctionnels pour des applications spécifiques, souvent très sophistiquées, en employant des méthodes simplifiées de synthèse et de préparation. Cette thèse porte sur les polymères photosensibles – i.e. des matériaux fonctionnels qui répondent de diverses manières à la lumière – qui sont préparés à l'aide de la chimie supramoléculaire – i.e. une méthode de préparation qui repose sur l'auto-assemblage spontané de motifs moléculaires plus simples via des interactions non covalentes pour former le matériau final désiré. Deux types de matériaux photosensibles ont été ciblés, à savoir les élastomères thermoplastiques à base de copolymères à blocs (TPE) et les complexes d'homopolymères photosensibles. Les TPEs sont des matériaux bien connus, et même commercialisés, qui sont généralement composés d’un copolymère tribloc, avec un bloc central très flexible et des blocs terminaux rigides qui présentent une séparation de phase menant à des domaines durs isolés, composés des blocs terminaux rigides, dans une matrice molle formée du bloc central flexible, et ils ont l'avantage d'être recyclable. Pour la première fois, au meilleur de notre connaissance, nous avons préparé ces matériaux avec des propriétés photosensibles, basé sur la complexation supramoléculaire entre un copolymère tribloc simple parent et une petite molécule possédant une fonctionnalité photosensible via un groupe azobenzène. Plus précisément, il s’agit de la complexation ionique entre la forme quaternisée d'un copolymère à blocs, le poly(méthacrylate de diméthylaminoéthyle)-poly(acrylate de n-butyle)-poly(méthacrylate de diméthylaminoéthyle) (PDM-PnBA-PDM), synthétisé par polymérisation radicalaire par transfert d’atomes (ATRP), et l'orange de méthyle (MO), un composé azo disponible commercialement comportant un groupement SO3 -. Le PnBA possède une température de transition vitreuse en dessous de la température ambiante (-46 °C) et les blocs terminaux de PDM complexés avec le MO ont une température de transition vitreuse élevée (140-180 °C, en fonction de la masse molaire). Des tests simples d'élasticité montrent que les copolymères à blocs complexés avec des fractions massiques allant de 20 à 30% présentent un caractère élastomère. Des mesures d’AFM et de TEM (microscopie à force atomique et électronique à ii transmission) de films préparés à l’aide de la méthode de la tournette, montrent une corrélation entre le caractère élastomère et les morphologies où les blocs rigides forment une phase minoritaire dispersée (domaines sphériques ou cylindriques courts). Une phase dure continue (morphologie inversée) est observée pour une fraction massique en blocs rigides d'environ 37%, ce qui est beaucoup plus faible que celle observée pour les copolymères à blocs neutres, dû aux interactions ioniques. La réversibilité de la photoisomérisation a été démontrée pour ces matériaux, à la fois en solution et sous forme de film. La synthèse du copolymère à blocs PDM-PnBA-PDM a ensuite été optimisée en utilisant la technique d'échange d'halogène en ATRP, ainsi qu’en apportant d'autres modifications à la recette de polymérisation. Des produits monodisperses ont été obtenus à la fois pour la macroamorceur et le copolymère à blocs. À partir d'un seul copolymère à blocs parent, une série de copolymères à blocs partiellement/complètement quaternisés et complexés ont été préparés. Des tests préliminaires de traction sur les copolymères à blocs complexés avec le MO ont montré que leur élasticité est corrélée avec la fraction massique du bloc dur, qui peut être ajustée par le degré de quaternisation et de complexation. Finalement, une série de complexes d'homopolymères auto-assemblés à partir du PDM et de trois dérivés azobenzènes portant des groupes (OH, COOH et SO3) capables d'interactions directionnelles avec le groupement amino du PDM ont été préparés, où les dérivés azo sont associés avec le PDM, respectivement, via des interactions hydrogène, des liaisons ioniques combinées à une liaison hydrogène à travers un transfert de proton (acidebase), et des interactions purement ioniques. L'influence de la teneur en azo et du type de liaison sur la facilité d’inscription des réseaux de diffraction (SRG) a été étudiée. L’efficacité de diffraction des SRGs et la profondeur des réseaux inscrits à partir de films préparés à la méthode de la tournette montrent que la liaison ionique et une teneur élevée en azo conduit à une formation plus efficace des SRGs.
Resumo:
La construction modulaire est une stratégie émergente qui permet la fabrication de matériaux ordonnés à l’échelle atomique. Elle consiste en l’association programmée de sous-unités moléculaires via des sites réactifs judicieusement sélectionnés. L’application de cette stratégie a d’ores et déjà produit des matériaux aux propriétés remarquables, notamment les réseaux organiques covalents, dans lesquels des atomes de carbone et d’autres éléments légers sont liés de manière covalente. Bien que des matériaux assemblés par des interactions non-covalentes puissent être préparés sous la forme de monocristaux macroscopiques de cette façon, ceci n’était pas possible dans le cas des réseaux organiques covalents. Afin de pallier cette lacune, nous avons choisi d’étudier des réactions de polymérisation réversibles ayant lieu par un mécanisme d’addition. En effet, l’hypothèse de départ de cette thèse suppose qu’un tel processus émule le phénomène de cristallisation classique – régi par des interactions non-covalentes – et favorise la formation de monocristaux de dimensions importantes. Pour tester la validité de cette hypothèse, nous avons choisi d’étudier la polymérisation des composés polynitroso aromatiques puisque la dimérisation des nitrosoarènes est réversible et procède par addition. Dans un premier temps, nous avons revu en profondeur la littérature portant sur la dimérisation des nitrosoarènes. À partir des données alors recueillies, nous avons conçu, dans un deuxième temps, une série de composés polynitroso ayant le potentiel de former des réseaux organiques covalents bi- et tridimensionnels. Les paramètres thermodynamiques propres à leur polymérisation ont pu être estimés grâce à l’étude de composés mononitroso modèles. Dans un troisième temps, nous avons synthétisé les divers composés polynitroso visés par notre étude. Pour y parvenir, nous avons eu à développer une nouvelle méthodologie de synthèse des poly(N-arylhydroxylamines) – les précurseurs directs aux composés polynitroso. Dans un quatrième temps, nous avons étudié la polymérisation des composés polynitroso. En dépit de difficultés d’ordre pratique causées par la polymérisation spontanée de ces composés, nous avons pu identifier les conditions propices à leur polymérisation en réseaux organiques covalents hautement cristallins. Plusieurs nouveaux réseaux covalents tridimensionnels ont ainsi été produits sous la forme de monocristaux de dimensions variant entre 30 µm et 500 µm, confirmant la validité de notre hypothèse de départ. Il a par conséquent été possible de résoudre la structure de ces cristaux par diffraction de rayons X sur monocristal, ce qui n’avait jamais été possible dans le passé pour ce genre de matériau. Ces cristaux sont remarquablement uniformes et les polymères qui les composent ont des masses moléculaires extrêmement élevées (1014-1017 g/mol). Toutefois, la polymérisation de la majorité des composés polynitroso étudiés a plutôt conduit à des solides amorphes ou à des solides cristallins constitués de la forme monomérique de ces composés. D’autres composés nitroso modèles ont alors été préparés afin d’expliquer ce comportement, et des hypothèses ont été émises à partir des données alors recueillies. Enfin, les structures de plusieurs composés polynitroso ayant cristallisés sous une forme monomérique ont été analysés en détails par diffraction des rayons X. Notre stratégie, qui consiste en l’utilisation de monomères ayant la capacité de polymériser spontanément par un processus d’addition réversible, semble donc prometteuse pour obtenir de nouveaux réseaux covalents monocristallins à partir de composés polynitroso ou d’autres monomères de nature similaire. De plus, les résultats présentés au cours de cette thèse établissent un lien entre la science des polymères et la chimie supramoléculaire, en illustrant comment des structures ordonnées, covalentes ou non covalentes, peuvent toutes deux être construites de façon prévisible.
Resumo:
La voie de signalisation Ras/MAPK (Ras/mitogen-activated protein kinase) régule une variété de protéines intracellulaires qui jouent un rôle important dans la croissance et la prolifération cellulaire. La régulation inappropriée de cette voie de signalisation conduit au développement de nombreux cancers comme le mélanome, qui est caractérisé par des mutations activatrices au niveau des gènes NRAS et BRAF. La protéine kinase RSK (p90 ribosomal S6 kinase) est un composant central de la voie Ras/MAPK, mais son rôle dans la croissance et la prolifération cellulaire n’est pas bien compris. RSK a été montrée pour participer à la résistance des mélanomes aux chimiothérapies, mais le mécanisme moléculaire reste encore à élucider. Nous montrons à l’aide d’un anticorps phospho-spécifique que MDM2 est phosphorylée en réponse à des agonistes et des mutations oncogéniques activant spécifiquement la voie Ras/MAPK. En utilisant des méthodes in vitro et in vivo, nous avons constaté que RSK phosphoryle directement MDM2 sur les Sérines 166 et 186, ce qui suggère que MDM2 est un substrat de RSK. La mutagénèse dirigée envers ces sites nous indique que ces résidus régulent l’ubiquitination de MDM2, suggérant que RSK régule la stabilité de MDM2 et de p53. De plus, nous avons observé que l’inhibition de RSK conduit à une augmentation du niveau protéique de p53 après un dommage à l’ADN dans les cellules de mélanomes. En conclusion, nos travaux suggèrent un rôle important de la protéine kinase RSK dans la régulation de MDM2 et de sa cible, p53. L’étude de ces mécanismes moléculaires aidera à mieux définir le rôle de RSK dans la croissance tumorale, mais également dans la résistance aux agents chimiothérapeutiques.