934 resultados para Théorie non-linéaire des poutres
Resumo:
L’étude proposée dans ce mémoire porte sur le processus de visite des adolescents de 14-16 ans au Musée des beaux-arts de Montréal. Je mobilise principalement les concepts de « médiateurs » et « médiations », entendus selon la définition proposée par Hennion (1988, 2000). En effet, Hennion propose de voir la médiation non comme un pont entre deux entités, vision commune de la médiation, mais comme un processus en construction. Ainsi, le médiateur est un élément qui va capter l’attention du jeune visiteur et la médiation est l’action qui va se développer dans cette relation médiateur-visiteur. L’analyse vise plus particulièrement à identifier les médiateurs qui agissent durant cette visite et à comprendre les médiations qui se mettent en place. Cette étude a été réalisée au moyen d’entrevues semi-structurées et d’observations participantes, auprès de six adolescents, âgés de 14 à 16 ans. Une première entrevue permettait de connaître les antécédents de ces jeunes à l’égard des musées et de comprendre suite à quelles mises en condition ils se rendaient à l’exposition. Une observation, par groupe de deux participants, a ensuite été menée lors de l’exposition du Musée des beaux-arts de Montréal : Il était une fois l’impressionnisme. Une histoire de l’impressionnisme : chefs-d’œuvre de la peinture française du Clark. Ces observations ont permis de repérer les moments qui ont capté l’attention des participants durant leur visite. Enfin, une seconde entrevue a été l’occasion de revenir sur leur expérience de visite et de dégager les médiations qui se sont mises en place. Sur les bases de ce terrain, ce mémoire met en avant un ensemble de médiateurs (les autres visiteurs, l’environnement physique, l’œuvre et le récit) et de médiations (rêver, comprendre, se projeter, admirer, comparer et refuser) qui se sont développées chez ces adolescents. Suite à cela, ce mémoire propose une explication du processus de visite tel qu’analysé chez ces adolescents à travers la représentation de la « spirale coquillage ». Cette représentation souligne le fait que le processus de visite n’est pas un phénomène linéaire mais se fait par la confrontation des antécédents de l’adolescent avec sa nouvelle expérience de visite. Il s’agit donc d’un processus circulaire qui se base sur ses antécédents pour construire progressivement de nouvelles strates, qui conditionneront ses prochaines expériences au musée.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) option expertise-conseil en soins infirmiers
Resumo:
Cette thèse traite de la structure électronique de supraconducteurs telle que déterminée par la théorie de la fonctionnelle de la densité. Une brève explication de cette théorie est faite dans l’introduction. Le modèle de Hubbard est présenté pour pallier à des problèmes de cette théorie face à certains matériaux, dont les cuprates. L’union de deux théories donne la DFT+U, une méthode permettant de bien représenter certains systèmes ayant des électrons fortement corrélés. Par la suite, un article traitant du couplage électron- phonon dans le supraconducteur NbC1−xNx est présenté. Les résultats illustrent bien le rôle de la surface de Fermi dans le mécanisme d’appariement électronique menant à la supraconductivité. Grâce à ces résultats, un modèle est développé qui permet d’expliquer comment la température de transition critique est influencée par le changement des fré- quences de vibration du cristal. Ensuite, des résultats de calcul d’oscillations quantiques obtenus par une analyse approfondie de surfaces de Fermi, permettant une comparaison directe avec des données expérimentales, sont présentés dans deux articles. Le premier traite d’un matériau dans la famille des pnictures de fer, le LaFe2P2. L’absence de su- praconductivité dans ce matériau s’explique par la différence entre sa surface de Fermi obtenue et celle du supraconducteur BaFe2As2. Le second article traite du matériau à fermions lourds, le YbCoIn5. Pour ce faire, une nouvelle méthode efficace de calcul des fréquences de Haas-van Alphen est développée. Finalement, un dernier article traitant du cuprate supraconducteur à haute température critique YBa2Cu3O6.5 est présenté. À l’aide de la DFT+U, le rôle de plusieurs ordres magnétiques sur la surface de Fermi est étudié. Ces résultats permettent de mieux comprendre les mesures d’oscillations quan- tiques mesurées dans ce matériau.
Resumo:
Quel est le pouvoir des normes internationales de droits humains ? Ces normes ont-elles un pouvoir politique? En s’appuyant sur le cas mexicain (entre 1988 et 2006), la thèse tente de répondre à trois questionnements. Le premier est lié à la trajectoire des normes: les défenseurs mexicains des droits humains cherchent-ils l’appui d’acteurs internationaux pour promouvoir les droits humains vis-à-vis leur gouvernement, tel que le suggère le modèle du boomerang ? Deuxièmement, il s’agit de comprendre l’impact du processus de diffusion des normes sur le respect des droits humains : les acteurs internationaux et nationaux qui défendent les droits humains parviennent-ils à influencer les décisions politiques gouvernementales, en matière de protection des droits humains ? Et finalement: ces groupes contribuent-ils à changer le cours du processus de démocratisation d’un État ? Les résultats de la recherche permettent de tirer quelques conclusions. La thèse confirme dans un premier temps la théorie du boomerang de Keck et Sikkink (1998), puisque les pressions domestiques en matière de droits humains deviennent efficaces au moment où les acteurs domestiques gagnent l’appui des acteurs internationaux. En ce qui concerne l’impact de la diffusion des normes internationales des droits humains sur leur protection gouvernementale, il semble que le gouvernement mexicain entre 1988 et 2006 réagisse aux pressions des acteurs qui diffusent les normes de droits humains par la mise en place d’institutions et de lois et non par une protection effective de ces droits. Un deuxième type d’impact, lié à la diffusion des normes en droits humains, est observé sur le processus de démocratisation. La thèse montre que les acteurs qui diffusent les normes en droits humains jouent un rôle dans la mise en place de réformes électorales, tout en contribuant à une redéfinition plus démocratique des rapports de pouvoir entre la société civile et l’État.
Resumo:
Les agressions sexuelles envers les enfants sont un fléau social important. Elles portent atteinte à l’intégrité physique et psychologique des enfants qui en sont victimes, entraînant des conséquences délétères pour l’enfant et ses parents. Ces derniers sont d’ailleurs considérés comme des personnes clés dans le rétablissement des enfants. Toutefois, les connaissances scientifiques dans ce domaine ont été principalement acquises auprès des mères, reléguant ainsi le père à une place secondaire. Cette thèse a pour objectif général d’élargir notre compréhension du vécu et du rôle des pères ayant à faire face au dévoilement de l’agression sexuelle de leur enfant. La présente thèse est composée de deux articles empiriques. L’objectif du premier article est de décrire le vécu des pères non agresseurs ayant un ou plusieurs enfants victimes d’agression sexuelle extra ou intrafamiliale sous l’angle de leurs réactions émotionnelles, cognitives et comportementales à la suite du dévoilement de l’AS. Pour ce faire, 17 pères provenant soit du Centre d’Expertise Marie-Vincent de Montréal, soit du Centre d’Intervention en Abus Sexuels pour la Famille de Gatineau ou encore soit de la population générale et ayant un ou plusieurs enfants victimes d’agression sexuelle intra ou extra-familiale ont été rencontrés pour une entrevue individuelle semi-dirigée. Les résultats démontrent que les pères rencontrés dans le cadre de cette étude vivent un véritable choc psychologique, s’apparentant à un traumatisme secondaire, à l’annonce du dévoilement. Cette étude a également mis en lumière la mise en place d’un travail de deuil chez les pères qui sont confrontés à la perte de l’innocence de leur enfant. Les objectifs du deuxième article est de décrire les répercussions du dévoilement de l’agression sexuelle sur la façon dont les pères s’engagent auprès de leurs enfants et de dégager les dimensions du soutien paternel offert à l’enfant. L’analyse du discours de 17 pères ayant vécus le dévoilement d’une agression sexuelle par leur(s) enfant(s) suggèrent que le dévoilement peut être considéré comme un élément de rupture dans le lien à l’enfant nécessitant une adaptation à cette nouvelle réalité. Bien que l’ensemble pères rencontrés expriment leurs inquiétudes pour leur(s) enfant(s) et leur désir de le(s) soutenir, les résultats mettent en évidence les difficultés pour certains pères de s’engager auprès de leurs enfants en raison soit d’une détresse psychologique personnelle importante, soit d’une ambivalence à l’égard de l’enfant ou encore en raison d’une sensation d’inconfort ressentie lors des contacts physiques au cours des soins primaires à prodiguer ou des situations de jeu physique. Leurs propos témoignent également de leurs volontés et de leurs capacités à aider l’enfant à composer avec les conséquences de l’agression sexuelle subie. La mise à jour d’une nouvelle dimension spécifiquement paternelle soit la capacité d’ouvrir son enfant victime d’AS sur le monde extérieur et ainsi jouer un rôle dans le développement de sa confiance en soi apparait comme un résultat novateur de la présente thèse. Les implications cliniques concernant les résultats obtenus dans le cadre de cette thèse ainsi que les pistes de recherche sont finalement abordées.
Resumo:
Les dyskinésies tardives (DT) sont des troubles moteurs associés à l’utilisation chronique des antagonistes des récepteurs dopaminergiques D2 tels que les antipsychotiques et le métoclopramide. Ces dyskinésies correspondent à une incoordination motrice portant préférentiellement sur la musculature oro-faciale. La gestion des DT s'est imposée comme défi de santé publique surtout en l’absence d’une alternative thérapeutique efficace et abordable. L’hypothèse classiquement avancée pour expliquer la physiopathologie des DT inhérente au traitement par les antipsychotiques s’articule autour de l’hypersensibilité des récepteurs dopaminergiques D2, cibles principales de ces molécules. Néanmoins, plusieurs données remettent la véracité de cette hypothèse en question. Hypothèse: nous proposons que le blocage chronique des récepteurs dopaminergiques soit effectivement responsable d’un phénomène d’hypersensibilisation mais contrairement à l’hypothèse classique, cette hypersensibilisation porterait sur des paramètres de la transmission dopaminergique autres que les récepteurs D2. De même nous postulons que cette hypersensibilisation se traduirait par des altérations des cascades signalétiques au niveau des cellules du striatum. Ces altérations aboutissent à des changements portant sur le récepteur nucléaire (Nur77), qui est hautement associé au système dopaminergique; l’induction de ces récepteurs déclencherait des cascades associées à la compensation ou à la genèse des DT. Matériels et méthodes: 23 femelles Cebus apella, réparties en 3 groupes: groupe halopéridol, groupe clozapine, et groupe contrôle, ont été exposées aux traitements respectifs pendant 6-36 mois. Après l’analyse comportementale, les animaux ont été décapités et leurs cerveaux isolés pour fin d’analyse. Hybridation in situ: nous avons fait appel à cette technique pour mesurer l’expression de l’ARNm de Nur77 et du neuropeptide enképhaline. Hybridation in situ double: nous avons exploités cette technique pour identifier les populations neuronales exprimant les récepteurs dopaminergiques D3 et localiser leur éventuelle induction. Autoradiographies des récepteurs dopaminergiques D1, D2 et D3 et autoradiographies des récepteurs i glutamatergiques mGluR5. Ces autoradiographies avaient pour objectif d’évaluer l’expression de ces différents récepteurs. Mutagenèse dirigée et transfection cellulaire: nous faisons appel à ces techniques pour reproduire le polymorphisme identifié au niveau de la région 3’UTR de l’ARNm Nur77 et évaluer l’impact que pourrait avoir ce polymorphisme sur la stabilité de l’ARNm Nur77 sinon sur l’expression de la protèine Nur77. Western Blot des kinases ERK 1 et 2: cette technique nous a servi comme moyen pour quantifier l’expression globale de ces kinases. Analyses statistiques: l’expression de l’ARNm Nur77 a été évaluée en utilisant l’analyse de la variance à un seul facteur (One way ANOVA). Nous avons procédé de la même façon pour mesurer l’expression des récepteurs D2, D3 et mGluR5. Résultats: le groupe des animaux traités par l’halopéridol montre une plus forte expression des récepteurs D3 par rapport aux sujets des autres groupes. Cette expression se produit au niveau des neurones de la voie directe. De plus, cette augmentation corrèle positivement avec la sévérité des DT. L’expression des récepteurs D2 et mGluR5 reste relativement inchangée entre les différents groupes, alors qu’un gradient d’expression a été observé pour le récepteur D1. Par ailleurs, Nur77 est induit par l’halopéridol, alors que son expression semble baisser chez les animaux traités par la clozapine. L’induction de l’expression de Nur77 par l’halopéridol est plus accrue chez les animaux non dyskinétiques. Les animaux traités par la clozapine démontrent une expression amoindrie de l’ARNm de Nur77 qui tend à être plus faible que l’expression de base. D’autre part, la présence du polymorphisme au niveau de la région 3’UTR semble affecter l’expression cellulaire de Nur77. Conclusion: ces résultats confortent notre hypothèse concernant l’existence d’un phénomène d’hypersensibilisation prenant place suite un traitement chronique par les antipsychotiques. Ce phénomène s’est traduit par une augmentation de l’expression des récepteurs D3 sans porter sur les récepteurs D2 tel que prôné classiquement. Cette hypersensibilisation des récepteurs D3 implique également l’existence d’un débalancement des voies striatales pouvant ainsi sous tendre l’apparition des DT. Ces résultats dévoilent ainsi un nouveau mécanisme qui pourrait contribuer à l’apparition des DT et pourraient permettre une meilleure gestion, nous l’espérons, des DT à l’échelle clinique.
Resumo:
L’histoire du concept d’idéologie est riche des différentes définitions qui ont tenté de le circonscrire, en tension entre la description de visions du monde et la dénonciation de la « fausse conscience ». Chez les penseurs regroupés sous le nom d’ « École de Francfort », l’idéologie en vient à équivaloir au phénomène de l’industrie culturelle, c’est-à-dire la mise au service de la raison technique dans la production de la culture. Le statut du cinéma est intéressant à cet égard : non seulement est-ce un art né à l’époque industrielle et indissociable des possibilités techniques offertes par celle-ci, mais il a été mobilisé pour de nombreuses entreprises propagandistes, plus ou moins subtiles. La question directrice de l’interrogation est donc la suivante : selon la théorie critique de l’École de Francfort, le cinéma peut-il être considéré comme de l’art ou est-il confiné au domaine de l’idéologie ? Autrement dit, le cinéma peut-il revendiquer un statut qui ne ferait pas de lui qu’un support de la domination de l’humain par l’humain ?
Resumo:
La recherche analyse le traitement réservé aux demandeurs d'asile au Canada.Plus spécialement, elle se penche sur l'interprétation et l’application de l’article 7 de la Charte canadienne des droits et libertés. La réflexion observe que la mise en œuvre des droits fondamentaux des revendicateurs du statut de réfugié est affectée, selon les époques, par des considérations à dominance « humanitaires » [arrêt Singh, 1985] ou, comme cela est le cas depuis le 11 septembre 2001, par des impératifs allégués de sécurité nationale [arrêt Suresh, 2002]. D’un point de vue analytique, la thèse considère que lorsqu'il s'agit de protéger des populations vulnérables – ce que le Canada s'est juridiquement engagé à faire – le droit public ne peut pas se limiter à la communauté de ses propres membres, citoyens et résidents. D'ailleurs, la Charte reconnaît la protection de ses droits fondamentaux à « toute personne » du fait de sa seule qualité de personne, qu'elle soit ou non citoyenne et la garde des abus. Des exceptions aux droits reconnus à l’article 7 doivent être considérées à la mesure du principe démocratique qui guide nos sociétés. Sur ce fondement, l’analyse interroge l’argumentation et les motivations de certaines décisions judiciaires et législatives qui ont déconsidérées les implications de notions porteuses de valeurs impératives, telles que l'équité, la dignité humaine, la liberté et la sécurité de l'individu, en privilégiant les intérêts étatiques conforment à la conception classique de la souveraineté.
Resumo:
Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.
Resumo:
En français contemporain, l’hésitation dans le choix entre être et avoir comme auxiliaire dans les formes verbale composées (par ex. le passé composé) de certains verbes intransitifs (par ex. tomber), surtout dans des variétés non standards du français, démonte clairement l’écart qui existe entre le français normé et le français oral quotidien. Cette hésitation, voire l’incertitude, dans le choix de l’auxiliaire n’est pas une particularité arbitraire ou aléatoire de la langue contemporaine; elle s’inscrit plutôt dans une tendance diachronique et pan-romane que l’on a pu observer dans la langue française depuis son émancipation du latin. Notre étude, qui se fonde sur la théorie de la grammaticalisation, propose une analyse du discours grammatical de 1500 – époque où sont apparues les premières grammaires du français – jusqu’à 1789 avec la Révolution française, signalant le moment où la langue se serait stabilisée et aurait adopté sa forme moderne. Nous divisons les trois siècles de notre étude en quatre périodes distinctes, déjà bien établies dans les études historiques. Ce sont : - Le XVIe siècle (1530-1599) - La première moitié de la période classique (1600-1650) - La deuxième moitié de la période classique (1651-1715) - Le Siècle des lumières (1716-1789) Pour chacune des quatre périodes, l’analyse se fait en trois temps. Premièrement, nous recensons les grammairiens, les lexicographes et les essayistes qui se sont prononcés, soit explicitement, soit implicitement, sur l’emploi des auxiliaires être et avoir dans les formes verbales composées (FVC). Nous identifions, là où cela est possible, le dialecte maternel de chaque auteur et son modèle d’usage. Deuxièmement, nous résumons les observations et les commentaires sur l’emploi des auxiliaires dans les FVC formulés par chaque auteur, y compris les tentatives d’explication quant à la variation dans le choix de l’auxiliaire. Finalement, nous rapportons la description de l’emploi des auxiliaires dans les FVC proposée par des historiens de la langue française pour la période en question. Notre étude nous permet de confirmer, en ce qui concerne les FVC, certaines tendances déjà reconnues dans la langue française et d’en identifier d’autres. Également, nous avons pu repérer, voire circonscrire des facteurs qui ont eu une influence sur le choix, tels les verbes plus sensibles à l’alternance, les grammairiens dont l’autorité s’est imposé plus que d’autres ou avant les autres dans l’établissement de la norme sur ce point, les contextes sociaux dans lesquels le débat a eu lieu et la période pendant laquelle les préoccupations sur ce choix était les plus intenses.
Resumo:
L’objectif de cette thèse était d’évaluer Espace de Transition (ET), un programme novateur d’intervention par les arts de la scène visant à favoriser la réadaptation psychosociale d’adolescents et de jeunes adultes présentant des troubles mentaux stabilisés et à diminuer la stigmatisation des individus aux prises avec des problèmes de santé mentale. Ce programme a été conçu par une équipe de cliniciens du département de psychiatrie du Centre hospitalier universitaire Ste-Justine, en collaboration avec des artistes professionnels, et est livré depuis le printemps 2009. L’évaluation du programme ET a été conduite de manière indépendante, selon des approches collaborative et naturaliste et en usant de méthodes mixtes. Les données de recherche ont été recueillies avant pendant et après le programme auprès de l’ensemble des participants à deux sessions distinctes (N = 24), de même qu’auprès des deux artistes instructeurs, de la psychoéducatrice responsable du soutien clinique, ainsi que des psychiatres et autres intervenants ayant référé des participants (N=11). Des entrevues semi-structurées individuelles et de groupe, des observations directes et des questionnaires ont servi à recueillir les données nécessaires à l’évaluation. Des analyses quantitatives de variance, ainsi que des analyses qualitatives thématiques ont été réalisées et leurs résultats ont été interprétés de manière intégrée. Le premier chapitre empirique de la thèse relate l’évaluation de la mise en œuvre du programme ET. Cette étude a permis de constater que le programme avait rejoint des participants correspondant de près à la population visée et que ceux-ci présentaient globalement des niveaux élevés d’assiduité, d’engagement et d’appréciation du programme. L’évaluation de la mise en œuvre a en outre permis de conclure que la plupart des composantes du programme identifiées a priori comme ses paramètres essentiels ont été livrées tel que prévu par les concepteurs et que la plupart d’entre elles ont été largement appréciées et jugées pertinentes par les participants et les autres répondants consultés. Le second chapitre empirique consiste en un article portant sur l’évaluation des effets du programme ET relativement à l’atteinte de trois de ses objectifs intermédiaires, soient l’amélioration 1) du fonctionnement global, 2) du confort relationnel et des compétences sociales, ainsi que 3) de la perception de soi des participants présentant des troubles mentaux. Les résultats de cette étude ont révélé des changements significatifs et positifs dans le fonctionnement global des participants suite au programme, tel qu’évalué par les cliniciens référents et partiellement corroboré par les participants eux-mêmes. Des améliorations en ce qui concerne le confort relationnel, les compétences sociales et la perception de soi ont également été objectivées chez une proportion substantielle de participants, bien que celles-ci ne se soient pas traduites en des différences significatives décelées par les analyses quantitatives de groupe. Le troisième et dernier chapitre empirique de la thèse relate une étude exploratoire des mécanismes sous-tendant les effets du programme ET ayant conduit à l’élaboration inductive d’une théorie d’action de ce programme. Cette investigation qualitative a révélé quatre catégories de mécanismes, soient des processus de 1) gain d’expérience et de gratification sociales, 2) de désensibilisation par exposition graduelle, 3) de succès et de valorisation, et 4) de normalisation. Cette étude a également permis de suggérer les caractéristiques et composantes du programme qui favorisent la mise en place ou l’impact de ces mécanismes, tels l’environnement et l’animation non cliniques du programme, la composition hétérogène des groupes de participants, le recours aux arts de la scène, ainsi que la poursuite d’une réalisation collective et son partage avec un public extérieur au programme. Globalement, les études présentées dans la thèse appuient la pertinence et le caractère prometteur du programme ET, tout en suggérant des pistes d’amélioration potentielle pour ses versions ultérieures. Par extension, la thèse soutient l’efficacité potentielle d’interventions réadaptatives mettant en œuvre des composantes apparentées à celles du programme ET pour soutenir le rétablissement des jeunes aux prises avec des troubles mentaux.
Resumo:
Nous démontrons qu'il est possible de former des bicouches fluides non phospholipides en milieu aqueux avec un mélange d'acide palmitique (PA), cholestérol (Chol) et sulfate de cholestérol (Schol) avec une proportion molaire de 30/28/42. Ces liposomes non phospholipidiques peuvent maintenir un gradient de pH (pHinterne 8 / pHexterne 6) sur une période 100 fois plus longue que les liposomes faits de 1-palmitoyl-2-oléoyl-sn-glycéro-3-phosphocholine (POPC) et de cholestérol (60/40 mol/mol). De plus, ces LUV non phospholipidiques protègent l'acide ascorbique d'un milieu oxydant (1 mM de fer (III)). Une fois piégé dans les liposomes, l'acide ascorbique présente une vitesse de dégradation similaire à celle obtenue en l'absence de fer(III). Ces performances illustrent la perméabilité exceptionnellement limitée de ces liposomes, ce qui implique qu'ils peuvent présenter des avantages comme nanocontenants pour certaines applications. D'autre part, des vésicules unilamellaires géantes (GUV pour Giant Unilamellar Vesicles) ont été formées à partir d'un mélange d'acide palmitique et de cholestérol (30/70 mol/mol). Ces GUV sont stables sur l'échelle de temps de semaines, elles ne s'agrègent pas et elles sont sensibles au pH. Afin d'établir la formation des GUV, l'imagerie par microscopie confocale à balayage laser a été utilisée. Deux sondes fluorescentes ont été utilisées: le rouge du Nile, une sonde hydrophobe qui s'insère dans le cœur hydrophobe des bicouches lipidiques, et la calcéine, une sonde hydrophile qui a été emprisonné dans le réservoir interne des GUV. Cette approche a permis l'observation des parois des GUV ainsi que de leur contenu. Ces résultats montrent la possibilité de former de nouveaux microcontenants à partir d'un mélange d'un amphiphile monoalkylé et de stérol.
Resumo:
La régulation de l’homéostasie du fer est cruciale chez les bactéries. Chez Salmonella, l’expression des gènes d’acquisition et du métabolisme du fer au moment approprié est importante pour sa survie et sa virulence. Cette régulation est effectuée par la protéine Fur et les petits ARN non codants RfrA et RfrB. Le rôle de ces régulateurs est d’assurer que le niveau de fer soit assez élevé pour la survie et le métabolisme de Salmonella, et assez faible pour éviter l’effet toxique du fer en présence d’oxygène. Les connaissances concernant le rôle de ces régulateurs ont été principalement obtenues par des études chez S. Typhimurium, un sérovar généraliste causant une gastro-entérite chez les humains. Très peu d’informations sont connues sur le rôle de ces régulateurs chez S. Typhi, un sérovar humain-spécifique responsable de la fièvre typhoïde. Le but de cette étude était de déterminer les rôles de Fur, RfrA et RfrB dans l’homéostasie du fer et la virulence de Salmonella, et de démontrer qu’ils ont une implication distincte chez les sérovars Typhi et Typhimurium. Premièrement, Fur, RfrA et RfrB régulent l’homéostasie du fer de Salmonella. Les résultats de cette étude ont démontré que Fur est requis pour la résistance au stress oxydatif et pour une croissance optimale dans différentes conditions in vitro. La sensibilité du mutant fur est due à l’expression des petits ARN RfrA et RfrB, et cette sensibilité est beaucoup plus importante chez S. Typhi que chez S. Typhimurium. Également, Fur inhibe la transcription des gènes codant pour les sidérophores en conditions riches en fer, tandis que les petits ARN RfrA et RfrB semblent être importants pour la production d’entérobactine et de salmochélines chez S. Typhi lors de conditions pauvres en fer. Ensuite, ces régulateurs affectent la virulence de Salmonella. Fur est important pour la motilité de Salmonella, particulièrement chez S. Typhi. Fur est nécessaire pour l’invasion des deux sérovars dans les cellules épithéliales, et pour l’entrée et la survie de S. Typhi dans les macrophages. Chez S. Typhimurium, Fur ne semble pas impliqué dans l’interaction avec les macrophages. De plus, les petits ARN RfrA et RfrB sont importants pour la multiplication intracellulaire de Salmonella dans les macrophages pour les deux sérovars. Finalement, la protéine Fur et les petits ARN RfrA et RfrB régulent l’expression de l’opéron fimbriaire tcf, absent du génome de S. Typhimurium. Un site de liaison putatif de la protéine Fur a été identifié dans la région promotrice de tcfA chez S. Typhi, mais une régulation directe n’a pas été confirmée. L’expression de tcf est induite par le fer et par Fur, et est inhibée par les petits ARN RfrA et RfrB. Ainsi, ces régulateurs affectent des gènes de virulence qui sont retrouvés spécifiquement chez S. Typhi. En somme, ce projet a permis de démontrer que les régulateurs de l’homéostasie du fer de Salmonella peuvent affecter la résistance de cette bactérie pathogène à différents stress, notamment le stress oxydatif, la croissance en conditions de carence en fer ainsi que la virulence. Ces régulateurs jouent un rôle distinct chez les sérovars Typhi et Typhimurium.
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
Les protéines amyloïdes sont retrouvées sous forme de fibres dans de nombreuses maladies neurodégénératives. En tentant d’élucider le mécanisme de fibrillation, les chercheurs ont découvert que cette réaction se fait par un phénomène de nucléation passant par des oligomères. Il semblerait que ces espèces soient la principale cause de la toxicité observée dans les cellules des patients atteints d’amyloïdose. C’est pourquoi un intérêt particulier est donc porté aux premières étapes d’oligomérisation. Dans ce mémoire, nous nous intéressons à une séquence d’acide aminé fortement hydrophobe de l’α-synucléine appelée composante non β -amyloïde (Non-Amyloid β Component ou NAC). Cette dernière est retrouvée sous forme de fibres dans les corps et les neurites de Lewy des patients atteints de la maladie de Parkinson. De plus, elle constitue une composante minoritaire des fibres impliquées dans la maladie d’Alzheimer. Nous avons observé les changements structuraux qui ont lieu pour le monomère, le dimère et le trimère de la séquence NAC de l’α-synucléine. Nous nous sommes aussi intéressés aux conséquences structurelles observées dans des oligomères hétérogènes qui impliqueraient, Aβ1−40. Pour cela nous utilisons des dynamiques moléculaires, d’échange de répliques couplées au potentiel gros-grain, OPEP. Nous constatons une disparition des hélices α au profit des feuillets β , ainsi que le polymorphisme caractéristique des fibres amyloïdes. Certaines régions se sont démarquées par leurs capacités à former des feuillets β . La disparition de ces régions lorsque NAC est combinée à Aβ laisse entrevoir l’importance de l’emplacement des résidus hydrophobes dans des structures susceptibles de former des fibres amyloïdes.