1000 resultados para Stratégies de politesse
Resumo:
Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.
Resumo:
Thèse réalisée en co-tutelle avec l'Université Claude Bernard de Lyon 1, en France.
Resumo:
Cette oeuvre est mise à disposition selon les termes de la licence Creative Commons Attribution - Pas d'utilisation commerciale - Pas de modification 2.5 Canada Vous avez donc le droit de : Partager - copier, distribuer et communiquer le matériel par tous les moyens et sous tous formats; Selon les conditions suivantes : Attribution — Vous devez créditer l'Oeuvre, intégrer un lien vers la licence et indiquer si des modifications ont été effectuées à l'Oeuvre. Vous devez indiquer ces informations par tous les moyens possibles mais vous ne pouvez pas suggérer que l'Offrant vous soutient ou soutient la façon dont vous avez utilisé son Oeuvre. Pas d’Utilisation Commerciale — Vous n'êtes pas autoriser à faire un usage commercial de cette Oeuvre, tout ou partie du matériel la composant. Pas de modifications — Dans le cas où vous effectuez un remix, que vous transformez, ou créez à partir du matériel composant l'Oeuvre originale, vous n'êtes pas autorisé à distribuer ou mettre à disposition l'Oeuvre modifiée. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by-nc-nd/2.5/ca/ ou écrivez à Creative Commons, 444 Castro Street, Suite 900, Mountain View, California, 94041, USA.
Resumo:
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Dans le cadre de la Western Climate Iniative, le Québec a déployé en 2012, un système de plafonnement et d’échange de droits d’émission de gaz à effet de serre (SPEDE). Il s’agit de l’un des premiers régimes de ce type en Amérique du Nord et celui-ci pourrait à terme, constituer l'un des maillons d’un marché commun du carbone à l’échelle du continent. Toutefois, le SPEDE appartient à une catégorie d’instruments économiques de protection de l’environnement encore peu connue des juristes. Il s’inscrit en effet dans la régulation économique de l’environnement et repose sur des notions tirées de la théorie économique, dont la rareté, la propriété et le marché. La thèse s’insère donc dans le dialogue entre juristes et économistes autour de la conception et de la mise en œuvre de ce type d’instrument. Afin d’explorer son architecture et de révéler les enjeux juridiques qui le traversent, nous avons eu recours à la méthode de l’analyse économique du droit. Celle-ci permet notamment de montrer les dynamiques d'incitation et d’efficacité qui sont à l'œuvre dans les règles qui encadrent le SPEDE. Elle permet également à donner un aperçu du rôle décisif joué par la formulation des règles de droit dans l’opérationnalisation des hypothèses économiques sous-jacentes à cette catégorie d’instrument. L’exploration est menée par l’entremise d’une modélisation progressive de l’échange de droits d’émission qui prend en compte les coûts de transaction. Le modèle proposé dans la thèse met ainsi en lumière, de manière générale, les points de friction qui sont susceptibles de survenir aux différentes étapes de l'échange de droits d'émission et qui peuvent faire obstacle à son efficacité économique. L’application du modèle aux règles du SPEDE a permis de contribuer à l’avancement des connaissances en donnant aux juristes un outil permettant de donner une cohérence et une intelligibilité à l’analyse des règles de l’échange. Elle a ainsi fourni une nomenclature des règles encadrant l’échange de droits d’émission. Cette nomenclature fait ressortir les stratégies de diversification de l’échange, d’institutionnalisation de ses modalités ainsi que les enjeux de la surveillance des marchés, dont celui des instruments dérivés adossés aux droits d’émission, dans un contexte de fragmentation des autorités de tutelle.
Resumo:
Ce mémoire propose une réflexion sur des modèles permettant de mieux comprendre et concevoir l’expérience esthétique d’un jeu vidéo. Ces modèles traduisent différents idéaux de la place du joueur. Comme on peut le constater à travers une réflexion sur le modèle du cercle magique, jouer est souvent compris comme un acte unilatéral d’entrée en imagination dans un monde étranger au monde actuel – toute sortie marquant la pénalité ou la fin du jeu. De ce point de vue, le designer aurait donc pour rôle de placer et de maintenir le joueur dans le monde virtuel représenté pour qu’il s’y sente immergé et présent. Cela dit, comme en témoignent les critiques qui s’élèvent contre le modèle du cercle magique, d’autres stratégies de mise en place du joueur sont à distinguer et à définir pour faciliter l’analyse et la conception des jeux vidéo. Devant ce modèle, jugé limitatif, ce que nous proposons ici est de recourir à quelques outils méthodologiques et typologiques de l’esthétique de la réception en histoire de l’art pour bâtir un modèle plus englobant, celui de la place du joueur, dont nous testons la validité par l’analyse du jeu vidéo God of War III (2010).
Resumo:
Résumé Le premier article de la thèse se veut une revue systématique des données empiriques mettant en lumière les antécédents à la base de l’émergence du leadership narcissique dans les organisations, ses composantes psychologiques ainsi que ses incidences tant pour les organisations que pour leurs membres. Conséquemment, cette étude brosse initialement une recension détaillée des principaux facteurs idiosyncrasiques, culturels, environnementaux et structurels participant à la manifestation du leadership narcissique dans les organisations. Par la suite, elle en sonde la teneur en isolant l’existence de cinq composantes psychologiques, soit le charisme, l’influence intéressée, la motivation fallacieuse, l’inhibition intellectuelle et la considération simulée. Enfin, elle souligne les conséquences négatives de son actualisation dont les principales sont : la production de prises de décisions volatiles et risquées; la création d’un climat organisationnel toxique; la destruction de la confiance des subordonnés; la détérioration de l’efficacité organisationnelle; l’émergence d’une gestion dysfonctionnelle; et la manifestation de comportements non-éthiques. Le deuxième article s’avère une analyse comparative de deux types de leadership se révélant, de prime abord, trompeusement analogues. Ces deux types sont le leadership transformationnel et le leadership narcissique. Quoique se situant aux antipodes en matière de satisfaction de besoins (influence idéalisée versus influence intéressée), de promotion de visions (motivation inspirationnelle versus motivation fallacieuse), de réceptivité à la rétroaction d’autrui (stimulation intellectuelle versus inhibition intellectuelle) et de traitement des relations interpersonnelles (considération individualisée versus considération simulée), les leaderships transformationnel et narcissique partagent entre eux un élément commun : le charisme du leader. C’est précisément cette dernière caractéristique, conférant à son détenteur un puissant halo magnétisant, qui se révèle le creuset de la spéciosité du leadership narcissique opérant essentiellement lors des tout premiers contacts avec le leader. En fait, le charisme du leader narcissique sert en quelque sorte de fard, composé de charme et de fascination, masquant une décevante réalité psychologique et dont les propriétés captieuses s’étiolent rapidement. Le troisième article de la thèse est une étude conceptuelle examinant la structuration idiosyncrasique des criminels en col blanc ayant commis des fraudes financières se chiffrant à plusieurs dizaines de millions de dollars. Exploitant le croisement des deux dimensions fondamentales de l’agression, soit sa fonction (proactive ou réactive) et sa forme (directe ou indirecte), cette étude propose une taxonomie archétypique de différents types de psychopathie susceptible de mieux cerner la psychologie du criminel en col blanc d’envergure. L’agression est dite proactive lorsqu’elle est motivée par des impératifs de prédation indépendants de l’état émotionnel de l’individu. L’action de l’individu prédateur est intentionnelle et instrumentale. Elle vise l’atteinte d’objectifs préétablis avant l’actualisation de l’agression. Par contre, elle est considérée réactive lorsque la préservation de l’intégrité physique ou psychologique de l’individu est l’objet d’une menace émergeant de son environnement externe immédiat. Dans ce cas, la réaction agressive de l’individu est émotionnellement conditionnée. Par ailleurs, nonobstant la nature de sa fonction, l’agression peut s’exprimer directement ou indirectement. Elle est considérée directe lorsqu’elle a pour cible l’agressé en tant que tel. La forme physique d’agression peut être physique (sévices corporels) ou verbale (menaces et insultes). Par contre, lorsqu’elle emprunte des modes d’expression plus subtils, tels les rumeurs, l’humour malicieux et la tromperie, l’agression est dite indirecte. Le pairage des deux dimensions fondamentales de l’agression permet la construction d’un modèle d’analyse bidimensionnelle englobant quatre types de psychopathie, à savoir les psychopathies parasitique (préservation indirecte), colérique (préservation directe), cynégétique (prédation directe) et sympathique (prédation indirecte). C’est précisément cette dernière forme de psychopathie, le type sympathique caractérisé par un étaiement idiosyncrasique narcissico-machiavélique, qui traduit le mieux la psychologie des criminels en col blanc d’envergure. Enfin, le quatrième et dernier article de la présente thèse se propose d’explorer une problématique de recherche n’ayant reçu que très peu d’attention de la part des membres de la communauté scientifique, à savoir l’examen de l’adéquation d’un modèle dimensionnel du narcissisme pathologique inspiré du modèle développé par Roche, Pincus, Lukowitsky, Ménard et Conroy (2013). Au moyen d’une étude de cas exploratoire, il a été possible d’associer la vulnérabilité narcissique au segment décompensatoire (échec des stratégies inadaptées d’agrandissement de soi) du modèle théorique inspiré de celui de Roche et al. (2013) et ce, conformément à ses prescriptions. En effet, la comparaison des résultats de l’un des deux participants de l’étude, madame H, obtenus lors des deux saisies de données espacées d’un intervalle d’une année, indique une diminution de la vulnérabilité narcissique lors de la période de re-compensation. En outre, cette diminution est accompagnée de celle de la grandiosité narcissique. En somme, la relation positive entre les deux dimensions du narcissisme pathologique se révèle, sur un plan longitudinal, constante dans les deux segments – compensatoire (recours à des stratégies inadaptées d’agrandissement de soi) et décompensatoire – du modèle théorique inspiré de celui de Roche et al. (2013). Par ailleurs, les résultats obtenus auprès des deux participants à l’étude de cas, monsieur B et de madame H, s’avèrent éclairants eu égard à la prépondérance respective de chacune des dimensions (grandiosité et vulnérabilité) narcissiques en fonction des segments compensatoire et décompensatoire du modèle théorique inspiré de celui de Roche et al. (2013). Se trouvant en mode de compensation narcissique lors des deux saisies de données, monsieur B affiche une grandiosité narcissique supérieure à sa vulnérabilité narcissique. Cette constatation respecte en tous points les prescriptions théoriques du modèle. Quant à madame H, qu’elle soit en mode de compensation ou de décompensation narcissique (postulat non démontré eu égard aux prescriptions du modèle théorique utilisé), sa vulnérabilité narcissique demeure constamment plus élevée que sa grandiosité narcissique. Théoriquement, selon les prescriptions du modèle, la prépondérance devrait être observée chez la dimension « grandiosité narcissique » en période de compensation. De toute évidence, les données obtenues auprès de madame H s’écartent de ces prescriptions.
Resumo:
L’idée de réaliser une étude comparative de deux congrégations charismatiques à Montréal a été conçue vers la fin de l’année 2009, dans le cadre du projet « Pluralisme et ressources symboliques : les nouveaux groupes religieux au Québec ». Ce projet est dirigé par Deirdre Meintel. Les cochercheurs sont Claude Gélinas, Josiane Le Gall, Marie-Nathalie Le Blanc, Géraldine Mossière et Khadiyatoulah Fall. La coordinatrice est Véronique Jourdain. Ce projet a été financé par le FQRSC et le CRSH.
Resumo:
Les ataxies forment un groupe de maladies neurodégénératives qui sont caractérisées par un manque de coordination des mouvements volontaires. Mes travaux ont porté sur une forme d'ataxie à début tardif (LOCA), après l’âge de 50 ans. Les principales caractéristiques cliniques sont: atrophie cérébelleuse à l’IRM (88%), dysarthrie (81%), atrophie du lobe frontal (50%) et nystagmus (52%). La ségrégation dans les familles de cette ataxie est en faveur d’une transmission récessive. Afin d'identifier le gène responsable de LOCA, nous avons recruté 38 patients affectés d'une forme tardive d'ataxie, issus du SLSJ, des Cantons de l’Est ou d’autres régions du Québec. Un premier criblage du génome a été effectué avec des marqueurs microsatellites sur une famille clé. Une analyse de liaison paramétrique nous a suggéré une liaison au chromosome 13 (4.4Mb). Une recherche d’un haplotype partagé entre 17 familles LOCA a diminué la taille de l'intervalle candidat à 1.6Mb, mais l’haplotype s’est avéré fréquent dans la population canadienne-française. Un second criblage du génome avec des marqueurs SNP nous a permis d’évaluer par cartographie d’homozygotie la possibilité qu’une mutation fondatrice partagée dans des sous-groupes de malades. Plusieurs stratégies d'analyse ont été effectuées, entre autre par regroupement régional. Aucun loci candidats ne fut identifié avec confiance. Nous avons donc combiné les données de génotypage avec le séquençage exomique afin d'identifier le gène responsable. L'analyse de six individus atteints nous a permis d'obtenir une liste de variants rare contenant quatre gènes potentiels. Cette analyse doit se poursuivre pour identifier le gène responsable de LOCA.
Resumo:
Le glaucome est la première cause de cécité irréversible à travers le monde. À présent il n’existe aucun remède au glaucome, et les thérapies adoptées sont souvent inadéquates. La perte de vision causée par le glaucome est due à la mort sélective des cellules rétiniennes ganglionnaires, les neurones qui envoient de l’information visuelle de la rétine au cerveau. Le mécanisme principal menant au dommage des cellules rétiniennes ganglionnaires lors du glaucome n’est pas bien compris, mais quelques responsables putatifs ont été proposés tels que l’excitotoxicité, le manque de neurotrophines, la compression mécanique, l’ischémie, les astrocytes réactifs et le stress oxidatif, parmis d’autres. Indépendamment de la cause, il est bien établi que la perte des cellules rétiniennes ganglionnaires lors du glaucome est causée par la mort cellulaire programmée apoptotique. Cependant, les mécanismes moléculaires précis qui déclenchent l’apoptose dans les cellules rétiniennes ganglionnaires adultes sont mal définis. Pour aborder ce point, j’ai avancé l’hypothèse centrale que l’identification de voies de signalisations moléculaires impliquées dans la mort apoptotique des cellules rétiniennes ganglionnaires offrirait des avenues thérapeutiques pour ralentir ou même prévenir la mort de celles-ci lors de neuropathies oculaires telles que le glaucome. Dans la première partie de ma thèse, j’ai caractérisé le rôle de la famille de protéines stimulatrices d’apoptose de p53 (ASPP), protéines régulatrices de la famille p53, dans la mort apoptotique des cellules rétiniennes ganglionnaires. p53 est un facteur de transcription nucléaire impliqué dans des fonctions cellulaires variant de la transcription à l’apoptose. Les membres de la famille ASPP, soit ASPP1, ASPP2 et iASPP, sont des protéines de liaison de p53 qui régulent l’apoptose. Pourtant, le rôle de la famille des ASPP dans la mort des cellules rétiniennes ganglionnaires est inconnu. ASPP1 et ASPP2 étant pro-apoptotiques, l’hypothèse de cette première étude est que la baisse ciblée de ASPP1 et ASPP2 promouvrait la survie des cellules rétiniennes ganglionnaires après une blessure du nerf optique. Nous avons utilisé un modèle expérimental bien caractérisé de mort apoptotique neuronale induite par axotomie du nerf optique chez le rat de type Sprague Dawley. Les résultats de cette étude (Wilson et al. Journal of Neuroscience, 2013) ont démontré que p53 est impliqué dans la mort apoptotique des cellules rétiniennes ganglionnaires, et qu’une baisse ciblée de ASPP1 et ASPP2 par acide ribonucléique d’interference promeut la survie des cellules rétiniennes ganglionnaires. Dans la deuxième partie de ma thèse, j’ai caractérisé le rôle d’iASPP, le membre anti-apoptotique de la famille des ASPP, dans la mort apoptotique des cellules rétiniennes ganglionnaires. L’hypothèse de cette seconde étude est que la surexpression d’iASPP promouvrait la survie des cellules rétiniennes ganglionnaires après axotomie. Mes résultats (Wilson et al. PLoS ONE, 2014) démontrent que le knockdown ciblé de iASPP exacerbe la mort apoptotique des cellules rétiniennes ganglionnaires, et que la surexpression de iASPP par virus adéno-associé promeut la survie des cellules rétiniennes ganglionnaires. En conclusion, les résultats présentés dans cette thèse contribuent à une meilleure compréhension des mécanismes régulateurs sous-jacents la perte de cellules rétiniennes ganglionnaires par apoptose et pourraient fournir des pistes pour la conception de nouvelles stratégies neuroprotectrices pour le traitement de maladies neurodégénératives telles que le glaucome.
Resumo:
Les EHEC de sérotype O157:H7 sont des agents zoonotiques d’origine alimentaire ou hydrique. Ce sont des pathogènes émergeants qui causent chez l’humain des épidémies de gastro-entérite aiguë et parfois un syndrome hémolytique-urémique. Les EHEC réussissent leur transmission à l’humain à partir de leur portage commensal chez l’animal en passant par l’étape de survie dans l’environnement. L’endosymbiose microbienne est une des stratégies utilisées par les bactéries pathogènes pour survivre dans les environnements aquatiques. Les amibes sont des protozoaires vivants dans divers écosystèmes et connus pour abriter plusieurs agents pathogènes. Ainsi, les amibes contribueraient à transmettre les EHEC à l'humain. La première partie de mon projet de thèse est centrée sur l'interaction de l’amibe Acanthamoeba castellanii avec les EHEC. Les résultats montrent que la présence de cette amibe prolonge la persistance des EHEC, et ces dernières survivent à leur phagocytose par les amibes. Ces résultats démontrent le potentiel réel des amibes à héberger les EHEC et à contribuer à leur transmission. Cependant, l’absence de Shiga toxines améliore leur taux de survie intra-amibe. Par ailleurs, les Shiga toxines sont partiellement responsables de l’intoxication des amibes par les EHEC. Cette implication des Shiga toxines dans le taux de survie intracellulaire et dans la mortalité des amibes démontre l’intérêt d’utiliser les amibes comme modèle d'interaction hôte/pathogène pour étudier la pathogénicité des EHEC. Durant leur cycle de transmission, les EHEC rencontrent des carences en phosphate inorganique (Pi) dans l’environnement. En utilisant conjointement le système à deux composantes (TCS) PhoB-R et le système Pst (transport spécifique de Pi), les EHEC détectent et répondent à cette variation en Pi en activant le régulon Pho. La relation entre la virulence des EHEC, le PhoB-R-Pst et/ou le Pi environnemental demeure inconnue. La seconde partie de mon projet explore le rôle du régulon Pho (répondant à un stress nutritif de limitation en Pi) dans la virulence des EHEC. L’analyse transcriptomique montre que les EHEC répondent à la carence de Pi par une réaction complexe impliquant non seulement un remodelage du métabolisme général, qui est critique pour sa survie, mais aussi en coordonnant sa réponse de virulence. Dans ces conditions le régulateur PhoB contrôle directement l’expression des gènes du LEE et de l’opéron stx2AB. Ceci est confirmé par l’augmentation de la sécrétion de l’effecteur EspB et de la production et sécrétion de Stx2 en carence en Pi. Par ailleurs, l’activation du régulon Pho augmente la formation de biofilm et réduit la motilité chez les EHEC. Ceci corrèle avec l’induction des gènes régulant la production de curli et la répression de la voie de production d’indole et de biosynthèse du flagelle et du PGA (Polymère β-1,6-N-acétyle-D-glucosamine).
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de M.S. ès sciences (M.Sc.) en sciences infirmières option formation des sciences infirmières
Resumo:
Port-au-Prince, la ville la plus peuplée des Caraïbes est ceinturée de quartiers précaires connus sous l’appellation de bidonvilles. Ces quartiers construits généralement sur des terrains dangereux, envahis par une population en quête de logement, abritent la plus forte proportion des habitants de la ville. Ils constituent en même temps des lieux d’observation de l’inimaginable capacité des populations locales à garantir l’accès à certains services. À travers l’action d’une association locale évoluant à Village solidarité dans la zone métropolitaine de Port-au-Prince, nous avons étudié les apports et les limites des stratégies utilisées dans l’organisation de services publics d’électricité. L’analyse repose fondamentalement sur une approche de développement local reposant sur cinq notions complémentaires et interreliées qui sont les suivantes : le projet commun, l’appartenance et l’identité collective, les ressources, le leadership, l’opportunité politique. Les résultats de la recherche font état d’un projet commun aux contours assez flous qui reflète des insuffisances au niveau des modes de pensée, et au niveau des ressources matérielles et financières mises en jeu. Le style de leadership en place au sein de l’association est teinté de déterminisme religieux, pris au piège des manœuvres clientélistes des politiciens locaux et infantilisé par l’action des agences gouvernementales. A la fin de l’étude nous dégageons des pistes pour dynamiser les forces du milieu et réorienter l’action associative afin d’aller vers un projet collectif. Ces pistes reposent fondamentalement sur la transformation des modes de pensée influençant l’action et la transformation des pratiques organisationnelles.
Resumo:
Cette étude présente une analyse du discours de la presse écrite avant et après la Révolution égyptienne de 2011 dans deux quotidiens nationaux : un journal d’État, Al Ahram et un journal indépendant, Al Dustûr. Le premier chapitre présente les notions théoriques et approches qui sont pertinentes pour cette étude. Tout d’abord, les travaux de Denis Monière (2009), que nous utilisons pour les analyses lexicale et sémantique. Ensuite, le cadre notionnel développé par Teun Adrianus Van Dijk, qui est important pour notre analyse des stratégies discursives et de l’idéologie. Le second chapitre présente un survol de l’histoire de l’Égypte, du développement de la presse écrite dans ce pays au XXe siècle et de l’histoire des deux journaux d’où sont extraits les textes de notre corpus. Le troisième chapitre présente la méthodologie et les résultats de notre analyse du corpus. Le quatrième chapitre présente enfin les principales stratégies discursives utilisées par ces deux journaux et les conclusions de notre étude, par laquelle nous espérons avoir apporté un éclairage à la compréhension des faits qui ont bouleversé l’histoire récente de l’Égypte.