916 resultados para Extensibilité du réseau
Resumo:
Le but de cette étude est de cerner, à partir de leur propre point de vue, la trajectoire d’adaptation de conjoints dont l’épouse est atteinte d’un cancer de l’ovaire. Une approche qualitative, la théorisation ancrée, a été utilisée dans le cadre de cette recherche. Les données ont été recueillies à l’aide d'entretiens semi-structurés effectués auprès de neuf conjoints qui accompagnaient leur épouse lors de leurs traitements dans une unité montréalaise ultra-spécialisée de soins pour les cancers gynécologiques. Nos résultats font ressortir qu’une fois passé le choc de l’annonce du diagnostic, nos répondants se ressaisissent et élaborent toute une série de stratégies de protection pour leur épouse et eux-mêmes, puis d’attaque de la maladie. Au bilan, pour eux, le cancer se révèle une expérience « transformante» aux plans personnel, conjugal et social. Les contrastes observés entre nos résultats et ceux des études antérieures, qui insistent sur le désarroi de conjoints, peuvent être expliqués par la prise en charge efficace de la femme par le réseau de la santé, qui valorise le rôle du conjoint et qui l’outille pour accompagner son épouse. S’ajoutent à cela la force du lien conjugal, trempé par les épreuves passées, certains traits de personnalité des conjoints et l'action du réseau de soutien personnel. En regard de la pratique infirmière, notre recherche met en évidence le bien-fondé des politiques soutenant l’intégration des familles dans les plans de soins et les retombées positives d’une approche concertée entre tous les intervenants de la santé. Répéter une telle étude dans d'autres institutions du réseau de la santé permettrait de cerner encore plus finement son impact sur l’adaptation de conjoints à la maladie.
Resumo:
La schizophrénie est une maladie mentale grave qui présente une comorbidité fréquente avec la toxicomanie et avec divers troubles immunitaires. Une méta-analyse réalisée récemment dans notre laboratoire a montré une augmentation d’IL-6 (une cytokine pro-inflammatoire), du récepteur soluble d’IL-2 (un marqueur d’activation du système immunitaire), et d’IL-1RA (une cytokine anti-inflammatoire) dans la schizophrénie, suggérant l’existence d’un syndrome inflammatoire dans cette maladie. La toxicomanie aussi est associée au dérèglement du réseau des cytokines inflammatoires, mais les effets dépendent du type de drogues et ils sont parfois diamétralement opposés. On dispose encore de peu d’informations sur le statut immunitaire et inflammatoire des patients qui ont un double diagnostic de schizophrénie et de toxicomanie. Le but de ce travail était d’explorer l’existence d’un état inflammatoire systémique chez les patients schizophrènes et toxicomanes, et l’influence du traitement avec un médicament antipsychotique atypique, la quétiapine. Les objectifs spécifiques étaient : 1) Mesurer les concentrations plasmatiques des cytokines inflammatoires chez les schizophrènes et toxicomanes avant, pendant et après traitement avec la quétiapine ; et 2) Faire des études de corrélations entre les taux de cytokines, les symptômes cliniques, et la consommation de drogues. Les résultats montrent que comparativement aux contrôles normaux, les patients avec un double diagnostic présentent une augmentation d’IL-6, d’IL-1RA, du sIL-2R et d’IL-8 avant traitement à la quétiapine. Les augmentations des concentrations plasmatiques d’IL-1RA sont particulièrement importantes chez les patients avec double diagnostic, si on les compare à celles publiées chez les schizophrènes sans toxicomanie. Le traitement à la quétiapine n’influence pas les concentrations plasmatiques de ces cytokines, sauf sIL-2R qui augmente davantage au cours du traitement. Des corrélations positives de puissance modérée sont retrouvées entre IL-6 et dépression, IL-6 et alcool, IL-1RA et cognition, IL-8 et dépression, IL-8 et alcool, sIL-2R et cannabis. Notre étude révèle que la réponse inflammatoire est activée chez les schizophrènes et toxicomanes. De plus, la toxicomanie semble jouer un rôle facilitant ou potentialisateur dans les augmentations des taux circulants d’IL-1RA. Les études en cours sur différentes populations de schizophrènes avec ou sans toxicomanie, et chez des toxicomanes non schizophrènes permettront de préciser le rôle des différentes drogues d’abus dans le syndrome inflammatoire chez les schizophrènes, ainsi que les implications de ce syndrome sur le plan clinique et thérapeutique.
Resumo:
Cette thèse étudie certains des facteurs liés au développement de l'intérêt pour la politique chez les adolescents à l'aide de trois articles. J'utilise des données provenant d'une enquête par questionnaires, conduite durant trois ans auprès de jeunes Montréalais étudiant au secondaire. Le premier article examine le rôle du réseau social (parents, amis et enseignants) dans le développement de l'intérêt. Je démontre que les parents qui discutent souvent de politique sont plus susceptibles d'avoir des enfants intéressés par la politique et dont l'intérêt se développera. Cependant, le rôle des autres agents de socialisation ne devrait pas être sous-estimé. Les amis ont souvent un effet similaire aux parents lorsqu'il s'agit du changement dans l'intérêt, et les résultats suggèrent que les enseignants, à travers certains cours comme ceux d'histoire, peuvent jouer un rôle civique important. Le deuxième article aborde la question de la causalité entre l'intérêt politique et trois attitudes: le cynisme, l'attachement partisan et le sens du devoir. Il s'agit de voir quel effet la présence de ces attitudes chez les adolescents a sur le développement de leur intérêt politique, et inversement, si l'intérêt a un effet sur le changement dans ces attitudes. Je démontre qu'il existe une relation de réciprocité entre l'intérêt et le cynisme, de même qu'entre l'intérêt et le sens du devoir. Cependant, dans le cas de l'attachement partisan, l'effet est unidirectionnel: le fait d'aimer un parti n'est pas lié à la présence d'intérêt ou de désintérêt politique, alors que cette attitude influence le développement de l'intérêt pour la politique. Le troisième article aborde la question du développement de l'intérêt à l'aide d'entrevues. Treize jeunes ayant répondu aux trois vagues de l'enquête par questionnaires ont été rencontrés et leurs commentaires permettent de répondre à trois questions de recherche: les jeunes ont-ils une image négative de la politique? Les jeunes fuient-ils la controverse? Leurs amis occupent-ils une place prépondérante dans le développement de leur intérêt? Ces jeunes expriment une opinion très nuancée de la politique, de même qu'un goût pour les débats et autres images concrètes de la politique. Par contre, leur intérêt ne se reflète pas dans un engagement soutenu. Enfin, leurs parents sont plus importants que leurs amis lorsqu'il s'agit du développement de leur intérêt pour la politique.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Plusieurs souches cliniques de Candida albicans résistantes aux médicaments antifongiques azolés surexpriment des gènes encodant des effecteurs de la résistance appartenant à deux classes fonctionnelles : i) des transporteurs expulsant les azoles, CDR1, CDR2 et MDR1 et ii) la cible des azoles 14-lanostérol déméthylase encodée par ERG11. La surexpression de ces gènes est due à la sélection de mutations activatrices dans des facteurs de transcription à doigts de zinc de la famille zinc cluster (Zn2Cys6) qui contrôlent leur expression : Tac1p (Transcriptional activator of CDR genes 1) contrôlant l’expression de CDR1 et CDR2, Mrr1p (Multidrug resistance regulator 1), régulant celle de MDR1 et Upc2p (Uptake control 2), contrôlant celle d’ERG11. Un autre effecteur de la résistance clinique aux azoles est PDR16, encodant une transférase de phospholipides, dont la surexpression accompagne souvent celle de CDR1 et CDR2, suggérant que les trois gènes appartiennent au même régulon, potentiellement celui de Tac1p. De plus, la régulation transcriptionnelle du gène MDR1 ne dépend pas seulement de Mrr1p, mais aussi du facteur de transcription de la famille basic-leucine zipper Cap1p (Candida activator protein 1), un régulateur majeur de la réponse au stress oxydatif chez C. albicans qui, lorsque muté, induit une surexpression constitutive de MDR1 conférant la résistance aux azoles. Ces observations suggèrent qu’un réseau de régulation transcriptionnelle complexe contrôle le processus de résistance aux antifongiques azolés chez C. albicans. L’objectif de mon projet au doctorat était d’identifier les cibles transcriptionnelles directes des facteurs de transcription Tac1p, Upc2p et Cap1p, en me servant d’approches génétiques et de génomique fonctionnelle, afin de i) caractériser leur réseau transcriptionnel et les modules transcriptionnels qui sont sous leur contrôle direct, et ii) d’inférer leurs fonctions biologiques et ainsi mieux comprendre leur rôle dans la résistance aux azoles. Dans un premier volet, j’ai démontré, par des expériences de génétique, que Tac1p contrôle non seulement la surexpression de CDR1 et CDR2 mais aussi celle de PDR16. Mes résultats ont identifié une nouvelle mutation activatrice de Tac1p (N972D) et ont révélé la participation d’un autre régulateur dans le contrôle transcriptionnel de CDR1 et PDR16 dont l’identité est encore inconnue. Une combinaison d’expériences de transcriptomique et d’immunoprécipitation de la chromatine couplée à l’hybridation sur des biopuces à ADN (ChIP-chip) m’a permis d’identifier plusieurs gènes dont l’expression est contrôlée in vivo et directement par Tac1p (PDR16, CDR1, CDR2, ERG2, autres), Upc2p (ERG11, ERG2, MDR1, CDR1, autres) et Cap1p (MDR1, GCY1, GLR1, autres). Ces expériences ont révélé qu’Upc2p ne contrôle pas seulement l’expression d’ERG11, mais aussi celle de MDR1 et CDR1. Plusieurs nouvelles propriétés fonctionnelles de ces régulateurs ont été caractérisées, notamment la liaison in vivo de Tac1p aux promoteurs de ses cibles de façon constitutive et indépendamment de son état d’activation, et la liaison de Cap1p non seulement à la région du promoteur de ses cibles, mais aussi celle couvrant le cadre de lecture ouvert et le terminateur transcriptionnel putatif, suggérant une interaction physique avec la machinerie de la transcription. La caractérisation du réseau transcriptionnel a révélé une interaction fonctionnnelle entre ces différents facteurs, notamment Cap1p et Mrr1p, et a permis d’inférer des fonctions biologiques potentielles pour Tac1p (trafic et la mobilisation des lipides, réponse au stress oxydatif et osmotique) et confirmer ou proposer d’autres fonctions pour Upc2p (métabolisme des stérols) et Cap1p (réponse au stress oxydatif, métabolisme des sources d’azote, transport des phospholipides). Mes études suggèrent que la résistance aux antifongiques azolés chez C. albicans est intimement liée au métabolisme des lipides membranaires et à la réponse au stress oxydatif.
Resumo:
Ce mémoire porte sur le rôle que jouent les médias de masse dans la construction de la personnalité publique des nouveaux chefs de partis politiques. Lorsqu’un individu est nommé à la tête d’un parti politique, il est la plupart du temps peu connu du grand public. Or, comme une écrasante majorité de citoyens n’a jamais l’occasion d’entrer en contact directement avec les hommes et les femmes politiques, c’est exclusivement par le biais des médias que la plupart des gens apprennent à connaître leurs représentants politiques – ou ceux qui aspirent à jouer ce rôle. Or les médias ne se contentent pas de répéter ce que les politiciens disent. Les informations qu’ils décident d’inclure dans leurs reportages, les mots qu’ils utilisent et les cadrages qu’ils retiennent contribuent à définir la personnalité des leaders émergents dont ils parlent. Les médias choisissent aussi de mettre l’accent sur certains traits de personnalité et décident d’en ignorer d’autres. Afin de mieux comprendre ce phénomène, nous avons étudié le cas de l’ex-chef du Parti québécois, André Boisclair. Nous avons cherché à savoir si la couverture dont ce dernier a fait l’objet a été stable ou si elle a suivi certains cycles, et nous nous sommes intéressés aux critères retenus par les médias pour évaluer sa personnalité. Pour ce faire, nous avons étudié le volume, le format, le ton, les objets et les cadrages qui caractérisent la couverture dont a été l’objet André Boisclair à l’antenne de la Société Radio-Canada et du Réseau TVA entre le 4 juin 2005 et le 21 février 2007. Nos conclusions sont à l’effet que la couverture a bel et bien suivi un cycle, et que les critères retenus par les médias sont très similaires à ceux qui sont réputés être importants pour la population dans le choix d’un leader politique.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Élaborée à partir d’une étude de cas extensive focalisant sur les perspectives multiples et concurrentes ayant émergé lors des négociations sur la gouvernance de l’Internet, thématique ayant dominé l’agenda politique du Sommet mondial sur la société de l’information (SMSI), cette thèse examine les manières avec lesquelles les débats mondiaux sur la gouvernance de l’Internet influencent la notion d’intérêt public en communication. Établie sur la base d’une observation participante extensive, d’entrevues semi-structurées et de l’analyse d’une documentation formelle et informelle associée au SMSI, cette thèse fait état de l’émergence des enjeux associés à la gouvernance de l’Internet au SMSI et présente une analyse approfondie des négociations ayant porté sur cet enjeu. Le cadre théorique développé par Lawrence Lessig au travers duquel « le code est la loi » est appliqué afin d’expliquer comment les différents acteurs ont débattu et ultimement atteint un consensus sur les frontières venant séparer les enjeux normatifs de politique publique et les questions techniques de régulation et de gestion du réseau. Cette thèse discute également de l’évolution des débats autour de la gouvernance mondiale de l’Internet ayant pris place à la suite de la conclusion du SMSI. Sur la base de cette étude de cas, un ensemble de conclusions sont formulées sur les acteurs et les caractéristiques institutionnelles ayant influencé les négociations sur la gouvernance de l’internet. Il est également suggéré que le SMSI a redéfini une discussion étroite sur la gestion d’un ensemble de fonctions techniques de l’Internet en un domaine de politique publique plus large de gouvernance mondiale de l’Internet. Il est également défendu que la notion d’intérêt public dans la gouvernance mondiale de l’Internet est conceptualisée autour des processus de participation et d’intégration des différentes parties prenantes au processus politique. Les implications directes et indirectes qui découlent de ce constat pour comprendre plus largement la notion d’intérêt public dans le domaine de la communication sont également présentées et discutées. En conclusion, cette thèse s’interroge sur les implications programmatiques des éléments ayant été précédemment soulevées pour la recherche médiatique et communicationnelle.
Resumo:
Réalisé en cotutelle avec l'Université de Paris-sud XI, France.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
L’objectif de ce mémoire est de faire un état des lieux des connaissances produites sur les risques environnementaux et la vulnérabilité et appliquer ces connaissances à la ville de Kigali (Rwanda). Après avoir présenté différentes approches, nous avons retenu le cadre d’analyse qui s’inscrit dans l’approche de J.C. Thouret et R.D’Ercole (1996). Cette approche est articulée autour de trois dimensions : enjeux, facteurs de la vulnérabilité et réponses sociales. A travers l’application des éléments pertinents de ces trois dimensions dans le cas de la ville de Kigali, réalisée grâce à une analyse qualitative, centrée sur l’analyse des documents et des entrevues semi-dirigées, voici les principaux résultats que nous avons obtenus: l’analyse des enjeux a révélé que la ville de Kigali est confrontée à plusieurs dommages, parmi lesquels, on peut mentionner les pertes des vies humaines, la démolition des maisons, la contamination des rivières, la prolifération des maladies et la perturbation des besoins de base ( eau potable, électricité, transport) dues aux risques. Cette situation s’explique par la combinaison de plusieurs facteurs dont le relief collinaire, le sol granitique, les pluies violentes, le caractère centrifuge du réseau hydrographique, le sous-dimensionnement des ouvrages d’évacuation et le réseau d’assainissement insuffisant. D’autres facteurs amplifient la vulnérabilité dont l’explosion démographique consécutive à une urbanisation spontanée et inconsciente en zones inondables, l’ensablement des lits des rivières, le vide juridique, les politiques fragmentaires et le dysfonctionnement des acteurs impliqués dans la gestion des risques. Cette situation aurait probablement été améliorée si les réponses sociales étaient efficaces. Or, d’un côté, la faible perception de risque chez les résidants affectés par les risques accélère davantage la vulnérabilité et de l’autre côté, l’intervention significative des CIB n’est pas accompagnée d’actions complémentaires des institutions publiques et des agences internationales.
Resumo:
Le dogme voulant que les récepteurs couplés aux protéines G (GPCRs) activent des voies de signalisation seulement lorsqu’ils sont localisés à la membrane plasmatique, a récemment été remis en question. Des données récentes indiquent que certains GPCRs peuvent également induire une réponse intracellulaire à partir des compartiments intracellulaires dont le noyau. Les récepteurs activés par la protéase (PAR) sont des membres de la famille GPCR. Les PARs sont activés par le clivage de la partie N–terminale du récepteur ce qui permet au ligand attaché sur le récepteur de se lier à sa poche réceptrice. Quatre PARs ont été décrits : PAR1, PAR2, PAR3 et PAR4. PAR2 peut susciter des effets mitogéniques et participer aux processus comme l’angiogenèse et l'inflammation. Alors que beaucoup d'effets intracellulaires de PAR2 peuvent être expliqués lorsqu’il est localisé à la membrane plasmatique, une fonction intracrine de PAR2 a aussi été proposée. Pourtant les mécanismes par lesquels PAR2 peut provoquer l’expression de gènes ciblés sont toujours inconnus. Le but de notre étude était de vérifier l’existence d’une population nucléaire de PAR2. Nous avons également émis l’hypothèse que les voies activées par l’activation de PAR2 dépendent de sa localization cellulaire. En utilisant des techniques de microscopie confocale et de "Western Blot" nous avons démontré la présence d’une population nucléaire de PAR2. À la suite de la stimulation de PAR2, nous avons observé une augmentation de la translocation du récepteur de la membrane plasmatique au noyau. En utilisant la technique de "RT – PCR", nous avons observé des rôles différents de PAR2 à la surface de la cellule et du noyau dans l’initiation de l’expression des gènes. Afin d’identifier les mécanismes responsables de la translocation nucléaire de PAR2, nous avons évalué l’implication des membres de la famille de "Sorting Nexins (SNX)" dans la translocation nucléaire de PAR2. "Sorting Nexins" est un groupe de protéines avec des fonctions de transport bien établies. SNX1 et SNX2 ont été identifiés comme responsables du transfert de PAR1 vers les lysosomes. SNX11 n'a pas encore été étudié et nous avons émis l’hypothèse qu'il pourrait être un autre membre de la famille des SNX impliqué dans la signalisation de PAR2. Pour ce faire, nous avons développé des "knockdowns" stables pour SNX1, SNX2 et SNX11 dans les cellules HEK293. En utilisant les essais d’immunofluorescence, "Western Blot" et de cytométrie en flux, nous avons déterminé que tous les trois membres du groupe SNX sont des partenaires d'interaction de PAR2. Toutefois, seul SNX11 se co-localise avec son partenaire au noyau et est responsable de sa translocation nucléaire. Les expériences de "RT - PCR" sur les lignées de cellule de SNXs "knockdowns" ont démontré que la fonction de PAR2 nucléaire dépend surtout de SNX11; néanmoins SNX1 et SNX2 peuvent aussi l’influencer, suggérant qu'ils font aussi partie du réseau signalétique de PAR2. En conclusion, PAR2 est déplacé de la membrane plasmatique à la membrane nucléaire après sa stimulation avec un agoniste. La translocation nucléaire de PAR2 par un mécanisme impliquant SNX11, initie des effets intracellulaires différents de sa signalisation membranaire. Mots clés : récepteurs couplés à la protéine G, “Sorting Nexins”, récepteurs activés par la protéase, translocation nucléaire, membrane nucléaire, signal nucléaire.
Resumo:
INTRODUCTION : En milieu urbain, l’amélioration de la sécurité des piétons pose un défi de santé publique. Pour chaque décès attribuable aux collisions routières, il y a des centaines de personnes blessées et, dans les pays riches, la diminution du nombre annuel de piétons décédés s’expliquerait en partie par la diminution de la marche. Les stratégies préventives prédominantes n’interviennent pas sur le volume de circulation automobile, un facteur pourtant fondamental. De plus, les interventions environnementales pour améliorer la sécurité des infrastructures routières se limitent habituellement aux sites comptant le plus grand nombre de décès ou de blessés. Cette thèse vise à décrire la contribution des volumes de circulation automobile, des pratiques locales de marche et de la géométrie des routes au nombre et à la répartition des piétons blessés en milieu urbain, et d’ainsi établir le potentiel d’une approche populationnelle orientée vers la reconfiguration des environnements urbains pour améliorer la sécurité des piétons. MÉTHODE : Le devis est de type descriptif et transversal. Les principales sources de données sont les registres des services ambulanciers d’Urgences-santé (blessés de la route), l’enquête Origine-Destination (volumes de circulation automobile), la Géobase du réseau routier montréalais (géométrie des routes) et le recensement canadien (pratiques locales de marche, position socioéconomique). Les analyses descriptives comprennent la localisation cartographique (coordonnées x,y) de l’ensemble des sites de collision. Des modèles de régression multi-niveaux nichent les intersections dans les secteurs de recensement et dans les arrondissements. RÉSULTATS : Les analyses descriptives démontrent une grande dispersion des sites de collision au sein des quartiers. Les analyses multivariées démontrent les effets significatifs, indépendants du volume de circulation automobile, de la présence d’artère(s) et d’une quatrième branche aux intersections, ainsi que du volume de marche dans le secteur, sur le nombre de piétons blessés aux intersections. L’analyse multi-niveaux démontre une grande variation spatiale de l’effet du volume de circulation automobile. Les facteurs environnementaux expliquent une part substantielle de la variation spatiale du nombre de blessés et du gradient socioéconomique observé. DISCUSSION : La grande dispersion des sites de collision confirme la pertinence d’une approche ne se limitant pas aux sites comptant le plus grand nombre de blessés. Les résultats suggèrent que des stratégies préventives basées sur des approches environnementales et populationnelle pourraient considérablement réduire le nombre de piétons blessés ainsi que les inégalités observées entre les quartiers.
Resumo:
Cette thèse porte sur l’introduction des politiques de transfert de revenu au Brésil. L’objectif central de la recherche est de comprendre comment ces politiques se sont imposées dans le cadre des réformes de la protection sociale brésilienne pendant les années 1990, notamment à partir de 1995 et comment elles ont engendré un changement paradigmatique de troisième ordre de la politique nationale d’assistance sociale. Nous posons deux hypothèses de recherche : la première est que l’introduction de telles politiques au Brésil fut le résultat du rôle historique des intellectuels engagés dans la défense du revenu minimum en tant qu’alternative au modèle de protection sociale brésilien. Cette défense du revenu minimum fut soutenue par des intellectuels, des communautés épistémiques et par des politiciens qui ont inscrit le débat sur le revenu minimum à l’agenda politique brésilien. La deuxième hypothèse suggère que la convergence d’idées, d’institutions et d’intérêts a favorisé l’adoption de ces politiques. Cette convergence d’idées, d’institutions et d’intérêts repose sur le rôle de plusieurs acteurs tels les intellectuels, le président Cardoso et d’autres politiciens qui se sont mis à la défense du social au Brésil depuis 1999, des institutions parlementaires brésiliennes et des organisations internationales, notamment le FMI, la Banque mondiale et la Banque interaméricaine de développement – BID. Nous proposons l’approche des trois i pour rendre compte de ce changement. L’apprentissage social, les processus de diffusion et de lesson-drawing sont les facteurs à l’origine de la formation de la convergence autour des programmes de transfert de revenu. Nous montrerons que l’expérience brésilienne de programmes de transfert de revenu a non seulement engendré un processus d’apprentissage social renversé auprès de la Banque Mondiale mais qu'elle a aussi eu un effet aussi sur les actions de la BID. Nous suggérons que le changement paradigmatique de la protection sociale brésilienne a été amorcé par le gouvernement Cardoso dans un processus d’essais et d’erreurs. Ce processus, qui est à l’origine des réaménagements du programme « Comunidade Solidária », a permis la création du « Projeto Alvorada » et du « Réseau de protection sociale » en 2001. Les programmes de transfert de revenu reliés à l’éducation et aux soins de santé ont été les plus influents dans la construction du consensus qui s’est établi autour des programmes de transfert de revenu comme alternative à l’ancien modèle de protection sociale puisqu’ils procurent le renforcement du capital social en même temps qu’ils fonctionnent comme facteur structurant de la protection sociale. Ce legs du gouvernement Cardoso a permis au gouvernement de Luis Inácio Lula da Silva de consolider le nouveau paradigme avec la création du programme national Bolsa-Família. Le gouvernement Lula a donc bénéficié de l’héritage historique des deux mandats de Cardoso et, ironiquement, a récolté les fruits de l’apprentissage social. Le phénomène du « lulismo » en est la preuve. Par ailleurs, cette thèse met en question la paternité du programme Bolsa-Família puisqu’elle montre la création de ce programme d'abord comme la consolidation du processus d’apprentissage et puis comme conséquence de la création d’un nouveau paradigme pour la politique d’assistance sociale au Brésil qui a eu lieu pendant les deux mandats de Cardoso.
Resumo:
Le Virus Herpès Simplex de type 1 (HSV-1) est un agent infectieux qui cause l’herpès chez une grande proportion de la population mondiale. L’herpès est généralement considéré comme une maladie bénigne dont la forme la plus commune est l'herpès labial (communément appelé « bouton de fièvre »), mais elle peut se révéler très sérieuse et causer la cécité et l’encéphalite, voir létale dans certain cas. Le virus persiste toute la vie dans le corps de son hôte. Jusqu'à présent, aucun traitement ne peut éliminer le virus et aucun vaccin n’a été prouvé efficace pour contrôler l’infection herpétique. HSV-1 est un virus avec un génome d’ADN bicaténaire contenu dans une capside icosaèdrale entourée d’une enveloppe lipidique. Treize glycoprotéines virales se trouvent dans cette enveloppe et sont connues ou supposées jouer des rôles distincts dans différentes étapes du cycle de réplication viral, incluant l'attachement, l'entrée, l’assemblage, et la propagation des virus. La glycoprotéine M (gM) qui figure parmi ces glycoprotéines d’enveloppe, est la seule glycoprotéine non essentielle mais est conservée dans toute la famille herpesviridae. Récemment, l’homologue de gM dans le Pseudorabies virus (PRV), un autre herpesvirus, a été impliqué dans la phase finale de l’assemblage (i.e. l’enveloppement cytoplasmique) au niveau du réseau trans-Golgi (TGN) en reconnaissant spécifiquement des protéines tégumentaires et d’autres glycoprotéines d’enveloppe ([1]). Toutefois, il a été proposé que cette hypothèse ne s’applique pas pour le HSV-1 ([2]). De plus, contrairement à la localisation au TGN dans les cellules transfectées, HSV-1 gM se localise dans la membrane nucléaire et sur les virions périnucléaires durant une infection. L’objectif du projet présenté ici était d’éclaircir la relation de la localisation et la fonction de HSV-1 gM dans le contexte d’une infection. Dans les résultats rapportés ici, nous décrivons tout abord un mécanisme spécifique de ciblage nucléaire de HSV-1 gM. En phase précoce d’une infection, gM est ciblée à la membrane nucléaire d'une manière virus ii dépendante. Cela se produit avant la réorganisation du TGN normalement induite par l’infection et avant que gM n’entre dans la voie de sécrétion. Ce ciblage nucléaire actif et spécifique de gM ne semble pas dépendre des plusieurs des partenaires d’interaction proposés dans la littérature. Ces données suggèrent que la forme nucléaire de gM pourrait avoir un nouveau rôle indépendant de l’enveloppement final dans le cytoplasme. Dans la deuxième partie du travail présenté ici, nous avons concentré nos efforts sur le rôle de gM dans l’assemblage du virus en phase tardive de l’infection et en identifiant un domaine critique de gM. Nos résultats mettent en valeur l’importance du domaine carboxyl-terminal cytoplasmique de gM dans le transport de gM du réticulum endoplasmique (RE) à l’appareil de Golgi, dans l’enveloppement cytoplasmique et la propagation intercellulaire du virus. Ainsi, l’export du RE de gM a été complètement compromis dans les cellules transfectées exprimant un mutant de gM dépourvu de sa région C-terminale. La délétion la queue cytoplasmique de gM cause une réduction légère du titre viral et de la taille des plaques. L'analyse de ces mutants par microscopie électronique a démontré une accumulation des nucléocapsides sans enveloppe dans le cytoplasme par rapport aux virus de type sauvage. Étrangement, ce phénotype était apparent dans les cellules BHK mais absent dans les cellules 143B, suggérant que la fonction de gM dépende du type cellulaire. Finalement, le criblage de partenaires d’interaction du domaine C-terminal de gM identifiés par le système de double-hybride nous a permis de proposer plusieurs candidats susceptibles de réguler la fonction de gM dans la morphogénèse et la propagation de virus.