943 resultados para Points entiers contenu dans des sphères
Resumo:
Résumé Depuis le début des années 1990, la recherche sur le développement régional a pris une importance considérable dans les disciplines de l’économie et de la géographie dans la plupart des pays. De nombreuses études ont été consacrées à ce sujet et l’on constate une approche analytique de plus en plus sophistiquée. Que les économies pauvres ont tendance à converger vers les pays riches, ou bien à diverger au fil du temps est une question qui a attiré l'attention des décideurs et des universitaires depuis quelques décennies. Convergence ou de divergence économique est un sujet d'intérêt et de débat, non seulement pour valider ou non les deux modèles principaux de croissance qui sont considérés comme concurrent (l’approche néo-classique et celle des approches de croissance endogène), mais aussi pour ses implications pour les publiques politiques. En se basant sur une analyse des politiques de développement régional et des analyses statistiques de la convergence et des disparités régionales, les objectifs de cette thèse sont de tenter de fournir une explication des différents processus et des modèles de développement économique régional poursuivis dans le cas de territoires immenses en utilisant le Canada et la Chine comme études de cas, d'entreprendre une analyse des différents facteurs et des forces motrices qui sous-tendent le développement régional dans ces deux pays, et d'explorer à la fois les réussites et les échecs apparents dans les politiques de développement régional en comparant et contrastant les expériences de développement régional et les modèles de ces deux pays. A fin d'atteindre cet objectif, la recherche utilise une approche multi-scalaire et des méthodes de mesure multidimensionnelle dans le cadre des analyses sur les disparités « régionales » entre les macro régions (sous-ensembles de provinces) des deux pays, des provinces et des régions urbaines sélectionnées, dans le but ultime d’identifier des problèmes existants en termes de développement régional et de pouvoir proposer des solutions. Les étapes principales de la recherche sont : 1. La cueillette des données statistiques pour le Canada et la Chine (incluant les provinces de Québec et de Xinjiang) pour une gamme d’indicateurs (voir ci-dessous). 2. D’entreprendre une analyse de chaque dimension dans les deux juridictions: Population (p.ex. composition, structure, changement); Ressources (p. ex. utilisation, exploitation de l’énergie); Environnement (p.ex. la pollution); et le Développement socioéconomique (p.ex. le développement et la transformation des secteurs clé, et les modèles de développement rural et urbain), et les disparités changeantes par rapport à ces dimensions. 3. La définition d’une typologie de différents types de région en fonction de leurs trajectoires de développement, ce qui servira pour critiquer l’hypothèse centre-périphérie. 4. Le choix d’une région métropolitaine dans chaque juridiction (province). 5. D’entreprendre une analyse temporelle des événements clé (politiques, investissements) dans chaque région et les facteurs impliqués dans chaque événement, en utilisant l’information documentaire générale et des agences institutionnelles impliqués actuellement et dans un passée récent. Cette étude a tenté d'expliquer les schémas et les processus des deux économies, ainsi que la présentation d'études de cas qui illustrent et examinent les différences dans les deux économies à partir de l’échelle nationale jusqu’au niveau régional et provincial et aussi pour certaines zones urbaines. Cette étude a essayé de répondre aux questions de recherche comme: Est-il vrai que les pays avec des plus grandes territoires sont associés avec des plus grandes disparités interrégionales? Quel est le résultat des comparaisons entre pays développés et pays en développement? Quels sont les facteurs les plus importants dans le développement économique de vastes territoires dans les pays développés et pays en développement? Quel est le mécanisme de convergence et de divergence dans les pays développés et, respectivement, les pays en développement? Dans l'introduction à la thèse, le cadre général de l'étude est présenté, suivie dans le chapitre 1 d'une discussion sur les théories et les concepts utilisés dans la littérature théorique principale qui est pertinent à l'étude. Le chapitre 2 décrit la méthodologie de recherche. Le chapitre 3 présente une vue d'ensemble des politiques de développement économique régional et les programmes du Canada et de la Chine dans des périodes différentes à différentes échelles. Au chapitre 4, la convergence des deux pays à l'échelle nationale et la convergence provinciale pour chaque pays sont examinés en utilisant différentes méthodes de mesure telles que les méthodes traditionnelles, la convergence bêta et la convergence sigma. Dans le chapitre le plus complexe, le chapitre 5, les analyses comparatives sont présentées à l'aide de données statistiques, à partir des analyses des cas régionaux et provinciaux retenus des deux pays. Au chapitre 6, ces dispositions sont complétées par une analyse des régions urbaines choisies, qui permet également des aperçus sur les régions les plus périphériques. Dans la recherche proposée pour cette thèse, la politique, la population, le revenu, l'emploi, la composition industrielle, l'investissement, le commerce et le facteur de la migration sont également pris en compte comme facteurs importants de l'analyse régionale compte tenu de la superficie du territoire des deux pays et les différences de population entre eux. Cette thèse a évalué dans quelle mesure les politiques gouvernementales ont réussi à induire la convergence régionale ou ont encore ont creusé davantage les disparités régionales, ce qui implique nécessairement une évaluation de la durabilité des patrons et des programmes de développement régional. Cette étude a également mis l'accent sur les disparités régionales et la politique de développement régional, les comparaisons entre pays, pour mesurer la convergence entre les pays et entre les régions, y compris l'analyse spatiale, d'identifier les facteurs les plus actifs tels que la population, les ressources, la politique, l'urbanisation, les migrations, l'ouverture économique et leurs différents rôles dans le développement économique de ces grands territoires (au Canada et Chine). Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionales et les disparités régionales dans les deux économies. L'approche adoptée a révélé les différentes mosaïques complexes du développement régional dans les deux pays. Les résultats de cette étude ont démontré que la disparité en termes de revenu régional est une réalité dans chaque zone géographique, et que les causes sont nombreuses et complexes. Les deux économies ont certains parallèles dans la mise en œuvre des politiques de développement économique régional, mais il existe des différences importantes aussi et elles se sont développées à différentes vitesses. Les deux économies se sont développées depuis la Seconde Guerre mondiale, mais la Chine a connu une croissance rapide que le Canada comme témoignent de nombreux indicateurs depuis 1980. Cependant, la Chine est maintenant confrontée à un certain nombre de problèmes économiques et sociaux, y compris les disparités régionales marquées, un fossé toujours croissant entre les revenus ruraux et urbains, une population vieillissante, le chômage, la pauvreté et la dégradation rapide de l'environnement avec toujours plus de demandes en énergie. Le développement économique régional en Chine est plus déséquilibré. Le Canada accuse un degré de disparités régionales et provinciales moins important que la Chine. Dans les cas provinciaux, il existe d'importantes différences et de disparités dans la structure économique et spatiale du Québec et du Xinjiang. Les disparités infra provinciales sont plus grandes que celles à l’échelle des provinces et des grandes régions (des sous-ensembles de provinces). Les mécanismes de convergence et de divergence dans les deux pays sont différents. Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionale et les disparités régionales dans les deux économies. Cette étude démontre également que l'urbanisation (les métropoles et les villes) s’avère être le facteur le plus actif et contribue à l'économie régionale dans ces grands territoires. L'ouverture a joué un rôle important dans les économies des deux pays. La migration est un facteur majeur dans la stimulation de l'économie des deux pays mais de façons différentes. Les résultats empiriques démontrent que les disparités régionales ne peuvent pas être évitées et elles existent presque partout. Il n'y a pas une formule universelle et de politiques spécifiques sont de mise pour chaque région. Mais il semble possible pour les décideurs politiques nationaux et régionaux d’essayer de maintenir l'écart à une échelle raisonnable pour éviter l'instabilité sociale.
Resumo:
Les chimiokines et leurs récepteurs respectifs jouent un rôle important dans l’immunité innée et adaptative. Les récepteurs de chimiokines identifient des cellules T CD4+ avec potentiel de migration dans des tissus spécifiques et à fonctionnalité distincte du point de vue de la spécificité antigénique et de la production de cytokines. L’identité de la population des cellules T CD4+ susceptibles versus résistantes à l’infection par le virus de l’immunodéficience humaine (VIH) reste mal définie. Le recrutement dans les muqueuses intestinales d’un excès de cellules T effectrices (CD8+) comparé aux cellules cibles (CD4+) représente un bon pronostic de l’infection par le virus de l’immunodéficience simienne (VIS), tandis que la déplétion des cellules Th17 dans les tissus lymphoïdes associés au tractus gastro-intestinal (GALT) est un marqueur de la progression de l’infection à VIH. L’effet régulateur des chimiokines sur l’activation de la réplication virale dans différentes sous-populations cellulaires T CD4+ reste peu étudié. Ce projet de maîtrise est divisé en 3 parties: (1) l’identification des récepteurs de chimiokines CCR4, CXCR3 et CCR6 comme marqueurs de surfaces des sous populations T CD4+ avec susceptibilité distincte à l’infection par le VIH; (2) la caractérisation phénotypique et fonctionnelle des cellules T CD4+ et T CD8+ spécifiques au VIH de sujets à progression lente vers le stade sida (LTNP); et (3) les effets des chimiokines ligands de CCR4, CXCR3 et CCR6 sur l’activation cellulaire et la réplication virale in vitro. Nos résultats démontrent que les cellules T CD4+ CCR4+CCR6+ (profile cytokinique Th17) et CXCR3+CCR6+ (profile cytokinique Th1/Th17) sont hautement permissives à l’infection par le VIH. Nous proposons également de nouveaux corrélats de protection immunitaire contre le VIH chez les sujets LTNP: (i) le potentiel de co-localisation dans les muqueuses intestinales des cellules T CD4+ et CD8+ spécifiques au VIH via l’intégrine β7, (ii) le ratio élevé entre les cellules T effectrices (CD8+) versus les cellules cibles (CD4+) spécifiques au VIH, (iii) le profil cytokinique Th17 et (iv) la capacité des cellules T CD4+ et CD8+ spécifiques au VIH à produire des ligands de CCR5 bloquant l’entrée virale. Finalement, nos résultats sur l’effet co-stimulateur des chimiokines sur les cellules T et leurs effets opposés sur la réplication virale démontrent l’implication du réseau des chimiokines dans la régulation de la pathogenèse de l’infection à VIH.
Resumo:
La navigation repose en majeure partie sur la vision puisque ce sens nous permet de rassembler des informations spatiales de façon simultanée et de mettre à jour notre position par rapport à notre environnement. Pour plusieurs aveugles qui se fient à l’audition, le toucher, la proprioception, l’odorat et l’écholocation pour naviguer, sortir à l’extérieur de chez soi peut représenter un défi considérable. Les recherches sur le circuit neuronal de la navigation chez cette population en particulier s’avèrent donc primordiales pour mieux adapter les ressources aux handicapés visuels et réussir à les sortir de leur isolement. Les aveugles de naissance constituent aussi une population d’intérêt pour l’étude de la neuroplasticité. Comme leur cerveau s’est construit en absence d’intrant visuel, la plupart des structures reliées au sens de la vue sont réduites en volume par rapport à ceux de sujets voyants. De plus, leur cortex occipital, une région normalement dédiée à la vision, possède une activité supramétabolique au repos, ce qui peut représenter un territoire vierge pouvant être recruté par les autres modalités pour exécuter diverses tâches sensorielles. Plusieurs chercheurs ont déjà démontré l’implication de cette région dans des tâches sensorielles comme la discrimination tactile et la localisation auditive. D’autres changements plastiques de nature intramodale ont aussi été observés dans le circuit neuronal de la navigation chez ces aveugles. Par exemple, la partie postérieure de l’hippocampe, impliquée dans l’utilisation de cartes mentales, est réduite en volume alors que la section antérieure est élargie chez ces sujets. Bien que ces changements plastiques anatomiques aient bel et bien été observés chez les aveugles de naissance, il reste toutefois à les relier avec leur aspect fonctionnel. Le but de la présente étude était d’investiguer les corrélats neuronaux de la navigation chez l’aveugle de naissance tout en les reliant avec leurs habiletés spatio-cognitives. La première étude comportementale a permis d’identifier chez les aveugles congénitaux une difficulté d’apprentissage de routes tactiles construites dans des labyrinthes de petite échelle. La seconde étude, employant la technique d’imagerie par résonance magnétique fonctionnelle, a relié ces faiblesses au recrutement de régions cérébrales impliquées dans le traitement d’une perspective égocentrique, comme le lobule pariétal supérieur droit. Alors que des sujets voyants aux yeux bandés excellaient dans la tâche des labyrinthes, ces derniers recrutaient des structures impliquées dans un traitement allocentrique, comme l’hippocampe et le parahippocampe. Par ailleurs, la deuxième étude a confirmé le recrutement du cortex occipital dans une tâche de navigation chez les aveugles seulement. Ceci confirme l’implication de la plasticité intermodale dans des tâches cognitives de plus haut niveau, comme la navigation.
Resumo:
Durant la dernière décennie, les développements technologiques en radiothérapie ont transformé considérablement les techniques de traitement. Les nouveaux faisceaux non standard améliorent la conformité de la dose aux volumes cibles, mais également complexifient les procédures dosimétriques. Puisque des études récentes ont démontré l’invalidité de ces protocoles actuels avec les faisceaux non standard, un nouveau protocole applicable à la dosimétrie de référence de ces faisceaux est en préparation par l’IAEA-AAPM. Le but premier de cette étude est de caractériser les facteurs responsables des corrections non unitaires en dosimétrie des faisceaux non standard, et ainsi fournir des solutions conceptuelles afin de minimiser l’ordre de grandeur des corrections proposées dans le nouveau formalisme de l’IAEA-AAPM. Le deuxième but de l’étude est de construire des méthodes servant à estimer les incertitudes d’une manière exacte en dosimétrie non standard, et d’évaluer les niveaux d’incertitudes réalistes pouvant être obtenus dans des situations cliniques. Les résultats de l’étude démontrent que de rapporter la dose au volume sensible de la chambre remplie d’eau réduit la correction d’environ la moitié sous de hauts gradients de dose. Une relation théorique entre le facteur de correction de champs non standard idéaux et le facteur de gradient du champ de référence est obtenue. En dosimétrie par film radiochromique, des niveaux d’incertitude de l’ordre de 0.3% sont obtenus par l’application d’une procédure stricte, ce qui démontre un intérêt potentiel pour les mesures de faisceaux non standard. Les résultats suggèrent également que les incertitudes expérimentales des faisceaux non standard doivent être considérées sérieusement, que ce soit durant les procédures quotidiennes de vérification ou durant les procédures de calibration. De plus, ces incertitudes pourraient être un facteur limitatif dans la nouvelle génération de protocoles.
Resumo:
Le rodéo à Wall Street a pris fin. En effet, le président américain a promulgué la réforme de la régulation financière le 21 juillet 2010. Le H.R. 4173 : Dodd-Frank Wall Street Reform and Consumer Protection Act of 2010 n’est toutefois que le début d’un long processus. La majeure partie de l’édifice législatif repose sur l’intervention d’agences gouvernementales chargées d’édicter des décrets d’exécution dans un délai plus ou moins long. L’adoption de la réforme américaine constitue néanmoins un signal fort à destination des acteurs de la finance pour leur signifier que les règles du jeu ont changé. L’objectif de ce papier d’actualisation s’attache à exposer les dispositions visant les sociétés commerciales et portant sur leur gouvernance et la rémunération de leurs dirigeants. Ces deux thématiques prennent, à l’heure actuelle, une résonance particulière avec la révélation d’émoluments aux montants exorbitants consentis dans des sociétés et des établissements financiers mis à mal par des erreurs stratégiques de leur management.
Resumo:
Résumé: Les progrès réalisés dans le domaine médical ont permis un prolongement de l’espérance de vie, l’amélioration de la qualité de vie des patients; ce qui implique aussi des changements dans des domaines comme l’assurance-vie. Le principe de la tarification en assurance-vie est basé sur la comparaison du risque (probabilité) de décès d’un individu candidat à une police d’assurance à celui d’une population de référence la plus proche possible du candidat. C’est ainsi que l’analyse de la littérature médicale est devenue un outil indispensable dans la sélection des risques. L’assurance-vie est présente en Afrique subsaharienne depuis environ deux cents ans, mais les assureurs ne disposaient pas jusqu'à nos jours d’outils de tarification spécifiques au contexte africain. A notre connaissance notre travail est le premier effort de ce type à s’intéresser à ce sujet. Son objectif est d’élaborer un outil de tarification qui tiendra compte des aspects spécifiques de la mortalité et de la morbidité sur le continent africain. Dans une première partie nous avons conduit une revue de la littérature médicale disponible sur différents problèmes de santé; dans une seconde étape nous avons identifié les facteurs de risque de morbidité et de mortalité afin de proposer une sélection des risques pour une tarification. Les résultats montrent que les études de mortalité, et principalement les cohortes de suivi à long terme sont rares en Afrique subsaharienne; la majorité des études sont de courte durée et en plus elles enrôlent un nombre restreint de patients. Ces insuffisances ne permettent pas une analyse actuarielle approfondie et les résultats sont difficiles à extrapoler directement dans le domaine de la tarification. Cependant, l’identification des facteurs d’aggravation de la mortalité et de la morbidité permettra un ajustement de la tarification de base. Le sujet noir africain présente un profil de mortalité et de morbidité qui est sensiblement différent de celui du sujet caucasien, d’où la nécessité d’adapter les outils de tarification actuellement utilisés dans les compagnies d’assurance qui opèrent en Afrique subsaharienne. L’Afrique au sud du Sahara a besoin aujourd’hui plus que jamais de données épidémiologiques solides qui permettront de guider les politiques sanitaires mais aussi servir au développement d’une sélection des risques adaptés au contexte africain. Ceci passera par la mise en place d’un réseau coordonné de santé publique, un système de surveillance démographique fiable et un suivi continu des mouvements de la population. Pour atteindre un tel objectif, une collaboration avec les pays développés qui sont déjà très avancés dans de tels domaines sera nécessaire.
Resumo:
Résumé Le but de cette thèse est de comprendre les représentations du risque chez les jeunes de la rue. Plus précisément, elle s’intéresse à appréhender les constructions du risque que font les jeunes de la rue eux-mêmes, d’autant plus que ces jeunes sont définis comme un groupe à risque. Si le risque est plus souvent défini de manière stricte comme le mal éventuel, dans cette étude, il est défini plus largement intégrant l’idée des opportunités et prises de risque. Ancrée dans une perspective double du constructionnisme social et de l’interactionnisme symbolique, cette recherche a exploré les savoirs des jeunes sur les risques qu’ils vivaient dans les contextes observés et la manière dont ils les appréhendaient. Pour y parvenir, cette recherche s’inscrit dans une approche ethnographique pour mieux comprendre le monde des jeunes de la rue, utilisant des méthodes d'observation participante et dévoilée et des entrevues informelles variées. Cette approche globale permet de saisir comment les jeunes définissent leur capacité à estimer, gérer, éviter ou prendre des risques. L’utilisation d’une perspective longitudinale (de un à deux ans) et les relations de confiance bâties avec ces jeunes, ont permis de suivre comment la construction identitaire des jeunes observés a influencé leurs perception du risque et leurs pratiques de débrouillardise. En outre, les liens établis ont permis de révéler les points de vue singuliers des jeunes mais aussi leurs savoirs expérientiels relatifs aux risques. Il s’agit dans cette étude de montrer à partir des théories générales qui définissent nos sociétés comme des sociétés du risque, comment des individus, identifiés comme appartenant à un groupe à risque, définissent et gèrent leurs risques à partir de leur propre expérience et point de vue afin de révéler la diversité et la complexité des expériences et savoirs des jeunes de la rue à l’endroit du risque. En effet, cette thèse montre qu’un ancrage dans une sociologie du risque permet de sortir de l’image de victime ou de déviance associée généralement aux jeunes de la rue mais qu’elle demeure marquée par la promotion de la sécurité légitimant intervention et régulation de la situation des jeunes de la rue tout en ignorant l’expérience même des jeunes. Les discours sur les risques associés à la rue sont alors inscrits dans une logique d’expertise. Cette étude vise à sortir de ces préconceptions des risques pris par les jeunes de la rue pour au contraire s’attarder à comprendre comment se définit le risque à partir du sens que les jeunes accordent et les expériences qu’ils en ont. Mots clés: jeunes itinérants, jeunes de la rue, le risque, à risque, victimisation, déviance, identité.
Resumo:
Actinobacillus pleuropneumoniae est l’agent étiologique de la pleuropneumonie porcine. La bactérie se transmet par voies aériennes et contacts directs. Plusieurs facteurs de virulence ont été identifiés, nommément les polysaccharides capsulaires, les lipopolysaccharide, les exotoxines ApxI à IV et de nombreux mécanismes d’acquisition du fer. Aucun vaccin efficace contre tous les sérotypes de la bactérie n’a encore été élaboré. Afin de mieux comprendre de quelle façon A. pleuropneumoniae régule la transcription de ses nombreux facteurs de virulence et de découvrir de nouvelles cibles potentielles pour l’élaboration de vaccins efficaces, le profil transcriptomique de la bactérie a été étudié dans des conditions simulant l’infection ainsi qu’à la suite d’une infection naturelle aiguë chez l’animal. Des biopuces de première et de seconde génération (AppChip1 et AppChip2) comportant respectivement 2025 cadres de lecture ouverts (ORF) de la version préliminaire du génome d’A. pleuropneumoniae sérotype 5b souche L20 et 2033 ORF de la version finale annotée du même génome ont été utilisées. Dans un premier temps, des expériences réalisées dans des conditions de concentration restreinte en fer ont permis d’identifier 210 gènes différentiellement exprimés, dont 92 étaient surexprimés. Plusieurs nouveaux mécanismes d’acquisition du fer ont pu être identifiés, incluant un système homologue au système YfeABCD de Yersinia pestis, impliqué dans l’acquisition du fer chélaté, ainsi que des gènes homologues aux composantes du système HmbR de Neisseria meningitidis impliqué dans l’acquisition du fer à partir de l’hémoglobine. Dans des conditions de culture permettant la formation de biofilms, les gènes tadC et tadD d’un opéron tad (« tight adherence locus ») putatif, les gènes pgaBC impliqués dans la synthèse d’un polysaccharide de la matrice du biofilm ainsi que deux gènes présentant de fortes homologies avec un gène codant pour l’adhésine auto-transporteur Hsf retrouvée chez Haemophilus influenzae ont montré une surexpression significative. Plusieurs de ces gènes ont également été retrouvés lors d’expériences réalisées avec des cellules épithéliales d’origine pulmonaire en culture, qui ont permis d’identifier 170 gènes différentiellement exprimés après la croissance planctonique au-dessus des cellules, et 131 autres suite à l’adhésion à ces cellules. Parmis les gènes surexprimés, les gènes tadB et rcpA de l’opéron tad putatif, les gènes pgaBC ainsi que le gène codant pour l’homologue d’Hsf ont été retrouvés. En présence de liquide de lavage broncho-alvéolaire (BALF), 156 gènes ont montré un profil d’expression modifié, et le gène apxIVA, identifié comme étant surexprimé, a pu être détecté pour la première fois dans des conditions de croissance in vitro. Finalement, des expériences visant à déterminer les gènes utilisés directement chez l’animal en phase aiguë de la pleuropneumonie porcine ont permis d’identifier 150 gènes qui étaient différentiellement exprimés. En plus d’identifier des gènes d’un possible opéron codant pour un fimbriae de type IV, 3 des 72 gènes surexprimés sont conservés chez tous les sérotypes d’A. pleuropneumoniae et codent pour des protéines ou lipoprotéines de surface. Nos expériences ont permis d’identifier plusieurs nouveaux facteurs de virulence potentiels chez A. pleuropneumoniae ainsi que plusieurs nouvelles cibles potentielles pour l’élaboration de vaccins efficaces contre tous les sérotypes.
Resumo:
Les avancées en biotechnologie ont permis l’identification d’un grand nombre de mécanismes moléculaires, soulignant également la complexité de la régulation génique. Néanmoins, avoir une vision globale de l’homéostasie cellulaire, nous est pour l’instant inaccessible et nous ne sommes en mesure que d’en avoir qu’une vue fractionnée. Étant donné l’avancement des connaissances des dysfonctionnements moléculaires observés dans les maladies génétiques telles que la fibrose kystique, il est encore difficile de produire des thérapies efficaces. La fibrose kystique est causée par la mutation de gène CFTR (cystic fibrosis transmembrane conductance regulator), qui code pour un canal chlorique transmembranaire. La mutation la plus fréquente (ΔF508) induit un repliement incorrect de la protéine et sa rétention dans le réticulum endoplasmique. L’absence de CFTR fonctionnel à la membrane a un impact sur l’homéostasie ionique et sur l’hydratation de la muqueuse respiratoire. Ceci a pour conséquence un défaut dans la clairance mucocilliaire, induisant infection chronique et inflammation excessive, deux facteurs fondamentaux de la physiopathologie. L’inflammation joue un rôle très important dans l’évolution de la maladie et malgré le nombre important d’études sur le sujet, la régulation du processus inflammatoire est encore très mal comprise et la place qu’y occupe le CFTR n’est pas établie. Toutefois, plusieurs autres facteurs, tels que le stress oxydatif participent à la physiopathologie de la maladie, et considérer leurs impacts est important pour permettre une vision globale des acteurs impliqués. Dans notre étude, nous exploitons la technologie des puces à ADN, pour évaluer l’état transcriptionnel d’une cellule épithéliale pulmonaire humaine fibro-kystique. Dans un premier temps, l’analyse de notre expérience identifie 128 gènes inflammatoires sur-exprimés dans les cellules FK par rapport aux cellules non FK où apparaissent plusieurs familles de gènes inflammatoires comme les cytokines ou les calgranulines. L’analyse de la littérature et des annotations suggèrent que la modulation de ces transcripts dépend de la cascade de NF-κB et/ou des voies de signalisation associées aux interférons (IFN). En outre, leurs modulations pourraient être associées à des modifications épigénétiques de leurs loci chromosomiques. Dans un second temps, nous étudions l’activité transcriptionnelle d’une cellule épithéliale pulmonaire humaine FK en présence de DMNQ, une molécule cytotoxique. Notre but est d’identifier les processus biologiques perturbés par la mutation du gène CFTR en présence du stress oxydatif. Fondé sur une analyse canonique de redondance, nous identifions 60 gènes associés à la mort cellulaire et leur variance, observée dans notre expérience, s’explique par un effet conjoint de la mutation et du stress oxydatif. La mesure de l’activité des caspases 3/7, des effecteurs de l’apoptose (la mort cellulaire programmée), montre que les cellules porteuses de la mutation ΔF508, dans des conditions de stress oxydatif, seraient moins apoptotiques que les cellules saines. Nos données transcriptomiques suggèrent que la sous-activité de la cascade des MAPK et la sur-expression des gènes anti-apoptotiques pourraient être impliquées dans le déséquilibre de la balance apoptotique.
Resumo:
Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.
Resumo:
Sommaire L’oxygène fait partie intégrante de l’environnement et ceci jusqu’au fonctionnement même des structures cellulaires qui composent le corps humain. Deux systèmes sont intimement liés à la distribution de l’oxygène, ce sont les systèmes cardiovasculaire et respiratoire. La transparence du système optique de l’œil peut être exploitée afin de mesurer de façon non invasive la concentration en oxyhémoglobine du sang qui alimente le système nerveux central. L’oxygénation capillaire de l’œil a été mesurée par spectro-réflectométrie dans deux régions de l’œil: d’une part les capillaires de la zone du nerf optique qui représentent principalement la circulation rétinienne; d’autre part, les capillaires du limbe cornéen. Cinq sujets volontaires, non fumeurs, sains, âgés de 20 à 45 ans et cinq sujets volontaires, fumeurs, sains, âgés de 20 à 40 ans ont participé à cette étude. Tous ces sujets ont été exposés à des conditions d’hyper et d’hypo oxygénation. Une séance d’expérimentations était composée d’un enregistrement continu de 360 secondes. Durant la première étape de 60 secondes, le sujet respirait de l’air ambiant. Durant une deuxième étape de 180 secondes, le sujet était exposé soit à une condition d’hyper (60% O2) soit, à une condition d’hypo oxygénation (15% O2), tandis que les 120 dernières secondes de la séance de mesure permettait d’exposer le sujet, une fois de plus à l’air ambiant. Le rythme cardiaque et les changements d’oxygénation artérielle au niveau du doigt étaient mesurés pendant ce temps vec le sphygmo-oxymètre. Les variations du taux d’oxyhémoglobine du sang au niveau capillaire de l’œil (nerf optique ou sclérotique) étaient toujours en corrélation directe avec les variations du taux d’oxyhémoglobine artériel. Toutefois, les capillaires du nerf optique offrent plus de précision pour les mesures d’oxygénation, relativement aux mesures d’oxygénation du sang contenu dans les capillaires de la sclérotique. La précision de la mesure de la concentration d’oxyhémoglobine obtenue dans cette étude par spectro-réflectométrie de l’œil, en fait un instrument utile au diagnostic d’une grande partie des pathologies pulmonaires ou oculaires.
Resumo:
Le suivi des populations animales et végétales nous a amené à constater une perte importante de la diversité biologique. Les objectifs de la Convention sur la diversité biologique à atteindre pour 2010 sous-tendent la poursuite détaillée de ce suivi à l’échelle mondiale (CBD 2000). Cependant, il est difficile d’avoir une perception d’ensemble de la biodiversité d’un territoire, car les écosystèmes sont des entités dynamiques et évolutives, dans l’espace et dans le temps. Le choix d’un indicateur relevant de l’ensemble des ces caractéristiques devient donc primordial, bien qu’il s’agisse d’une tâche laborieuse. Ce projet propose d’utiliser la bioacoustique comme indicateur environnemental pour faire le suivi des espèces animales en milieu tropical. Afin de faire un suivi à une échelle régionale de la biodiversité, et ce, dans l’un des biomes les plus menacés de la planète, soit celui de la Mata Atlântica brésilienne, ce projet de recherche a comme objectif général de démontrer qu’il est possible d’associer la biophonie (événements sonores), à des événements biologiques (la richesse spécifique animale) en quantifiant des événements sonores (à l’aide des chants produits par les oiseaux, les insectes chanteurs de même que par les anoures) et en tentant de les associer aux fluctuations de la biodiversité. En plus de répondre à cet objectif général, trois objectifs spécifiques ont été définis : 1) comparer la biophonie et l’anthropophonie de milieux soumis à différents niveaux d’anthropisation ou de conservation afin d’évaluer l’impact anthropique sur le milieu, 2) évaluer la variabilité spatiale de la biodiversité, de même que 3) sa variabilité temporelle. Les résultats ont démontré que la biophonie est représentative de la biodiversité d’un milieu, et ce, même dans des conditions de biodiversité maximale puisqu’il existe une très forte relation entre les deux variables. De plus, les résultats révèlent une différence significative dans le ratio anthropophonie/biophonie de milieux soumis à différents niveaux de protection du territoire. La différenciation d’indices de puissance relative (dB/kHz) nous indique également l’importance de la variabilité spatiale et temporelle de la biodiversité, et par conséquent, l’importance de faire le suivi des espèces dans divers milieux et à diverses périodes afin d’obtenir une vision adéquate de la biodiversité régionale.
Resumo:
L’atmosphère terrestre est très riche en azote (N2). Mais cet azote diatomique est sous une forme très stable, inutilisable par la majorité des êtres vivants malgré qu’il soit indispensable pour la synthèse de matériels organiques. Seuls les procaryotes diazotrophiques sont capables de vivre avec le N2 comme source d’azote. La fixation d’azote est un processus qui permet de produire des substances aminées à partir de l’azote gazeux présent dans l’atmosphère (78%). Cependant, ce processus est très complexe et nécessite la biosynthèse d’une vingtaine de protéines et la consommation de beaucoup d’énergie (16 molécules d’ATP par mole de N2 fixé). C’est la raison pour laquelle ce phénomène est rigoureusement régulé. Les bactéries photosynthétiques pourpres non-sulfureuses sont connues pour leur capacité de faire la fixation de l’azote. Les études faites à la lumière, dans le mode de croissance préféré de ces bactéries (photosynthèse anaérobie), ont montré que la nitrogénase (enzyme responsable de la fixation du diazote) est sujet d’une régulation à trois niveaux: une régulation transcriptionnelle de NifA (protéine activatrice de la transcription des gènes nif), une régulation post-traductionnelle de l’activité de NifA envers l’activation de la transcription des autres gènes nif, et la régulation post-traductionnelle de l’activité de la nitrogénase quand les cellules sont soumises à un choc d’ammoniaque. Le système de régulation déjà décrit fait intervenir essentiellement une protéine membranaire, AmtB, et les deux protéines PII, GlnB et GlnK. Il est connu depuis long temps que la nitrogénase est aussi régulée quand une culture photosynthétique est exposée à la noirceur, mais jusqu’aujourd’hui, on ignore encore la nature des systèmes intervenants dans cette régulation. Ainsi, parmi les questions qui peuvent se poser: quelles sont les protéines qui interviennent dans l’inactivation de la nitrogénase lorsqu’une culture anaérobie est placée à la noirceur? Une analyse de plusieurs souches mutantes, amtB- , glnK- , glnB- et amtY- poussées dans différentes conditions de limitation en azote, serait une façon pour répondre à ces interrogations. Alors, avec le suivi de l’activité de la nitrogénase et le Western Blot, on a montré que le choc de noirceur provoquerait un "Switch-off" de l’activité de la nitrogénase dû à une ADP-ribosylation de la protéine Fe. On a réussit aussi à montrer que ii tout le système déjà impliqué dans la réponse à un choc d’ammoniaque, est également nécessaire pour une réponse à un manque de lumière ou d’énergie (les protéines AmtB, GlnK, GlnB, DraG, DraT et AmtY). Or, Rhodobacter capsulatus est capable de fixer l’azote et de croitre aussi bien dans la micro-aérobie à la noirceur que dans des conditions de photosynthèse anaérobies, mais jusqu'à maintenant sa régulation dans l’obscurité est peu étudiée. L’étude de la fixation d’azote à la noirceur nous a permis de montrer que le complexe membranaire Rnf n’est pas nécessaire à la croissance de R. capsulatus dans de telles conditions. Dans le but de développer une façon d’étudier la régulation de la croissance dans ce mode, on a tout d’abord essayé d’identifier les conditions opératoires (O2, [NH4 + ]) permettant à R. capsulatus de fixer l’azote en microaérobie. L’optimisation de cette croissance a montré que la concentration optimale d’oxygène nécessaire est de 10% mélangé avec de l’azote.
Resumo:
Pour Albert Camus, la littérature était à la fois une activité essentielle à son bonheur et un objet de réflexion. Afin de saisir quelle conception de la littérature et quelle vision du rôle de l’écrivain se dégagent de son oeuvre, ce mémoire aborde dans un même mouvement ses deux principaux essais, Le Mythe de Sisyphe et L’Homme révolté, et une pièce de théâtre, Caligula. Notre premier chapitre consiste dans la recherche de ce qui, pour Camus, fait de la création artistique une activité privilégiée dans l’horizon de la pensée de l’absurde et de la révolte. Dans le deuxième chapitre, les différents commentaires émis par la critique à propos de Caligula seront examinés. La pièce, malgré l’opinion dominante, ne raconte pas l’histoire d’un empereur absurde qui se révolte contre son destin. L’importance du thème de la création littéraire dans cette pièce a également été grandement sous-estimée. Enfin, le troisième chapitre de ce mémoire présente notre propre analyse de la pièce. La confrontation de la fiction avec la théorie révèle une grande concordance entre les deux aspects de l’oeuvre de Camus. L’accord n’est cependant pas parfait, et l’étude des points de friction découverts permet d’apporter des éclaircissements sur un des points les plus obscurs des essais de Camus : l’éthique du créateur placé dans une situation où il doit choisir entre tuer et mourir.
Resumo:
Les colonnes de plasma entretenues par un champ électrique (continu ou alternatif) à haute pression (p > 10 Torr) sont affectées par les phénomènes de contraction (réduction de la section radiale de la décharge) et de filamentation (fragmentation de la section de plasma en plusieurs filaments). La compréhension de ces phénomènes ainsi que le développement d’une méthode pouvant les supprimer demeurent une étape essentielle pour l’optimisation de certains procédés plasma. Dans cette optique, un premier objectif de notre travail était de déterminer les mécanismes à l’origine de la contraction et de la filamentation dans les décharges créées dans des gaz rares. Ainsi, nous avons montré que dans les plasmas micro-ondes contractés la cinétique de la décharge est contrôlée par les ions moléculaires et que la contraction est liée à l’influence du gradient de la température du gaz sur la concentration de ces ions. De plus, nous avons mis en évidence que la filamentation apparaît lorsque l’inhomogénéité radiale du champ électrique devient importante. Dans un second temps, nous avons développé une méthode de décontraction et de défilamentation de la décharge, qui consiste à ajouter à une décharge initiale de gaz rare des traces d’un autre gaz rare de plus faible potentiel d’ionisation. Dans le cas des plasmas décontractés, nous avons démontré que la cinétique de la décharge n’est plus contrôlée par les ions moléculaires, ce qui confirme bien l’importance de ces ions dans la description de la contraction. Pour terminer, nous avons étendu à la pression atmosphérique la technique d’absorption optique de mesure de densité des états métastables et résonnants à l’aide d’une lampe spectrale, ce qui n’avait été réalisé jusqu’ici que pour des pressions inférieures à 10 Torr. Ces états jouent un rôle essentiel dans l’ionisation des décharges contractées alors que dans les décharges décontractées leur désexcitation par les atomes du gaz adjuvant est l’étape fondamentale du processus de changement de cinétique menant à la décontraction.