643 resultados para Modèles cache
Resumo:
L'éducation à la citoyenneté comme forme de socialisation juridique est un moyen parmi d'autres qui nous permet de concevoir un possible dépassement de la «raison paresseuse» dans laquelle sont engagés les modèles politiques occidentaux. Les bases d'un nouveau code moral proposant à la fois une identité individuelle et collective pour le citoyen sont nécessaires. Ainsi, les énergies consacrées à la meilleure formation possible des futurs acteurs de la société québécoise, au partage d'idées et de perceptions dans une perspective contemporaine, ne peuvent être que bénéfiques pour l'avancement et l'avènement d'une société où l'équité coexiste avec la différence. C'est en réfléchissant et en échangeant sur le sujet avec notre entourage que nous avons décidé de concentrer nos recherches dans le domaine de 1'« éducation à la citoyenneté» avec comme contenu le droit. Naturellement, l'analyse à proprement positiviste du droit est ici mise de côté. Comme nous le verrons plus loin, une étude qui aborde la vision que se font les jeunes de l'univers juridique qui les entoure commande plutôt une approche sociologique. Les conclusions tirées de notre projet de recherche contribueront au débat entourant les concepts de citoyenneté, de droits fondamentaux et de responsabilités sociales dans une dynamique d'apprentissage. En tenant compte de la dimension culturelle de la citoyenneté, nous décrirons les différences d'interprétation et de représentation des droits fondamentaux et des responsabilités sociales dans la conscience d'« initiés» et de « non initiés» à une activité de socialisation juridique organisée par le Centre de développement pour l'exercice de la citoyenneté (CDEC), Débats de citoyens. Ce n'est qu'une fois cet exercice complété que nous tenterons d'évaluer le bienfondé et la validité d'une telle approche pédagogique. Mots clés: Éducation, citoyenneté, droits, responsabilités, socialisation, culture, débat, différence.
Resumo:
Titre de la page de titre additionnel: Ghost dancing at the Supreme Court of Canada : indigenous rights during the First quarter century of s.35.of Canada's Constitution Act, 1982.
Resumo:
Introduction : Les modèles murins sont grandement utilisés dans l’étude des maladies rénales et des pathologies associées. La concentration de la créatinine sérique est un bon indicateur de la filtration glomérulaire et en présence d’insuffisance rénale chronique (IRC), les concentrations de créatinine sérique (et la clairance) reflètent la sévérité de l’IRC. De plus, il a été démontré que l’IRC modifie le métabolisme des médicaments en diminuant l’activité et l’expression des enzymes hépatiques du cytochrome P450 (CYP450). Afin d’étudier la modulation du P450 par l’IRC avec un modèle murin et de confirmer nos résultats chez le rat, nous devons 1) développer un modèle d’IRC chez la souris, 2) mettre au point une technique de dosage des marqueurs de l’IRC et, 3) évaluer l’expression protéique du CYP450 en présence IRC. Matériel et Méthode : Trois modèles chirurgicaux d’IRC chez la souris ont été développés. Une méthode du dosage de la créatinine par chromatographie liquide à haute performance (CLHP) a été mise au point chez la souris et l’expression protéique du P450 a été mesurée par immunobuvardage de type Western. Résultats : Plusieurs paramètres de CLHP comme le pH, la concentration et le débit de la phase mobile modifient le pic d’élution et le temps de rétention de la créatinine. Concernant le modèle expérimental, on observe une perte de poids et une augmentation de la concentration plasmatique de la créatinine chez les souris avec une IRC. De plus, l’expression protéique de plusieurs isoformes du cytochrome P450 est modulée par l’IRC. Nous observons une diminution du CYP 2D de 42% (p < 0,01), du CYP 3A11 de 60% et du CYP 1A de 37% (p <0,01) par rapport aux souris témoins. On ne dénote aucun changement significatif au niveau de l’isoforme 2E1. Conclusion : Il est possible d’induire une insuffisance rénale chronique chez la souris suite à une néphrectomie. La technique de dosage de la créatinine par CLHP est précise et exacte et permet de caractériser la sévérité de l’IRC chez la souris. L’expression protéique du CYP450 est régulée à la baisse dans le foie des souris atteintes d’IRC.
Resumo:
La première augmentation de la longévité en laboratoire fût observée à la suite d’une intervention nutritionnelle consistant en une réduction de l’apport alimentaire chez le rat. Plus tard, ce phénomène a été reproduit dans de très nombreuses espèces et référé en tant que restriction calorique. Le développement des techniques de biologie moléculaire moderne a permis de montrer dans des organismes modèles simples que cette flexibilité du processus de vieillissement était régulée par des facteurs génétiques. De fait, plusieurs mécanismes cellulaires ont alors pu être identifiés comme responsables de ce contrôle du vieillissement. Ces voies de régulation ont révélées être conservées entre les espèces, depuis les levures jusqu’aux organismes multicellulaires tels que le nématode, la mouche ou la souris, suggérant l’existence d’un programme universel de vieillissement dans le vivant. La levure s’est avéré à plusieurs reprises être un modèle puissant et fiable pour la découverte de gènes impliqués dans ce phénomène. Mon étude a consisté au développement d’un nouveau modèle unicellulaire d’étude du vieillissement à travers l’espèce Schizosaccharomyces pombe appelée aussi levure à fission. La première étape de mon travail a montré que les voies de détection des nutriments gouvernées par la sérine/thréonine protéine kinase A (Pka1) et la sérine/thréonine kinase Sck2 contrôlent le vieillissement chronologique de ces cellules comme il était connu dans la levure Saccharomyces cerevisiae. Ceci permit de valider l’utilisation de la levure à fission pour l’étude du vieillissement. Ensuite, nous avons analysé plus en détail l’effet pro-vieillissement du glucose en étudiant le rôle de sa détection par le récepteur membranaire Git3 couplé à la protéine G (Gpa2) en amont de la kinase Pka1. La perte du signal du glucose par la délétion de Git3 imite partiellement l’effet d’augmentation de longévité obtenu par baisse de la concentration en glucose dans le milieu. De plus, l’effet néfaste du signal du glucose est maintenu en absence de tout métabolisme du glucose suite à la mutation des hexokinases, premières enzymes de la glycolyse. L’ensemble de ces résultats suggèrent que la signalisation du glucose est prédominante sur son métabolisme pour son effet pro-vieillissement. D’autre part, à la fois la suppression de cette signalisation et la baisse de niveau de glucose disponible allongent la durée de vie en corrélation avec une augmentation de la résistance au stress, une hausse d’activité mitochondriale et une baisse de production de radicaux libres. Finalement, le criblage d’une banque de surexpression d’ADNc a permis d’identifier plusieurs gènes candidats responsables de ces effets en aval de la voie de signalisation Git3/PKA. La recherche sur les mécanismes moléculaires du vieillissement propose une nouvelle approche, un nouvel angle de vue, pour la compréhension des fonctions cellulaires et promet d’apporter de précieuses clefs pour mieux comprendre certaines maladies. En effet, le vieillissement est la première cause d’apparition de nombreuses affections comme les cancers, les maladies cardiovasculaires et métaboliques ou les maladies neurodégénératives tels que les syndromes d’Alzheimer et de Parkinson.
Resumo:
Le récepteur DcR3 (Decoy receptor 3) est un membre de la famille des récepteurs aux facteurs de nécrose tumorale (TNF). Il est fortement exprimé dans les tissus humains normaux ainsi que les tumeurs malignes. DcR3 est un récepteur pour trois ligands de la famille du TNF tels que FasL, LIGHT et TL1A. Étant une protéine soluble donc dépourvue de la portion transmembranaire et intracytoplasmique, le récepteur DcR3 est incapable d’effectuer une transduction de signal intracellulaire à la suite de son interaction avec ses ligands. De ce fait, DcR3 joue un rôle de compétiteur pour ces derniers, afin d’inhiber la signalisation via leurs récepteurs fonctionnels tels que Fas, HVEM/LTbetaR et DR3. Lors de nos précédentes études, nous avons pu démontrer, que DcR3 pouvaist moduler la fonction des cellules immunitaires, et aussi protéger la viabilité des îlots de Langerhans. À la suite de ces résultats, nous avons généré des souris DcR3 transgéniques (Tg) en utilisant le promoteur du gène β-actine humaine afin d’étudier plus amplement la fonction de ce récepteur. Les souris Tg DcR3 ont finalement développé le syndrome lupus-like (SLE) seulement après l’âge de 6 mois. Ces souris présentent une variété d'auto-anticorps comprenant des anticorps anti-noyaux et anti-ADN. Elles ont également manifesté des lésions rénales, cutanées, hépatiques et hématopoïétiques. Contrairement aux modèles de lupus murin lpr et gld, les souris DcR3 sont plus proche du SLE humain en terme de réponse immunitaire de type Th2 et de production d'anticorps d'anti-Sm. En péus, nous avons constaté que les cellules hématopoïétiques produisant DcR3 sont suffisantes pour causer ces pathologies. DcR3 peut agir en perturbant l’homéostasie des cellules T pour interférer avec la tolérance périphérique, et ainsi induire l'autoimmunité. Chez l'humain, nous avons détecté dans le sérum de patients SLE des niveaux élevés de la protéine DcR3. Chez certains patients, comme chez la souris, ces niveaux sont liés directement aux titres élevés d’IgE. Par conséquent, DcR3 peut représenter un facteur pathogénique important du SLE humain. L’étude des souris Tg DcR3, nous a permis aussi d’élucider le mécanisme de protection des îlots de Langerhans. Le blocage de la signalisation des ligands LIGHT et TL1A par DcR3 est impliqué dans une telle protection. D'ailleurs, nous avons identifié par ARN microarray quelques molécules en aval de cette interaction, qui peuvent jouer un rôle dans le mécanisme d’action. Nous avons par la suite confirmé que Adcyap1 et Bank1 joue un rôle critique dans la protection des îlots de Langerhans médiée par DcR3. Notre étude a ainsi élucidé le lien qui existe entre la signalisation apoptotique médiée par Fas/FasL et la pathogénèse du SLE humain. Donc, malgré l’absence de mutations génétiques sur Fas et FasL dans le cas de cette pathologie, DcR3 est capable de beoquer cette signalisation et provoquer le SLE chez l’humain. Ainsi, DcR3 peut simultanément interférer avec la signalisation des ligands LIGHT et TL1A et causer un phénotype plus complexe que les phénotypes résultant de la mutation de Fas ou de FasL chez certains patients. DcR3 peut également être utilisé comme paramètre diagnostique potentiel pour le SLE. Les découvertes du mécanisme de protection des îlots de Langerhans par DcR3 ouvrent la porte vers de nouveaux horizons afin d'explorer de nouvelles cibles thérapeutiques pour protéger la greffe d'îlots.
Resumo:
Les modèles kainate et pentylènetétrazole représentent deux modèles d’épilepsie du lobe temporal dont les conséquences à long terme sont différentes. Le premier est un modèle classique d’épileptogénèse avec crises récurrentes spontanées tandis que le second se limite aux crises aigües. Nous avons d’abord caractérisé les différents changements survenant dans les circuits excitateurs et inhibiteurs de l’hippocampe adulte de rats ayant subi des crises à l’âge immature. Ensuite, ayant observé dans le modèle fébrile une différence du pronostic lié au genre, nous avons voulu savoir si cette différence était aussi présente dans des modèles utilisant des neurotoxines. L’étude électrophysiologique a démontré que les rats KA et PTZ, mâles comme femelles, présentaient une hyperactivité des récepteurs NMDA au niveau des cellules pyramidales du CA1, CA3 et DG. Les modifications anatomiques sous-tendant cette hyperexcitabilité ont été étudiées et les résultats ont montré une perte sélective des interneurones GABAergiques contenant la parvalbumine dans les couches O/A du CA1 des mâles KA et PTZ. Chez les femelles, seul le DG était légèrement affecté pour les PTZ tandis que les KA présentaient, en plus du DG, des pertes importantes au niveau de la couche O/A. Les évaluations cognitives ont démontré que seuls les rats PTZ accusaient un déficit spatial puisque les rats KA présentaient un apprentissage comparable aux rats normaux. Cependant, encore une fois, cette différence n’était présente que chez les mâles. Ainsi, nos résultats confirment qu’il y a des différences liées au genre dans les conséquences des convulsions lorsqu’elles surviennent chez l’animal immature.
Resumo:
Il a été démontré que l’hétérotachie, variation du taux de substitutions au cours du temps et entre les sites, est un phénomène fréquent au sein de données réelles. Échouer à modéliser l’hétérotachie peut potentiellement causer des artéfacts phylogénétiques. Actuellement, plusieurs modèles traitent l’hétérotachie : le modèle à mélange des longueurs de branche (MLB) ainsi que diverses formes du modèle covarion. Dans ce projet, notre but est de trouver un modèle qui prenne efficacement en compte les signaux hétérotaches présents dans les données, et ainsi améliorer l’inférence phylogénétique. Pour parvenir à nos fins, deux études ont été réalisées. Dans la première, nous comparons le modèle MLB avec le modèle covarion et le modèle homogène grâce aux test AIC et BIC, ainsi que par validation croisée. A partir de nos résultats, nous pouvons conclure que le modèle MLB n’est pas nécessaire pour les sites dont les longueurs de branche diffèrent sur l’ensemble de l’arbre, car, dans les données réelles, le signaux hétérotaches qui interfèrent avec l’inférence phylogénétique sont généralement concentrés dans une zone limitée de l’arbre. Dans la seconde étude, nous relaxons l’hypothèse que le modèle covarion est homogène entre les sites, et développons un modèle à mélanges basé sur un processus de Dirichlet. Afin d’évaluer différents modèles hétérogènes, nous définissons plusieurs tests de non-conformité par échantillonnage postérieur prédictif pour étudier divers aspects de l’évolution moléculaire à partir de cartographies stochastiques. Ces tests montrent que le modèle à mélanges covarion utilisé avec une loi gamma est capable de refléter adéquatement les variations de substitutions tant à l’intérieur d’un site qu’entre les sites. Notre recherche permet de décrire de façon détaillée l’hétérotachie dans des données réelles et donne des pistes à suivre pour de futurs modèles hétérotaches. Les tests de non conformité par échantillonnage postérieur prédictif fournissent des outils de diagnostic pour évaluer les modèles en détails. De plus, nos deux études révèlent la non spécificité des modèles hétérogènes et, en conséquence, la présence d’interactions entre différents modèles hétérogènes. Nos études suggèrent fortement que les données contiennent différents caractères hétérogènes qui devraient être pris en compte simultanément dans les analyses phylogénétiques.
Resumo:
Cette thèse porte sur le rôle de l’espace dans l’organisation et dans la dynamique des communautés écologiques multi-espèces. Deux carences peuvent être identifiées dans les études théoriques actuelles portant sur la dimension spatiale des communautés écologiques : l’insuffisance de modèles multi-espèces représentant la dimension spatiale explicitement, et le manque d’attention portée aux interactions positives, tel le mutualisme, en dépit de la reconnaissance de leur ubiquité dans les systèmes écologiques. Cette thèse explore cette problématique propre à l’écologie des communautés, en utilisant une approche théorique s’inspirant de la théorie des systèmes complexes et de la mécanique statistique. Selon cette approche, les communautés d’espèces sont considérées comme des systèmes complexes dont les propriétés globales émergent des interactions locales entre les organismes qui les composent, et des interactions locales entre ces organismes et leur environnement. Le premier objectif de cette thèse est de développer un modèle de métacommunauté multi-espèces, explicitement spatial, orienté à l’échelle des individus et basé sur un réseau d’interactions interspécifiques générales comprenant à la fois des interactions d’exploitation, de compétition et de mutualisme. Dans ce modèle, les communautés locales sont formées par un processus d’assemblage des espèces à partir d’un réservoir régional. La croissance des populations est restreinte par une capacité limite et leur dynamique évolue suivant des mécanismes simples de reproduction et de dispersion des individus. Ces mécanismes sont dépendants des conditions biotiques et abiotiques des communautés locales et leur effet varie en fonction des espèces, du temps et de l’espace. Dans un deuxième temps, cette thèse a pour objectif de déterminer l’impact d’une connectivité spatiale croissante sur la dynamique spatiotemporelle et sur les propriétés structurelles et fonctionnelles de cette métacommunauté. Plus précisément, nous évaluons différentes propriétés des communautés en fonction du niveau de dispersion des espèces : i) la similarité dans la composition des communautés locales et ses patrons de corrélations spatiales; ii) la biodiversité locale et régionale, et la distribution locale de l’abondance des espèces; iii) la biomasse, la productivité et la stabilité dynamique aux échelles locale et régionale; et iv) la structure locale des interactions entre les espèces. Ces propriétés sont examinées selon deux schémas spatiaux. D’abord nous employons un environnement homogène et ensuite nous employons un environnement hétérogène où la capacité limite des communautés locales évoluent suivant un gradient. De façon générale, nos résultats révèlent que les communautés écologiques spatialement distribuées sont extrêmement sensibles aux modes et aux niveaux de dispersion des organismes. Leur dynamique spatiotemporelle et leurs propriétés structurelles et fonctionnelles peuvent subir des changements profonds sous forme de transitions significatives suivant une faible variation du niveau de dispersion. Ces changements apparaissent aussi par l’émergence de patrons spatiotemporels dans la distribution spatiale des populations qui sont typiques des transitions de phases observées généralement dans les systèmes physiques. La dynamique de la métacommunauté présente deux régimes. Dans le premier régime, correspondant aux niveaux faibles de dispersion des espèces, la dynamique d’assemblage favorise l’émergence de communautés stables, peu diverses et formées d’espèces abondantes et fortement mutualistes. La métacommunauté possède une forte diversité régionale puisque les communautés locales sont faiblement connectées et que leur composition demeure ainsi distincte. Par ailleurs dans le second régime, correspondant aux niveaux élevés de dispersion, la diversité régionale diminue au profit d’une augmentation de la diversité locale. Les communautés locales sont plus productives mais leur stabilité dynamique est réduite suite à la migration importante d’individus. Ce régime est aussi caractérisé par des assemblages incluant une plus grande diversité d’interactions interspécifiques. Ces résultats suggèrent qu’une augmentation du niveau de dispersion des organismes permet de coupler les communautés locales entre elles ce qui accroît la coexistence locale et favorise la formation de communautés écologiques plus riches et plus complexes. Finalement, notre étude suggère que le mutualisme est fondamentale à l’organisation et au maintient des communautés écologiques. Les espèces mutualistes dominent dans les habitats caractérisés par une capacité limite restreinte et servent d’ingénieurs écologiques en facilitant l’établissement de compétiteurs, prédateurs et opportunistes qui bénéficient de leur présence.
Resumo:
L'évaluation des écosystèmes est l'un des pivots essentiels pour l'élaboration de moyens adaptés permettant de lutter contre la diminution massive de la biodiversité. Pour la première fois, elle a fait l'objet d'une analyse à l'échelle mondiale dans le cadre de l'Evaluation des écosystèmes en début de millénaire (EM). Le rassemblement de plus d’un millier de chercheurs et de plusieurs organismes internationaux durant quatre années ont permis de dessiner la carte nécessaire à toute action efficace. L'article expose les éléments principaux de l'EM : l'évaluation des écosystèmes en tant que tels, mais surtout des services écosystémiques, dans toutes leurs dimensions, en ce que leur évolution affecte le bien-être humain. Il analyse ensuite les quatre points principaux de l'apport de l'EM, des avantages de l'utilisation croissante des services écologiques à sa non viabilité. Des scénarios, modèles et outils sont proposés pour inverser la courbe négative d'appauvrissement de la biodiversité et des services écosystémiques dans un premier bilan des retombées de l'EM.
Resumo:
La candidose oropharyngée (COP) constitue l’infection fongique opportuniste la plus fréquente chez les patients infectés au VIH-1. Malgré la profonde immunosuppression causée par le VIH-1, l’infection à Candida albicans demeure confinée au niveau de la muqueuse buccale sans dissémination aux organes profonds. La souris transgénique (Tg) CD4C/HIVMut exprimant le génome tronqué du VIH-1 présente, suite à l’inoculation orale de C. albicans, une COP chronique reproduisant fidèlement l’infection chez les patients séropositifs. Cette souris Tg a donc été utilisée afin de déterminer si les macrophages contribuent au confinement de C. albicans à la muqueuse buccale. Cette étude a permis de démontrer que i) les macrophages sont recrutés aux muqueuses buccale et gastrique en réponse au champignon malgré l’expression du transgène, ii) les macrophages de ces souris Tg présentent une polarisation vers un phénotype d’activation alternative et iii) la production de monoxyde d’azote par les macrophages des souris Tg n’est pas requise pour limiter la prolifération de Candida à la muqueuse buccale et pour restreindre sa dissémination aux organes profonds. Les macrophages ne semblent donc pas directement responsables de l’établissement de l’infection chronique à Candida chez la souris Tg CD4C/HIVMut.
Resumo:
Le CS fait partie de la famille des SYSADOA (SYmptomatic Slow Acting Drugs for OsteoArthritis) et est utilisé par les patients avec de l’ostéoarthrose de façon chronique pour ses propriétés anti-inflammatoires. Étant donné que ces patients reçoivent d’autres médicaments, il était intéressant de documenter les effets du CS sur le cytochrome P450 et la NADPH-réductase (NADPH). Pour cette étude, deux modèles ont été utilisés: des lapins témoins (LT) et des lapins avec une réaction inflammatoire (LRI) afin de diminuer l’activité et l’expression du CYP. Six groupes contenant chacun cinq lapins ont été utilisés: un groupe sans CS et deux groupes qui ont pris oralement dans l’eau approximativement 20.5 mg/kg/jour de CS pendant 20 et 30 jours; les lapins des trois groupes restants ont pris du CS comme décrit plus haut, mais ont reçu 5 ml sous-cutanées de térébenthine afin de produire une réaction inflammatoire aseptique (RIA) deux jours avant leur sacrifice, c’est-à-dire aux jours -2, 18 et 28. Les hépatocytes ont été isolés pour évaluer l’activité et l’expression du CYP3A6, CYP1A2 et NADPH et aussi le ARNm de ces protéines. In vitro, nous avons étudié l’effet de différentes concentrations de CS-disaccharides sulfatés, 4S, 6S, et 4,6S de CS, sur l’activité et l’expression du CYP1A2 et du CYP3A6. Pour documenter la présence de la réaction inflammatoire, nous avons mesure les mucoprotéines, dans le sérum des lapins avec une réaction inflammatoire. Aussi nous avons mesuré la présence de l’oxide nitrique (NO) chez les hépatocytes de lapins contrôles et chez les hépatocytes des lapins avec une réaction inflammatoire. La translocation nucléaire du NF-κB a été etudiée par fluorescence chez les hépatocytes. Par comparaison aux lapins témoins, l’administration du CS pendant 20 et 30 jours n’affecte pas l’activité du CYP3A6 et du CYP1A2. La RIA a augmenté les mucoprotéines à 95,1±5,7 vs 8,4±1,6 mg/dl dans les lapins témoins (p<0,05). La RIA a diminué l’activité du CYP3A6 de 62% et l’activité du CYP 1A2 de 54%. Le CS n’empêché pas la diminution du CYP1A2 produite par la RIA. Par ailleurs, le CS n’affecte pas l’activité ni l’expression de la NADPH. La translocation nucléaire de NF-κB a été empêche par l’administration chronique de CS aux lapins avec RIA; en plus, la concentration de l’oxide nitrique n’a pas démontré une augmentation en présence de CS; par contre, CS n’empêche pas l’augmentation des séromucoïdes. Au contraire, CS affecte la diminution du CYP3A6 en fonction de temps et secondaire à la RIA. Dans ce group, CS a rétabli le niveau des protéines du CYP3A6 observé dans le group de lapins témoins. Pourtant cette croissance été independante de mRNA qui garde un niveau trés bas. Le plus remarcable a été la manière dont CS a augmenté la protéine du CYP3A6, sans avoir rétabli l’activité de cet isoforme. Finalement, in vitro, CS et ses trois disaccharides sulfatés (4S, 6S et 4,6S) n’affectent ni l’activité ni l’expression de CYP1A2, CYP3A6 et de la NADPH. En conclusion, l’administration chronique de CS n’affecte pas l’activité ni l’expression du CYP1A2, ou la diminution du CYP1A2 produite par la réaction inflammatoire. Le CS n’affecte pas l’activité ni l’expression du NADPH. Cependant, CS empêche la diminution du CYP3A6 en fonction de temps et secondaire à la RIA.
Resumo:
Cet article étudie deux contextes français dans lesquels les voiles musulmans sont devenus hypervisibles: le débat public qui a mené à la loi française de 2004 interdisant les signes religieux ostensibles dans les écoles publiques, et le projet colonial français de dévoiler les femmes algériennes. Je montre comment le concept de « l’oppression de genre » s’est naturalisé au voile musulman d’une telle manière qu’il justifie les normes de féminités occidentales et cache le mécanisme par lequel les femmes musulmanes sont racialisées. C’est ainsi que le voile devient le point de mire d’un racisme culturel qui se présente comme libérant les femmes musulmanes, un racisme qui semble poser un dilemme au féminisme.
Resumo:
De nouveaux modèles d'atmosphère sont présentés, incluant les profils de raie d'hélium neutre améliorés de Beauchamp (1995) et le formalisme de probabilité d'occupation pour ce même atome. Ces modèles sont utilisés pour calculer une grille de spectres synthétiques correspondant à des atmosphères riches en hélium et contenant des traces d'hydrogène. Cette grille est utilisée pour déterminer les paramètres atmosphériques principaux des étoiles de notre échantillon, soient la température effective, la gravité de surface et l'abondance d'hydrogène. Notre échantillon contient des spectres visibles de haut rapport signal-sur-bruit pour 102 naines blanches riches en hélium, dont 29 ont été observés au cours de ce projet, ce qui en fait le plus grand échantillon de spectres de qualité de naines blanches riches en hélium. Des spectres synthétiques ont été calculés en utilisant différentes valeurs du paramètre α de la théorie de la longueur de mélange dans le but de calibrer empiriquement la valeur de ce paramètre pour les DB. Afin d'améliorer la précision sur les paramètres atmosphériques de quelques étoiles, nous avons utilisé des spectres couvrant la raie Hα pour mieux déterminer l'abondance d'hydrogène. Finalement, nous avons calculé la distribution de masse de notre échantillon et la fonction de luminosité des DB. La distribution de masse montre une coupure à 0.5 fois la masse solaire qui est prédite par les modèles d'évolution stellaire et dévoile une masse moyenne significativement plus élevée pour les étoiles de type DBA. La masse moyenne de l'ensemble des DB et DBA est très proche de celle des DA. La fonction de luminosité nous permet de calculer que le rapport du nombre de DB sur le nombre de DA vaut environ 25%.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.