975 resultados para Pergélisols--Propriétés thermiques--Mesure
Resumo:
Cette thèse porte sur le rôle de l’espace dans l’organisation et dans la dynamique des communautés écologiques multi-espèces. Deux carences peuvent être identifiées dans les études théoriques actuelles portant sur la dimension spatiale des communautés écologiques : l’insuffisance de modèles multi-espèces représentant la dimension spatiale explicitement, et le manque d’attention portée aux interactions positives, tel le mutualisme, en dépit de la reconnaissance de leur ubiquité dans les systèmes écologiques. Cette thèse explore cette problématique propre à l’écologie des communautés, en utilisant une approche théorique s’inspirant de la théorie des systèmes complexes et de la mécanique statistique. Selon cette approche, les communautés d’espèces sont considérées comme des systèmes complexes dont les propriétés globales émergent des interactions locales entre les organismes qui les composent, et des interactions locales entre ces organismes et leur environnement. Le premier objectif de cette thèse est de développer un modèle de métacommunauté multi-espèces, explicitement spatial, orienté à l’échelle des individus et basé sur un réseau d’interactions interspécifiques générales comprenant à la fois des interactions d’exploitation, de compétition et de mutualisme. Dans ce modèle, les communautés locales sont formées par un processus d’assemblage des espèces à partir d’un réservoir régional. La croissance des populations est restreinte par une capacité limite et leur dynamique évolue suivant des mécanismes simples de reproduction et de dispersion des individus. Ces mécanismes sont dépendants des conditions biotiques et abiotiques des communautés locales et leur effet varie en fonction des espèces, du temps et de l’espace. Dans un deuxième temps, cette thèse a pour objectif de déterminer l’impact d’une connectivité spatiale croissante sur la dynamique spatiotemporelle et sur les propriétés structurelles et fonctionnelles de cette métacommunauté. Plus précisément, nous évaluons différentes propriétés des communautés en fonction du niveau de dispersion des espèces : i) la similarité dans la composition des communautés locales et ses patrons de corrélations spatiales; ii) la biodiversité locale et régionale, et la distribution locale de l’abondance des espèces; iii) la biomasse, la productivité et la stabilité dynamique aux échelles locale et régionale; et iv) la structure locale des interactions entre les espèces. Ces propriétés sont examinées selon deux schémas spatiaux. D’abord nous employons un environnement homogène et ensuite nous employons un environnement hétérogène où la capacité limite des communautés locales évoluent suivant un gradient. De façon générale, nos résultats révèlent que les communautés écologiques spatialement distribuées sont extrêmement sensibles aux modes et aux niveaux de dispersion des organismes. Leur dynamique spatiotemporelle et leurs propriétés structurelles et fonctionnelles peuvent subir des changements profonds sous forme de transitions significatives suivant une faible variation du niveau de dispersion. Ces changements apparaissent aussi par l’émergence de patrons spatiotemporels dans la distribution spatiale des populations qui sont typiques des transitions de phases observées généralement dans les systèmes physiques. La dynamique de la métacommunauté présente deux régimes. Dans le premier régime, correspondant aux niveaux faibles de dispersion des espèces, la dynamique d’assemblage favorise l’émergence de communautés stables, peu diverses et formées d’espèces abondantes et fortement mutualistes. La métacommunauté possède une forte diversité régionale puisque les communautés locales sont faiblement connectées et que leur composition demeure ainsi distincte. Par ailleurs dans le second régime, correspondant aux niveaux élevés de dispersion, la diversité régionale diminue au profit d’une augmentation de la diversité locale. Les communautés locales sont plus productives mais leur stabilité dynamique est réduite suite à la migration importante d’individus. Ce régime est aussi caractérisé par des assemblages incluant une plus grande diversité d’interactions interspécifiques. Ces résultats suggèrent qu’une augmentation du niveau de dispersion des organismes permet de coupler les communautés locales entre elles ce qui accroît la coexistence locale et favorise la formation de communautés écologiques plus riches et plus complexes. Finalement, notre étude suggère que le mutualisme est fondamentale à l’organisation et au maintient des communautés écologiques. Les espèces mutualistes dominent dans les habitats caractérisés par une capacité limite restreinte et servent d’ingénieurs écologiques en facilitant l’établissement de compétiteurs, prédateurs et opportunistes qui bénéficient de leur présence.
Resumo:
La maladie du greffon contre l’hôte (GvHD) est une complication majeure des greffes de cellules souches hématopoïétiques (HSCT) qui survient dans 30 à 70% des cas et peut causer la mort, malgré un traitement prophylactique bien conduit. Il existe donc une réelle demande clinique pour améliorer ces traitements prophylactiques. Parce que ces traitements prophylactiques reposent en général sur des agents immunosuppresseurs, ceux-ci contribuent à diminuer la reconstitution immunitaire du patient, ce qui a un impact défavorable sur les infections et les taux de rechute d’hémopathie maligne, et donc limite leur utilisation. Les immunoglobulines (IVIG) pourraient représenter une alternative intéressante puisqu’elles ont des propriétés immunomodulatrices et qu’elles sont de plus couramment utilisées en clinique pour traiter des patients ayant un déficit immunitaire. Leur capacité à réduire l’apparition et la sévérité de la GvHD, sans toutefois inhiber ou nuire à la reconstitution immunitaire chez le patient n’a néanmoins jamais été clairement démontrée. Les objectifs de ce projet sont donc d’évaluer l’efficacité des IVIG à réduire l’incidence et la sévérité de la GvHD dans un modèle murin humanisé de GvHD, ainsi que de déterminer le mécanisme d’action des IVIG. Ce modèle consiste à injecter des huPBMCs à des souris immunodéprimées ne pouvant les rejeter. Les résultats obtenus suggèrent que les IVIG possèdent un effet immunomodulateur permettant de réduire les signes cliniques et de retarder l’apparition de la GvHD, tout en permettant l’apparition de cellules NK. Les IVIG agiraient de façon indirecte sur les huPBMCs afin d’induire l’apparition des cellules NK.
Resumo:
Nous avons démontré la présence d'apoptose dans le système limbique suivant un infarctus du myocarde. Cette mort cellulaire serait partiellement reliée à l'augmentation de cytokines pro-inflammatoires. Des études démontrent que certains probiotiques ont des effets bénéfiques en diminuant le ratio de cytokines pro/anti-inflammatoires. La prise de probiotiques en prévention, avant l’occlusion d’une artère coronarienne, pourrait-elle diminuer l’apoptose dans le système limbique? Méthodes : La combinaison de probiotiques Lactobacillus helveticus R0052 et Bifidobacterium longum R0175 ou son véhicule fut additionné dans l’eau des rats pendant 28 jours consécutifs. Un infarctus du myocarde fut provoqué par l’occlusion de l’artère coronaire gauche. Après 40 minutes d'occlusion, les régions ischémiques ont été reperfusées pour 72 heures. Les animaux furent sacrifiés et la taille de l'infarctus mesurée. L'amygdale et l'hippocampe furent prélevés pour déterminer l'activité de la caspase-3 (pro-apoptotique), le ratio Bax/Bcl2(proapoptotique/ anti-apoptotique) et l'activité d'Akt (survie cellulaire). Résultats : La taille de l’infarctus n'est pas diminuée dans le groupe probiotique (45% de la région à risque)comparé au groupe placebo. Nos marqueurs d’apoptose démontrent une diminution dans les régions du gyrus denté, de l’amygdale latérale et médiane dans le groupe probiotique par rapport au placebo. L’activité de la caspase-3 et le ratio Bax:Bcl2 furent réduits dans le groupe probiotique de 50% et 40% respectivement (p < 0.05) et phosphorylation d’Akt fut augmentée de 35% (p<0.05). Aucune différence fut observée pour les régions Ca1 et Ca3. Conclusion : La combinaison de probiotiques utilisée réduit l’apoptose dans différentes régions du système limbique 72 heures après un IM.
Resumo:
L’insuffisance cardiaque (IC), une maladie chronique caractérisée par un mauvais fonctionnement du muscle cardiaque, entraîne des symptômes comme l’essoufflement, l’œdème et la fatigue. L’IC nécessite l’adoption de comportements d’auto-soins pour prévenir les épisodes de décompensation. Le but de cette recherche est d’évaluer l’intervention infirmière motivationnelle selon les stades de changements (MSSC) sur les comportements d’auto-soins chez des patients IC. Afin de guider l’intervention MSSC, la théorie spécifique aux auto-soins chez les patients IC de Riegel et Dickson (2008) a été retenue ainsi que le modèle d’intervention de Bédard et al. (2006) combinant le modèle transthéorique (Prochaska & DiClemente, 1984) et l’entrevue motivationnelle (Miller & Rollnick, 2006). Il s’agit d’un devis expérimental randomisé (pré et post-test) avec groupe contrôle (N = 15/groupe). Les patients du groupe contrôle ont reçu les soins usuels et les patients du groupe intervention (GI) ont reçu l’intervention MSSC durant trois entretiens. Les mesures de résultats ont été collectées à un mois suite à la randomisation par une assistante de recherche aveugle à la randomisation. L’effet de l’intervention a été évalué par des analyses de covariance sur cinq mesures de résultats : la réalisation et la gestion (générale et spécifique à l’IC) des auto-soins, la confiance aux auto-soins (générale et spécifique à l’IC) et la conviction. L’acceptabilité et la faisabilité ont été évaluées. Les résultats indiquent un effet significatif sur la mesure de confiance à effectuer les auto-soins spécifiques à l’IC. La majorité des participants du GI ont progressé dans leurs stades de changement. Ces résultats soulignent le potentiel de cette approche pour favoriser l’adoption des auto-soins mais une étude à plus large échelle est proposée afin d’évaluer l’effet de cette approche dans un essai clinique randomisé.
Resumo:
L’analyse spectrale de la fréquence cardiaque, de la pression artérielle systolique, de la pression artérielle diastolique ainsi que de la respiration par la transformée de Fourier rapide, est considérée comme une technique non invasive pour la détermination de l’activité du système nerveux autonome (SNA). Dans une population de sujets normaux volontaires, nous avons obtenu à l’état basal, des oscillations de basses fréquences (0,05-0,15Hz) reliées au système nerveux sympathique autonome et des oscillations de hautes fréquences (0,2Hz) représentant sur les intervalles entre chaque ondes R de l’électrocardiogramme (RR), l’arythmie sinusale respiratoire correspondant à une activité vagale. Nous avons comparé les tests de stimulation du système nerveux sympathique autonome déclenché par le passage de la position de repos (en décubitus dorsal), à la position orthostatique volontaire et le passage de la position de repos à la position orthostatique avec la table basculante à 60o. Nous avons également comparé un groupe normotendu à un groupe hypertendu qui a été soumis au passage du repos à l’orthostation volontaire et pour lesquels nous avons évalué la sensibilité du baroréflexe et la réponse sympathique par la mesure des catécholamines circulantes. Dans un groupe de sujets ayant une hypertension artérielle essentielle, nous avons évalué l’effet de la thérapie hypotensive, par le Trandolapril qui est un Inhibiteur de l’enzyme de conversion (IEC) de l`angiotensine. Dans ce groupe hypertendu, nous avons procédé, en plus de la stimulation sympathique par l’orthostation volontaire, à un exercice isométrique de trois minutes à 30 % de la force maximale. Nous avons également complété notre évaluation par la mesure de la densité de récepteurs ß2 adrénergiques sur lymphocytes et par la mesure des indices de contractilité à l’aide de l’échocardiographie en M mode. Les résultats ont montré, dans les groupes normaux volontaires, dans les deux types de stimulation du système nerveux sympathique par la position orthostatique, une augmentation significative des catécholamines plasmatiques avec une augmentation de la fréquence cardiaque et des basses fréquences de RR, confirmant ainsi que l’on est en état de stimulation sympathique. On observe en même temps une diminution significative des hautes fréquences de RR, suggérant un retrait vagal lors de cette stimulation. On a observé au test de la table basculante six cas d’hypotension orthostatique. On a comparé la position orthostatique volontaire entre le groupe de sujets normaux et le groupe de sujets hypertendus. L’analyse spectrale croisée de RR et de la pression artérielle systolique a permis d’évaluer dans l’hypertension artérielle (HTA), essentielle une sensibilité du baroréflexe atténuée, accompagnée d’une réactivité vagale réduite en présence d’une activité et d’une réactivité sympathique augmentées suggérant une altération sympathovagale dans l’HTA. Dans le groupe de sujets hypertendus traités (Trandolapril 2mg/jour), nous avons identifié un groupe de répondeurs au traitement par le Trandolapril et un groupe de non répondeurs à ce type de thérapie anti-hypertensive. Le groupe répondeur avait un profil hyper-adrénergique avec une hyper-réactivité sympathique, une fréquence cardiaque et des pressions artérielles diastolique et systolique plus élevées au repos. Dans le groupe total traité au Trandolapril, la densité des récepteurs ß2 adrénergiques a doublé, après thérapie, alors que la réactivité des basses fréquences obtenues à l’analyse spectrale a augmenté. Nous avons montré dans notre étude qu’un IECA a pu inhiber le mécanisme facilitateur de l’angII sur les terminaisons nerveuses sympathiques et a permis ainsi de réduire l’hyperactivité sympathique et le mécanisme de « down regulation » des récepteurs ß2 adrénergiques rendant ainsi l’expression de l’influence du SNA post synaptique plus efficace. Dans l’ensemble de nos protocoles cliniques, par l’utilisation de l’analyse spectrale des signaux RR, de la pression artérielle systolique,de la pression artérielle diastolique et de la respiration, nous avons montré que cette technique non invasive permet de décrire et de mieux comprendre les mécanismes physiologiques, physiopathologiques et pharmacologiques reliés au système nerveux autonome et à l’hypertension artérielle essentielle.
Resumo:
Cet article propose une lecture critique de l’approche néorépublicaine de la reconnaissance et du projet d’une économie de l’estime, développé par Ph. Pettit et G. Brennan. Il vise à montrer en quoi la conception de la reconnaissance qui est celle de ce dernier est trop étroite, dans la mesure où elle va de pair avec une analyse insuffisante des conditions de la visibilité sociale des performances et capacités des agents, ainsi que de la manière dont les luttes de reconnaissance peuvent contribuer à une telle visibilité. Ce texte montre ainsi en quoi il convient d’élargir la conception néorépublicaine de la reconnaissance. Il vise aussi à dégager les limites du projet d’une économie de l’estime, en montrant ses lacunes eu égard à une réflexion suffisante sur les conditions d’un pluralisme des standards d’estime.
Resumo:
Les agents anti-infectieux sont utilisés pour traiter ou prévenir les infections chez les humains, les animaux, les insectes et les plantes. L’apparition de traces de ces substances dans les eaux usées, les eaux naturelles et même l’eau potable dans plusieurs pays du monde soulève l’inquiétude de la communauté scientifique surtout à cause de leur activité biologique. Le but de ces travaux de recherche a été d’étudier la présence d’anti-infectieux dans les eaux environnementales contaminées (c.-à-d. eaux usées, eaux naturelles et eau potable) ainsi que de développer de nouvelles méthodes analytiques capables de quantifier et confirmer leur présence dans ces matrices. Une méta-analyse sur l’occurrence des anti-infectieux dans les eaux environnementales contaminées a démontré qu’au moins 68 composés et 10 de leurs produits de transformation ont été quantifiés à ce jour. Les concentrations environnementales varient entre 0.1 ng/L et 1 mg/L, selon le composé, la matrice et la source de contamination. D’après cette étude, les effets nuisibles des anti-infectieux sur le biote aquatique sont possibles et ces substances peuvent aussi avoir un effet indirect sur la santé humaine à cause de sa possible contribution à la dissémination de la résistance aux anti-infecteiux chez les bactéries. Les premiers tests préliminaires de développement d’une méthode de détermination des anti-infectieux dans les eaux usées ont montré les difficultés à surmonter lors de l’extraction sur phase solide (SPE) ainsi que l’importance de la sélectivité du détecteur. On a décrit une nouvelle méthode de quantification des anti-infectieux utilisant la SPE en tandem dans le mode manuel et la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Les six anti-infectieux ciblés (sulfaméthoxazole, triméthoprime, ciprofloxacin, levofloxacin, clarithromycin et azithromycin) ont été quantifiés à des concentrations entre 39 et 276 ng/L dans les échantillons d’affluent et d’effluent provenant d’une station d’épuration appliquant un traitement primaire et physico- chimique. Les concentrations retrouvées dans les effluents indiquent que la masse moyenne totale de ces substances, déversées hebdomadairement dans le fleuve St. Laurent, était de ~ 2 kg. En vue de réduire le temps total d’analyse et simplifier les manipulations, on a travaillé sur une nouvelle méthode de SPE couplée-LC-MS/MS. Cette méthode a utilisé une technique de permutation de colonnes pour préconcentrer 1.00 mL d’échantillon dans une colonne de SPE couplée. La performance analytique de la méthode a permis la quantification des six anti-infectieux dans les eaux usées municipales et les limites de détection étaient du même ordre de grandeur (13-60 ng/L) que les méthodes basées sur la SPE manuelle. Ensuite, l’application des colonnes de SPE couplée de chromatographie à débit turbulent pour la préconcentration de six anti-infectieux dans les eaux usées a été explorée pour diminuer les effets de matrice. Les résultats obtenus ont indiqué que ces colonnes sont une solution de réchange intéressante aux colonnes de SPE couplée traditionnelles. Finalement, en vue de permettre l’analyse des anti-infectieux dans les eaux de surface et l’eau potable, une méthode SPE couplée-LC-MS/MS utilisant des injections de grand volume (10 mL) a été développée. Le volume de fuite de plusieurs colonnes de SPE couplée a été estimé et la colonne ayant la meilleure rétention a été choisie. Les limites de détection et de confirmation de la méthode ont été entre 1 à 6 ng/L. L’analyse des échantillons réels a démontré que la concentration des trois anti-infectieux ciblés (sulfaméthoxazole, triméthoprime et clarithromycine) était au dessous de la limite de détection de la méthode. La mesure des masses exactes par spectrométrie de masse à temps d’envol et les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle ont été explorés comme des méthodes de confirmation possibles.
Resumo:
La nourriture traditionnelle compose une part essentielle de la culture Inuit. Néanmoins, la contamination de cette nourriture par les organochlorés et les métaux lourds fait l’objet d’une attention toute particulière, car elle excède dans certains cas les recommandations canadiennes. Le but de ce travail est, d’une part de mettre à jour les estimés d’exposition au chlordane, au BPC, au toxaphène et au mercure, et d’autre part d’en explorer certaines sources de variation. Pour ce faire, de nouvelles données sur la concentration de ces contaminants parmi les plus importants aliments traditionnels ont été combinées aux relevés alimentaires assemblés dans l’Arctique canadien en 1998 et 1999, la quantité et le type de nourriture traditionnelle consommés étant supposés ne pas avoir changé. D’après l’ensemble des nouveaux estimés obtenus, les changements dans la banque de données sur les contaminants affectent plus les extrémités des distributions que les mesures de tendance centrale. Les estimés d’apports en organochlorés peuvent être considérés comme toujours actuels étant donné que les cinq types d’aliments pour lesquels il y a des nouvelles données disponibles représentent la majorité de l’exposition totale. En ce qui concerne le mercure, toutefois, des données additionnelles sont nécessaires à propos du caribou, du narval, du muktuk du béluga et de la truite de lac pour générer des niveaux d’exposition plus exacts. Les sources de variations de ces estimés d’exposition ont été explorées en évaluant les coefficients de variation propres aux apports alimentaires et ceux propres aux concentrations de contaminants dans les aliments traditionnels. Il s’avère que la variation attribuable aux méthodes de collecte de données alimentaires est plus élevée que celle attribuable à la mesure des contaminants dans les banques de données. De nouvelles méthodes pour mesurer les niveaux de consommation d’aliments traditionnels devraient être développées.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Des modèles de dysfonction érectile (DE) ont été développés et étudiés chez le rat. Cependant, peu de choses sont connues dans certains modèles présentant des facteurs de risque de la DE, en l’occurrence le rat soumis à une diète riche en glucose, le rat avec une restriction de croissance intra-utérine (RCIU) et le rat avec l’infusion continue de l’angiotensine (Ang) II en ce qui concerne l’évaluation de la fonction érectile in vivo. C’est ainsi que nous nous sommes proposés cette étude. La fonction érectile a été mesurée par la stimulation électrique du nerf caverneux à des cohortes de rats mâles Sprague-Dawley de différents âges comme suit: 1) des rats jeunes de 12 semaines d’âge, adultes reproducteurs à la retraite d’environ 30 semaines d’âge et des rats de 27 et 29 semaines soumis à une diète riche en glucose par l’eau de breuvage (10%) à court (1 semaine), moyen (6 semaines) et long (12 ou 13 semaines) termes; 2) des rats jeunes âgés de 12 semaines recevant une infusion soit de l’Ang II (200ng/kg/min) soit de la saline par mini-pompes osmotiques sous-cutanées pendant 1 et 2 semaines; et 3) des rats adultes âgés de 36 semaines avec une RCIU. La fonction érectile a été représentée par des courbes de variations de pression intracaverneuse (PIC) et d’aire sous la courbe (ASC) normalisées avec la pression artérielle moyenne (PAM) en réponse à la stimulation nerveuse à différents volts. À la fin des expériences, les animaux ont été sacrifiés, le sang recueilli pour le dosage de la glycémie et de l’insulinémie; le pénis, l’aorte thoracique et le cœur prélevés à des fins d’analyses protéique et histologique. La diète riche en glucose à court terme a eu un effet néfaste sur la fonction érectile chez le jeune rat mais bénéfique chez le rat adulte reproducteur; de même que pour les études à long terme, la diète riche en glucose a amélioré ou renversé la DE associée au vieillissement. Les rats avec RCIU ont exhibé une baisse très significative de la fonction érectile. Ces détériorations ou améliorations de la fonction érectile avec le glucose ou dans la RCIU ont été principalement associées à des modifications de l’expression de l’Akt, en plus d’une augmentation de l’insuline sérique dans les groupes avec le glucose. L’Ang II a entraîné une baisse de la fonction érectile, statistiquement très significative après 1 semaine et maintenue après 2 semaines de traitement, sans causer des changements morphologiques au cœur et à l’aorte thoracique. En conclusion : l’atteinte du système érectile se fait précocement dans les complications cardiovasculaires liées à l’activation du SRA, l’implication de l’Akt dans la modulation de la fonction érectile dépend de type de vieillissement et de la diète, le RCIU est un facteur de risque pour la DE.
Resumo:
La capture contingente de l’attention est un phénomène dans lequel les mécanismes d’orientation endogène et exogène de l’attention interagissent, de sorte qu’une propriété qui est pertinente à la tâche en cours, et donc qui fait l’objet de contrôles attentionnels descendants, endogènes, capture l’attention de façon involontaire, exogène, vers sa position spatiale. Dans cette thèse, trois aspects de ce phénomène ont été étudiés. Premièrement, en explorant le décours temporel de la capture contingente de l’attention et la réponse électrophysiologique à des distracteurs capturant ainsi l’attention, il a été établi que le déficit comportemental symptomatique de cette forme de capture était lié à un déploiement de l’attention visuospatiale vers la position du distracteur, et que ce traitement spatialement sélectif pouvait être modulé par le partage d’autres propriétés entre le distracteur et la cible. Deuxièmement, l’utilisation des potentiels liés aux événements a permis de dissocier l’hypothèse de capture contingente de l’attention et l’hypothèse de capture pure de l’attention. Selon cette interprétation, un stimulus ne peut capturer l’attention aux stades préattentifs de traitement que s’il présente le plus fort signal ascendant parmi tous les stimuli présents. Les contrôles attentionnels descendants ne serviraient donc qu’à désengager l’attention d’un tel stimulus. Les résultats présentés ici vont à l’encontre d’une telle interprétation, puisqu’un déploiement de l’attention visuospatiale, indexé par la présence d’une N2pc, n’a été observé que lorsqu’un distracteur périphérique possédait une caractéristique pertinente à la tâche en cours, même lorsque ses propriétés de bas niveau n’étaient pas plus saillantes que celles des autres items présents. Finalement, en utilisant un paradigme où la cible était définie en fonction de son appartenance à une catégorie alphanumérique, il a été démontré que des contrôles attentionnels en faveur d’un attribut conceptuel pouvaient guider l’attention visuospatiale de façon involontaire, rejetant une nouvelle fois l’hypothèse de la capture pure de l’attention.
Resumo:
La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.
Resumo:
Nous investiguons dans ce travail la dynamique des excitons dans une couche mince d’agrégats H autoassemblés hélicoïdaux de molécules de sexithiophène. Le couplage intermoléculaire (J=100 meV) place ce matériau dans la catégorie des semi-conducteurs à couplage de type intermédiaire. Le désordre énergétique et la forte interaction électronsphonons causent une forte localisation des excitons. Les espèces initiales se ramifient en deux états distincts : un état d’excitons autopiégés (rendement de 95 %) et un état à transfert de charge (rendement de 5%). À température de la pièce (293K), les processus de sauts intermoléculaires sont activés et l’anisotropie de la fluorescence décroît rapidement à zéro en 5 ns. À basse température (14K), les processus de sauts sont gelés. Pour caractériser la dynamique de diffusion des espèces, une expérience d’anisotropie de fluorescence a été effectuée. Celle-ci consiste à mesurer la différence entre la photoluminescence polarisée parallèlement au laser excitateur et celle polarisée perpendiculairement, en fonction du temps. Cette mesure nous donne de l’information sur la dépolarisation des excitons, qui est directement reliée à leur diffusion dans la structure supramoléculaire. On mesure une anisotropie de 0,1 après 20 ns qui perdure jusqu’à 50ns. Les états à transfert de charge causent une remontée de l’anisotropie vers une valeur de 0,15 sur une plage temporelle allant de 50 ns jusqu’à 210 ns (période entre les impulsions laser). Ces résultats démontrent que la localisation des porteurs est très grande à 14K, et qu’elle est supérieure pour les espèces à transfert de charge. Un modèle numérique simple d’équations différentielles à temps de vie radiatif et de dépolarisation constants permet de reproduire les données expérimentales. Ce modèle a toutefois ses limitations, notamment en ce qui a trait aux mécanismes de dépolarisation des excitons.
Resumo:
Dans les situations du quotidien, nous manipulons fréquemment des objets sans les regarder. Pour effectuer des mouvements vers une cible précise avec un objet à la main, il est nécessaire de percevoir les propriétés spatiales de l’objet. Plusieurs études ont démontré que les sujets peuvent discriminer entre des longueurs d'objet différentes sans l’aide des informations visuelles et peuvent adapter leurs mouvements aux nouvelles caractéristiques inertielles produites lors de la manipulation d’un objet. Dans cette étude, nous avons conduit deux expérimentations afin d’évaluer la capacité des sujets à adapter leurs mouvements d’atteinte à la longueur et à la forme perçues des objets manipulés sur la base unique des sensations non visuelles (sensations haptiques). Dans l'expérience 1, dix sujets devaient exécuter des mouvements d’atteintes vers 4 cibles tridimensionnelles (3D) avec un objet à la main. Trois objets de longueur différente ont été utilisés (pointeurs: 12.5, 17.5, 22.5 cm). Aucune connaissance de la position de la main et de l’objet par rapport à la cible n’était disponible pendant et après les mouvements vers les cibles 3D. Ainsi, lorsque comparé avec les erreurs spatiales commises lors des atteintes manuelles sans pointeur, l’erreur spatiale de chacun des mouvements avec pointeur reflète la précision de l’estimation de la longueur des pointeurs. Nos résultats indiquent que les sujets ont augmenté leurs erreurs spatiales lors des mouvements d’atteinte avec un objet en comparaison avec la condition sans pointeur. Cependant, de façon intéressante, ils ont maintenu le même niveau de précision à travers les trois conditions avec des objets de différentes longueurs malgré une différence de 10 cm entre l’objet le plus court et le plus long. Dans l'expérience 2, neuf sujets différents ont effectué des mouvements d’atteinte vers les mêmes cibles utilisant cette fois-ci deux objets en forme de L (objet no.1 : longueur de 17,5 cm et déviation à droite de 12,5 cm – objet no.2 : longueur de 17,5 cm et déviation à droite de 17,5 cm). Comme c’était le cas lors de l'expérience 1, les sujets ont augmenté leurs erreurs spatiales lors des mouvements d’atteinte avec les objets et cette augmentation était similaire entre les deux conditions avec les objets en forme de L. Une observation frappante de l’expérience 2 est que les erreurs de direction n’ont pas augmenté de façon significative entre les conditions avec objet en forme de L et la condition contrôle sans objet. Ceci démontre que les participants ont perçu de façon précise la déviation latérale des objets sans jamais avoir eu de connaissances visuelles de la configuration des objets. Les résultats suggèrent que l’adaptation à la longueur et à la forme des objets des mouvements d’atteinte est principalement basée sur l’intégration des sensations haptiques. À notre connaissance, cette étude est la première à fournir des données quantitatives sur la précision avec laquelle le système haptique peut permettre la perception de la longueur et de la forme d’un objet tenu dans la main afin d’effectuer un mouvement précis en direction d’une cible.
Resumo:
La barrière hémato-encéphalique (BHE) protège le système nerveux central (SNC) en contrôlant le passage des substances sanguines et des cellules immunitaires. La BHE est formée de cellules endothéliales liées ensemble par des jonctions serrées et ses fonctions sont maintenues par des astrocytes, celles ci sécrétant un nombre de facteurs essentiels. Une analyse protéomique de radeaux lipidiques de cellules endothéliales de la BHE humaine a identifié la présence de la voie de signalisation Hedgehog (Hh), une voie souvent liées à des processus de développement embryologique ainsi qu’au niveau des tissus adultes. Suite à nos expériences, j’ai déterminé que les astrocytes produisent et secrètent le ligand Sonic Hh (Shh) et que les cellules endothéliales humaines en cultures primaires expriment le récepteur Patched (Ptch)-1, le co-récepteur Smoothened (Smo) et le facteur de transcription Gli-1. De plus, l’activation de la voie Hh augmente l’étanchéité des cellules endothéliales de la BHE in vitro. Le blocage de l’activation de la voie Hh en utilisant l’antagoniste cyclopamine ainsi qu’en utilisant des souris Shh déficientes (-/-) diminue l’expression des protéines de jonctions serrées, claudin-5, occcludin, et ZO-1. La voie de signalisation s’est aussi montrée comme étant immunomodulatoire, puisque l’activation de la voie dans les cellules endothéliales de la BHE diminue l’expression de surface des molécules d’adhésion ICAM-1 et VCAM-1, ainsi que la sécrétion des chimiokines pro-inflammatoires IL-8/CXCL8 et MCP-1/CCL2, créant une diminution de la migration des lymphocytes CD4+ à travers une monocouche de cellules endothéliales de la BHE. Des traitements avec des cytokines pro-inflammatoires TNF-α and IFN-γ in vitro, augmente la production de Shh par les astrocytes ainsi que l’expression de surface de Ptch-1 et de Smo. Dans des lésions actives de la sclérose en plaques (SEP), où la BHE est plus perméable, les astrocytes hypertrophiques augmentent leur expression de Shh. Par contre, les cellules endothéliales de la BHE n’augmentent pas leur expression de Ptch-1 ou Smo, suggérant une dysfonction dans la voie de signalisation Hh. Ces résultats montrent que la voie de signalisation Hh promeut les propriétés de la BHE, et qu’un environnement d’inflammation pourrait potentiellement dérégler la BHE en affectant la voie de signalisation Hh des cellules endothéliales.