346 resultados para Basses-Terres
Resumo:
Le processus de planification forestière hiérarchique présentement en place sur les terres publiques risque d’échouer à deux niveaux. Au niveau supérieur, le processus en place ne fournit pas une preuve suffisante de la durabilité du niveau de récolte actuel. À un niveau inférieur, le processus en place n’appuie pas la réalisation du plein potentiel de création de valeur de la ressource forestière, contraignant parfois inutilement la planification à court terme de la récolte. Ces échecs sont attribuables à certaines hypothèses implicites au modèle d’optimisation de la possibilité forestière, ce qui pourrait expliquer pourquoi ce problème n’est pas bien documenté dans la littérature. Nous utilisons la théorie de l’agence pour modéliser le processus de planification forestière hiérarchique sur les terres publiques. Nous développons un cadre de simulation itératif en deux étapes pour estimer l’effet à long terme de l’interaction entre l’État et le consommateur de fibre, nous permettant ainsi d’établir certaines conditions pouvant mener à des ruptures de stock. Nous proposons ensuite une formulation améliorée du modèle d’optimisation de la possibilité forestière. La formulation classique du modèle d’optimisation de la possibilité forestière (c.-à-d., maximisation du rendement soutenu en fibre) ne considère pas que le consommateur de fibre industriel souhaite maximiser son profit, mais suppose plutôt la consommation totale de l’offre de fibre à chaque période, peu importe le potentiel de création de valeur de celle-ci. Nous étendons la formulation classique du modèle d’optimisation de la possibilité forestière afin de permettre l’anticipation du comportement du consommateur de fibre, augmentant ainsi la probabilité que l’offre de fibre soit entièrement consommée, rétablissant ainsi la validité de l’hypothèse de consommation totale de l’offre de fibre implicite au modèle d’optimisation. Nous modélisons la relation principal-agent entre le gouvernement et l’industrie à l’aide d’une formulation biniveau du modèle optimisation, où le niveau supérieur représente le processus de détermination de la possibilité forestière (responsabilité du gouvernement), et le niveau inférieur représente le processus de consommation de la fibre (responsabilité de l’industrie). Nous montrons que la formulation biniveau peux atténuer le risque de ruptures de stock, améliorant ainsi la crédibilité du processus de planification forestière hiérarchique. Ensemble, le modèle biniveau d’optimisation de la possibilité forestière et la méthodologie que nous avons développée pour résoudre celui-ci à l’optimalité, représentent une alternative aux méthodes actuellement utilisées. Notre modèle biniveau et le cadre de simulation itérative représentent un pas vers l’avant en matière de technologie de planification forestière axée sur la création de valeur. L’intégration explicite d’objectifs et de contraintes industrielles au processus de planification forestière, dès la détermination de la possibilité forestière, devrait favoriser une collaboration accrue entre les instances gouvernementales et industrielles, permettant ainsi d’exploiter le plein potentiel de création de valeur de la ressource forestière.
Resumo:
La biodiversité et les écosystèmes font parties d’un ensemble qui confère des biens et services essentiels à la survie et au bien-être des populations. L’action humaine et ses interactions avec l’environnement génèrent des pressions qui le poussent vers sa dégradation. Afin d’éviter la perte irrémédiable d’éléments de cet environnement, des aires protégées viennent réduire de manière importante l’impact de ces pressions sur le territoire qu’elles couvrent. Le réseau d’aires protégées du Québec conserve actuellement 9,32 % du territoire, et cherche à atteindre 12 % d’ici 2020. Basé sur le Cadre écologique de référence du Québec, il vise à représenter l’ensemble de la biodiversité de la province et à réduire les pressions exercées sur ses écosystèmes. À ce jour, la majorité des aires protégées sont développées dans le nord du Québec et en terres publiques. Or, le Sud est principalement composé de territoires privés, et recèle de la plus grande biodiversité de la province. Afin de corriger cette problématique, les outils de planification du réseau doivent être repensés pour rendre compte de l’urgence de protéger les territoires du Sud et recréer une connectivité dans le paysage fragmenté, tout en conservant les principes de représentativité et d’efficacité qui font leur force. Pour y parvenir, la mission et les paramètres de suivi du réseau doivent être également revus. Les acteurs locaux, dont les municipalités régionales de comtés et les municipalités, doivent être mis à profit pour considérer les enjeux propres aux terres privées du sud de la province. Ces derniers possèdent déjà plusieurs outils légaux et administratifs pour participer activement à la protection du territoire, qui sont cependant souvent mal connus ou mal compris. Un effort doit être fait pour agencer ces actions avec celles du gouvernement provincial de manière à agir dans une logique d’ensemble. De même, tous les intervenants gagneraient à disposer de meilleurs outils concernant la diffusion des données sur la connaissance du territoire, notamment d’une plateforme centralisée, de protocoles d’acquisition de données standardisés et d’une saine gestion du cycle de vie de ces données. L’application de la géomatique dans la planification et le suivi du réseau d’aires protégées, de même que dans l’aménagement général du territoire pour la conservation et pour la diffusion des données, présente des avantages qui devraient être intégrés plus largement au Québec, notamment par les acteurs locaux du sud de la province.
Resumo:
Pour assurer une gestion adéquate des écosystèmes nordiques à l’approche du développement de nouvelles activités économiques, le Centre d’expertise en analyse environnementale du Québec a pris l’initiative d’adapter certains de ses outils, plus particulièrement sa Procédure d’évaluation du risque écotoxicologique. En effet, bien que l’outil soit applicable au Québec méridional, des recommandations pour adapter la méthodologie au Nord en permettraient une utilisation plus judicieuse pour les divers intervenants utilisant cet outil de gestion de l’environnement. L’objectif de cet essai est d’identifier les aspects de l’outil devant être adaptés pour son application dans le Nord québécois et de proposer des recommandations pour y arriver. Ainsi, une première analyse des activités économiques en essor sur le territoire a permis d’identifier les substances qui pourraient être problématiques et pour lesquelles aucun critère de gestion ou de valeur toxicologique de référence n’est disponible au Québec, comme les métaux des terres rares, l’uranium et les fractions des hydrocarbures pétroliers. Une recherche approfondie sur les particularités du territoire à l’étude a permis, pour sa part, d’identifier des espèces écologiques représentatives et qui pourraient être utilisées comme récepteurs potentiels. À la suite de l’analyse de l’outil de gestion d’évaluation du risque écotoxicologique, trois recommandations principales ont pu être émises dans le but de l’adapter à ce territoire unique : 1) établir des critères de sols pour les contaminants susceptibles d’être émis dans le Nord québécois, 2) développer des valeurs toxicologiques de références pour le plus haut niveau de sensibilités pour ces mêmes substances et 3) recueillir les informations nécessaires sur des récepteurs nordiques clés pour pouvoir évaluer le risque écotoxicologique qu’ils courent. Finalement, un exemple d’application des recommandations, notamment l’utilisation de nouveaux récepteurs, tels que le caribou migrateur et le lièvre arctique, ainsi que l’utilisation de critères génériques et de valeurs toxicologiques de référence d’autres juridictions, a permis d’évaluer le risque pour un cas fictif en milieu nordique. Bien que le besoin d’investir des efforts de recherches pour pallier certaines lacunes ait été identifié, les recommandations proposées permettront de cibler ces efforts sur les éléments les plus problématiques pour permettre, finalement, d’adapter l’outil aux réalités des écosystèmes fragiles et uniques de ce territoire particulier.
Resumo:
La seigneurie de Saint-Augustin de Maur, communément appelée la « seigneurie des pauvres », est propriété des pauvres de l’Hôtel-Dieu de Québec de 1734 à 1868. Achetée après adjudication (mise aux enchères) avec l’argent des pauvres par leurs dépositaires, les Augustines de l’Hôtel-Dieu de Québec, la seigneurie est mise en valeur avec succès par ces dernières malgré les contraintes physiques que leur impose la clôture perpétuelle. Les pauvres sont les seigneurs de Maur en théorie, mais ils ne le sont pas en pratique puisqu’ils sont une personne morale n’ayant pas la capacité de gérer des biens. C’est une hospitalière (la dépositaire des pauvres) qui assure le rôle de seigneuresse en concédant des terres, en tenant les registres de compte et en engageant les procureurs, meuniers et fermiers. La propriété des pauvres n’étant que théorique, les religieuses sont, dans les faits, les véritables seigneuresses de Saint-Augustin. Pour arriver à gérer le fief de Maur correctement, les Augustines se font conseiller par leurs « amis », par le clergé canadien, par les administrateurs coloniaux et par des procureurs, et elles mettent en place des outils seigneuriaux comme des plans de la seigneurie, des papiers-terriers et des censiers, ce qui leur permet d’atténuer les limites du cloître et de gérer Saint-Augustin aussi minutieusement que les seigneurs masculins du Canada le font pour leurs fiefs (Séminaire de Québec, Sulpiciens et Jésuites). Bien que le cloître restreigne la surveillance et le prélèvement des droits seigneuriaux des Augustines, le régime seigneurial se durcit au XVIIIe siècle à Saint-Augustin. Les Augustines savent réclamer leur dû par un sens aigu des affaires, mais elles n’ont d’autres choix, en toute circonstance, que d’avoir confiance en leurs régisseurs, ce qui n’est pas toujours garant de succès.
Resumo:
Notre système visuel extrait d'ordinaire l'information en basses fréquences spatiales (FS) avant celles en hautes FS. L'information globale extraite tôt peut ainsi activer des hypothèses sur l'identité de l'objet et guider l'extraction d'information plus fine spécifique par la suite. Dans les troubles du spectre autistique (TSA), toutefois, la perception des FS est atypique. De plus, la perception des individus atteints de TSA semble être moins influencée par leurs a priori et connaissances antérieures. Dans l'étude décrite dans le corps de ce mémoire, nous avions pour but de vérifier si l'a priori de traiter l'information des basses aux hautes FS était présent chez les individus atteints de TSA. Nous avons comparé le décours temporel de l'utilisation des FS chez des sujets neurotypiques et atteints de TSA en échantillonnant aléatoirement et exhaustivement l'espace temps x FS. Les sujets neurotypiques extrayaient les basses FS avant les plus hautes: nous avons ainsi pu répliquer le résultat de plusieurs études antérieures, tout en le caractérisant avec plus de précision que jamais auparavant. Les sujets atteints de TSA, quant à eux, extrayaient toutes les FS utiles, basses et hautes, dès le début, indiquant qu'ils ne possédaient pas l'a priori présent chez les neurotypiques. Il semblerait ainsi que les individus atteints de TSA extraient les FS de manière purement ascendante, l'extraction n'étant pas guidée par l'activation d'hypothèses.
Resumo:
La conchyliculture, et principalement l’élevage de l’huître creuse, Crassostrea gigas, constitue la principale activité aquacole française. Cette activité repose, en grande partie, sur le recrutement naturel de l’espèce qui assure 60 à 70% des besoins en jeunes huîtres (naissain) : cette activité de collecte s’appelle le captage. Les deux principaux centres de captage en France sont les bassins d’Arcachon et de Marennes-Oléron. Or, depuis une dizaine d'années, sur le bassin d'Arcachon, le captage devient très variable: à des années de captage nul (par exemple 2002, 2005, 2007) ou faible (2009, 2010, 2011) succèdent des années excellentes voire pléthoriques (2003, 2006, 2008, 2012, 2014). A Marennes-Oléron, cette variabilité existe, mais s’avère beaucoup moins marquée. En outre, à la faveur du lent réchauffement des eaux, le captage peut désormais se pratiquer de plus en plus vers le nord. Ainsi, la baie de Bourgneuf, mais aussi la rade de Brest sont devenues, depuis quelques années, des secteurs où un nombre croissant d’ostréiculteurs pratiquent le captage avec succès, mais avec, là aussi, des irrégularités dans le recrutement qu’il convient de comprendre. Enfin, depuis la crise des mortalités de 2008, il se développe aussi sur la lagune de Thau une volonté de pratiquer le captage. Afin de mieux comprendre les facteurs de variations du captage, l’Ifremer a mis en place, à la demande du Comité National de la Conchyliculture, un réseau national de suivi de la reproduction : le Réseau Velyger. Créé en 2008 sur financements européens et financé désormais par la Direction des Pêches Maritimes et de l’Aquaculture, ce réseau apporte, chaque année, sur les écosystèmes cités précédemment, une série d’indicateurs biologiques (maturation, fécondité, date de ponte, abondance et survie larvaire, intensité du recrutement, survie du naissain) dont l’analyse croisée avec des indicateurs hydrologiques et climatiques permet progressivement de mieux appréhender les causes de variabilité du recrutement de l’huître creuse en France, modèle biologique et espèce clé de la conchyliculture française. Ce rapport présente donc les résultats 2015 de ce réseau d’observation et fait appel, pour la partie hydro-climatique, à des données acquises par d’autres réseaux régionaux et nationaux. Il détaille et analyse par site toutes les caractéristiques du cycle de reproduction de l’huître creuse : maturation et fécondité des adultes, période de ponte, abondance et survie des larves, intensité du captage et mortalités précoces. Il fournit ensuite une interprétation et une synthèse des résultats 2015 à la lueur des résultats des années antérieures. Ainsi, pour l’année 2015, on retient les faits majeurs suivants : • Sur le plan hydro-climatique, cette année se caractérise par un hiver doux et un printemps dans les normales, suivis d’un été là aussi très proches des normales à quelques exceptions près : l’étang de Thau affiche tout au long de l’été des températures largement excédentaires. Compte tenu d’une pluviométrie là aussi proche des normales, les concentrations en phytoplancton sont restées à un niveau moyen de la rade de Brest aux pertuis charentais et plutôt déficitaires dans le bassin d’Arcachon et la lagune de Thau. • En termes de biologie, ces conditions hydro-climatiques se sont traduites, chez les populations d’huîtres adultes, par des indices de condition, proxy de la fécondité, généralement proches des moyennes, avec toujours l’existence d’un gradient nord-sud observé chaque année, corrélativement à la concentration en phytoplancton. En outre, l’absence d’excédent thermique au printemps et en début d’été n’a pas permis de ponte précoce (à l’exception de la lagune de Thau), elle a même été plutôt tardive surtout dans le bassin d’Arcachon. • Sur la façade atlantique, les températures de l’eau lors du développement larvaire des principales cohortes ont été plutôt basses (inférieures à 20°C en rade de Brest et inférieures à 21°C ailleurs) et donc la vitesse de croissance larvaire a été ralentie et la survie amoindrie. Les rendements larvaires ont été effectivement très bas (e.g. 0,002 % à Arcachon). In fine, il y a eu peu de larves grosses dans l’eau, ce qui s’est traduit par un captage faible à modéré. Une exception tout de même : dans la lagune de Thau, les températures caniculaires tout au long de l’été ont permis une concentration moyenne de larves ‘grosses’ modérée (80 larves/1,5m3). Cependant, les méthodes et les techniques de captage sont encore en cours d’optimisation sur ce secteur et cette année, malgré cette présence de larves grosses, le captage est resté faible (< 10 naissains par coupelle à l’automne). • En conséquence, l’année 2015, se caractérise par un captage globalement « faible à modéré » dans tous les secteurs s’échelonnant autour de 10 naissains/coupelle dans la lagune de Thau et en baie de Bourgneuf à plus de 200 naissains/coupelle dans les pertuis charentais. Enfin, à partir de l’ensemble des résultats acquis depuis 2008, ce rapport fournit en conclusion une série de recommandations à prendre en compte pour préserver le captage dans les années à venir.
Resumo:
La maladie de Parkinson (MP) est une maladie neurodégénérative qui se caractérise principalement par la présence de symptômes moteurs. Cependant, d’autres symptômes, dits non moteurs, sont fréquents dans la MP et assombrissent le pronostic; ceux ci incluent notamment les désordres du sommeil et les troubles cognitifs. De fait, sur une période de plus de 10 ans, jusqu’à 90 % des patients avec la MP développeraient une démence. L’identification de marqueurs de la démence dans la MP est donc primordiale pour permettre le diagnostic précoce et favoriser le développement d’approches thérapeutiques préventives. Plusieurs études ont mis en évidence la contribution du sommeil dans les processus de plasticité cérébrale, d’apprentissage et de consolidation mnésique, notamment l’importance des ondes lentes (OL) et des fuseaux de sommeil (FS). Très peu de travaux se sont intéressés aux liens entre les modifications de la microarchitecture du sommeil et le déclin cognitif dans la MP. L’objectif de cette thèse est de déterminer, sur le plan longitudinal, si certains marqueurs électroencéphalographiques (EEG) en sommeil peuvent prédire la progression vers la démence chez des patients atteints de la MP. La première étude a évalué les caractéristiques des OL et des FS durant le sommeil lent chez les patients avec la MP selon qu’ils ont développé ou non une démence (MP démence vs MP sans démence) lors du suivi longitudinal, ainsi que chez des sujets contrôles en santé. Comparativement aux patients MP sans démence et aux sujets contrôles, les patients MP démence présentaient au temps de base une diminution de la densité, de l’amplitude et de la fréquence des FS. La diminution de l’amplitude des FS dans les régions postérieures était associée à de moins bonnes performances aux tâches visuospatiales chez les patients MP démence. Bien que l’amplitude des OL soit diminuée chez les deux groupes de patients avec la MP, celle ci n’était pas associée au statut cognitif lors du suivi. La deuxième étude a évalué les marqueurs spectraux du développement de la démence dans la MP à l’aide de l’analyse quantifiée de l’EEG en sommeil lent, en sommeil paradoxal et à l’éveil. Les patients MP démence présentaient une diminution de la puissance spectrale sigma durant le sommeil lent dans les régions pariétales comparativement aux patients MP sans démence et aux contrôles. Durant le sommeil paradoxal, l’augmentation de la puissance spectrale en delta et en thêta, de même qu’un plus grand ratio de ralentissement de l’EEG, caractérisé par un rapport plus élevé des basses fréquences sur les hautes fréquences, était associée au développement de la démence chez les patients avec la MP. D’ailleurs, dans la cohorte de patients, un plus grand ralentissement de l’EEG en sommeil paradoxal dans les régions temporo occipitales était associé à des performances cognitives moindres aux épreuves visuospatiales. Enfin, durant l’éveil, les patients MP démence présentaient au temps de base une augmentation de la puissance spectrale delta, un plus grand ratio de ralentissement de l’EEG ainsi qu’une diminution de la fréquence dominante occipitale alpha comparativement aux patients MP sans démence et aux contrôles. Cette thèse suggère que des anomalies EEG spécifiques durant le sommeil et l’éveil peuvent identifier les patients avec la MP qui vont développer une démence quelques années plus tard. L’activité des FS, ainsi que le ralentissement de l’EEG en sommeil paradoxal et à l’éveil, pourraient donc servir de marqueurs potentiels du développement de la démence dans la MP.
Resumo:
2015
Resumo:
Les éléments de terres rares (REEs) sont de plus en plus utilisés dans une multitude d’applications, notamment la fabrication d’aimants, de batteries rechargeables et les écrans de téléviseurs. Ils sont pour la plupart des métaux trivalents peu solubles dans les eaux naturelles. Comme pour les métaux divalents, le risque écologique des REEs est très probablement étroitement lié à leurs spéciations chimiques. Cependant, le comportement du samarium (Sm) dans les matrices environnementales est très peu connu et il n'existe actuellement aucune technique pour évaluer sa spéciation chimique. Dans cette optique, la technique d'échange d'ions (IET) sur la résine Dowex a été optimisée pour mesurer le samarium libre en solution. Les temps d'équilibre ont d'abord été déterminés pour des solutions tamponnées de samarium (Sm 6,7x10-8 M ; MES 1,0 mM M ; pH 6,0) en présence du nitrate de sodium (de 0,01M à 0,5 M). Pour ces diverses forces ioniques, l’équilibre thermodynamique n’est atteint que pour NaNO3 0,5M. Un autre mode d’utilisation de la résine (mode dynamique) a donc été développé pour tenir compte des conditions environnementales et évaluer efficacement le samarium libre. Les impacts des ligands organiques tels le NTA, l’EDTA, le citrate, l’acide malique et l’acide fulvique Suwannee River Standard I (SRFA) ont été étudiés par l’IET en mode dynamique. Une grande corrélation a été trouvée plus entre les taux d’accumulation de samarium sur la résine d’échange pour différents rapports NTA : Sm, EDTA : Sm, SRFA : Sm et le samarium libre. Par contre, aucune corrélation significative n’a été observée pour les ligands citrate et acide malique compte tenu des complexes qu’ils forment avec le samarium et qui s’adsorbent aussi sur la résine Dowex. Les concentrations Sm3+ mesurées par la technique IET ont été fortement corrélées avec celles prédites par le modèle WHAM 7.0 en utilisant la constante de stabilité obtenue par titration de SRFA par extinction de la fluorescence. Par ailleurs, la formation de colloïdes de samarium en fonction du pH influe grandement sur la détermination du samarium libre et doit être prise en compte dans la spéciation du samarium. L'IET assisté par des techniques auxiliaires comme le dosage par extinction de la fluorescence et le SP-ICPMS pourrait être une technique utile pour évaluer les concentrations de Sm biodisponible dans les eaux naturelles.
Resumo:
Les troubles respiratoires du sommeil ont une prévalence élevée dans la population générale, l’apnée obstructive du sommeil étant le plus important de ces troubles. Malgré tout, une grande proportion des patients avec apnée ne sont pas diagnostiqués. La méthode la plus complète pour diagnostiquer l’apnée est l’enregistrement d’une nuit de sommeil par polysomnographie, aussi appelée enregistrement de type 1, qui est un processus long et coûteux. Pour surmonter ces difficultés, des appareils d’enregistrements portables (ou de type 3) ont été développés. Toutefois, ces enregistrements de type 3 ne capturent pas l’activité cérébrale, mesurée avec l’électroencéphalographie (EEG). Le présent mémoire décrit une étude comparative entre les enregistrements de type 1 et de type 3. Tous les événements respiratoires d’apnée, d’hypopnée et d’éveils liés à un effort respiratoire (RERA, en anglais) seront analysés ainsi que les éveils cérébraux (ou éveils EEG) et les éveils autonomiques. Ces éveils autonomiques se définissent par une hausse de la fréquence cardiaque suite à un événement respiratoire. Pour enrichir les analyses, les variables respiratoires suivantes ont été étudiées : une chute de la saturation en oxygène de 4 % (ODI), l’index d’apnée-hypopnée (IAH), l’indice de perturbations respiratoires avec apnées + hypopnées + RERAs et les éveils EEG (RDIe, en anglais) et le RDI incluant les éveils autonomiques définis par une augmentation de la fréquence cardiaque de 5 bpm (RDIa5). L’objectif de la présente étude est d’évaluer la proportion d’événements respiratoires avec éveils autonomiques ainsi que leur impact sur le RDI des enregistrements de type 1 et 3. L’hypothèse suggère que les événements avec éveils autonomiques auraient un plus grand impact sur le RDI des enregistrements de type 3 contrairement au type 1. Cette étude inclut 72 sujets ayant suivi un enregistrement de polysomnographie complète de type 1 ainsi que 79 sujets différents ayant suivi un enregistrement ambulatoire de type 3. Les analyses suivantes ont été effectuées : 1) les pourcentages d’événements associés avec seulement des éveils autonomiques dans les enregistrements de type 1 et de type 3 ; 2) les fréquences de migration entre les catégories basses et élevées de sévérité de l’AHI en prenant en compte les événements associés avec seulement des éveils autonomiques ; 3) les Bland-Altman (B-A) pour mesurer l’accord entre l’AHI, le RDIe et le RDIa5 (type 1), et entre l’AHI et le RDIa5 (type 3) et ; 4) les corrélations de Pearson et les coefficients de corrélation intraclasse (ICC) pour mesurer l’accord entre l’AHI, le RDIe et le RDIa5 (type 1), et entre l’AHI et le RDIa5 (type 3). L’utilisation du critère de RDIa5 permet d’ajouter 49 % d’événements comptés avec l’AHI pour les enregistrements de type 1, et 51 % d’événements pour ceux de type 3. La présente étude montre que les éveils autonomiques ont un impact similaire autant pour le RDI des enregistrements de type 3 que de type 1. En conclusion, on peut affirmer que le RDIa5 est acceptable et fiable pour les enregistrements de type 3.
Resumo:
Les éléments de terres rares (REEs) sont de plus en plus utilisés dans une multitude d’applications, notamment la fabrication d’aimants, de batteries rechargeables et les écrans de téléviseurs. Ils sont pour la plupart des métaux trivalents peu solubles dans les eaux naturelles. Comme pour les métaux divalents, le risque écologique des REEs est très probablement étroitement lié à leurs spéciations chimiques. Cependant, le comportement du samarium (Sm) dans les matrices environnementales est très peu connu et il n'existe actuellement aucune technique pour évaluer sa spéciation chimique. Dans cette optique, la technique d'échange d'ions (IET) sur la résine Dowex a été optimisée pour mesurer le samarium libre en solution. Les temps d'équilibre ont d'abord été déterminés pour des solutions tamponnées de samarium (Sm 6,7x10-8 M ; MES 1,0 mM M ; pH 6,0) en présence du nitrate de sodium (de 0,01M à 0,5 M). Pour ces diverses forces ioniques, l’équilibre thermodynamique n’est atteint que pour NaNO3 0,5M. Un autre mode d’utilisation de la résine (mode dynamique) a donc été développé pour tenir compte des conditions environnementales et évaluer efficacement le samarium libre. Les impacts des ligands organiques tels le NTA, l’EDTA, le citrate, l’acide malique et l’acide fulvique Suwannee River Standard I (SRFA) ont été étudiés par l’IET en mode dynamique. Une grande corrélation a été trouvée plus entre les taux d’accumulation de samarium sur la résine d’échange pour différents rapports NTA : Sm, EDTA : Sm, SRFA : Sm et le samarium libre. Par contre, aucune corrélation significative n’a été observée pour les ligands citrate et acide malique compte tenu des complexes qu’ils forment avec le samarium et qui s’adsorbent aussi sur la résine Dowex. Les concentrations Sm3+ mesurées par la technique IET ont été fortement corrélées avec celles prédites par le modèle WHAM 7.0 en utilisant la constante de stabilité obtenue par titration de SRFA par extinction de la fluorescence. Par ailleurs, la formation de colloïdes de samarium en fonction du pH influe grandement sur la détermination du samarium libre et doit être prise en compte dans la spéciation du samarium. L'IET assisté par des techniques auxiliaires comme le dosage par extinction de la fluorescence et le SP-ICPMS pourrait être une technique utile pour évaluer les concentrations de Sm biodisponible dans les eaux naturelles.
Resumo:
Les troubles respiratoires du sommeil ont une prévalence élevée dans la population générale, l’apnée obstructive du sommeil étant le plus important de ces troubles. Malgré tout, une grande proportion des patients avec apnée ne sont pas diagnostiqués. La méthode la plus complète pour diagnostiquer l’apnée est l’enregistrement d’une nuit de sommeil par polysomnographie, aussi appelée enregistrement de type 1, qui est un processus long et coûteux. Pour surmonter ces difficultés, des appareils d’enregistrements portables (ou de type 3) ont été développés. Toutefois, ces enregistrements de type 3 ne capturent pas l’activité cérébrale, mesurée avec l’électroencéphalographie (EEG). Le présent mémoire décrit une étude comparative entre les enregistrements de type 1 et de type 3. Tous les événements respiratoires d’apnée, d’hypopnée et d’éveils liés à un effort respiratoire (RERA, en anglais) seront analysés ainsi que les éveils cérébraux (ou éveils EEG) et les éveils autonomiques. Ces éveils autonomiques se définissent par une hausse de la fréquence cardiaque suite à un événement respiratoire. Pour enrichir les analyses, les variables respiratoires suivantes ont été étudiées : une chute de la saturation en oxygène de 4 % (ODI), l’index d’apnée-hypopnée (IAH), l’indice de perturbations respiratoires avec apnées + hypopnées + RERAs et les éveils EEG (RDIe, en anglais) et le RDI incluant les éveils autonomiques définis par une augmentation de la fréquence cardiaque de 5 bpm (RDIa5). L’objectif de la présente étude est d’évaluer la proportion d’événements respiratoires avec éveils autonomiques ainsi que leur impact sur le RDI des enregistrements de type 1 et 3. L’hypothèse suggère que les événements avec éveils autonomiques auraient un plus grand impact sur le RDI des enregistrements de type 3 contrairement au type 1. Cette étude inclut 72 sujets ayant suivi un enregistrement de polysomnographie complète de type 1 ainsi que 79 sujets différents ayant suivi un enregistrement ambulatoire de type 3. Les analyses suivantes ont été effectuées : 1) les pourcentages d’événements associés avec seulement des éveils autonomiques dans les enregistrements de type 1 et de type 3 ; 2) les fréquences de migration entre les catégories basses et élevées de sévérité de l’AHI en prenant en compte les événements associés avec seulement des éveils autonomiques ; 3) les Bland-Altman (B-A) pour mesurer l’accord entre l’AHI, le RDIe et le RDIa5 (type 1), et entre l’AHI et le RDIa5 (type 3) et ; 4) les corrélations de Pearson et les coefficients de corrélation intraclasse (ICC) pour mesurer l’accord entre l’AHI, le RDIe et le RDIa5 (type 1), et entre l’AHI et le RDIa5 (type 3). L’utilisation du critère de RDIa5 permet d’ajouter 49 % d’événements comptés avec l’AHI pour les enregistrements de type 1, et 51 % d’événements pour ceux de type 3. La présente étude montre que les éveils autonomiques ont un impact similaire autant pour le RDI des enregistrements de type 3 que de type 1. En conclusion, on peut affirmer que le RDIa5 est acceptable et fiable pour les enregistrements de type 3.
Resumo:
Le développement au cours des dernières décennies de lasers à fibre à verrouillage de modes permet aujourd’hui d’avoir accès à des sources fiables d’impulsions femtosecondes qui sont utilisées autant dans les laboratoires de recherche que pour des applications commerciales. Grâce à leur large bande passante ainsi qu’à leur excellente dissipation de chaleur, les fibres dopées avec des ions de terres rares ont permis l’amplification et la génération d’impulsions brèves de haute énergie avec une forte cadence. Cependant, les effets non linéaires causés par la faible taille du faisceau dans la fibre ainsi que la saturation de l’inversion de population du milieu compliquent l’utilisation d’amplificateurs fibrés pour l’obtention d’impulsions brèves dont l’énergie dépasse le millijoule. Diverses stratégies comme l’étirement des impulsions à des durées de l’ordre de la nanoseconde, l’utilisation de fibres à cristaux photoniques ayant un coeur plus large et l’amplification en parallèle ont permis de contourner ces limitations pour obtenir des impulsions de quelques millijoules ayant une durée inférieure à la picoseconde. Ce mémoire de maîtrise présente une nouvelle approche pour l’amplification d’impulsions brèves utilisant la diffusion Raman des verres de silice comme milieu de gain. Il est connu que cet effet non linéaire permet l’amplification avec une large bande passante et ce dernier est d’ailleurs couramment utilisé aujourd’hui dans les réseaux de télécommunications par fibre optique. Puisque l’adaptation des schémas d’amplification Raman existants aux impulsions brèves de haute énergie n’est pas directe, on propose plutôt un schéma consistant à transférer l’énergie d’une impulsion pompe quasi monochromatique à une impulsion signal brève étirée avec une dérive en fréquence. Afin d’évaluer le potentiel du gain Raman pour l’amplification d’impulsions brèves, ce mémoire présente un modèle analytique permettant de prédire les caractéristiques de l’impulsion amplifiée selon celles de la pompe et le milieu dans lequel elles se propagent. On trouve alors que la bande passante élevée du gain Raman des verres de silice ainsi que sa saturation inhomogène permettent l’amplification d’impulsions signal à une énergie comparable à celle de la pompe tout en conservant une largeur spectrale élevée supportant la compression à des durées très brèves. Quelques variantes du schéma d’amplification sont proposées, et leur potentiel est évalué par l’utilisation du modèle analytique ou de simulations numériques. On prédit analytiquement et numériquement l’amplification Raman d’impulsions à des énergies de quelques millijoules, dont la durée est inférieure à 150 fs et dont la puissance crête avoisine 20 GW.
Resumo:
2015
Resumo:
Educação vai além de promover a instrução dos alunos, ultrapassa fronteiras conteudistas e promove mudanças comportamentais a partir das práticas vivenciadas no dia a dia. É dentro dessa concepção que se estrutura o Projeto Virtudes, desenvolvido pelo Bom Jesus, numa perspectiva de proporcionar ações que valorizem a formação moral dos estudantes inseridos no ambiente da escola. Para o desenvolvimento dessas atividades, os educadores são orientados a conhecer e reconhecer a virtude de cada turma como norteadora de suas práticas pedagógicas em sala de aula. Na Geografia, considerando as virtudes Sabedoria, Solidariedade, Diálogo e Disciplina, respectivamente do 6ª, 7ª, 8ª e 9ª ano, procurou-se criar atividades que pudessem contribuir para o desenvolvimento cognitivo e social sem privá-los dos conteúdos necessários para sua formação enquanto estudante daquela turma. A partir das técnicas utilizadas foi possível presenciar um crescimento exponencial considerando as necessidades de cada ação promovida, uma vez que procurou-se explorar diversas características individuais e coletivas dentro do espaço escolar. Assim, percebe-se que não são novas formas de educar necessárias, mas sim o resgate dos valores éticos e morais que devem ser encarados como base para a formação de uma sociedade mais consciente e cidadã, comprometida com a valorização da vida.