949 resultados para Possible distribution range
Resumo:
Increasingly growing share of distributed generation in the whole electrical power system’s generating system is currently a worldwide tendency, driven by several factors, encircling mainly difficulties in refinement of megalopolises’ distribution networks and its maintenance; widening environmental concerns adding to both energy efficiency approaches and installation of renewable sources based generation, inherently distributed; increased power quality and reliability needs; progress in IT field, making implementable harmonization of needs and interests of different-energy-type generators and consumers. At this stage, the volume, formed by system-interconnected distributed generation facilities, have reached the level of causing broad impact toward system operation under emergency and post-emergency conditions in several EU countries, thus previously implementable approach of their preliminary tripping in case of a fault, preventing generating equipment damage and disoperation of relay protection and automation, is not applicable any more. Adding to the preceding, withstand capability and transient electromechanical stability of generating technologies, interconnecting in proximity of load nodes, enhanced significantly since the moment Low Voltage Ride-Through regulations, followed by techniques, were introduced in Grid Codes. Both aspects leads to relay protection and auto-reclosing operation in presence of distributed generation generally connected after grid planning and construction phases. This paper proposes solutions to the emerging need to ensure correct operation of the equipment in question with least possible grid refinements, distinctively for every type of distributed generation technology achieved its technical maturity to date and network’s protection. New generating technologies are equivalented from the perspective of representation in calculation of initial steady-state short-circuit current used to dimension current-sensing relay protection, and widely adopted short-circuit calculation practices, as IEC 60909 and VDE 0102. The phenomenon of unintentional islanding, influencing auto-reclosing, is addressed, and protection schemes used to eliminate an sustained island are listed and characterized by reliability and implementation related factors, whereas also forming a crucial aspect of realization of the proposed protection operation relieving measures.
Resumo:
The research towards efficient, reliable and environmental-friendly power supply solutions is producing growing interest to the “Smart Grid” approach for the development of the electricity networks and managing the increasing energy consumption. One of the novel approaches is an LVDC microgrid. The purpose of the research is to analyze the possibilities for the implementation of LVDC microgrids in public distribution networks in Russia. The research contains the analysis of the modern Russian electric power industry, electricity market, electricity distribution business, regulatory framework and standardization, related to the implementation of LVDC microgrid concept. For the purpose of the economic feasibility estimation, a theoretical case study for comparing low voltage AC and medium voltage AC with LVDC microgrid solutions for a small settlement in Russia is presented. The results of the market and regulatory framework analysis along with the economic comparison of AC and DC solutions show that implementation of the LVDC microgrid concept in Russia is possible and can be economically feasible. From the electric power industry and regulatory framework point of view, there are no serious obstacles for the LVDC microgrids in Russian distribution networks. However, the most suitable use cases at the moment are expected to be found in the electrification of remote settlements, which are isolated from the Unified Energy System of Russia.
Resumo:
In the work reported here, optically clear, ultrathin TEOS derived sol-gel slides which were suitable for studies of tryptophan (Trp) fluorescence from entrapped proteins were prepared by the sol-gel technique and characterized. The monitoring of intrinsic protein fluorescence provided information about the structure and environment of the entrapped protein, and about the kinetics of the interaction between the entrapped protein and extemal reagents. Initial studies concentrated on the single Trp protein monellin which was entrapped into the sol-gel matrices. Two types of sol-gel slides, termed "wet aged", in which the gels were aged in buffer and "dry-aged", in which the gels were aged in air , were studied in order to compare the effect of the sol-gel matrix on the structure of the protein at different aging stages. Fluorescence results suggested that the mobility of solvent inside the slides was substantially reduced. The interaction of the entrapped protein with both neutral and charged species was examined and indicated response times on the order of minutes. In the case of the neutral species the kinetics were diffusion limited in solution, but were best described by a sum of first order rate constants when the reactions occurred in the glass matrix. For charged species, interactions between the analytes and the negatively charged glass matrix caused the reaction kinetics to become complex, with the overall reaction rate depending on both the type of aging and the charge on the analyte. The stability and conformational flexibility of the entrapped monellin were also studied. These studies indicated that the encapsulation of monellin into dry-aged monoliths caused the thermal unfolding transition to broaden and shift upward by 14°C, and causedthe long-term stability to improve by 12-fold (compared to solution). Chemical stability studies also showed a broader transition for the unfolding of the protein in dry-aged monoliths, and suggested that the protein was present in a distribution of environments. Results indicated that the entrapped proteins had a smaller range of conformational motions compared to proteins in solution, and that entrapped proteins were not able to unfold completely. The restriction of conformational motion, along with the increased structural order of the internal environment of the gels, likely resulted in the improvements in themial and long-term stability that were observed. A second protein which was also studied in this work is the metal binding protein rat oncomodulin. Initially, the unfolding behavior of this protein in aqueous solution was examined. Several single tryptophan mutants of the metal-binding protein rat oncomodulin (OM) were examined; F102W, Y57W, Y65W and the engineered protein CDOM33 which had all 12 residues of the CD loop replaced with a higher affinity binding loop. Both the thermal and the chemical stability were improved upon binding of metal ions with the order apo < Ca^^ < Tb^"^. During thermal denaturation, the transition midpoints (Tun) of Y65W appeared to be the lowest, followed by Y57W and F102W. The placement of the Trp residue in the F-helix in F102W apparently made the protein slightly more thermostable, although the fluorescence response was readily affected by chemical denaturants, which probably acted through the disruption of hydrogen bonds at the Cterminal end of the F-helix. Under both thermal and chemical denaturation, the engineered protein showed the highest stability. This indicated that increasing the number of metal ligating oxygens in the binding site, either by using a metal ion with a higher coordinatenumber (i.e. Tb^*) which binds more carboxylate ligands, or by providing more ligating groups, as in the CDOM33 replacement, produces notable improvements in protein stability. Y57W and CE)OM33 OM were chosen for further studies when encapsulated into sol-gel derived matrices. The kinetics of interaction of terbium with the entrapped proteins, the ability of the entrapped protein to binding terbium, as well as thermal stability of these two entrapped protein were compared with different levels of Ca^"*^ present in the matrix and in solution. Results suggested that for both of the proteins, the response time and the ability to bind terbium could be adjusted by adding excess calcium to the matrix before gelation. However, the less stable protein Y57W only retained at most 45% of its binding ability in solution while the more stable protein CDOM33 was able to retain 100% binding ability. Themially induced denaturation also suggested that CDOM33 showed similar stability to the protein in solution while Y57W was destabilized. All these results suggested that "hard" proteins (i.e. very stable) can easily survive the sol-gel encapsulation process, but "soft" proteins with lower thermodynamic stability may not be able to withstand the sol-gel process. However, it is possible to control many parameters in order to successfully entrap biological molecules into the sol-gel matrices with maxunum retention of activity.
Resumo:
Most metabolic functions are optimized within a narrow range of body temperatures, which is why thermoregulation is of great importance for the survival and overall fitness of an animal. It has been proposed that lizards will thermoregulate less precisely in low thermal quality environments, where the costs associated with thermoregulation are high; in the case of lizards, whose thermoregulation is mainly behavioural, the primary costs ofthermoregulation are those derived from locomotion. Decreasing thermoregulatory precision in costly situations is a strategy that enhances fitness by allowing lizards to be more flexible to changing environmental conditions. It allows animals to maximize the benefits of maintaining a relatively high body temperature while minimizing energy expenditure. In situations where oxygen concentration is low, the costs of thermoregulation are relatively high (i.e. in relation to the amount of oxygen available for metabolic functions). As a result, it is likely that exposures to hypoxic conditions induce a decrease in the precision of thermoregulation. This study evaluated the effects of hypoxia and low environmental thermal quality, two energetically costly conditions, on the precision and level of thermoregulation in the bearded dragon, Pogona vitticeps, in an electronic temperature-choice shuttle box. Four levels of hypoxia (1O, 7, 5 and 4% 02) were tested. Environmental thermal quality was manipulated by varying the rate of temperature change (oTa) in an electronic temperature-choice shuttle box. Higher oT a's translate into more thermally challenging environments, since under these conditions the animals are forced to move a greater number of times (and hence invest more energy in locomotion) to maintain similar temperatures than at lower oTa's. In addition, lizards were tested in an "extreme temperatures" treatment during which air temperatures of the hot and cold compartments of the shuttle box were maintained at a constant 50 and 15°C respectively. This was considered the most thermally challenging environment. The selected ambient (T a) and internal body temperatures (Tb) of bearded dragons, as well as the thermoregulatory precision (measured by the central 68% ofthe Ta and T b distribution) were evaluated. The thermoregulatory response was similar to both conditions. A significant increase in the size of the Tb range, reflecting a decrease in thermoregulatory precision, and a drop in preferred body temperature of ~2 °C, were observed at both 4% oxygen and at the environment of lowest thermal quality. The present study suggests that in energetically costly situations, such as the ones tested in this study, the bearded dragon reduces energy expenditure by decreasing preferred body temperature and minimizing locomotion, at the expense of precise behavioural thermoregulation. The close similarity of the behavioural thermoregulatory response to two very different stimuli suggests a possible common mechanism and neuronal pathway to the thermoregulatory response.
Resumo:
The rate of decrease in mean sediment size and weight per square metre along a 54 km reach of the Credit River was found to depend on variations in the channel geometry. The distribution of a specific sediment size consist of: (1) a transport zone; (2) an accumulation zone; and (3) a depletion zone. These zones shift downstream in response to downcurrent decreases in stream competence. Along a .285 km man-made pond, within the Credit River study area, the sediment is also characterized by downstream shifting accumulation zones for each finer clast size. The discharge required to initiate movement of 8 cm and 6 cm blocks in Cazenovia Creek is closely approximated by Baker and Ritter's equation. Incipient motion of blocks in Twenty Mile Creek is best predicted by Yalin's relation which is more efficient in deeper flows. The transport distance of blocks in both streams depends on channel roughness and geometry. Natural abrasion and distribution of clasts may depend on the size of the surrounding sediment and variations in flow competence. The cumulative percent weight loss with distance of laboratory abraded dolostone is defined by a power function. The decrease in weight of dolostone follows a negative exponential. In the abrasion mill, chipping causes the high initial weight loss of dolostone; crushing and grinding produce most of the subsequent weight loss. Clast size was found to have little effect on the abrasion of dolostone within the diameter range considered. Increasing the speed of the mill increased the initial amount of weight loss but decreased the rate of abrasion. The abrasion mill was found to produce more weight loss than stream action. The maximum percent weight loss determined from laboratory and field abrasion data is approximately 40 percent of the weight loss observed along the Credit River. Selective sorting of sediment explains the remaining percentage, not accounted for by abrasion.
Resumo:
Presently non-commercial occurrences of Mississippi Valley-type ore assemblages in the Middle Silurian strata of the Niagara Peninsula have been studied. Based on this detailed study, a new poly-stage genetic model is proposed which relates ore mineralization in carbonate environments to the evolution of the sedimentary basin. Sulphide ore mineralization occurred during two episodes: 1. During the late diagenesis stage, which is characterized by compaction-maturation of the sediments, the initial mineralization took place by upward and outward movement of connate waters. Metals were probably supplied from all the sediments regardless of their specific lithologies. However, clay minerals were possibly the main contributors. The possible source of sulphur was from petroleum-type hydrocarbons presently mixed with the sediments at the site of ore deposition. Evidence for this is the fact that the greatest abundance of ore minerals is in petroliferous carbonates. The hydrocarbons probably represent liquids remaining after upward migration to the overlying Guelph-Salina reservoirs. The majority of sphalerite and galena formed during this period, as well as accessory pyrite, marcasite, chalcopyrite, chalcocite, arsenopyrite, and pyrrhotite; and secondary dolomite, calcite, celestite, and gypsum. 2. During the presently ongoing surface erosion and weathering phase, which is marked by the downward movement of groundwater, preexisting sulphides were probably remobilized, and trace amounts of lead and zinc were leached from the host material, by groundwaters. Metal sulphides precipitated at, or below, the water table, or where atmospheric oxygen could raise the Eh of groundwaters to the point where soluble metal complexes are unstable and native sulphur co-precipitates with sphalerite and galena. This process, which can be observed today, also results in the transport and deposition of the host rock material. Breakdown of pre-existing sulphide and sulphate, as well as hydrocarbon present in the host rock, provided sulphur necessary for sulphide precipitation. The galena and sphalerite are accompanied by dolomite, calcite, gypsum, anglesite, native sulphur and possibly zincite.
Resumo:
A simple method was developed for treating corn seeds with oxamyl. It involved soaking the seeds to ensure oxamyl uptake, centrifugation to draw off excess solution, and drying under a stream of air to prevent the formation of fungus. The seeds were found to have an even distribution of oxamyl. Seeds remained fungus-free even 12 months after treatment. The highest nonphytotoxic treatment level was obtained by using a 4.00 mg/mL oxamyl solution. Extraction methods for the determination of oxamyl (methyl-N'N'-dimethyl-N-[(methylcarbamoyl)oxy]-l-thiooxamimidate), its oxime (methyl-N',N'-dimethyl-N-hydroxy-1-thiooxamimidate), and DMCF (N,N-dimethyl-1-cyanoformanade) in seed" root, and soil were developed. Seeds were processed by homogenizing, then shaking in methanol. Significantly more oxamyl was extracted from hydrated seeds as opposed to dry seeds. Soils were extracted by tumbling in methanol; recoveries range~ from 86 - 87% for oxamyl. Root was extracted to 93% efficiency for oxamyl by homogenizing the tissue in methanol. NucharAttaclay column cleanup afforded suitable extracts for analysis by RP-HPLC on a C18 column and UV detection at 254 nm. In the degradation study, oxamyl was found to dissipate from the seed down into the soil. It was also detected in the root. Oxime was detected in both the seed and soil, but not in the root. DMCF was detected in small amounts only in the seed.
Resumo:
The primary objective of this investigation was that of providing a comprehensive tissue-by-tissue assessment of water-electrolyte status in thermally-acclimated rainbow trout, Salmo gairdneri. To this end levels of water and the major ions, sodium, chloride and potassium were evaluated in the plasma, at three skeletal muscle sites, and in cardiac muscle, liver, spleen, gut and brain of animals acclimated to 2°, 10° and 18°C. The occurrence of possible seasonal variations in water-electrolyte balance was evaluated by sampling sununer and late fall-early winter populations of trout. On the basis of values for water and electrolyte content, estimates of extracellular and cellular phase volumes, cellular electrolyte concentrations and Nernst equilibrium potentials were made. Since accurate assessment of the extracellular phase volume is critical in the estimation of cellular electrolyte concentrations and parameters based on assumed cellular ion levels, [14 C]-polyethylene glycol-4000, which is assumed to be confined to the extracellular space, was employed to provide comparisons with various ion-defined spaces (H20~~s, H20~~/K and H20~~s). Subsequently, the ion-defined space yielding the most realistic estimate of extracellular phase volume for each tissue was used in cellular electrolyte calculations. Water and electrolyte content and distribution varied with temperature. Tissues, such as liver, spleen and brain appeared to be the most thermosensitive, whereas skeletal and cardiac muscle and gut tissue were less influenced. 'Summer' series trout appeared to be more capable of maintaining their water- electrolyte balance than the ~fall-winter' series animals. i The data are discussed in terms of their possible effect on maintenance of appropriate cellular metabolic and electrophysiological functions.
Resumo:
Affiliation: Pascal Michel : Département de pathologie et microbiologie, Faculté de médecine vétérinaire, Université de Montréal
Resumo:
La période postnatale et l’expérience sensorielle sont critiques pour le développement du système visuel. Les interneurones inhibiteurs exprimant l’acide γ-aminobutyrique (GABA) jouent un rôle important dans le contrôle de l’activité neuronale, le raffinement et le traitement de l’information sensorielle qui parvient au cortex cérébral. Durant le développement, lorsque le cortex cérébral est très susceptible aux influences extrinsèques, le GABA agit dans la formation des périodes critiques de sensibilité ainsi que dans la plasticité dépendante de l’expérience. Ainsi, ce système inhibiteur servirait à ajuster le fonctionnement des aires sensorielles primaires selon les conditions spécifiques d’activité en provenance du milieu, des afférences corticales (thalamiques et autres) et de l’expérience sensorielle. Certaines études montrent que des différences dans la densité et la distribution de ces neurones inhibiteurs corticaux reflètent les caractéristiques fonctionnelles distinctes entre les différentes aires corticales. La Parvalbumine (PV), la Calretinine (CR) et la Calbindine (CB) sont des protéines chélatrices du calcium (calcium binding proteins ou CaBPs) localisées dans différentes sous-populations d’interneurones GABAergiques corticaux. Ces protéines tamponnent le calcium intracellulaire de sorte qu’elles peuvent moduler différemment plusieurs fonctions neuronales, notamment l’aspect temporel des potentiels d’action, la transmission synaptique et la potentialisation à long terme. Plusieurs études récentes montrent que les interneurones immunoréactifs (ir) aux CaBPs sont également très sensibles à l’expérience et à l’activité sensorielle durant le développement et chez l’adulte. Ainsi, ces neurones pourraient avoir un rôle crucial à jouer dans le phénomène de compensation ou de plasticité intermodale entre les cortex sensoriels primaires. Chez le hamster (Mesocricetus auratus), l’énucléation à la naissance fait en sorte que le cortex visuel primaire peut être recruté par les autres modalités sensorielles, telles que le toucher et l’audition. Suite à cette privation oculaire, il y a établissement de projections ectopiques permanentes entre les collicules inférieurs (CI) et le corps genouillé latéral (CGL). Ceci a pour effet d’acheminer l’information auditive vers le cortex visuel primaire (V1) durant le développement postnatal. À l’aide de ce modèle, l’objectif général de ce projet de thèse est d’étudier l’influence et le rôle de l’activité sensorielle sur la distribution et l’organisation des interneurones corticaux immunoréactifs aux CaBPs dans les aires sensorielles visuelle et auditive primaires du hamster adulte. Les changements dans l’expression des CaBPs ont été déterminés d’une manière quantitative en évaluant les profils de distribution laminaire de ces neurones révélés par immunohistochimie. Dans une première expérience, nous avons étudié la distribution laminaire des CaBPs dans les aires visuelle (V1) et auditive (A1) primaires chez le hamster normal adulte. Les neurones immunoréactifs à la PV et la CB, mais non à la CR, sont distribués différemment dans ces deux cortex primaires dédiés à une modalité sensorielle différente. Dans une deuxième étude, une comparaison a été effectuée entre des animaux contrôles et des hamsters énucléés à la naissance. Cette étude montre que le cortex visuel primaire de ces animaux adopte une chimioarchitecture en PV similaire à celle du cortex auditif. Nos recherches montrent donc qu’une suppression de l’activité visuelle à la naissance peut influencer l’expression des CaBPs dans l’aire V1 du hamster adulte. Ceci suggère également que le type d’activité des afférences en provenance d’autres modalités sensorielles peut moduler, en partie, une circuiterie corticale en CaBPs qui lui est propre dans le cortex hôte ou recruté. Ainsi, nos travaux appuient l’hypothèse selon laquelle il serait possible que certaines de ces sous-populations d’interneurones GABAergiques jouent un rôle crucial dans le phénomène de la plasticité intermodale.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.
Resumo:
Dans ce mémoire, je démontre que la distribution de probabilités de l'état quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indépendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont reliés aux parties équatoriales des mesures et les distributions associées à ces coefficients sont reliées aux parties réelles des mesures. Une application possible du résultat est qu'il permet de scinder en deux la simulation de l'état GHZ. Simuler, en pire cas ou en moyenne, un état quantique comme GHZ avec des ressources aléatoires, partagées ou privées, et des ressources classiques de communication, ou même des ressources fantaisistes comme les boîtes non locales, est un problème important en complexité de la communication quantique. On peut penser à ce problème de simulation comme un problème où plusieurs personnes obtiennent chacune une mesure de von Neumann à appliquer sur le sous-système de l'état GHZ qu'il partage avec les autres personnes. Chaque personne ne connaît que les données décrivant sa mesure et d'aucune façon une personne ne connaît les données décrivant la mesure d'une autre personne. Chaque personne obtient un résultat aléatoire classique. La distribution conjointe de ces résultats aléatoires classiques suit la distribution de probabilités trouvée dans ce mémoire. Le but est de simuler classiquement la distribution de probabilités de l'état GHZ. Mon résultat indique une marche à suivre qui consiste d'abord à simuler les parties équatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associées aux parties réelles des mesures il faut simuler. D'autres chercheurs ont trouvé comment simuler les parties équatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties réelles résiste encore et toujours.
Resumo:
La présente thèse porte sur l’évaluation de l’efficacité d’un nouveau traitement pour le trouble de stress post-traumatique (TSPT). Le traitement a été développé selon les prémisses de la théorie de la reconsolidation des souvenirs. Il consiste en six courtes séances de remémoration de l’événement traumatique réalisées sous l’effet du propranolol, un bêtabloquant. La population de l’étude est constituée de patients souffrant d’un TSPT chronique. La thèse comporte cinq chapitres. Le premier chapitre est l’introduction, on y retrouve une description du TSPT, des traitements validés empiriquement, de diverses théories de la mémoire, d’un modèle étiologique du TSPT, d’études sur la consolidation et la reconsolidation, de la pharmacocinétique et du mécanisme d’action du propranolol,ainsi que des objectifs de la thèse. Le second chapitre est une revue critique de littérature sur la théorie de la reconsolidation. Comme l’étude du phénomène de la reconsolidation est récente, nous tentons de faire le point sur l’état des connaissances dans le domaine, dans un effort de réflexion sur la validité de la théorie. Nous proposons une série de critères permettant de différencier la reconsolidation d’autres processus connexes. Nous concluons que la théorie paraît valide, bien que d’autres études soient nécessaires afin de rendre compte de résultats négatifs publiés par le passé. Le troisième chapitre est un essai ouvert, et vise à évaluer l’efficacité d’un traitement basé sur la reconsolidation à diminuer la sévérité et l’incidence du TSPT, auprès de 42 patients souffrant d’un TSPT chronique. Le traitement consiste en six séances de remémoration de l’événement traumatique sous propranolol. Lors d’un suivi à trois mois, nous rapportons une diminution des symptômes de TSPT de 41%-56%, ainsi qu’une diminution de l’incidence du TSPT de 74%. En comparaison, seulement 2/25 patients du groupe contrôle (ayant participé uniquement aux évaluations) ne souffrent plus d’un TSPT. Dans le groupe traitement, les tailles d’effet (d de Cohen)varient entre 1.32-2.19. Le quatrième chapitre a comme objectif d’identifier des caractéristiques des patients prédisant l’efficacité du traitement, et d’explorer s’ils s’améliorent dans des domaines de santé autres que le TSPT. Nous rapportons que les femmes s’améliorent davantage que les hommes, mais que d’autres facteurs, tels que la sévérité des traits de personnalité borderline ou le type de trauma (enfance versus adulte), n’influent pas sur l’efficacité. Également, les patients s’améliorent dans les domaines de santé suivants : la qualité de vie, la symptomatologie dépressive, l’intensité des émotions négatives au rappel de l’événement traumatique et dans la vie courante. Le cinquième chapitre contient la discussion générale de la thèse. Nous effectuons une synthèse et interprétation des résultats, nous examinons les hypothèses alternatives à l’amélioration clinique et abordons des pistes de recherches futures. Nous concluons que le traitement à l’étude a été efficace dans notre échantillon de patients souffrant d’un TSPT chronique. Étant donné la méthodologie employée (essai ouvert), nous ne pouvons statuer sur le mécanisme d’action du traitement, à savoir si l’amélioration clinique a été réellement causée par un blocage de la reconsolidation des souvenirs.