858 resultados para instruments and electronics


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Major challenges must be tackled for brain-computer interfaces to mature into an established communications medium for VR applications, which will range from basic neuroscience studies to developing optimal peripherals and mental gamepads and more efficient brain-signal processing techniques.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Suomenlahden lisääntynyt meriliikenne on herättänyt huolta meriliikenteen turvallisuuden tasosta, ja erityisesti Venäjän öljyviennin kasvu on lisännyt öljyonnettomuuden todennäköisyyttä Suomenlahdella. Erilaiset kansainväliset, alueelliset ja kansalliset ohjauskeinot pyrkivät vähentämään merionnettomuuden riskiä ja meriliikenteen muita haittavaikutuksia. Tämä raportti käsittelee meriturvallisuuden yhteiskunnallisia ohjauskeinoja: ohjauskeinoja yleisellä tasolla, meriturvallisuuden keskeisimpiä säätelijöitä, meriturvallisuuden ohjauskeinoja ja meriturvallisuuspolitiikan tulevaisuuden näkymiä, ohjauskeinojen tehokkuutta ja nykyisen meriturvallisuuden ohjausjärjestelmän heikkouksia. Raportti on kirjallisuuskatsaus meriturvallisuuden yhteiskunnalliseen sääntelyn rakenteeseen ja tilaan erityisesti Suomenlahden meriliikenteen näkökulmasta. Raportti on osa tutkimusprojektia ”SAFGOF - Suomenlahden meriliikenteen kasvunäkymät 2007 - 2015 ja kasvun vaikutukset ympäristölle ja kuljetusketjujen toimintaan” ja sen työpakettia 6 ”Keskeisimmät riskit ja yhteiskunnalliset vaikutuskeinot”. Yhteiskunnalliset ohjauskeinot voidaan ryhmitellä hallinnollisiin, taloudellisiin ja tietoohjaukseen perustuviin ohjauskeinoihin. Meriturvallisuuden edistämisessä käytetään kaikkia näitä, mutta hallinnolliset ohjauskeinot ovat tärkeimmässä asemassa. Merenkulun kansainvälisen luonteen vuoksi meriturvallisuuden sääntely tapahtuu pääosin kansainvälisellä tasolla YK:n ja erityisesti Kansainvälisen merenkulkujärjestön (IMO) toimesta. Lisäksi myös Euroopan Unionilla on omaa meriturvallisuuteen liittyvää sääntelyä ja on myös olemassa muita alueellisia meriturvallisuuden edistämiseen liittyviä elimiä kuten HELCOM. Joitakin meriturvallisuuden osa-alueita säädellään myös kansallisella tasolla. Hallinnolliset meriturvallisuuden ohjauskeinot sisältävät aluksen rakenteisiin ja varustukseen, alusten kunnon valvontaan, merimiehiin ja merityön tekemiseen sekä navigointiin liittyviä ohjauskeinoja. Taloudellisiin ohjauskeinoihin kuuluvat esimerkiksi väylä- ja satamamaksut, merivakuutukset, P&I klubit, vastuullisuus- ja korvauskysymykset sekä taloudelliset kannustimet. Taloudellisten ohjauskeinojen käyttö meriturvallisuuden edistämiseen on melko vähäistä verrattuna hallinnollisten ohjauskeinojen käyttöön, mutta niitä voitaisiin varmasti käyttää enemmänkin. Ongelmana taloudellisten ohjauskeinojen käytössä on se, että ne kuuluvat pitkälti kansallisen sääntelyn piiriin, joten alueellisten tai kansainvälisten intressien edistäminen taloudellisilla ohjauskeinoilla voi olla hankalaa. Tieto-ohjaus perustuu toimijoiden vapaaehtoisuuteen ja yleisen tiedotuksen lisäksi tieto-ohjaukseen sisältyy esimerkiksi vapaaehtoinen koulutus, sertifiointi tai meriturvallisuuden edistämiseen tähtäävät palkinnot. Poliittisella tasolla meriliikenteen aiheuttamat turvallisuusriskit Suomenlahdella on otettu vakavasti ja paljon työtä tehdään eri tahoilla riskien minimoimiseksi. Uutta sääntelyä on odotettavissa etenkin liittyen meriliikenteen ympäristövaikutuksiin ja meriliikenteen ohjaukseen kuten meriliikenteen sähköisiin seurantajärjestelmiin. Myös inhimilliseen tekijän merkitykseen meriturvallisuuden kehittämisessä on kiinnitetty lisääntyvissä määrin huomiota, mutta inhimilliseen tekijän osalta tehokkaiden ohjauskeinojen kehittäminen näyttää olevan haasteellista. Yleisimmin lääkkeeksi esitetään koulutuksen kehittämistä. Kirjallisuudessa esitettyjen kriteereiden mukaan tehokkaiden ohjauskeinojen tulisi täyttää seuraavat vaatimukset: 1) tarkoituksenmukaisuus – ohjauskeinojen täytyy olla sopivia asetetun tavoitteen saavuttamiseen, 2) taloudellinen tehokkuus – ohjauskeinon hyödyt vs. kustannukset tulisi olla tasapainossa, 3) hyväksyttävyys – ohjauskeinon täytyy olla hyväksyttävä asianosaisten ja myös laajemman yhteiskunnan näkökulmasta katsottuna, 4) toimeenpano – ohjauskeinon toimeenpanon pitää olla mahdollista ja sen noudattamista täytyy pystyä valvomaan, 5) lateraaliset vaikutukset – hyvällä ohjauskeinolla on positiivisia seurannaisvaikutuksia muutoinkin kuin vain ohjauskeinon ensisijaisten tavoitteiden saavuttaminen, 6) kannustin ja uuden luominen – hyvä ohjauskeino kannustaa kokeilemaan uusia ratkaisuja ja kehittämään toimintaa. Meriturvallisuutta koskevaa sääntelyä on paljon ja yleisesti ottaen merionnettomuuksien lukumäärä on ollut laskeva viime vuosikymmenien aikana. Suuri osa sääntelystä on ollut tehokasta ja parantanut turvallisuuden tasoa maailman merillä. Silti merionnettomuuksia ja muita vaarallisia tapahtumia sattuu edelleen. Nykyistä sääntelyjärjestelmää voidaan kritisoida monen asian suhteen. Kansainvälisen sääntelyn aikaansaaminen ei ole helppoa: prosessi on yleensä hidas ja tuloksena voi olla kompromissien kompromissi. Kansainvälinen sääntely on yleensä reaktiivista eli ongelmakohtiin puututaan vasta kun jokin onnettomuus tapahtuu sen sijaan että se olisi proaktiivista ja pyrkisi puuttumaan ongelmakohtiin jo ennen kuin jotain tapahtuu. IMO:n työskentely perustuu kansallisvaltioiden osallistumiseen ja sääntelyn toimeenpano tapahtuu lippuvaltioiden toimesta. Kansallisvaltiot ajavat IMO:ssa pääasiallisesti omia intressejään ja sääntelyn toimeenpanossa on suuria eroja lippuvaltioiden välillä. IMO:n kyvyttömyys puuttua havaittuihin ongelmiin nopeasti ja ottaa sääntelyssä huomioon paikallisia olosuhteita on johtanut siihen, että esimerkiksi Euroopan Unioni on alkanut itse säädellä meriturvallisuutta ja että on olemassa sellaisia alueellisia erityisjärjestelyjä kuin PSSA (particularly sensitive sea area – erityisen herkkä merialue). Merenkulkualalla toimii monenlaisia yrityksiä: toisaalta yrityksiä, jotka pyrkivät toimimaan turvallisesti ja kehittämään turvallisuutta vielä korkeammalle tasolle, ja toisaalta yrityksiä, jotka toimivat niin halvalla kuin mahdollista, eivät välitä turvallisuusseikoista, ja joilla usein on monimutkaiset ja epämääräiset omistusolosuhteet ja joita vahingon sattuessa on vaikea saada vastuuseen. Ongelma on, että kansainvälisellä merenkulkualalla kaikkien yritysten on toimittava samoilla markkinoilla. Vastuuttomien yritysten toiminnan mahdollistavat laivaajat ja muut alan toimijat, jotka suostuvat tekemään yhteistyötä niiden kanssa. Välinpitämätön suhtautuminen turvallisuuteen johtuu osaksi myös merenkulun vanhoillisesta turvallisuuskulttuurista. Verrattaessa meriturvallisuuden sääntelyjärjestelmää kokonaisuutena tehokkaiden ohjauskeinoihin kriteereihin, voidaan todeta, että monien kriteerien osalta nykyistä järjestelmää voidaan pitää tehokkaana ja onnistuneena. Suurimmat ongelmat lienevät sääntelyn toimeenpanossa ja ohjauskeinojen kustannustehokkuudessa. Lippuvaltioiden toimeenpanoon perustuva järjestelmä ei toimi toivotulla tavalla, josta mukavuuslippujen olemassa olo on selvin merkki. Ohjauskeinojen, sekä yksittäisten ohjauskeinojen että vertailtaessa eri ohjauskeinoja keskenään, kustannustehokkuutta on usein vaikea arvioida, minkä seurauksena ohjauskeinojen kustannustehokkuudesta ei ole saatavissa luotettavaa tietoa ja tuloksena voi olla, että ohjauskeino on käytännössä pienen riskin eliminoimista korkealla kustannuksella. Kansainvälisen tason meriturvallisuus- (ja merenkulku-) politiikan menettelytavoiksi on ehdotettu myös muita vaihtoehtoja kuin nykyinen järjestelmä, esimerkiksi monitasoista tai polysentristä hallintojärjestelmää. Monitasoisella hallintojärjestelmällä tarkoitetaan järjestelmää, jossa keskushallinto on hajautettu sekä vertikaalisesti alueellisille tasoille että horisontaalisesti ei-valtiollisille toimijoille. Polysentrinen hallintojärjestelmä menee vielä askeleen pidemmälle. Polysentrinen hallintojärjestelmä on hallintotapa, jonka puitteissa kaikentyyppiset toimijat, sekä yksityiset että julkiset, voivat osallistua hallintoon, siis esimerkiksi hallitukset, edunvalvontajärjestöt, kaupalliset yritykset jne. Kansainvälinen lainsäädäntö määrittelee yleiset tasot, mutta konkreettiset toimenpiteet voidaan päättää paikallisella tasolla eri toimijoiden välisessä yhteistyössä. Tämän tyyppisissä hallintojärjestelmissä merenkulkualan todellinen, kansainvälinen mutta toisaalta paikallinen, toimintaympäristö tulisi otetuksi paremmin huomioon kuin järjestelmässä, joka perustuu kansallisvaltioiden keskenään yhteistyössä tekemään sääntelyyn. Tällainen muutos meriturvallisuuden hallinnassa vaatisi kuitenkin suurta periaatteellista suunnanmuutosta, jollaisen toteutumista ei voi pitää kovin todennäköisenä ainakaan lyhyellä tähtäimellä.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Stratospheric ozone can be measured accurately using a limb scatter remote sensing technique at the UV-visible spectral region of solar light. The advantages of this technique includes a good vertical resolution and a good daytime coverage of the measurements. In addition to ozone, UV-visible limb scatter measurements contain information about NO2, NO3, OClO, BrO and aerosols. There are currently several satellite instruments continuously scanning the atmosphere and measuring the UVvisible region of the spectrum, e.g., the Optical Spectrograph and Infrared Imager System (OSIRIS) launched on the Odin satellite in February 2001, and the Scanning Imaging Absorption SpectroMeter for Atmospheric CartograpHY (SCIAMACHY) launched on Envisat in March 2002. Envisat also carries the Global Ozone Monitoring by Occultation of Stars (GOMOS) instrument, which also measures limb-scattered sunlight under bright limb occultation conditions. These conditions occur during daytime occultation measurements. The global coverage of the satellite measurements is far better than any other ozone measurement technique, but still the measurements are sparse in the spatial domain. Measurements are also repeated relatively rarely over a certain area, and the composition of the Earth’s atmosphere changes dynamically. Assimilation methods are therefore needed in order to combine the information of the measurements with the atmospheric model. In recent years, the focus of assimilation algorithm research has turned towards filtering methods. The traditional Extended Kalman filter (EKF) method takes into account not only the uncertainty of the measurements, but also the uncertainty of the evolution model of the system. However, the computational cost of full blown EKF increases rapidly as the number of the model parameters increases. Therefore the EKF method cannot be applied directly to the stratospheric ozone assimilation problem. The work in this thesis is devoted to the development of inversion methods for satellite instruments and the development of assimilation methods used with atmospheric models.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Maritime safety is an issue that has gained a lot of attention in the Baltic Sea area due to the dense maritime traffic and transportation of oil in the area. Lots of effort has been paid to enhance maritime safety in the area. The risk exists that excessive legislation and other requirements mean more costs for limited benefit. In order to utilize both public and private resources efficiently, awareness is required of what kind of costs maritime safety policy instruments cause and whether the costs are in relation to benefits. The aim of this report is to present an overview of the cost-effectiveness of maritime safety policy instruments focusing on the cost aspect: what kind of costs maritime safety policy causes, to whom, what affects the cost-effectiveness and how cost-effectiveness is studied. The study is based on a literature review and on the interviews of Finnish maritime experts. The results of this study imply that cost-effectiveness is a complicated issue to evaluate. There are no uniform practices for which costs and benefits should be included in the evaluation and how they should be valued. One of the challenges is how to measure costs and benefits during the course of a longer time period. Often a lack of data erodes the reliability of evaluation. In the prevention of maritime accidents, costs typically include investments in ship structures or equipment, as well as maintenance and labor costs. Also large investments may be justifiable if they respectively provide significant improvements to maritime safety. Measures are cost-effective only if they are implemented properly. Costeffectiveness is decreased if a measure causes overlapping or repetitious work. Costeffectiveness is also decreased if the technology isn’t user-friendly or if it is soon replaced with a new technology or another new appliance. In future studies on the cost-effectiveness of maritime safety policy, it is important to acknowledge the dependency between different policy instruments and the uncertainty of the factors affecting cost-effectiveness. The costs of a single measure are rarely relatively significant and the effect of each measure on safety tends to be positive. The challenge is to rank the measures and to find the most effective combination of different policy instruments. The greatest potential offered for the analysis of cost-effectiveness of individual measures is their implementation in clearly defined risk situations, in which different measures are truly alternative to each other. Overall, maritime safety measures do not seem to be considered burdening for the shipping industry in Finland at the moment. Generally actors in the Finnish shipping industry seem to find maintaining a high safety level important and act accordingly.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The aim of this research was to develop a framework to analyze how physical environment influences scientific creativity. Due to the relative novelty of this topic, there is still a gap in the unified method to study connection between physical environment and creativity. Therefore, in order to study this issue deeply, the qualitative method was used (interviews and qualitative questionnaire). Scientists (PhD students and senior researchers) of Graduate School of Management were interviewed to build the model and one expert interview was conducted to assess its validity. The model highlights several dimensions via which physical environment can influence scientific creativity: Comfort, Instruments and Diversity. Comfort and Instruments are considered to be related mostly to productivity, an initial requirement for creativity, while Diversity is the factor responsible for supporting all the stages of scientific creative process. Thus, creative physical environment is not one place by its nature, but an aggregative phenomenon. Due to two levels of analysis, the model is named the two-level model of creative physical environment.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In the present paper we discuss the development of "wave-front", an instrument for determining the lower and higher optical aberrations of the human eye. We also discuss the advantages that such instrumentation and techniques might bring to the ophthalmology professional of the 21st century. By shining a small light spot on the retina of subjects and observing the light that is reflected back from within the eye, we are able to quantitatively determine the amount of lower order aberrations (astigmatism, myopia, hyperopia) and higher order aberrations (coma, spherical aberration, etc.). We have measured artificial eyes with calibrated ametropia ranging from +5 to -5 D, with and without 2 D astigmatism with axis at 45º and 90º. We used a device known as the Hartmann-Shack (HS) sensor, originally developed for measuring the optical aberrations of optical instruments and general refracting surfaces in astronomical telescopes. The HS sensor sends information to a computer software for decomposition of wave-front aberrations into a set of Zernike polynomials. These polynomials have special mathematical properties and are more suitable in this case than the traditional Seidel polynomials. We have demonstrated that this technique is more precise than conventional autorefraction, with a root mean square error (RMSE) of less than 0.1 µm for a 4-mm diameter pupil. In terms of dioptric power this represents an RMSE error of less than 0.04 D and 5º for the axis. This precision is sufficient for customized corneal ablations, among other applications.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This paper introduces an important source of torque ripple in PMSMs with tooth-coil windings (TC-PMSMs). It is theoretically proven that saturation and cross-saturation phenomena caused by the non-synchronous harmonics of the stator current linkage cause a synchronous inductance variation with a particular periodicity. This, in turn, determines the magnitude of the torque ripple and can also deteriorate the performance of signal-injection-based rotor position estimation algorithms. An improved dq- inductance model is proposed. It can be used in torque ripple reduction control schemes and can enhance the self-sensing capabilities of TC-PMSMs

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Epithelium, a highly dynamic system, plays a key role in the homeostasis of the intestine. However, thus far a human intestinal epithelial cell line has not been established in many countries. Fetal tissue was selected to generate viable cell cultures for its sterile condition, effective generation, and differentiated character. The purpose of the present study was to culture human intestinal epithelial cells by a relatively simple method. Thermolysin was added to improve the yield of epithelial cells, while endothelin-3 was added to stimulate their growth. By adding endothelin-3, the achievement ratio (viable cell cultures/total cultures) was enhanced to 60% of a total of 10 cultures (initiated from 8 distinct fetal small intestines), allowing the generation of viable epithelial cell cultures. Western blot, real-time PCR and immunofluorescent staining showed that cytokeratins 8, 18 and mouse intestinal mucosa-1/39 had high expression levels in human intestinal epithelial cells. Differentiated markers such as sucrase-isomaltase, aminopeptidase N and dipeptidylpeptidase IV also showed high expression levels in human intestinal epithelial cells. Differentiated human intestinal epithelial cells, with the expression of surface markers (cytokeratins 8, 18 and mouse intestinal mucosa-1/39) and secretion of cytokines (sucrase-isomaltase, aminopeptidase N and dipeptidylpeptidase IV), may be cultured by the thermolysin and endothelin-3 method and maintained for at least 20 passages. This is relatively simple, requiring no sophisticated techniques or instruments, and may have a number of varied applications.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The paper presents both the New Consensus and Keynesian equilibrium within the usual four competitive macro-markets structure. It gives theoretical explanations of the pernicious effects that the NCM governance, which has been designed for ergodic stationary regimes, brings about in Keynesian non-ergodic regimes. It put forward Keynesian principles of governance which include monetary, budgetary and fiscal instruments, and suggest new directions for the positive and normative analysis of macro-policies.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Linear alkylbenzenes, LAB, formed by the Alel3 or HF catalyzed alkylation of benzene are common raw materials for surfactant manufacture. Normally they are sulphonated using S03 or oleum to give the corresponding linear alkylbenzene sulphonates In >95 % yield. As concern has grown about the environmental impact of surfactants,' questions have been raised about the trace levels of unreacted raw materials, linear alkylbenzenes and minor impurities present in them. With the advent of modem analytical instruments and techniques, namely GCIMS, the opportunity has arisen to identify the exact nature of these impurities and to determine the actual levels of them present in the commercial linear ,alkylbenzenes. The object of the proposed study was to separate, identify and quantify major and minor components (1-10%) in commercial linear alkylbenzenes. The focus of this study was on the structure elucidation and determination of impurities and on the qualitative determination of them in all analyzed linear alkylbenzene samples. A gas chromatography/mass spectrometry, (GCIMS) study was performed o~ five samples from the same manufacturer (different production dates) and then it was followed by the analyses of ten commercial linear alkylbenzenes from four different suppliers. All the major components, namely linear alkylbenzene isomers, followed the same elution pattern with the 2-phenyl isomer eluting last. The individual isomers were identified by interpretation of their electron impact and chemical ionization mass spectra. The percent isomer distribution was found to be different from sample to sample. Average molecular weights were calculated using two methods, GC and GCIMS, and compared with the results reported on the Certificate of Analyses (C.O.A.) provided by the manufacturers of commercial linear alkylbenzenes. The GC results in most cases agreed with the reported values, whereas GC/MS results were significantly lower, between 0.41 and 3.29 amu. The minor components, impurities such as branched alkylbenzenes and dialkyltetralins eluted according to their molecular weights. Their fragmentation patterns were studied using electron impact ionization mode and their molecular weight ions confirmed by a 'soft ionization technique', chemical ionization. The level of impurities present i~ the analyzed commercial linear alkylbenzenes was expressed as the percent of the total sample weight, as well as, in mg/g. The percent of impurities was observed to vary between 4.5 % and 16.8 % with the highest being in sample "I". Quantitation (mg/g) of impurities such as branched alkylbenzenes and dialkyltetralins was done using cis/trans-l,4,6,7-tetramethyltetralin as an internal standard. Samples were analyzed using .GC/MS system operating under full scan and single ion monitoring data acquisition modes. The latter data acquisition mode, which offers higher sensitivity, was used to analyze all samples under investigation for presence of linear dialkyltetralins. Dialkyltetralins were reported quantitatively, whereas branched alkylbenzenes were reported semi-qualitatively. The GC/MS method that was developed during the course of this study allowed identification of some other trace impurities present in commercial LABs. Compounds such as non-linear dialkyltetralins, dialkylindanes, diphenylalkanes and alkylnaphthalenes were identified but their detailed structure elucidation and the quantitation was beyond the scope of this study. However, further investigation of these compounds will be the subject of a future study.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The article sets out the concept of a State-to-State human transfer agreement of which extradition and deportation are specialised forms. Asylum sharing agreements are other variations which the article explores in more detail. Human transfer agreements always affect at least the right to liberty and the freedom of movement, but other rights will also be at issue to some extent. The article shows how human rights obligations limit State discretion in asylum sharing agreements and considers how past and present asylum sharing arrangements in Europe and North America deal with these limits, if at all. The article suggests changes in the way asylum sharing agreements are drafted: for example, providing for a treaty committee would allow existing agreements to better conform to international human rights instruments and would facilitate State compliance to their human rights obligations.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).