967 resultados para analisi non standard iperreali infinitesimi
Resumo:
Bridge rail and approach guardrails provide safety to drivers by shielding more hazardous objects and redirecting vehicles to the roadway. However, guardrail can increase both the initial cost and maintenance cost of a bridge, while adding another object that may be struck by vehicles. Most existing low volume road (LVR) bridges in the state of Iowa are currently indicated to not possess bridge rail meeting “current acceptable standards”. The primary objective of the research summarized in this report was to provide the nations bridge and approach rail state of practice and perform a state wide crash analysis on bridge rails and approach guardrails on LVR bridges in Iowa. In support of this objective, the criteria and guidelines used by other bridge owners were investigated, non-standard and innovative bridge and approach guardrails for LVR’s were investigated, and descriptive, statistical and economical analyses were performed on a state wide crash analysis. The state wide crash analysis found the overall number of crashes at/on the more than 17,000+ inventoried and non-inventoried LVR bridges in Iowa was fewer than 350 crashes over an eight year period, representing less than 0.1% of the statewide reportable crashes. In other words, LVR bridge crashes are fairly rare events. The majority of these crashes occurred on bridges with a traffic volume less than 100 vpd and width less than 24 ft. Similarly, the majority of the LVR bridges possess similar characteristics. Crash rates were highest for bridges with lower traffic volumes, narrower widths, and negative relative bridge widths (relative bridge width is defined as: bridge width minus roadway width). Crash rate did not appear to be effected by bridge length. Statistical analysis confirmed that the frequency of vehicle crashes was higher on bridges with a lower width compared to the roadway width. The frequency of crashes appeared to not be impacted by weather conditions, but crashes may be over represented at night or in dark conditions. Statistical analysis revealed that crashes that occurred on dark roadways were more likely to result in major injury or fatality. These findings potentially highlight the importance of appropriate delineation and signing. System wide, benefit-cost (B/C) analyses yielded very low B/C ratios for statewide bridge rail improvements. This finding is consistent with the aforementioned recommendation to address specific sites where safety concerns exist.
Resumo:
Diplomityö liittyy Accenturen projektiin, jossa kehitettiin asiakkaalle CMS Web-portaali, jonka tarkoitus on tarjota mekanismi tuote- ja kampanjainformaation luontiin ja hallintaan sekä hallita niihin liittyviä budjettiprosesseja yrityksen Intranetissä. Työn tavoitteena on kuvata CMS-portaalin kehitysprosessia ja koota projektin aikana saadut opit ja parannusehdotukset. Tavoitteena on myös esittää ideoita havaittujen ongelmien ehkäisemiseksi tulevissa projekteissa. Portaalin kehitysprojektinsuurimmat haasteet liittyivät tietojärjestelmien kehitysympäristöihin, portaali- ja sisällönhallintapuolen yhdistämiseen sekä tiimikehitykseen. Kun portaaliprojekti tehdään asiakkaan tiloissa, ei täyttä kontrollia kehitysympäristöistä voi saada. Jos kehitysympäristöjen kanssa on ongelmia, niistä on syytä kommunikoida selkeästi ja ammattimaisesti asiakkaan kehitysympäristöistä vastaavalle taholle. Yhteistyö ja hyvät henkilökohtaiset suhteet asiakkaan kanssaovat tärkeitä. Jos portaalin sisällönhallintatarpeet eivät ole erittäin rajoittuneet, on suositeltavaa käyttää erillistä sisällönhallintaohjelmistoa portaalin sisällön hallitsemiseksi. Pienemmillekin projekteille tämä mahdollistaa paremmat laajennusmahdollisuudet. Portaali- ja sisällönhallintapuolenyhdistäminen kannattaa tehdä ohjelmistojen tarjoajien ohjeiden mukaan ja yleisiä menettelytapoja noudattaen. Yleisillä menettelytavoilla tarkoitetaan portaalinja sisällönhallinnan yhdistämisessä sitä, että portaali vastaanottaa sisältöä sisällönhallintajärjestelmältä, mutta kaikki sisällön muokkaustoimenpiteet tehdään sisällönhallintajärjestelmän käyttöliittymän kautta. Jos mukautettuja menettelytapoja on käytettävä, näiden kehittämiselle on varattava niiden vaatima aika. Tällöin Web-palveluiden käyttöä kannattaa harkita, koska Web-palvelut auttavat ohjelmistojen yhdistämisessä etenkin, kun yhdistäminen tehdään mukautetusti. Kun portaali tehdään käyttäen tiimikehitystyötä, on käytettävä myös versionhallintajärjestelmää, jolla estetään päällekkäisten muutosten mahdollisuus. Kehitysprosessin yhdenmukaistamiseksi on erittäin suositeltavaa tehdä yleinen kehitysohjedokumentti. Lisäksi on huolehdittava siitä, että kaikki kehittäjät noudattavat yleisiä kehitysohjeita, jotta yhdenmukaisuuden mukanaan tuomat edut saavutetaan mahdollisimman hyvin.
Resumo:
Työn tavoitteena on ideoida keinoja, joilla tehottomasti toimivaa tilaustoimitusprosessia voidaan kehittää. Ideoidut kehittämistoimet pohjautuvat tilaustoimitusprosessin toimivuutta selvittävään tutkimukseen ja niillä tavoitellaan kohdeyrityksessä valmistettavien suurien tahtikoneiden tilaustoimitusprosessin korkeampaa tuottavuutta ja laaduntuottokykyä, lyhyempiä läpäisyaikoja sekä pienempää keskeneräisen tuotannon määrää. Työssä keskitytään kehittämään tilaustoimitusprosessin alkupään vaiheiden eli tilauskohtaisen suunnittelun ja projektinhoidon epästandardeja toimintatapoja sekä puutteellisia työvälineitä. Työn tutkimusvaiheessa selvitetään tilaustoimitusprosessinnykytila prosessiin osallistuvia henkilöitä haastattelemalla, tutkimalla toteutuneita toimitusaika- ja nimikerakenteita sekä esiintyneitä laatupoikkeamia. Näin pyritään löytämään nykyisen toimintamallin ongelmakohdat, joihin kehittämisen painopistealue asetetaan. Tutkimusvaiheeseen kuuluu myös kirjallisuustutkimus, jossa paneudutaan tilaustoimitusprosessin toimintaan yleisellä tasolla sekä kartoitetaan niitä tekijöitä, jotka vaikuttavat tilaustoimitusprosessin tehokkuuteen. Lisäksi kirjallisuustutkimuksessa perehdytään yksittäistuotantoon liittyvään teoriaan ja erilaisiin tapoihin organisoida sen toimintaa. Tutkimusvaiheen jälkeen esitellään tutkimukseen pohjautuvat toimenpide-ehdotukset kohdeyrityksen tilaustoimitusprosessin tehokkuuden parantamiseksi.Ehdotettuja toimintaa tehostavia keinoja ovat simultaanisuunnittelu, erilaistensuunnittelun ja tuotannon yhteistyötä tukevien tietojärjestelmien rakentaminen,DFMA-analyysin käyttöönotto, tuotteiden rakenteiden tehokas modulointi sekä mallirakenne yrityksen heikoimmin vakioidulle tuotteelle. Ennen kehitystoimien aloittamista yrityksen toimistoprosessin toimivuutta ehdotetaan lisäksi tarkasteltavan työntutkimuksen keinoin.
Resumo:
Dynamic behavior of bothisothermal and non-isothermal single-column chromatographic reactors with an ion-exchange resin as the stationary phase was investigated. The reactor performance was interpreted by using results obtained when studying the effect of the resin properties on the equilibrium and kinetic phenomena occurring simultaneously in the reactor. Mathematical models were derived for each phenomenon and combined to simulate the chromatographic reactor. The phenomena studied includes phase equilibria in multicomponent liquid mixture¿ion-exchange resin systems, chemicalequilibrium in the presence of a resin catalyst, diffusion of liquids in gel-type and macroporous resins, and chemical reaction kinetics. Above all, attention was paid to the swelling behavior of the resins and how it affects the kinetic phenomena. Several poly(styrene-co-divinylbenzene) resins with different cross-link densities and internal porosities were used. Esterification of acetic acid with ethanol to produce ethyl acetate and water was used as a model reaction system. Choosing an ion-exchange resin with a low cross-link density is beneficial inthe case of the present reaction system: the amount of ethyl acetate as well the ethyl acetate to water mole ratio in the effluent stream increase with decreasing cross-link density. The enhanced performance of the reactor is mainly attributed to increasing reaction rate, which in turn originates from the phase equilibrium behavior of the system. Also mass transfer considerations favor the use ofresins with low cross-link density. The diffusion coefficients of liquids in the gel-type ion-exchange resins were found to fall rapidly when the extent of swelling became low. Glass transition of the polymer was not found to significantlyretard the diffusion in sulfonated PS¿DVB ion-exchange resins. It was also shown that non-isothermal operation of a chromatographic reactor could be used to significantly enhance the reactor performance. In the case of the exothermic modelreaction system and a near-adiabatic column, a positive thermal wave (higher temperature than in the initial state) was found to travel together with the reactive front. This further increased the conversion of the reactants. Diffusion-induced volume changes of the ion-exchange resins were studied in a flow-through cell. It was shown that describing the swelling and shrinking kinetics of the particles calls for a mass transfer model that explicitly includes the limited expansibility of the polymer network. A good description of the process was obtained by combining the generalized Maxwell-Stefan approach and an activity model that was derived from the thermodynamics of polymer solutions and gels. The swelling pressure in the resin phase was evaluated by using a non-Gaussian expression forthe polymer chain length distribution. Dimensional changes of the resin particles necessitate the use of non-standard mathematical tools for dynamic simulations. A transformed coordinate system, where the mass of the polymer was used as a spatial variable, was applied when simulating the chromatographic reactor columns as well as the swelling and shrinking kinetics of the resin particles. Shrinking of the particles in a column leads to formation of dead volume on top of the resin bed. In ordinary Eulerian coordinates, this results in a moving discontinuity that in turn causes numerical difficulties in the solution of the PDE system. The motion of the discontinuity was eliminated by spanning two calculation grids in the column that overlapped at the top of the resin bed. The reactive and non-reactive phase equilibrium data were correlated with a model derived from thethermodynamics of polymer solution and gels. The thermodynamic approach used inthis work is best suited at high degrees of swelling because the polymer matrixmay be in the glassy state when the extent of swelling is low.
Resumo:
[cat] En aquest treball s'analitza l'efecte que comporta l'introducció de preferències inconsistents temporalment sobre les decisions òptimes de consum, inversió i compra d'assegurança de vida. En concret, es pretén recollir la creixent importància que un individu dóna a la herència que deixa i a la riquesa disponible per a la seva jubilació al llarg de la seva vida laboral. Amb aquesta finalitat, es parteix d'un model estocàstic en temps continu amb temps final aleatori, i s'introdueix el descompte heterogeni, considerant un agent amb una distribució de vida residual coneguda. Per tal d'obtenir solucions consistents temporalment es resol una equació de programació dinàmica no estàndard. Per al cas de funcions d'utilitat del tipus CRRA i CARA es troben solucions explícites. Finalment, els resultats obtinguts s'il·lustren numèricament.
Resumo:
[cat] En aquest treball s'analitza l'efecte que comporta l'introducció de preferències inconsistents temporalment sobre les decisions òptimes de consum, inversió i compra d'assegurança de vida. En concret, es pretén recollir la creixent importància que un individu dóna a la herència que deixa i a la riquesa disponible per a la seva jubilació al llarg de la seva vida laboral. Amb aquesta finalitat, es parteix d'un model estocàstic en temps continu amb temps final aleatori, i s'introdueix el descompte heterogeni, considerant un agent amb una distribució de vida residual coneguda. Per tal d'obtenir solucions consistents temporalment es resol una equació de programació dinàmica no estàndard. Per al cas de funcions d'utilitat del tipus CRRA i CARA es troben solucions explícites. Finalment, els resultats obtinguts s'il·lustren numèricament.
Resumo:
The expansion of flexible work experienced since the 1980s in developed economies is consistent with a more generic trend towards organizational flexibility, which many authors see as essential in order to compete in the dynamic global environment (Volberda, 1998). From this point of view, the changing demands of the environment have forced organizations to seek the ability to adapt rapidly and effectively as a means to be successful or even to survive. In the quest for flexibility, every area of the organization has been scrutinized in order to render it as ¿agile¿ as possible. In the human resources arena, this analysis has led to the definition of diverse ¿flexible working practices¿ (FWP) that describe a wide range of employment practices, which differ from the traditional full-time job with a fixed salary and a permanent contract. These practices have been described using other terms, such as ¿alternative¿ (Polivka, 1996; Powell & Mainiero, 1999), ¿non-standard¿ (Kalleberg, 2000), or ¿atypical¿ (De Grip, Hoevenberg, &m Willems, 1997), which coincide in denoting their divergence from the most traditional forms of employment. This article will show that quite different practices have been embraced by the common term ¿flexible working practices.¿ Subsequently, the results of empirical research regarding the implications for organizational performance of a number of flexible practices will be commented on.
Resumo:
The results of an exercise on electrochemistry for General Chemistry students are presented. The difficulty encountered by students in predicting the shift in the potential of the hydrogen electrode under non-standard conditions prompted a search in textbooks on how the subject is developed. Besides several instances of inconsistencies in defining the standard state, such as including the temperature in the definition, a number of incorrect depictions of the hydrogen electrode were discovered. Of the 28 General Chemistry books, 16 Physical Chemistry books and 24 Internet pages, 30, 20 and 46%, respectively, showed devices that would not work in practice.
Resumo:
Microorganisms for biological control are capable of producing active compounds that inhibit the development of phytopathogens, constituting a promising tool toob tain active principles that could replace synthetic pesticides. This study evaluatedtheability of severalpotentialbiocontrol microorganismsto produce active extracellular metabolites. In vitro antagonistic capability of 50 bacterial isolates from rhizospheric soils of "criolla" potato (Solanum phureja) was tested through dual culture in this plant with different plant pathogenic fungi and bacteria. Isolates that showed significantly higher antagonistic activity were fermented in liquid media and crude extracts from the supernatants had their biological activities assessed by optical density techniques. Inhibitory effecton tested pathogens was observed for concentrations between 0.5% and 1% of crude extracts. There was a correlation between the antimicrobial activity of extracts and the use of nutrient-rich media in bacteria fermentation. Using a bioguided method, a peptidic compound, active against Fusarium oxysporum, was obtained from the 7ANT04 strain (Pyrobaculum sp.). Analysis by nuclear magnetic resonance and liquid chromatography coupled to mass detector evidenced an 11-amino acid compound. Bioinformatic software using raw mass data confirmed the presence of a cyclic peptide conformed by 11 mostly non-standard amino acids.
Resumo:
Contemporary logic is confined to a few paradigmatic attitudes such as belief, knowledge, desire and intention. My purpose is to present a general model-theoretical semantics of propositional attitudes of any cognitive or volitive mode. In my view, one can recursively define the set of all psychological modes of attitudes. As Descartes anticipated, the two primitive modes are those of belief and desire. Complex modes are obtained by adding to primitive modes special cognitive and volitive ways or special propositional content or preparatory conditions. According to standard logic of attitudes (Hintikka), human agents are either perfectly rational or totally irrational. I will proceed to a finer analysis of propositional attitudes that accounts for our imperfect but minimal rationality. For that purpose I will use a non standard predicative logic according to which propositions with the same truth conditions can have different cognitive values and I will explicate subjective in addition to objective possibilities. Next I will enumerate valid laws of my general logic of propositional attitudes. At the end I will state principles according to which minimally rational agents dynamically revise attitudes of any mode.
Resumo:
This paper explores transparency in the decision-making of the European Central Bank (ECB). According to ECB´s definition, transparency means that the central bank provides the general public with all relevant information on its strategy, assessments and policy decisions as well as its procedures in an open, clear and timely manner. In this paper, however, the interpretation of transparency is somewhat broader: Information is freely available and directly accessible to those who will be affected by the decisions. Moreover, the individuals shall be able to master this material. ECB´s negative attitude towards publication of documents has demonstrated central bank´s reluctance to strive towards more extensive transparency. By virtue of the definition adopted by the ECB the bank itself is responsible for determining what is considered as relevant information. On the grounds of EU treaties, this paper assesses ECB`s accountability concentrating especially on transparency by employing principal-agent theory and constitutional approach. Traditionally, the definite mandate and the tenet of central bank independence have been used to justify the limited accountability. The de facto competence of the ECB has, however, considerably expanded as the central bank has decisively resorted to non-standard measures in order to combat the economic turbulences facing Europe. It is alleged that non-standard monetary policy constitutes a grey zone occasionally resembling economic policy or fiscal policy. Notwithstanding, the European Court of Justice has repeatedly approved these measures. This dynamic interpretation of the treaties seems to allow temporarily exceptions from the central bank´s primary objective during extraordinary times. Regardless, the paper suggests that the accountability nexus defined in the treaties is not sufficient in order to guarantee the accountability of the ECB after the adoption of the new, more active role. Enhanced transparency would help the ECB to maintain its credibility. Investing in the quality of monetary dialogue between the Parliament and the ECB appears to constitute the most adequate and practicable method to accomplish this intention. As a result of upgraded transparency the legitimacy of the central bank would not solely rest on its policy outputs.
Resumo:
Relation algebras is one of the state-of-the-art means used by mathematicians and computer scientists for solving very complex problems. As a result, a computer algebra system for relation algebras called RelView has been developed at Kiel University. RelView works within the standard model of relation algebras. On the other hand, relation algebras do have other models which may have different properties. For example, in the standard model we always have L;L=L (the composition of two (heterogeneous) universal relations yields a universal relation). This is not true in some non-standard models. Therefore, any example in RelView will always satisfy this property even though it is not true in general. On the other hand, it has been shown that every relation algebra with relational sums and subobjects can be seen as matrix algebra similar to the correspondence of binary relations between sets and Boolean matrices. The aim of my research is to develop a new system that works with both standard and non-standard models for arbitrary relations using multiple-valued decision diagrams (MDDs). This system will implement relations as matrix algebras. The proposed structure is a library written in C which can be imported by other languages such as Java or Haskell.
Resumo:
We propose methods for testing hypotheses of non-causality at various horizons, as defined in Dufour and Renault (1998, Econometrica). We study in detail the case of VAR models and we propose linear methods based on running vector autoregressions at different horizons. While the hypotheses considered are nonlinear, the proposed methods only require linear regression techniques as well as standard Gaussian asymptotic distributional theory. Bootstrap procedures are also considered. For the case of integrated processes, we propose extended regression methods that avoid nonstandard asymptotics. The methods are applied to a VAR model of the U.S. economy.
Resumo:
In this paper, I present a non standard objection to moral impartialism. My idea is that moral impartialism is questionable when it is committed to a principle we have reasons to reject: the principle of self-other symmetry. According to the utilitarian version of the principle, the benefits and harms to the agent are exactly as relevant to the global evaluation of the goodness of his action as the benefits and harms to any other agent. But this view sits badly with the “Harm principle” which stresses the difference between harm to others and harm to the self. According to the deontological version, we have moral duties to ourselves which are exactly symmetrical to our duties to others. But there are reasons to believe that the idea of a duty to the self is not coherent.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.