999 resultados para partial exogeneity tests
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
SUMMARY Heavy metal presence in the environment is a serious concern since some of them can be toxic to plants, animals and humans once accumulated along the food chain. Cadmium (Cd) is one of the most toxic heavy metal. It is naturally present in soils at various levels and its concentration can be increased by human activities. Several plants however have naturally developed strategies allowing them to grow on heavy metal enriched soils. One of them consists in the accumulation and sequestration of heavy metals in the above-ground biomass. Some plants present in addition an extreme strategy by which they accumulate a limited number of heavy metals in their shoots in amounts 100 times superior to those expected for a non-accumulating plant in the same conditions. Understanding the genetic basis of the hyperaccumulation trait - particularly for Cd - remains an important challenge which may lead to biotechnological applications in the soil phytoremediation. In this thesis, Thlaspi caerulescens J. & C. Presl (Brassicaceae) was used as a model plant to study the Cd hyperaccumulation trait, owing to its physiological and genetic characteristics. Twenty-four wild populations were sampled in different regions of Switzerland. They were characterized for environmental and soil parameters as well as intrinsic characteristics of plants (i.e. metal concentrations in shoots). They were as well genetically characterized by AFLPs, plastid DNA polymorphism and genes markers (CAPS and microsatellites) mainly developed in this thesis. Some of the investigated genes were putatively linked to the Cd hyperaccumulation trait. Since the study of the Cd hyperaccumulation in the field is important as it allows the identification of patterns of selection, the present work offered a methodology to define the Cd hyperaccumulation capacity of populations from different habitats permitting thus their comparison in the field. We showed that Cd, Zn, Fe and Cu accumulations were linked and that populations with higher Cd hyperaccumulation capacity had higher shoot and reproductive fitness. Using our genetic data, statistical methods (Beaumont & Nichols's procedure, partial Mantel tests) were applied to identify genomic signatures of natural selection related to the Cd hyperaccumulation capacity. A significant genetic difference between populations related to their Cd hyperaccumulation capacity was revealed based on somè specific markers (AFLP and candidate genes). Polymorphism at the gene encoding IRTl (Iron-transporter also participating to the transport of Zn) was suggested as explaining part of the variation in Cd hyperaccumulation capacity of populations supporting previous physiological investigations. RÉSUMÉ La présence de métaux lourds dans l'environnement est un phénomène préoccupant. En effet, certains métaux lourds - comme le cadmium (Cd) -sont toxiques pour les plantes, les animaux et enfin, accumulés le long de la chaîne alimentaire, pour les hommes. Le Cd est naturellement présent dans le sol et sa concentration peut être accrue par différentes activités humaines. Certaines plantes ont cependant développé des stratégies leur permettant de pousser sur des sols contaminés en métaux lourds. Parmi elles, certaines accumulent et séquestrent les métaux lourds dans leurs parties aériennes. D`autres présentent une stratégie encore plus extrême. Elles accumulent un nombre limité de métaux lourds en quantités 100 fois supérieures à celles attendues pour des espèces non-accumulatrices sous de mêmes conditions. La compréhension des bases génétiques de l'hyperaccumulation -particulièrement celle du Cd - représente un défi important avec des applications concrètes en biotechnologies, tout particulièrement dans le but appliqué de la phytoremediation des sols contaminés. Dans cette thèse, Thlaspi caerulescens J. & C. Presl (Brassicaceae) a été utilisé comme modèle pour l'étude de l'hyperaccumulation du Cd de par ses caractéristiques physiologiques et génétiques. Vingt-quatre populations naturelles ont été échantillonnées en Suisse et pour chacune d'elles les paramètres environnementaux, pédologique et les caractéristiques intrinsèques aux plantes (concentrations en métaux lourds) ont été déterminés. Les populations ont été caractérisées génétiquement par des AFLP, des marqueurs chloroplastiques et des marqueurs de gènes spécifiques, particulièrement ceux potentiellement liés à l'hyperaccumulation du Cd (CAPS et microsatellites). La plupart ont été développés au cours de cette thèse. L'étude de l'hyperaccumulation du Cd en conditions naturelles est importante car elle permet d'identifier la marque, éventuelle de sélection naturelle. Ce travail offre ainsi une méthodologie pour définir et comparer la capacité des populations à hyperaccumuler le Cd dans différents habitats. Nous avons montré que les accumulations du Cd, Zn, Fe et Cu sont liées et que les populations ayant une grande capacité d'hyperaccumuler le Cd ont également une meilleure fitness végétative et reproductive. Des méthodes statistiques (l'approche de Beaumont & Nichols, tests de Martel partiels) ont été utilisées sur les données génétiques pour identifier la signature génomique de la sélection naturelle liée à la capacité d'hyperaccumuler le Cd. Une différenciation génétique des populations liée à leur capacité d'hyperaccumuler le Cd a été mise en évidence sur certains marqueurs spécifiques. En accord avec les études physiologiques connues, le polymorphisme au gène codant IRT1 (un transporteur de Fe impliqué dans le transport du Zn) pourrait expliquer une partie de la variance de la capacité des populations à hyperaccumuler le Cd.
Resumo:
Using one male-inherited and eight biparentally inherited microsatellite markers, we investigate the population genetic structure of the Valais chromosome race of the common shrew (Sorex araneus) in the Central Alps of Europe. Unexpectedly, the Y-chromosome microsatellite suggests nearly complete absence of male gene flow among populations from the St-Bernard and Simplon regions (Switzerland). Autosomal markers also show significant genetic structuring among these two geographical areas. Isolation by distance is significant and possible barriers to gene flow exist in the study area. Two different approaches are used to better understand the geographical patterns and the causes of this structuring. Using a principal component analysis for which testing procedure exists, and partial Mantel tests, we show that the St-Bernard pass does not represent a significant barrier to gene flow although it culminates at 2469 m, close to the highest altitudinal record for this species. Similar results are found for the Simplon pass, indicating that both passes represented potential postglacial recolonization routes into Switzerland from Italian refugia after the last Pleistocene glaciations. In contrast with the weak effect of these mountain passes, the Rhône valley lowlands significantly reduce gene flow in this species. Natural obstacles (the large Rhône river) and unsuitable habitats (dry slopes) are both present in the valley. Moreover, anthropogenic changes to landscape structures are likely to have strongly reduced available habitats for this shrew in the lowlands, thereby promoting genetic differentiation of populations found on opposite sides of the Rhône valley.
Resumo:
The common shrew (Sorex araneus) is subdivided into numerous chromosome races. The Valais and Cordon chromosome races meet and hybridize at a mountain river in Les Houches (French Alps). Significant genetic structuring was recently reported among populations found on the Valais side of this hybrid zone. In this paper, a phylogenetic analysis and partial Mantel tests are used to investigate the patterns and causes of this structuring. A total of 185 shrews were trapped at 12 localities. All individuals were typed for nine microsatellite loci. Although several mountain rivers are found in the study area, riverine barriers do not have a significant influence on gene flow. Partial Mantel tests show that our result is caused by the influence of the hybrid zone with the Cordon race. The geographical patterns of this structuring are discussed in the context of the contact zone, which appears to extend up to a group of two rivers. The glacier they originate from is known to have cut the Arve valley as recently as 1818. The recent history of this glacier, its moraine and possibly rivers, may therefore be linked to the history of this hybrid zone.
Resumo:
Työn tavoitteena oli kehittää sekoituskyvyn empiirinen monimuuttujafunktio eräälle dynaamiselle linjasekoittimelle. Monimuuttujafunktio oli tarkoitus kehittää sekoittimen kierrosnopeuden, virtaavien materiaalien ja tilavuusvirtausten perus-teella. Työn kirjallisuusosassa tarkasteltiin pääosin dynaamisia linjasekoittimia ja niiden toimintaperiaatteita sekä sekoituskyvyn määrittämiseen soveltuvia mittausmene-telmiä. Sekoitettavien aineiden epähomogeenisuus määritettiin mittaamalla termoelemen-teillä sekoittimen jälkeisen virran lämpötilavaihtelut. Sekoitettavina aineina käy-tettiin kolmea erilaista seosta: vesi-vesi-, kuitususpensio-vesi- ja karboksyylime-tyyliselluloosa-vesiseoksia. Muita muuttujia kokeissa olivat neljä eri sekoittimen kierrosnopeutta, neljä eri päävirran tilavuusvirtausta ja kolme päävirran sekäsii-hen lisättävän sivuvirran suhdetta. Monimuuttujafunktiokehitettiin vain kuitususpensio-vesiajojen pohjalta muilla seoksilla tehtyjen koeajojen osittaisen epäonnistumisen vuoksi. Hallitsevaksi pa-rametriksi monimuuttujafunktiossa osoittautui sekoittimen kierrosnopeus. Osittai-nen epäonnistuminen kokeissa johtui osaksi termoelementtien käytön sopimatto-muudesta sekoituskyvyn määrittämiseen ja osaksi sekoitettavien aineiden valin-nasta. Jatkotutkimuksiaajatellen muista sekoituskyvyn mittaamiseen käytettävissä olevista menetelmistäkäyttökelpoisimmaksi arvioitiin sähkötomografia.
Resumo:
Tropospheric ozone is an air pollutant thought to reduce crop yields across Europe. Much experimental scientific work has been completed or is currently underway to quantify yield effects at ambient ozone levels. In this research, we seek to directly evaluate whether such effects are observed at the farm level. This is done by intersecting a farm level panel dataset for winter wheat farms in England & Wales with information on ambient ozone, and estimating a production function with ozone as a fixed input. Panel data methods, Generalised Method of Moments (GMM) techniques and nested exogeneity tests are employed in the estimation. The results confirm a small, but nevertheless statistically significant negative effect of ambient ozone levels on wheat yields.
Resumo:
Subsidised energy prices in pre-transition Hungary had led to excessive energy intensity in the agricultural sector. Transition has resulted in steep input price increases. In this study, Allen and Morishima elasticities of substitution are estimated to study the effects of these price changes on energy use, chemical input use, capital formation and employment. Panel data methods, Generalised Method of Moments (GMM) and instrument exogeneity tests are used to specify and estimate technology and substitution elasticities. Results indicate that indirect price policy may be effective in controlling energy consumption. The sustained increases in energy and chemical input prices have worked together to restrict energy and chemical input use, and the substitutability between energy, capital and labour has prevented the capital shrinkage and agricultural unemployment situations from being worse. The Hungarian push towards lower energy intensity may be best pursued through sustained energy price increases rather than capital subsidies. (C) 2003 Elsevier B.V. All rights reserved.
Resumo:
After more than forty years studying growth, there are two classes of growth models that have emerged: exogenous and endogenous growth models. Since both try to mimic the same set of long-run stylized facts, they are observationally equivalent in some respects. Our goals in this paper are twofold First, we discuss the time-series properties of growth models in a way that is useful for assessing their fit to the data. Second, we investigate whether these two models successfully conforms to U.S. post-war data. We use cointegration techniques to estimate and test long-run capital elasticities, exogeneity tests to investigate the exogeneity status of TFP, and Granger-causality tests to examine temporal precedence of TFP with respect to infrastructure expenditures. The empirical evidence is robust in confirming the existence of a unity long-run capital elasticity. The analysis of TFP reveals that it is not weakly exogenous in the exogenous growth model Granger-causality test results show unequivocally that there is no evidence that TFP for both models precede infrastructure expenditures not being preceded by it. On the contrary, we find some evidence that infras- tructure investment precedes TFP. Our estimated impact of infrastructure on TFP lay rougbly in the interval (0.19, 0.27).
Resumo:
Bayesian clustering methods are typically used to identify barriers to gene flow, but they are prone to deduce artificial subdivisions in a study population characterized by an isolation-by-distance pattern (IbD). Here we analysed the landscape genetic structure of a population of wild boars (Sus scrofa) from south-western Germany. Two clustering methods inferred the presence of the same genetic discontinuity. However, the population in question was characterized by a strong IbD pattern. While landscape-resistance modelling failed to identify landscape features that influenced wild boar movement, partial Mantel tests and multiple regression of distance matrices (MRDMs) suggested that the empirically inferred clusters were separated by a genuine barrier. When simulating random lines bisecting the study area, 60% of the unique barriers represented, according to partial Mantel tests and MRDMs, significant obstacles to gene flow. By contrast, the random-lines simulation showed that the boundaries of the inferred empirical clusters corresponded to the most important genetic discontinuity in the study area. Given the degree of habitat fragmentation separating the two empirical partitions, it is likely that the clustering programs correctly identified a barrier to gene flow. The differing results between the work published here and other studies suggest that it will be very difficult to draw general conclusions about habitat permeability in wild boar from individual studies.
Resumo:
Habitat fragmentation and the consequently the loss of connectivity between populations can reduce the individuals interchange and gene flow, increasing the chances of inbreeding, and the increase the risk of local extinction. Landscape genetics is providing more and better tools to identify genetic barriers.. To our knowledge, no comparison of methods in terms of consistency has been made with observed data and species with low dispersal ability. The aim of this study is to examine the consistency of the results of five methods to detect barriers to gene flow in a Mediterranean pine vole population Microtus duodecimcostatus: F-statistics estimations, Non-Bayesian clustering, Bayesian clustering, Boundary detection and Simple/Partial Mantel tests. All methods were consistent in detecting the stream as a non-genetic barrier. However, no consistency in results among the methods were found regarding the role of the highway as a genetic barrier. Fst, Bayesian clustering assignment test and Partial Mantel test identifyed the highway as a filter to individual interchange. The Mantel tests were the most sensitive method. Boundary detection method (Monmonier’s Algorithm) and Non-Bayesian approaches did not detect any genetic differentiation of the pine vole due to the highway. Based on our findings we recommend that the genetic barrier detection in low dispersal ability populations should be analyzed with multiple methods such as Mantel tests, Bayesian clustering approaches because they show more sensibility in those scenarios and with boundary detection methods by having the aim of detect drastic changes in a variable of interest between the closest individuals. Although simulation studies highlight the weaknesses and the strengths of each method and the factors that promote some results, tests with real data are needed to increase the effectiveness of genetic barrier detection.
Resumo:
The cone penetration test (CPT), together with its recent variation (CPTU), has become the most widely used in-situ testing technique for soil profiling and geotechnical characterization. The knowledge gained over the last decades on the interpretation procedures in sands and clays is certainly wide, whilst very few contributions can be found as regards the analysis of CPT(u) data in intermediate soils. Indeed, it is widely accepted that at the standard rate of penetration (v = 20 mm/s), drained penetration occurs in sands while undrained penetration occurs in clays. However, a problem arise when the available interpretation approaches are applied to cone measurements in silts, sandy silts, silty or clayey sands, since such intermediate geomaterials are often characterized by permeability values within the range in which partial drainage is very likely to occur. Hence, the application of the available and well-established interpretation procedures, developed for ‘standard’ clays and sands, may result in invalid estimates of soil parameters. This study aims at providing a better understanding on the interpretation of CPTU data in natural sand and silt mixtures, by taking into account two main aspects, as specified below: 1)Investigating the effect of penetration rate on piezocone measurements, with the aim of identifying drainage conditions when cone penetration is performed at a standard rate. This part of the thesis has been carried out with reference to a specific CPTU database recently collected in a liquefaction-prone area (Emilia-Romagna Region, Italy). 2)Providing a better insight into the interpretation of piezocone tests in the widely studied silty sediments of the Venetian lagoon (Italy). Research has focused on the calibration and verification of some site-specific correlations, with special reference to the estimate of compressibility parameters for the assessment of long-term settlements of the Venetian coastal defences.
Resumo:
A conditioning procedure is proposed allowing to install into the concrete specimens any selected value of water saturation degree with homogeneous moisture distribution. This is achieved within the least time and the minimum alteration of the concrete specimens. The protocol has the following steps: obtaining basic drying data at 50 °C (water absorption capacity and drying curves); unidirectional drying of the specimens at 50 °C until reaching the target saturation degree values; redistribution phase in closed containers at 50 °C (with measurement of the quasi-equilibrium relative humidities); storage into controlled environment chambers until and during mass transport tests, if necessary. A water transport model is used to derive transport parameters of the tested materials from the drying data, i.e., relative permeabilities and apparent water diffusion coefficients. The model also allows calculating moisture profiles during isothermal drying and redistribution phases, thus allowing optimization of the redistribution times for obtaining homogeneous moisture distributions.
Resumo:
Viability and functional results of a segment replantation depend on the prevention of deleterious effects of ischemia. Prolonged ischemia leads to alterations in the microcirculation: thrombosis, edema, production of oxygen free radicals, and platelet aggregation. The effect of IIb-IIIa glycoprotein inhibitors was tested in a partial limb amputation model submitted to warm ischemia. The male Wistar rats were divided into four groups: G1 with 0 hours of ischemia and saline (n = 20), G2 with 6 hours of ischemia and saline (n = 24), G3 with 6 hours of ischemia and abciximab (n = 23), and G4 with 6 hours of ischemia and tirofiban (n = 29). The limbs were observed for 7 days and classified as viable or nonviable. Viability, and mortality rates were obtained and analyzed by Q-square and Fisher exact tests (p < 0.05). The viability rates were 100% (G1), 30% (G2), 77.78% (G3), and 80.95% (G4). G2 was statistically different from G1, G3, and G4. G1, G3, and G4 were not statistically different. Transoperative and postoperative mortalities were not statistically different. The administration of abciximab and tirofiban improved limb salvage after ischemia and reperfusion and did not modify mortality rates significantly.
Resumo:
Purpose To assess the cost effectiveness of fluorine-18-fluorodeoxyglucose positron emission tomography (FDG-PET) in patients with Hodgkin`s lymphoma (HL) with unconfirmed complete remission (CRu) or partial remission (PR) after first-line treatment. Patients and Methods One hundred thirty patients with HL were prospectively studied. After treatment, all patients with CRu/PR were evaluated with FDG-PET. In addition, PET-negative patients were evaluated with standard follow-up, and PET-positive patients were evaluated with biopsies of the positive lesions. Local unit costs of procedures and tests were evaluated. Cost effectiveness was determined by evaluating projected annual economic impact of strategies without and with FDG-PET on HL management. Results After treatment, CRu/PR was observed in 50 (40.0%) of the 127 patients; the sensitivity, specificity, and positive and negative predictive values of FDG-PET were 100%, 92.0%, 92.3%, and 100%, respectively (accuracy of 95.9%). Local restaging costs without PET were $350,050 compared with $283,262 with PET, a 19% decrease. The incremental cost-effectiveness ratio is -$3,268 to detect one true case. PET costs represented 1% of total costs of HL treatment. Simulated costs in the 974 patients registered in the 2008 Brazilian public health care database showed that the strategy including restaging PET would have a total program cost of $56,498,314, which is $516,942 less than without restaging PET, resulting in a 1% cost saving. Conclusion FDG-PET demonstrated 95.9% accuracy in restaging for patients with HL with CRu/PR after first-line therapy. Given the observed probabilities, FDG-PET is highly cost effective and would reduce costs for the public health care program in Brazil.
Resumo:
Purpose: The double system of support, in which the distal-extension removable partial denture adapts, causes inadequate stress around abutment teeth, increasing the possibility of unequal bone resorption. Several ways to reduce or more adequately distribute the stress between abutment teeth and residual ridges have been reported; however, there are no definitive answers to the problem. The purpose of this study was to analyze, by means of photoelasticity, the most favorable stress distribution using three retainers: T bar, rest, proximal plate, I bar (RPI), and circumferential with mesialized rest. Materials and Methods: Three photoelastic models were made simulating a Kennedy Class II inferior arch. Fifteen dentures with long saddles, five of each design, were adjusted to the photoelastic patterns and submitted first to uniformly distributed load, and then to a load localized on the last artificial tooth. The saddles were then shortened and the tests repeated. The quantitative and qualitative analyses of stress intensity were done manually and by photography, respectively. For intragroup analyses the Wilcoxon test for paired samples was used, while for intergroup analyses Friedman and Wilcoxon tests were used to better identify the differences (p < 0.05). Results: The RPI retainer, followed by the T bar, demonstrated the best distribution of load between teeth and residual ridge. The circumferential retainer caused greater concentration of stress between dental apexes. Stress distribution was influenced by the type of retainer, the length of the saddle, and the manner of load application. Conclusions: The long saddles and the uniformly distributed loads demonstrated better distribution of stress on support structures.