990 resultados para Modelos log-linear
Resumo:
This case study uses log-linear modelling to investigate the interrelationships between factors that may contribute to the late submission of coursework by undergraduate students. A class of 86 computing students are considered. These students were exposed to traditional teaching methods supported by e-learning via a Managed Learning Environment (MLE). The MLE warehouses detailed data about student usage of the various areas of the environment, which can be used to interpret the approach taken to learning. The study investigates the interrelationship between these factors with the information as to whether the student handed in their course work on time or whether they were late. The results from the log-linear modelling technique show that there is an interaction between participating in Discussions within the MLE and the timely submission of course work, indicating that participants are more likely to hand in on time, than those students who do not participate.
Resumo:
The permeability of the lung is critical in determining the disposition of inhaled drugs and the respiratory epithelium provides the main physical barrier to drug absorption. The 16HBE14o- human bronchial epithelial cell line has been developed recently as a model of the airway epithelium. In this study, the transport of 10 low molecular weight compounds was measured in the 16HBE14o- cell layers, with apical to basolateral (absorptive) apparent permeability coefficients (P(app)) ranging from 0.4 x 10(-6)cms(-1) for Tyr-D-Arg-Phe-Phe-NH(2) to 25.2x10(-6)cms(-1) for metoprolol. Permeability in 16HBE14o- cells was found to correlate with previously reported P(app) in Caco-2 cells and absorption rates in the isolated perfused rat lung (k(a,lung)) and the rat lung in vivo (k(a,in vivo)). Log linear relationships were established between P(app) in 16HBE14o- cells and P(app) in Caco-2 cells (r(2)=0.82), k(a,lung) (r(2)=0.78) and k(a,in vivo) (r(2)=0.68). The findings suggest that permeability in 16HBE14o- cells may be useful to predict the permeability of compounds in the lung, although no advantage of using the organ-specific cell line 16HBE14o- compared to Caco-2 cells was found in this study.
Resumo:
When missing data occur in studies designed to compare the accuracy of diagnostic tests, a common, though naive, practice is to base the comparison of sensitivity, specificity, as well as of positive and negative predictive values on some subset of the data that fits into methods implemented in standard statistical packages. Such methods are usually valid only under the strong missing completely at random (MCAR) assumption and may generate biased and less precise estimates. We review some models that use the dependence structure of the completely observed cases to incorporate the information of the partially categorized observations into the analysis and show how they may be fitted via a two-stage hybrid process involving maximum likelihood in the first stage and weighted least squares in the second. We indicate how computational subroutines written in R may be used to fit the proposed models and illustrate the different analysis strategies with observational data collected to compare the accuracy of three distinct non-invasive diagnostic methods for endometriosis. The results indicate that even when the MCAR assumption is plausible, the naive partial analyses should be avoided.
Resumo:
We review some issues related to the implications of different missing data mechanisms on statistical inference for contingency tables and consider simulation studies to compare the results obtained under such models to those where the units with missing data are disregarded. We confirm that although, in general, analyses under the correct missing at random and missing completely at random models are more efficient even for small sample sizes, there are exceptions where they may not improve the results obtained by ignoring the partially classified data. We show that under the missing not at random (MNAR) model, estimates on the boundary of the parameter space as well as lack of identifiability of the parameters of saturated models may be associated with undesirable asymptotic properties of maximum likelihood estimators and likelihood ratio tests; even in standard cases the bias of the estimators may be low only for very large samples. We also show that the probability of a boundary solution obtained under the correct MNAR model may be large even for large samples and that, consequently, we may not always conclude that a MNAR model is misspecified because the estimate is on the boundary of the parameter space.
Resumo:
Birnbaum-Saunders models have largely been applied in material fatigue studies and reliability analyses to relate the total time until failure with some type of cumulative damage. In many problems related to the medical field, such as chronic cardiac diseases and different types of cancer, a cumulative damage caused by several risk factors might cause some degradation that leads to a fatigue process. In these cases, BS models can be suitable for describing the propagation lifetime. However, since the cumulative damage is assumed to be normally distributed in the BS distribution, the parameter estimates from this model can be sensitive to outlying observations. In order to attenuate this influence, we present in this paper BS models, in which a Student-t distribution is assumed to explain the cumulative damage. In particular, we show that the maximum likelihood estimates of the Student-t log-BS models attribute smaller weights to outlying observations, which produce robust parameter estimates. Also, some inferential results are presented. In addition, based on local influence and deviance component and martingale-type residuals, a diagnostics analysis is derived. Finally, a motivating example from the medical field is analyzed using log-BS regression models. Since the parameter estimates appear to be very sensitive to outlying and influential observations, the Student-t log-BS regression model should attenuate such influences. The model checking methodologies developed in this paper are used to compare the fitted models.
Resumo:
We introduce, for the first time, a new class of Birnbaum-Saunders nonlinear regression models potentially useful in lifetime data analysis. The class generalizes the regression model described by Rieck and Nedelman [Rieck, J.R., Nedelman, J.R., 1991. A log-linear model for the Birnbaum-Saunders distribution. Technometrics 33, 51-60]. We discuss maximum-likelihood estimation for the parameters of the model, and derive closed-form expressions for the second-order biases of these estimates. Our formulae are easily computed as ordinary linear regressions and are then used to define bias corrected maximum-likelihood estimates. Some simulation results show that the bias correction scheme yields nearly unbiased estimates without increasing the mean squared errors. Two empirical applications are analysed and discussed. Crown Copyright (C) 2009 Published by Elsevier B.V. All rights reserved.
Resumo:
Este trabalho tem como objetivo o estudo da matéria nuclear a altas densidades considerando-se as fases hadrônica e de quarks à temperatura nula e finita, com vistas a aplicações no estudo de propriedades estáticas globais de estrelas compactas. Parte dos cálculos apresentados nesta dissertação foram realizados por diferentes autores. Entretanto, em geral, estes trabalhos limitaram-se ao estudo da matéria nuclear em regiões de densidades e temperaturas específicas. Este estudo visa, por sua vez, o desenvolvimento de um tratamento amplo e consistente para estes sistemas, considerando-se diferentes regimes de densidade e temperatura para ambas as fases, hadrônica e de quarks. Buscamos com isso adquirir conhecimento suficiente que possibilite, não somente a ampliação do escopo dos modelos considerados, como também o desenvolvimento, no futuro, de um modelo mais apropriado à descrição de propriedades estáticas e dinâmicas de estrelas compactas. Ainda assim, este trabalho apresenta novos aspectos e resultados inéditos referentes ao estudo da matéria nuclear, como descrevemos a seguir. No estudo da matéria nuclear na fase hadrônica, consideramos os modelos da teoria quântica de campos nucleares desenvolvidos por J. D. Walecka, J. Zimanyi e S. A. Moszkowski, e por J. Boguta e A. R. Bodmer, e conhecidos, respectivamente, como Hadrodinâmica Quântica, ZM e Não-Linear. Nestes modelos a matéria nuclear é descrita a partir de uma formulação lagrangeana com os campos efetivos dos bárions acoplados aos campos dos mésons, responsáveis pela interação nuclear Neste estudo consideramos inicialmente a descrição de propriedades estáticas globais de sistemas nucleares de muitos corpos à temperatura nula, como por exemplo, a massa efetiva do núcleon na matéria nuclear simétrica e de nêutrons. A equação de estado da matéria de nêutrons possibilita a descrição de propriedades estáticas globais de estrelas compactas, como sua massa e raio, através da sua incorporação nas equações de Tolman, Oppenheimer e Volkoff (TOV). Os resultados obtidos nestes cálculos estão em plena concordância com os resultados apresentados por outros autores. Consideramos posteriormente o estudo da matéria nuclear com graus de liberdade de bárions e mésons à temperatura finita, com particular atenção na região de transição de fase. Para este estudo, incorporamos aos modelos considerados, o formalismo da mecânica estatística à temperatura finita. Os resultados obtidos, para as propriedades da matéria nuclear à temperatura finita, concordam também com os resultados obtidos por outros autores. Um aspecto inédito apresentado neste trabalho refere-se à incorporação de valores para os pontos críticos da transição de fase, ainda não determinados por outros autores. O comportamento do calor específico também é analisado de forma inédita nesta dissertação no tratamento utilizado com os modelos Não-Linear e ZM. Utilizamos a equação de estado da matéria de nêutrons à temperatura finita nas equações TOV, determinando propriedades globais de uma estrela protoneutrônica Observamos neste trabalho que ocorre um aumento da massa máxima da estrela com o aumento da temperatura, comportamento este já previsto por outros autores em diferentes modelos. Posteriormente incorporamos ao formalismo à temperatura finita, o equilíbrio químico, a presença de graus de liberdade leptônicos para elétrons e múons e a neutralidade de carga. Apresentamos nesta etapa do trabalho, uma forma alternativa para a incorporação destes ingredientes, baseada na determinação de uma fração relativa entre os potenciais químicos de prótons e nêutrons, à temperatura nula, extendendo este resultado à temperatura finita. Este procedimento permite a determinação da distribuição de núcleons e léptons no interior de uma estrela protoneutrônica, onde incluímos ainda a presença de neutrinos confinados. No estudo da matéria de quarks, consideramos o modelo de sacola do Massachussets Institute of Technology (MIT). Incorporando as equações TOV neste estudo, determinamos propriedades globais de estrelas de quarks, bem como a distribuição dos diferentes sabores de quarks no interior estelar. Como principal resultado, obtivemos uma equação de estado geral para a matéria hadrônica e de quarks, introduzida nas equações TOV, e analisamos a existência de estrelas híbridas. Os resultados obtidos nesta etapa do trabalho são totalmente coerentes com aqueles obtidos por outros autores.
Resumo:
Uma das características mais ressaltantes nos últimos anos é a variedade de publicidade com as quais as empresas produtoras de bebidas alcoólicas tratam de influenciar os consumidores para comercializar seus produtos. Neste contexto surgem duas posições em relação aos efeitos da publicidade de bebidas alcoólicas no consumo desmedido e suas conseqüências na sociedade: por um lado, as empresas produtoras investem em publicidade só como um recurso para induzir o consumidor à compra do produto que oferecem em comparação aos oferecidos por seus concorrentes, e não necessariamente para promover condutas irresponsáveis no consumo de seus produtos, como dirigir alcoolizado depois de consumir bebidas alcoólicas. Por outro lado, na literatura da saúde pública opina-se o contrário: os acidentes de trânsito são vistos como uma das conseqüências do consumo desmedido e irresponsável destas bebidas, muitas vezes devido a uma publicidade de bebidas alcoólicas. Assim, a pergunta central da pesquisa é: qual é a influência da publicidade de cerveja nos acidentes de trânsito provocados por motoristas ou pedestres em estado de embriagues na cidade de Lima? Para responder a pergunta se usará um modelo log-linear estimado pelo método de Mínimos Quadrados Ordinário (MQO), tendo como variável dependente o número de acidentes de trânsito acontecidos entre o período 1999-2003. O modelo também leva em conta variáveis independentes como o montante investido em publicidade televisada de cervejas, assim como a legislação feita para modificar o comportamento das pessoas em relação ao fato de dirigir em estado de embriaguez. O resultado do modelo rodado confirma a existência de uma relação positiva entre os acidentes de trânsito e a publicidade televisada de cervejas, assim como uma relação negativa entre a legislação e os acidentes de trânsito acontecidos na cidade de Lima no período 1999 até o 2003.
Resumo:
Com o objetivo de avaliar o uso do consumo de energia elétrica como indicador socioeconômico, esta pesquisa analisa informações em dois níveis de agregação geográfica. No primeiro, sob perspectiva territorial, investiga indicadores de Renda e Consumo de Energia Elétrica agregados por áreas de ponderação (conjunto de setores censitários) do município de São Paulo e utiliza os microdados do Censo Demográfico 2000 em conjunto com a base de domicílios da AES Eletropaulo. Aplica modelos de Spatial Auto-Regression (SAR), Geographically Weighted Regression (GWR), e um modelo inédito combinado (GWR+SAR), desenvolvido neste estudo. Diversas matrizes de vizinhança foram utilizadas na avaliação da influência espacial (com padrão Centro-Periferia) das variáveis em estudo. As variáveis mostraram forte auto-correlação espacial (I de Moran superior a 58% para o Consumo de Energia Elétrica e superior a 75% para a Renda Domiciliar). As relações entre Renda e Consumo de Energia Elétrica mostraram-se muito fortes (os coeficientes de explicação da Renda atingiram valores de 0,93 a 0,98). No segundo nível, domiciliar, utiliza dados coletados na Pesquisa Anual de Satisfação do Cliente Residencial, coordenada pela Associação Brasileira dos Distribuidores de Energia Elétrica (ABRADEE), para os anos de 2004, 2006, 2007, 2008 e 2009. Foram aplicados os modelos Weighted Linear Model (WLM), GWR e SAR para os dados das pesquisas com as entrevistas alocadas no centróide e na sede dos distritos. Para o ano de 2009, foram obtidas as localizações reais dos domicílios entrevistados. Adicionalmente, foram desenvolvidos 6 algoritmos de distribuição de pontos no interior dos polígonos dos distritos. Os resultados dos modelos baseados em centróides e sedes obtiveram um coeficiente de determinação R2 em torno de 0,45 para a técnica GWR, enquanto os modelos baseados no espalhamento de pontos no interior dos polígonos dos distritos reduziram essa explicação para cerca de 0,40. Esses resultados sugerem que os algoritmos de alocação de pontos em polígonos permitem a observação de uma associação mais realística entre os construtos analisados. O uso combinado dos achados demonstra que as informações de faturamento das distribuidoras de energia elétrica têm grande potencial para apoiar decisões estratégicas. Por serem atuais, disponíveis e de atualização mensal, os indicadores socioeconômicos baseados em consumo de energia elétrica podem ser de grande utilidade como subsídio a processos de classificação, concentração e previsão da renda domiciliar.
Resumo:
This paper has two original contributions. First, we show that the present value model (PVM hereafter), which has a wide application in macroeconomics and fi nance, entails common cyclical feature restrictions in the dynamics of the vector error-correction representation (Vahid and Engle, 1993); something that has been already investigated in that VECM context by Johansen and Swensen (1999, 2011) but has not been discussed before with this new emphasis. We also provide the present value reduced rank constraints to be tested within the log-linear model. Our second contribution relates to forecasting time series that are subject to those long and short-run reduced rank restrictions. The reason why appropriate common cyclical feature restrictions might improve forecasting is because it finds natural exclusion restrictions preventing the estimation of useless parameters, which would otherwise contribute to the increase of forecast variance with no expected reduction in bias. We applied the techniques discussed in this paper to data known to be subject to present value restrictions, i.e. the online series maintained and up-dated by Shiller. We focus on three different data sets. The fi rst includes the levels of interest rates with long and short maturities, the second includes the level of real price and dividend for the S&P composite index, and the third includes the logarithmic transformation of prices and dividends. Our exhaustive investigation of several different multivariate models reveals that better forecasts can be achieved when restrictions are applied to them. Moreover, imposing short-run restrictions produce forecast winners 70% of the time for target variables of PVMs and 63.33% of the time when all variables in the system are considered.
Resumo:
The benznidazole (BNZ) is the only alternative for Chagas disease treatment in Brazil. This drug has low solubility, which restricts its dissolution rate. Thus, the present work aimed to study the BNZ interactions in binary systems with beta cyclodextrin (β-CD) and hydroxypropyl-beta cyclodextrin (HP-β-CD), in order to increase the apparent aqueous solubility of drug. The influence of seven hydrophilic polymers, triethanolamine (TEA) and 1-methyl-2- pyrrolidone (NMP) in benznidazole apparent aqueous solubility, as well as the formation of inclusion complexes was also investigated. The interactions in solution were predicted and investigated using phase solubility diagram methodology, nuclear magnetic resonance of protons (RMN) and molecular modeling. Complexes were obtained in solid phase by spray drying and physicochemical characterization included the UV-Vis spectrophotometric spectroscopy in the infrared region, scanning electron microscopy, X-ray diffraction and dissolution drug test from the different systems. The increment on apparent aqueous solubility of drug was achieved with a linear type (AL) in presence of both cyclodextrins at different pH values. The hydrophilic polymers and 1-methyl-2-pyrrolidone contributes to the formation of inclusion complexes, while the triethanolamine decreased the complex stability constant (Kc). The log-linear model applied for solubility diagrams revealed that both triethanolamine and 1-methyl-2-pyrrolidone showed an action cosolvent (both solvents) and complexing (1-methyl-2-pyrrolidone). The best results were obtained with complexes involving 1-methyl-2-pyrrolidone and hydroxypropylbeta- cyclodextrin, with an increased of benznidazole solubility in 27.9 and 9.4 times, respectively. The complexes effectiveness was proven by dissolution tests, in which the ternary complexes and physical mixtures involving 1-methyl- 2-pyrrolidone and both cyclodextrins investigated showed better results, showing the potential use as novel pharmaceutical ingredient, that leads to increased benznidazole bioavailability
Resumo:
In this work a modification on ANFIS (Adaptive Network Based Fuzzy Inference System) structure is proposed to find a systematic method for nonlinear plants, with large operational range, identification and control, using linear local systems: models and controllers. This method is based on multiple model approach. This way, linear local models are obtained and then those models are combined by the proposed neurofuzzy structure. A metric that allows a satisfactory combination of those models is obtained after the structure training. It results on plant s global identification. A controller is projected for each local model. The global control is obtained by mixing local controllers signals. This is done by the modified ANFIS. The modification on ANFIS architecture allows the two neurofuzzy structures knowledge sharing. So the same metric obtained to combine models can be used to combine controllers. Two cases study are used to validate the new ANFIS structure. The knowledge sharing is evaluated in the second case study. It shows that just one modified ANFIS structure is necessary to combine linear models to identify, a nonlinear plant, and combine linear controllers to control this plant. The proposed method allows the usage of any identification and control techniques for local models and local controllers obtaining. It also reduces the complexity of ANFIS usage for identification and control. This work has prioritized simpler techniques for the identification and control systems to simplify the use of the method
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Genética - IBILCE
Resumo:
Pós-graduação em Alimentos e Nutrição - FCFAR