972 resultados para Models, statistical
Resumo:
For dynamic simulations to be credible, verification of the computer code must be an integral part of the modelling process. This two-part paper describes a novel approach to verification through program testing and debugging. In Part 1, a methodology is presented for detecting and isolating coding errors using back-to-back testing. Residuals are generated by comparing the output of two independent implementations, in response to identical inputs. The key feature of the methodology is that a specially modified observer is created using one of the implementations, so as to impose an error-dependent structure on these residuals. Each error can be associated with a fixed and known subspace, permitting errors to be isolated to specific equations in the code. It is shown that the geometric properties extend to multiple errors in either one of the two implementations. Copyright (C) 2003 John Wiley Sons, Ltd.
Resumo:
In Part 1 of this paper a methodology for back-to-back testing of simulation software was described. Residuals with error-dependent geometric properties were generated. A set of potential coding errors was enumerated, along with a corresponding set of feature matrices, which describe the geometric properties imposed on the residuals by each of the errors. In this part of the paper, an algorithm is developed to isolate the coding errors present by analysing the residuals. A set of errors is isolated when the subspace spanned by their combined feature matrices corresponds to that of the residuals. Individual feature matrices are compared to the residuals and classified as 'definite', 'possible' or 'impossible'. The status of 'possible' errors is resolved using a dynamic subset testing algorithm. To demonstrate and validate the testing methodology presented in Part 1 and the isolation algorithm presented in Part 2, a case study is presented using a model for biological wastewater treatment. Both single and simultaneous errors that are deliberately introduced into the simulation code are correctly detected and isolated. Copyright (C) 2003 John Wiley Sons, Ltd.
Resumo:
The two steps of nitrification, namely the oxidation of ammonia to nitrite and nitrite to nitrate, often need to be considered separately in process studies. For a detailed examination, it is desirable to monitor the two-step sequence using online measurements. In this paper, the use of online titrimetric and off-gas analysis (TOGA) methods for the examination of the process is presented. Using the known reaction stoichiometry, combination of the measured signals (rates of hydrogen ion production, oxygen uptake and carbon dioxide transfer) allows the determination of the three key process rates, namely the ammonia consumption rate, the nitrite accumulation rate and the nitrate production rate. Individual reaction rates determined with the TOGA sensor under a number of operation conditions are presented. The rates calculated directly from the measured signals are compared with those obtained from offline liquid sample analysis. Statistical analysis confirms that the results from the two approaches match well. This result could not have been guaranteed using alternative online methods. As a case study, the influences of pH and dissolved oxygen (DO) on nitrite accumulation are tested using the proposed method. It is shown that nitrite accumulation decreased with increasing DO and pH. Possible reasons for these observations are discussed. (C) 2003 Elsevier Science Ltd. All rights reserved.
Resumo:
Este trabalho investiga, no mercado acionário brasileiro, o efeito da contabilidade de hedge na qualidade das informações contábeis divulgadas, no disclosure dos instrumentos financeiros derivativos e na assimetria de informação. Para medir a qualidade da informação contábil, foram utilizadas as métricas de relevância da informação contábil e informatividade dos lucros contábeis. Para a execução deste trabalho, foi constituída uma amostra geral com empresas brasileiras, não financeiras, listadas na Bolsa de Valores de São Paulo, compreendendo as 150 empresas com maior valor de mercado em 01/01/2014. A partir da amostra geral, foram constituídas amostras para a aplicação dos modelos de value relevance, informativeness, disclosure e assimetria de informação. A amostra para relevância contou com 758 observações firmas-anos, para o período de 2008 a 2013. A amostra para informatividade contou com 701 observações firmas-anos, para o período de 2008 a 2013. A amostra para disclosure contou com 100 observações firmas-anos, para o período de 2011 a 2012. A amostra para assimetria de informação contou com 100 observações firmas-anos, para o período de 2011 a 2012. Para as análises dos dados, utilizou-se regressões com errospadrão robustos com abordagem POLS e Efeitos Fixos, aplicadas sobre dados em painel. Complementarmente, para as análises do efeito do hedge accounting sobre o disclosure e assimetria de informação, foi aplicado o método de Propensity Score Matching. As evidências encontradas para a influência da contabilidade de hedge na relevância da informação contábil apontaram uma relação positiva e significante na interação com o LL. Na análise da informatividade dos lucros contábeis, a pesquisa evidenciou uma relação negativa e estatisticamente significante do lucro quando interagido com a variável dummy de hedge accounting. Quanto às evidências encontradas para a influência do hedge accounting sobre o disclosure dos derivativos, verificou-se uma relação positiva e estatisticamente significante da dummy de hedge accounting com o indicador de evidenciação dos derivativos. Em relação às evidências para a assimetria de informação, embora os coeficientes se mostrassem no sentido esperado, os mesmos não foram estatisticamente significativos. Adicionalmente, incorporamse às análises econométricas uma análise descritiva, na amostra geral, da utilização do hedge accounting no Brasil, para o ano de 2013. Dentre as 150 empresas da amostra, 49 empresas utilizaram hedge accounting, onde 41 empresas adotam apenas 1 tipo de hedge. O hedge de fluxo de caixa é o tipo de hedge mais adotado pelas empresas, sendo utilizado por 42 companhias.
Resumo:
O Painel Intergovernamental sobre Mudanças Climáticas (IPCC) através do seu Quarto Relatório de Avaliação das Mudanças Climáticas Globais (IPCC-AR4), publicado em 2007, atribui as emissões de gases de efeito estufa como a principal causa do aumento médio das temperaturas e alerta para uma elevação entre 1,8 ºC e 6,4 ºC até 2100, podendo modificar assim a aptidão climática para as culturas agrícolas em diversas regiões do planeta. Diante disso, existe a necessidade de substituição dos combustíveis fósseis por fontes renováveis e limpas de energia, como o etanol. A cana-de-açúcar apresenta-se, portanto, como uma cultura estratégica na produção do etanol. O presente trabalho teve como objetivos: 1) avaliar o desempenho dos Modelos Climáticos Globais (MCGs) do IPCC-AR4 na simulação de dados climáticos de temperatura do ar e precipitação pluviométrica para o período anual e mensal; 2) elaborar o zoneamento agroclimático da cana-de-açúcar para a América do Sul considerando o clima referência e o futuro para as décadas de 2020, 2050 e 2080 em função do cenário de emissão A1B considerado pessimista e que usa um equilíbrio entre todas as fontes de energia. Para a avaliação do desempenho dos MCGs, foram utilizados dados climáticos médios mensais observados de precipitação e temperatura do ar provenientes do Climatic Research Unit (CRU) e dados simulados oriundos dos 22 MCGs do IPCC (cenário 20c3m) compreendidos entre o período de 1961-1990, além do Multimodel (ensemble) – MM que é a média da combinação dos dados de todos os modelos. O desempenho dos MCGs foi avaliado pelos índices estatísticos: desvio padrão, correlação, raiz quadrada da média do quadrado das diferenças centralizadas e o “bias” dos dados simulados com os observados, que foram representados no diagrama de Taylor. Para a etapa da elaboração do zoneamento agroclimático procedeu-se o cálculo dos balanços hídricos (referência e futuros) da cultura, pelo método de Thornthwaite & Mather (1955). Para o cenário referência, utilizaram-se dados das médias mensais da precipitação e temperatura provenientes do CRU, enquanto que para as projeções futuras, dados provenientes das anomalias do Multimodel (ensemble) – MM para as décadas de 2020, 2050 e 2080, que foram ajustados, obtendo-se assim as projeções futuras para cada período analisado. Baseado nos mapas temáticos reclassificados de deficiência hídrica anual, temperatura média anual, excedente hídrico anual e no índice de satisfação das necessidades de água (ISNA), realizou-se uma sobreposição dessas informações obtendo assim, os mapas finais do zoneamento agroclimático da cana-de-açúcar. Posteriormente ao zoneamento, realizou-se a análise das transições (ganhos, perdas e persistências) entre as classes de aptidão climática da cultura. Os resultados mostram que o Multimodel (ensemble) – MM para o período mensal apresenta o melhor desempenho entre os modelos analisados. As áreas inaptas correspondem a maior parte da América do Sul e uma expressiva transição entre as classes de aptidão climática da cultura.
Resumo:
Nos anos mais recentes, observa-se aumento na adoção das técnicas de silvicultura de precisão em florestas plantadas no Brasil. Os plantios de eucalipto ocorrem preferencialmente em áreas com baixa fertilidade de solo e consequentemente baixa produtividade. Logo, para otimizar ao máximo a produção, é necessário saber o quanto essa cultura pode produzir em cada local (sítio). Objetivou-se aplicar uma metodologia que utiliza técnicas de estatística, geoestatística e geoprocessamento, no mapeamento da variabilidade espacial e temporal de atributos químicos do solo cultivado com eucalipto, em área de 10,09 ha, situada no sul do estado do Espírito Santo. Os atributos químicos da fertilidade do solo estudados foram: fósforo (P), potássio (K), cálcio (Ca) e magnésio (Mg), no ano da implantação do povoamento do eucalipto, em 2008, e três anos após, em 2011. O solo foi amostrado em duas profundidades, 0-0,2 m e 0,2-0,4 m, nos 94 pontos de uma malha regular, com extensão de 33 x 33 m. Os dados foram analisados pela estatística descritiva e, em seguida, pela geoestatística, por meio do ajuste de semivariogramas. Diferentes métodos de interpolação foram testados para produzir mapas temáticos mais precisos e facilitar as operações algébricas utilizadas. Com o auxílio de índices quantitativos, realizou-se uma análise geral da fertilidade do solo, por meio da álgebra de mapas. A metodologia utilizada neste estudo possibilitou mapear a variabilidade espacial e temporal de atributos químicos do solo. A análise variográfica mostrou que todos os atributos estudados apresentaram-se estruturados espacialmente, exceto para o atributo P, no Ano Zero (camada 0-0,2 m) e no Ano Três (ambas as camadas). Os melhores métodos de interpolação para o mapeamento de cada atributo químico do solo foram identificados com a ajuda gráfica do Diagrama de Taylor. Mereceram destaque, os modelos esférico e exponencial nas interpolações para a maioria dos atributos químicos do solo avaliados. Apesar de a variação espacial e temporal dos atributos estudados apresentar-se, em média, com pequena variação negativa, a metodologia usada mostrou variações positivas na fertilidade do solo em várias partes da área de estudo. Além disso, os resultados demonstram que os efeitos observados são majoritariamente em função da cultura, uma vez que não foram coletadas amostras de solo em locais adubados. A produtividade do sítio florestal apresentou-se com tendências semelhantes às variações ocorridas na fertilidade do solo, exceto para o magnésio, que se mostrou com tendências espaciais para suporte de elevadas produtividades, de até 50 m3 ha-1 ano-1. Além de mostrar claramente as tendências observadas para as variações na fertilidade do solo, a metodologia utilizada confirma um caminho operacional acessível para empresas e produtores florestais para o manejo nutricional em florestas plantadas. O uso dos mapas facilita a mobilização de recursos para melhorar a aplicação de fertilizantes e corretivos necessários.
Resumo:
This paper examines the performance of Portuguese equity funds investing in the domestic and in the European Union market, using several unconditional and conditional multi-factor models. In terms of overall performance, we find that National funds are neutral performers, while European Union funds under-perform the market significantly. These results do not seem to be a consequence of management fees. Overall, our findings are supportive of the robustness of conditional multi-factor models. In fact, Portuguese equity funds seem to be relatively more exposed to smallcaps and more value-oriented. Also, they present strong evidence of time-varying betas and, in the case of the European Union funds, of time-varying alphas too. Finally, in terms of market timing, our tests suggest that mutual fund managers in our sample do not exhibit any market timing abilities. Nevertheless, we find some evidence of timevarying conditional market timing abilities but only at the individual fund level.
Resumo:
Abstract. Interest in design and development of graphical user interface (GUIs) is growing in the last few years. However, correctness of GUI's code is essential to the correct execution of the overall software. Models can help in the evaluation of interactive applications by allowing designers to concentrate on its more important aspects. This paper describes our approach to reverse engineering abstract GUI models directly from the Java/Swing code.
Resumo:
Color model representation allows characterizing in a quantitative manner, any defined color spectrum of visible light, i.e. with a wavelength between 400nm and 700nm. To accomplish that, each model, or color space, is associated with a function that allows mapping the spectral power distribution of the visible electromagnetic radiation, in a space defined by a set of discrete values that quantify the color components composing the model. Some color spaces are sensitive to changes in lighting conditions. Others assure the preservation of certain chromatic features, remaining immune to these changes. Therefore, it becomes necessary to identify the strengths and weaknesses of each model in order to justify the adoption of color spaces in image processing and analysis techniques. This chapter will address the topic of digital imaging, main standards and formats. Next we will set the mathematical model of the image acquisition sensor response, which enables assessment of the various color spaces, with the aim of determining their invariance to illumination changes.
Resumo:
Current software development relies increasingly on non-trivial coordination logic for com- bining autonomous services often running on di erent platforms. As a rule, however, in typical non-trivial software systems, such a coordination layer is strongly weaved within the application at source code level. Therefore, its precise identi cation becomes a major methodological (and technical) problem which cannot be overestimated along any program understanding or refactoring process. Open access to source code, as granted in OSS certi cation, provides an opportunity for the devel- opment of methods and technologies to extract, from source code, the relevant coordination information. This paper is a step in this direction, combining a number of program analysis techniques to automatically recover coordination information from legacy code. Such information is then expressed as a model in Orc, a general purpose orchestration language