99 resultados para Parametrização
Resumo:
Visando contribuir para com o debate da reforma do Sistema Tributário Nacional, objetiva-se neste trabalho estudar uma forma de aplicação do Imposto sobre o Valor Agregado, de maneira mais abrangente possível, com a ampliação da base tributária no tocante aos contribuintes, estabelecendo-se também critérios simples de legislação, de modo a desonerar a estrutura de administração do imposto, tanto para o sujeito passivo, o contribuinte, como para o sujeito ativo, o Estado. O sistema de arrecadação fiscal é um conjunto integrado por componentes derivados das atividades próprias às áreas econômica, política e administrativa. À ciência da tributação cabe a explicação sobre o funcionamento do sistema, sob os resultados inerentes ao comportamento controlado dos diversos fatores intrínsecos ao desempenho dessas áreas, dentro de certos limites de ação. Como um conjunto de particularidades político-econômicas, que se correlacionam no cerne de uma atividade administrativa vital para a organização do Estado, o sistema tributário deve ser visto sob uma perspectiva ampla, envolvendo a definição dos princípios e limites de ação do próprio governo. Surge neste ponto um dado dos mais importantes na parametrização de uma estrutura fiscal, que é a amplitude da responsabilidade objetiva atribuída à administração pública dentro da organização do país. A partir da definição desta variável pode-se tentar equacionar a dimensão do aparelho estatal e o seu custo de operação. Uma vez fornecidos estes dados básicos, tem-se as condições mínimas de serem projetadas as opções de financiamento necessárias à implementação de um projeto político nacional.
Resumo:
Esta dissertação enquadra-se em um processo de busca de soluções para a geração do leiaute de circuitos integrados que permitam aumentar a qualidade da previsibilidade do comportamento de um circuito após a sua implementação. Isso é importante face ao crescimento dos problemas referentes aos efeitos elétricos adversos que surgem em nanocircuitos, tais como eletromigração, efeito antena, contatos mal formados e outros, assim como o aumento da variabilidade do processo de fabricação em tecnologias submicrônicas. O foco deste trabalho de pesquisa é a busca de soluções regulares através do uso de matrizes de portas lógicas. A experimentação efetuada realiza a geração de uma matriz de portas NAND que viabiliza a implementação de equações lógicas mapeadas para redes de portas NAND e inversores, admitindo-se a parametrização do fanout máximo. Foi desenvolvida uma ferramenta de CAD, o MARTELO, que permite efetuar a geração automática de matrizes de portas lógicas, sendo que a versão inicial está voltada para a geração de matrizes com portas NAND em tecnologia CMOS. Os experimentos efetuados revelam que esta técnica é promissora, sendo apresentados alguns dos resultados obtidos.
Resumo:
Este trabalho estuda a previsão da taxa de juros com foco em uma estratégia de investimento. Inicialmente é feita a parametrização da taxa de juros com o modelo de Vasicek para posterior aplicação do modelo autorregressivo tanto na taxa de juros quanto nos parâmetros do Vasicek. O instrumento financeiro escolhido para verificar a eficácia da metodologia proposta foi o constant matutity swap aplicado em alguns vértices. Os resultados variaram significativamente para os diferentes horizontes de calibragem e períodos de amostragem sem um padrão de desempenho.
Resumo:
Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.
Resumo:
O presente trabalho relata a parametrização do modelo de contínuo IEF-PCM para o estudo da solvatação de ânions monovalentes em acetonitrila e N,N-dimetilformamida. Nós propomos duas metodologias de parametrização do modelo de contínuo polarizável para este estudo teórico. A primeira proposta é baseada unicamente no cálculo do termo eletrostático da energia livre e na equiparação deste termo com a energia livre de solvatação experimental. Na segunda proposta de metodologia, a parametrização do modelo de contínuo polarizável foi realizada com o auxílio das simulações de dinâmica molecular e dentro desta segunda proposta nós calculamos todos os termos que contribuem para a energia livre de solvatação, a energia de cavitação. a energia eletrostática e a energia de van der Waals. Com a aplicação da primeira metodologia, é obtido um erro médio absoluto de 2,1 kcal/mol nas energias de solvatação dos ânions em acetonitrila enquanto que o erro médio absoluto calculado para energias de solvatação dos ânions em N,N-dimetilformamida é 2,8 kcal/mol. A aplicação da segunda metodologia resulta num erro médio absoluto de 1,4 kcal/mol nas energias de solvatação dos ânions em acetonitrila e um erro médio absoluto de 1,2 kcal/mol nas energias de solvatação calculadas para os ânions em N,N-dimetilformamida. Estes resultados indicam que o modelo de contínuo polarizável IEF-PCM é adequado para o estudo dos efeitos termodinâmicos nas soluções de ânions nos solventes acetonitrila e N,N-dimetilformamida.
Resumo:
No presente trabalho foram avaliados os benefícios da previsão de vazão afluente de curto e longo prazo, na operação de um reservatório com dois usos conflitantes: geração de energia e controle de cheias. A simulação da operação do reservatório foi realizada com base em dois tipos de modelos para avaliar os benefícios da previsão. Um modelo de operação sem previsão e outro com previsão de vazão afluente, este último desenvolvido no presente trabalho. Regras de operação simples, na forma de curvas-guia lineares, foram utilizadas nos casos de operação com e sem previsão de vazões afluentes. As curvas-guia foram otimizadas através de uma técnica de parametrização, simulação e otimização utilizando um algoritmo evolutivo semelhante a um algoritmo genético. Como base para as análises foram utilizados dados relativos ao reservatório de Três Marias, no Rio São Francisco, principalmente pela disponibilidade de previsões reais de vazão de curto prazo a partir de um trabalho prévio. Essas previsões reais de vazão foram calculadas através de um modelo hidrológico distribuído que utiliza como dados de entrada, previsões de chuva do modelo atmosférico regional ETA. Para avaliar o potencial benefício das previsões de vazão na operação do reservatório, foram realizados testes considerando às vazões afluentes observadas como “previsões perfeitas de vazão”. Os resultados com previsões perfeitas de vazão mostram que pode haver um benefício relativo (incremento na geração de energia) de aproximadamente 8% (cerca de 4,77 milhões de dólares anuais), se forem utilizadas previsões de vazão de longo prazo com dois meses de antecedência, e se a operação for planejada com essa mesma antecedência. A operação baseada em previsões de prazos ou horizontes mais curtos apresenta benefícios inferiores, mas ainda assim significativos. Por exemplo, a previsão perfeita com freqüência semanal e horizonte de 12 dias pode trazer um benefício de aproximadamente 4,45% (cerca de 2,75 milhões de dólares anuais). Esses benefícios foram obtidos com o mesmo desempenho no controle de cheias. Posteriormente, foram realizados testes utilizando as previsões reais de vazão. Os benefícios obtidos com as previsões reais de curto prazo são inferiores aos benefícios obtidos com as previsões perfeitas de curto prazo, como era esperado. Entretanto, com as previsões reais de vazão, foram obtidos benefícios superiores a 50% dos que seriam esperados com a previsão perfeita (vazões observadas). Os resultados obtidos são promissores e mostram que há vantagens evidentes na utilização de previsões de chuva para se obter previsões de vazão na operação de reservatórios com usos múltiplos, quando também é associada à otimização sistêmica de um aproveitamento hidrelétrico.
Resumo:
Com o objetivo de estabelecer uma metodologia capaz segregar momentos de mercado e de identificar as características predominantes dos investidores atuantes em um determinado mercado financeiro, este trabalho emprega simulações geradas em um Mercado Financeiro Artificial baseado em agentes, utilizando um Algoritmo Genético para ajustar tais simulações ao histórico real observado. Para tanto, uma aplicação foi desenvolvida utilizando-se o mercado de contratos futuros de índice Bovespa. Esta metodologia poderia facilmente ser estendida a outros mercados financeiros através da simples parametrização do modelo. Sobre as bases estabelecidas por Toriumi et al. (2011), contribuições significativas foram atingidas, promovendo acréscimo de conhecimento acerca tanto do mercado alvo escolhido, como das técnicas de modelagem em Mercados Financeiros Artificiais e também da aplicação de Algoritmos Genéticos a mercados financeiros, resultando em experimentos e análises que sugerem a eficácia do método ora proposto.
Resumo:
The portfolio theory is a field of study devoted to investigate the decision-making by investors of resources. The purpose of this process is to reduce risk through diversification and thus guarantee a return. Nevertheless, the classical Mean-Variance has been criticized regarding its parameters and it is observed that the use of variance and covariance has sensitivity to the market and parameter estimation. In order to reduce the estimation errors, the Bayesian models have more flexibility in modeling, capable of insert quantitative and qualitative parameters about the behavior of the market as a way of reducing errors. Observing this, the present study aimed to formulate a new matrix model using Bayesian inference as a way to replace the covariance in the MV model, called MCB - Covariance Bayesian model. To evaluate the model, some hypotheses were analyzed using the method ex post facto and sensitivity analysis. The benchmarks used as reference were: (1) the classical Mean Variance, (2) the Bovespa index's market, and (3) in addition 94 investment funds. The returns earned during the period May 2002 to December 2009 demonstrated the superiority of MCB in relation to the classical model MV and the Bovespa Index, but taking a little more diversifiable risk that the MV. The robust analysis of the model, considering the time horizon, found returns near the Bovespa index, taking less risk than the market. Finally, in relation to the index of Mao, the model showed satisfactory, return and risk, especially in longer maturities. Some considerations were made, as well as suggestions for further work
Resumo:
This dissertation aims to develop a software applied to a communication system for a wireless sensor network (WSN) for tracking analog and digital variables and control valve of the gas flow in artificial oil s elevation units, Plunger Lift type. The reason for this implementation is due to the fact that, in the studied plant configuration, the sensors communicate with the PLC (Programmable and Logic Controller) by the cables and pipelines, making any changes in that system, such as changing the layout of it, as well as inconveniences that arise from the nature of the site, such as the vicinity s animals presence that tend to destroy the cables for interconnection of sensors to the PLC. For software development, was used communication polling method via SMAC protocol (Simple Medium Access ControlIEEE 802.15.4 standard) in the CodeWarrior environment to which generated a firmware, loaded into the WSN s transceivers, present in the kit MC13193-EVK, (all items described above are owners of Freescale Semiconductors Inc.). The network monitoring and parameterization used in its application, was developed in LabVIEW software from National Instruments. The results were obtained through the observation of the network s behavior of sensors proposal, focusing on aspects such as: indoor and outdoor quantity of packages received and lost, general aspects of reliability in data transmission, coexistence with other types of wireless networks and power consumption under different operating conditions. The results were considered satisfactory, which showed the software efficiency in this communication system
Resumo:
This work proposes a computer simulator for sucker rod pumped vertical wells. The simulator is able to represent the dynamic behavior of the systems and the computation of several important parameters, allowing the easy visualization of several pertinent phenomena. The use of the simulator allows the execution of several tests at lower costs and shorter times, than real wells experiments. The simulation uses a model based on the dynamic behavior of the rod string. This dynamic model is represented by a second order partial differencial equation. Through this model, several common field situations can be verified. Moreover, the simulation includes 3D animations, facilitating the physical understanding of the process, due to a better visual interpretation of the phenomena. Another important characteristic is the emulation of the main sensors used in sucker rod pumping automation. The emulation of the sensors is implemented through a microcontrolled interface between the simulator and the industrial controllers. By means of this interface, the controllers interpret the simulator as a real well. A "fault module" was included in the simulator. This module incorporates the six more important faults found in sucker rod pumping. Therefore, the analysis and verification of these problems through the simulator, allows the user to identify such situations that otherwise could be observed only in the field. The simulation of these faults receives a different treatment due to the different boundary conditions imposed to the numeric solution of the problem. Possible applications of the simulator are: the design and analysis of wells, training of technicians and engineers, execution of tests in controllers and supervisory systems, and validation of control algorithms
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
The interval datatype applications in several areas is important to construct a interval type reusable, i.e., a interval constructor can be applied to any datatype and get intervals this datatype. Since the interval is, of certain form, a set of elements limited for two bounds, left and right, with a order notions, then it s reasonable that interval constructor enclose datatypes with partial order. On the order hand, what we want is work with interval of any datatype like this we work with this datatype then. it s important to guarantee the properties of the datatype when maps to interval of this datatype. Thus, the interval constructor get a theory to parametrized interval type, i.e., a interval with generics parameters (for example rational, real, complex). Sometimes, the interval application in some algebras doesn t guarantee the mainutenance of their properties, for example, when we use interval of real, that satisfies the field properties, it doesn t guarantee the distributivity propertie. A form to surpass this problem Santiago introduced the local equality theory that weakened the notion of strong equality, and thus, allowing some properties are local keeped, what can be discard before. The interval arithmetic generalization aim to apply the interval constructor on ordered algebras weakened for local equality with the purpose of the keep their properties. How the intervals are important in applications with continuous data, it s interesting specify that theory using a specification language that supply a system development using intervals of form disciplined, trustworth and safe. Currently, the algebraic specification language, based in math models, have been use to that intention often. We choose CASL (Common Algebraic Specification Language) among others languages because CASL has several characteristics excellent to parametrized interval type, such as, provide parcialiy and parametrization
Resumo:
This project was developed as a partnership between the Laboratory of Stratigraphical Analyses of the Geology Department of UFRN and the company Millennium Inorganic Chemicals Mineração Ltda. This company is located in the north end of the paraiban coast, in the municipal district of Mataraca. Millennium has as main prospected product, heavy minerals as ilmenita, rutilo and zircon presents in the sands of the dunes. These dunes are predominantly inactive, and overlap the superior portion of Barreiras Formation rocks. The mining happens with the use of a dredge that is emerged at an artificial lake on the dunes. This dredge removes sand dunes of the bottom lake (after it disassembles of the lake borders with water jets) and directs for the concentration plant, through piping where the minerals are then separate. The present work consisted in the acquisition external geometries of the dunes, where in the end a 3D Static Model could be set up of these sedimentary deposits with emphasis in the behavior of the structural top of Barreiras Formation rocks (inferior limit of the deposit). The knowledge of this surface is important in the phase of the plowing planning for the company, because a calculation mistake can do with that the dredge works too close of this limit, taking the risk that fragments can cause obstruction in the dredge generating a financial damage so much in the equipment repair as for the stopped days production. During the field stages (accomplished in 2006 and 2007) topographical techniques risings were used with Total Station and Geodesic GPS as well as shallow geophysical acquisitions with GPR (Ground Penetrating Radar). It was acquired almost 10,4km of topography and 10km of profiles GPR. The Geodesic GPS was used for the data geopositioning and topographical rising of a traverse line with 630m of extension in the stage of 2007. The GPR was shown a reliable method, ecologically clean, fast acquisition and with a low cost in relation to traditional methods as surveys. The main advantage of this equipment is obtain a continuous information to superior surface Barreiras Formation rocks. The static models 3D were elaborated starting from the obtained data being used two specific softwares for visualization 3D: GoCAD 2.0.8 and Datamine. The visualization 3D allows a better understanding of the Barreiras surface behavior as well as it makes possible the execution of several types of measurements, favoring like calculations and allowing that procedures used for mineral extraction is used with larger safety
Resumo:
It is presented an integrated geophysical investigation of the spatial distribution of faults and deformation bands (DB´s) in a faulted siliciclastic reservoir analogue, located in Tucano Basin, Bahia State, northeastern Brazil. Ground Penetrating Radar (GPR) and permeability measurements allowed the analysis of the influence of DB´s in the rock permeability and porosity. GPR data were processed using a suitable flow parametrization in order to highlight discontinuities in sedimentary layers. The obtained images allowed the subsurface detection of DB´s presenting displacements greater that 10 cm. A good correlation was verified between DB´s detected by GPR and those observed in surface, the latter identified using conventional structural methods. After some adaptations in the minipermeameter in order to increase measurement precision, two approaches to measure permeabilities were tested: in situ and in collected cores. The former approach provided better results than the latter and consisted of scratching the outcrop surface, followed by direct measurements on outcrop rocks. The measured permeability profiles allowed to characterize the spatial transition from DB´s to undeformed rock; variation of up to three orders of magnitude were detected. The permeability profiles also presented quasi-periodic patterns, associated with textural and granulometric changes, possibly associated to depositional cycles. Integrated interpretation of the geological, geophysical and core data, provided the subsurface identification of an increase in the DB´s number associated with a sedimentary layer presenting granulometric decrease at depths greater than 8 m. An associated sharp decrease in permeability was also measured in cores from boreholes. The obtained results reveal that radagrams, besides providing high resolution images, allowing the detection of small structures (> 10 cm), also presented a correlation with the permeability data. In this way, GPR data may be used to build upscaling laws, bridging the gap between outcrop and seismic data sets, which may result in better models for faulted reservoirs
Resumo:
In this study, the methodological procedures involved in digital imaging of collapsed paleocaves in tufa using GPR are presented. These carbonate deposits occur in the Quixeré region, Ceará State (NE Brazil), on the western border of the Potiguar Basin. Collapsed paleocaves are exposed along a state road, which were selected to this study. We chose a portion of the called Quixeré outcrop for making a photomosaic and caring out a GPR test section to compare and parameterize the karst geometries on the geophysical line. The results were satisfactory and led to the adoption of criteria for the interpretation of others GPR sections acquired in the region of the Quixeré outcrop. Two grids of GPR lines were acquired; the first one was wider and more spaced and guided the location of the second grid, denser and located in the southern part of the outcrop. The radargrams of the second grid reveal satisfactorily the collapsed paleocaves geometries. For each grid has been developed a digital solid model of the Quixeré outcrop. The first model allows the recognition of the general distribution and location of collapsed paleocaves in tufa deposits, while the second more detailed digital model provides not only the 3D individualization of the major paleocaves, but also the estimation of their respective volumes. The digital solid models are presented here as a new frontier in the study of analog outcrops to reservoirs (for groundwater and hydrocarbon), in which the volumetric parameterization and characterization of geological bodies become essential for composing the databases, which together with petrophysical properties information, are used in more realistic computer simulations for sedimentary reservoirs.