904 resultados para Petróleo Prospecção - Métodos de simulação
Resumo:
Neste trabalho é analisada a relação entre um regulador e uma empresa petrolífera. Há várias incertezas inerentes à essa relação e o trabalho se concentra nos efeitos da assimetria de informação. Fazemos a caracterização da regulação ótima sob informação assimétrica, quando o regulador deve desenhar um mecanismo que induz a firma a revelar corretamente sua informação privada. No caso em que a rma não pode se comprometer a não romper o acordo, mostramos que o regulador pode não implementar o resultado ótimo que é obtido sob informação completa. Nesse caso, o regulador não consegue compartilhar os riscos com a firma de forma ótima. Por fim, é apresentado um exemplo, em que mostramos que a condição de Spence-Mirrlees (SMC) pode não valer. Esse resultado aparece de forma natural no modelo.
Resumo:
This paper uses general equilibrium simulations to explore the role ofresidential mobility in shaping the impact of different types of private school voucher policies. In particular, general vouchers available to all residents in the state are compared to vouchers specifically targeted to either underprivileged school districts or underprivileged households. The simulations are derived from a three-community mo deI of low, middle and high income school districts (calibrated to New York data), where each school district is composed of multiple types of neighborhoods that may vary in house quality as well as the leveI of neighborhood extemalities. Households that differ in both their income and in the ability leveI of their children choose between school districts, between neighborhoods within their school district, and between the local public school or a menu of private school altematives.Local public school quality within a district is endogenously determined bya combination of the average peer quality of public school attending children as well as local property and state income tax supported spending. Financial support (above a required state minimum) is set by local majority rule. Finally, there exists the potential for a private school market composed of competitive schools that face production technologies similar to those ofpublic schools but who set tuition and admissions policies to maximize profits. In tbis model, it is demonstrated that school district targeted vouchers are similar in their impact to non-targeted vouchers but vastIy different from vouchers targeted to low income households. Furthermore, strong migration effects are shown to significantly improve the likely equity consequences of voucher programs.
Resumo:
When estimating policy parameters, also known as treatment effects, the assignment to treatment mechanism almost always causes endogeneity and thus bias many of these policy parameters estimates. Additionally, heterogeneity in program impacts is more likely to be the norm than the exception for most social programs. In situations where these issues are present, the Marginal Treatment Effect (MTE) parameter estimation makes use of an instrument to avoid assignment bias and simultaneously to account for heterogeneous effects throughout individuals. Although this parameter is point identified in the literature, the assumptions required for identification may be strong. Given that, we use weaker assumptions in order to partially identify the MTE, i.e. to stablish a methodology for MTE bounds estimation, implementing it computationally and showing results from Monte Carlo simulations. The partial identification we perfom requires the MTE to be a monotone function over the propensity score, which is a reasonable assumption on several economics' examples, and the simulation results shows it is possible to get informative even in restricted cases where point identification is lost. Additionally, in situations where estimated bounds are not informative and the traditional point identification is lost, we suggest a more generic method to point estimate MTE using the Moore-Penrose Pseudo-Invese Matrix, achieving better results than traditional methods.
Resumo:
O estudo objetivou dimensionar o valor estratégico dos Serious Games e da Gamificação como alternativas pedagógicas em favor do aprendizado sobre Gestão Pública. De cunho exploratório e descritivo, o estudo, visa fornecer algum conhecimento sobre ferramentas alternativas de apoio ao ensino da Gestão Pública, tomando o papel dos jogos digitais como instrumentos contributivos aos educadores. A metodologia aplicada é fenomenológica, pois buscou extrair significados por intermédio dos sujeitos, a fim de obter uma maior compreensão do fenômeno de aprendizagem baseada em jogos digitais. A investigação foi conduzida por pesquisas bibliográficas e de campo, na qual a coleta de dados foi obtida por meio de entrevistas por pautas. Ao todo, a amostra contemplou 18 sujeitos envolvidos com games em educação, baseando-se em três critérios: pesquisa, desenvolvimento e aplicação. Foram analisados artigos e publicações de autores brasileiros, constatando-se a baixa produção sobre o tema, principalmente, de cunho qualitativo sobre ao assunto. Além disso, observou-se uma presença de livros e publicações em língua inglesa muito superior às produções nacionais, por essa razão, a pesquisa buscou ampliar a discussão sobre o tema. Como resultados das entrevistas, foram destacados benefícios cognitivos, pedagógicos, interacionais com base nas teorias interacionistas de Vygotsky e Piaget, nas quais os jogos digitais formam espaços de aprendizagem e interação, cabendo, contudo, aos educadores, a escolha de empregá-los ou não em salas de aula. Os resultados também revelam alguns problemas de implementação, tais como: (1) falta de investimentos em treinamento dos professores, (2) falta de infraestrutura nas instituições de ensino, (3) integração curricular, (4) acesso à infraestrutura/tecnologia em comunidades ribeirinhas fora dos grandes centros urbanos, (5) adequação ao público-alvo, pois nem todos os estudantes se interessam por jogos eletrônicos. Ao final, iniciativas do MEC têm propiciado a busca de novas ferramentas e tecnologias que venham a incrementar as práticas pedagógicas, e nesse sentido, os jogos digitais adequam-se a esta realidade exigida, pois trazem consigo novas reflexões acerca do ensino, do papel dos professores, e de novas possibilidades no ensino de Gestão Pública. O valor estratégico dos games revela-se como uma ferramenta pedagógica propiciadora de espaços de aprendizado alicerçados em: interatividade, imersão e interconectividade, responsáveis por tornarem os aluno sujeitos ativos no processo educacional.
Resumo:
A abordagem de Modelos Baseados em Agentes é utilizada para trabalhar problemas complexos, em que se busca obter resultados partindo da análise e construção de componentes e das interações entre si. Os resultados observados a partir das simulações são agregados da combinação entre ações e interferências que ocorrem no nível microscópico do modelo. Conduzindo, desta forma, a uma simulação do micro para o macro. Os mercados financeiros são sistemas perfeitos para o uso destes modelos por preencherem a todos os seus requisitos. Este trabalho implementa um Modelo de Mercado Financeiro Baseado em Agentes constituído por diversos agentes que interagem entre si através de um Núcleo de Negociação que atua com dois ativos e conta com o auxílio de formadores de mercado para promover a liquidez dos mercados, conforme se verifica em mercados reais. Para operação deste modelo, foram desenvolvidos dois tipos de agentes que administram, simultaneamente, carteiras com os dois ativos. O primeiro tipo usa o modelo de Markowitz, enquanto o segundo usa técnicas de análise de spread entre ativos. Outra contribuição deste modelo é a análise sobre o uso de função objetivo sobre os retornos dos ativos, no lugar das análises sobre os preços.
Resumo:
This master thesis introduces assessment procedures of daylighting performance in office rooms with shaded opening, recommendations for Natal-RN (Latitude 05,47' S, Longitude 35,11' W). The studies assume the need of window exterior shading in hot and humid climate buildings. The daylighting performance analyses are based on simulated results for three levels of illuminance (300,500 e 1000 lux) between 08h00 e 16h00, in rooms with 2,80 m height, 6 m large and 4 m, 6 m e 8 m depths, with a centered single opening, window wall ratio (20%, 40% e 60%), four orientations (North, East, South and West), and two types of sky (clear and partially cloudy). The sky characteristics were statistically determined based on hourly data from INPE-CRN solar and daylighting weather station. The lighting performance is resulted from dynamic computer simulation of 72 models using Troplux 3.12. The simulation results were assessed using a new parameter to quantify the use of interior daylighting, the useful percentage of daylight (PULN), which corresponds to the time fraction with satisfactory light, in accordance with the illuminance design. The passive zone depths are defined based on the PULN. Despite the failures of illuminance data from the weather station, the analyses ratified the high potential of daylighting for shaded rooms. The most influential variables on the lighting performance are the opening size and the illuminance of design, while the orientation is a little influential
Resumo:
In the Hydrocarbon exploration activities, the great enigma is the location of the deposits. Great efforts are undertaken in an attempt to better identify them, locate them and at the same time, enhance cost-effectiveness relationship of extraction of oil. Seismic methods are the most widely used because they are indirect, i.e., probing the subsurface layers without invading them. Seismogram is the representation of the Earth s interior and its structures through a conveniently disposed arrangement of the data obtained by seismic reflection. A major problem in this representation is the intensity and variety of present noise in the seismogram, as the surface bearing noise that contaminates the relevant signals, and may mask the desired information, brought by waves scattered in deeper regions of the geological layers. It was developed a tool to suppress these noises based on wavelet transform 1D and 2D. The Java language program makes the separation of seismic images considering the directions (horizontal, vertical, mixed or local) and bands of wavelengths that form these images, using the Daubechies Wavelets, Auto-resolution and Tensor Product of wavelet bases. Besides, it was developed the option in a single image, using the tensor product of two-dimensional wavelets or one-wavelet tensor product by identities. In the latter case, we have the wavelet decomposition in a two dimensional signal in a single direction. This decomposition has allowed to lengthen a certain direction the two-dimensional Wavelets, correcting the effects of scales by applying Auto-resolutions. In other words, it has been improved the treatment of a seismic image using 1D wavelet and 2D wavelet at different stages of Auto-resolution. It was also implemented improvements in the display of images associated with breakdowns in each Auto-resolution, facilitating the choices of images with the signals of interest for image reconstruction without noise. The program was tested with real data and the results were good
Resumo:
The telecommunications industry has experienced recent changes, due to increasing quest for access to digital services for data, video and multimedia, especially using the mobile phone networks. Recently in Brazil, mobile operators are upgrading their networks to third generations systems (3G) providing to users broadband services such as video conferencing, Internet, digital TV and more. These new networks that provides mobility and high data rates has allowed the development of new market concepts. Currently the market is focused on the expansion of WiMAX technology, which is gaining increasingly the market for mobile voice and data. In Brazil, the commercial interest for this technology appears to the first award of licenses in the 3.5 GHz band. In February 2003 ANATEL held the 003/2002/SPV-ANATEL bidding, where it offered blocks of frequencies in the range of 3.5 GHz. The enterprises who purchased blocks of frequency were: Embratel, Brazil Telecom (Vant), Grupo Sinos, Neovia and WKVE, each one with operations spread in some regions of Brazil. For this and other wireless communications systems are implemented effectively, many efforts have been invested in attempts to developing simulation methods for coverage prediction that is close to reality as much as possible so that they may become believers and indispensable tools to design wireless communications systems. In this work wasm developed a genetic algorithm (GA's) that is able to optimize the models for predicting propagation loss at applicable frequency range of 3.5 GHz, thus enabling an estimate of the signal closer to reality to avoid significant errors in planning and implementation a system of wireless communication
Resumo:
Existem vários métodos de simulação para calcular as propriedades críticas de sistemas; neste trabalho utilizamos a dinâmica de tempos curtos, com o intuito de testar a eficiência desta técnica aplicando-a ao modelo de Ising com diluição de sítios. A Dinâmica de tempos curtos em combinação com o método de Monte Carlos verificou que mesmo longe do equilíbrio termodinâmico o sistema já se mostra insensível aos detalhes microscópicos das interações locais e portanto, o seu comportamento universal pode ser estudado ainda no regime de não-equilíbrio, evitando-se o problema do alentecimento crítico ( critical slowing down ) a que sistema em equilíbrio fica submetido quando está na temperatura crítica. O trabalho de Huse e Janssen mostrou um comportamento universal e uma lei de escala nos sistemas críticos fora do equilíbrio e identificou a existência de um novo expoente crítico dinâmico θ, associado ao comportamento anômalo da magnetização. Fazemos uima breve revisão das transições de fase e fenômeno críticos. Descrevemos o modelo de Ising, a técnica de Monte Carlo e por final, a dinâmica de tempos curtos. Aplicamos a dinâmica de tempos curtos para o modelo de Insing ferromagnéticos em uma rede quadrada com diluição de sítios. Calculamos o expoente dinâmicos θ e z, onde verificamos que existe quebra de classe de universilidade com relação às diferentes concentrações de sítios (p=0.70,0.75,0.80,0.85,0.90,0.95,1.00). calculamos também os expoentes estáticos β e v, onde encontramos pequenas variações com a desordem. Finalmente, apresentamos nossas conclusões e possíveis extensões deste trabalho
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Agronomia (Ciência do Solo) - FCAV
Resumo:
A inovação tecnológica tem sido um dos fatores fundamentais que levam grandes empresas a permanecerem no topo do ranking mundial do mercado globalizado, de acordo com o avanço tecnológico o setor de engenharia tem buscado soluções que ofereçam resultados positivos em prol do crescimento de sua empresa ou organização. Métodos de simulação para avaliação do comportamento mecânico de produtos submetidos a cargas estáticas e cargas dinâmicas são extremamente necessárias para redução dos custos de fabricação dos produtos. O uso de ensaios mecânicos e virtuais é de vital importância para avaliação do produto. O presente trabalho teve como objetivo a utilização da lógica fuzzy em um produto chamado canote do garfo da bicicleta, onde foi analisado além do grau de pertinência variado entre 0 e 1, o grau de veracidade também variado entre 0 e 1, tendo como foco principal o comportamento do produto canote do garfo e sua validação.
Resumo:
Apresentamos três novos métodos estáveis de inversão gravimétrica para estimar o relevo de uma interface arbitrária separando dois meios. Para a garantia da estabilidade da solução, introduzimos informações a priori sobre a interface a ser mapeada, através da minimização de um (ou mais) funcional estabilizante. Portanto, estes três métodos se diferenciam pelos tipos de informação físico-geológica incorporados. No primeiro método, denominado suavidade global, as profundidades da interface são estimadas em pontos discretos, presumindo-se o conhecimento a priori sobre o contraste de densidade entre os meios. Para a estabilização do problema inverso introduzimos dois vínculos: (a) proximidade entre as profundidades estimadas e verdadeiras da interface em alguns pontos fornecidas por furos de sondagem; e (b) proximidade entre as profundidades estimadas em pontos adjacentes. A combinação destes dois vínculos impõe uma suavidade uniforme a toda interface estimada, minimizando, simultaneamente em alguns pontos, os desajustes entre as profundidades conhecidas pelas sondagens e as estimadas nos mesmos pontos. O segundo método, denominado suavidade ponderada, estima as profundidades da interface em pontos discretos, admitindo o conhecimento a priori do contraste de densidade. Neste método, incorpora-se a informação geológica que a interface é suave, exceto em regiões de descontinuidades produzidas por falhas, ou seja, a interface é predominantemente suave porém localmente descontínua. Para a incorporação desta informação, desenvolvemos um processo iterativo em que três tipos de vínculos são impostos aos parâmetros: (a) ponderação da proximidade entre as profundidades estimadas em pontos adjacentes; (b) limites inferior e superior para as profundidades; e (c) proximidade entre todas as profundidades estimadas e um valor numérico conhecido. Inicializando com a solução estimada pelo método da suavidade global, este segundo método, iterativamente, acentua as feições geométricas presentes na solução inicial; ou seja, regiões suaves da interface tendem a tornar-se mais suaves e regiões abruptas tendem a tornar-se mais abruptas. Para tanto, este método atribui diferentes pesos ao vínculo de proximidade entre as profundidades adjacentes. Estes pesos são automaticamente atualizados de modo a acentuar as descontinuidades sutilmente detectadas pela solução da suavidade global. Os vínculos (b) e (c) são usados para compensar a perda da estabilidade, devida à introdução de pesos próximos a zero em alguns dos vínculos de proximidade entre parâmetros adjacentes, e incorporar a informação a priori que a região mais profunda da interface apresenta-se plana e horizontal. O vínculo (b) impõe, de modo estrito, que qualquer profundidade estimada é não negativa e menor que o valor de máxima profundidade da interface conhecido a priori; o vínculo (c) impõe que todas as profundidades estimadas são próximas a um valor que deliberadamente viola a profundidade máxima da interface. O compromisso entre os vínculos conflitantes (b) e (c) resulta na tendenciosidade da solução final em acentuar descontinuidades verticais e apresentar uma estimativa suave e achatada da região mais profunda. O terceiro método, denominado mínimo momento de inércia, estima os contrastes de densidade de uma região da subsuperfície discretizada em volumes elementares prismáticos. Este método incorpora a informação geológica que a interface a ser mapeada delimita uma fonte anômala que apresenta dimensões horizontais maiores que sua maior dimensão vertical, com bordas mergulhando verticalmente ou em direção ao centro de massa e que toda a massa (ou deficiência de massa) anômala está concentrada, de modo compacto, em torno de um nível de referência. Conceitualmente, estas informações são introduzidas pela minimização do momento de inércia das fontes em relação ao nível de referência conhecido a priori. Esta minimização é efetuada em um subespaço de parâmetros consistindo de fontes compactas e apresentando bordas mergulhando verticalmente ou em direção ao centro de massa. Efetivamente, estas informações são introduzidas através de um processo iterativo inicializando com uma solução cujo momento de inércia é próximo a zero, acrescentando, em cada iteração, uma contribuição com mínimo momento de inércia em relação ao nível de referência, de modo que a nova estimativa obedeça a limites mínimo e máximo do contraste de densidade, e minimize, simultaneamente, os desajustes entre os dados gravimétricos observados e ajustados. Adicionalmente, o processo iterativo tende a "congelar" as estimativas em um dos limites (mínimo ou máximo). O resultado final é uma fonte anômala compactada em torno do nível de referência cuja distribuição de constraste de densidade tende ao limite superior (em valor absoluto) estabelecido a priori. Estes três métodos foram aplicados a dados sintéticos e reais produzidos pelo relevo do embasamento de bacias sedimentares. A suavidade global produziu uma boa reconstrução do arcabouço de bacias que violam a condição de suavidade, tanto em dados sintéticos como em dados da Bacia do Recôncavo. Este método, apresenta a menor resolução quando comparado com os outros dois métodos. A suavidade ponderada produziu uma melhoria na resolução de relevos de embasamentos que apresentam falhamentos com grandes rejeitos e altos ângulos de mergulho, indicando uma grande potencialidade na interpretação do arcabouço de bacias extensionais, como mostramos em testes com dados sintéticos e dados do Steptoe Valley, Nevada, EUA, e da Bacia do Recôncavo. No método do mínimo momento de inércia, tomou-se como nível de referência o nível médio do terreno. As aplicações a dados sintéticos e às anomalias Bouguer do Graben de San Jacinto, California, EUA, e da Bacia do Recôncavo mostraram que, em comparação com os métodos da suavidade global e ponderada, este método estima com excelente resolução falhamentos com pequenos rejeitos sem impor a restrição da interface apresentar poucas descontinuidades locais, como no método da suavidade ponderada.