344 resultados para Filtragem estocástica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La present Tesi Doctoral, titulada desenvolupament computacional de la semblança molecular quàntica, tracta, fonamentalment, els aspectes de càlcul de mesures de semblança basades en la comparació de funcions de densitat electrònica.El primer capítol, Semblança quàntica, és introductori. S'hi descriuen les funcions de densitat de probabilitat electrònica i llur significança en el marc de la mecànica quàntica. Se n'expliciten els aspectes essencials i les condicions matemàtiques a satisfer, cara a una millor comprensió dels models de densitat electrònica que es proposen. Hom presenta les densitats electròniques, mencionant els teoremes de Hohenberg i Kohn i esquematitzant la teoria de Bader, com magnituds fonamentals en la descripció de les molècules i en la comprensió de llurs propietats.En el capítol Models de densitats electròniques moleculars es presenten procediments computacionals originals per l'ajust de funcions densitat a models expandits en termes de gaussianes 1s centrades en els nuclis. Les restriccions físico-matemàtiques associades a les distribucions de probabilitat s'introdueixen de manera rigorosa, en el procediment anomenat Atomic Shell Approximation (ASA). Aquest procediment, implementat en el programa ASAC, parteix d'un espai funcional quasi complert, d'on se seleccionen variacionalment les funcions o capes de l'expansió, d'acord als requisits de no negativitat. La qualitat d'aquestes densitats i de les mesures de semblança derivades es verifica abastament. Aquest model ASA s'estén a representacions dinàmiques, físicament més acurades, en quant que afectades per les vibracions nuclears, cara a una exploració de l'efecte de l'esmorteïment dels pics nuclears en les mesures de semblança molecular. La comparació de les densitats dinàmiques respecte les estàtiques evidencia un reordenament en les densitats dinàmiques, d'acord al que constituiria una manifestació del Principi quàntic de Le Chatelier. El procediment ASA, explícitament consistent amb les condicions de N-representabilitat, s'aplica també a la determinació directe de densitats electròniques hidrogenoides, en un context de teoria del funcional de la densitat.El capítol Maximització global de la funció de semblança presenta algorismes originals per la determinació de la màxima sobreposició de les densitats electròniques moleculars. Les mesures de semblança molecular quàntica s'identifiquen amb el màxim solapament, de manera es mesuri la distància entre les molècules, independentment dels sistemes de referència on es defineixen les densitats electròniques. Partint de la solució global en el límit de densitats infinitament compactades en els nuclis, es proposen tres nivells de aproximació per l'exploració sistemàtica, no estocàstica, de la funció de semblança, possibilitant la identificació eficient del màxim global, així com també dels diferents màxims locals. Es proposa també una parametrització original de les integrals de recobriment a través d'ajustos a funcions lorentzianes, en quant que tècnica d'acceleració computacional. En la pràctica de les relacions estructura-activitat, aquests avenços possibiliten la implementació eficient de mesures de semblança quantitatives, i, paral·lelament, proporcionen una metodologia totalment automàtica d'alineació molecular. El capítol Semblances d'àtoms en molècules descriu un algorisme de comparació dels àtoms de Bader, o regions tridimensionals delimitades per superfícies de flux zero de la funció de densitat electrònica. El caràcter quantitatiu d'aquestes semblances possibilita la mesura rigorosa de la noció química de transferibilitat d'àtoms i grups funcionals. Les superfícies de flux zero i els algorismes d'integració usats han estat publicats recentment i constitueixen l'aproximació més acurada pel càlcul de les propietats atòmiques. Finalment, en el capítol Semblances en estructures cristal·lines hom proposa una definició original de semblança, específica per la comparació dels conceptes de suavitat o softness en la distribució de fonons associats a l'estructura cristal·lina. Aquests conceptes apareixen en estudis de superconductivitat a causa de la influència de les interaccions electró-fonó en les temperatures de transició a l'estat superconductor. En aplicar-se aquesta metodologia a l'anàlisi de sals de BEDT-TTF, s'evidencien correlacions estructurals entre sals superconductores i no superconductores, en consonància amb les hipòtesis apuntades a la literatura sobre la rellevància de determinades interaccions.Conclouen aquesta tesi un apèndix que conté el programa ASAC, implementació de l'algorisme ASA, i un capítol final amb referències bibliogràfiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A radiossensibilidade de crianças, muito superior à dos adultos, aliada à elevada utilização de exames radiológicos, justifica a preocupação com as doses à entrada da pele (DEP) e doses efectivas (DEF) durante exames radiológicos pediátricos. Neste trabalho quantificou-se a DEP e a DEF em sistemas convencionais e digitais em exames abdominais em crianças dos 0-15 anos, comparando os parâmetros físicos utilizados com os estipulados pelos critérios de boas práticas. Em 35 exames, verificou-se uma diferença estatisticamente significativa (p=0.025) entre DEP convencional (522.78 μGy) e digital (35.29 μGy), o que não ocorreu com a DEF (48.89 vs. 41.35 μGy). Os valores de DEP em sistema convencional ultrapassavam os de referência para os grupos etários de 1-4 (477.5 vs. 400 μGy) e 15 anos (2260 vs. 1200 μGy).A maior parte dos critérios de boas práticas estavam em conformidade com os critérios internacionais, excepto a utilização de filtragem (superior ao recomendado), a utilização inadequada de grelha e a utilização (não recomendada) de controlo automático de exposição em crianças com idade inferior a 5 anos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis tiene por objetivo desarrollar un Modelo de Evaluación Crediticia para Proyectos de Construcción, mediante la aplicación de un Flujo de Efectivo que permita realizar una evaluación estocástica pronosticando los posibles resultados de Capacidad de Pago del Proyecto, Tasa Interna de Retorno, Valor Actual Neto de la Inversión y el Porcentaje de Avance de Preventas. Estos elementos son los que ayudarán al Comité de Crédito de la Entidad Financiera a tomar la decisión sobre el otorgamiento o no de la operación crediticia. Además proporcionarán información relevante que permita establecer la estructura más adecuada en garantías, que mitiguen y comprometan a los promotores/constructores a la adecuada ejecución del proyecto. El capítulo 1 consta de un análisis de la Oferta y Demanda de vivienda en Quito, así como la identificación de las variables que intervendrán en el modelo de evaluación. En el capítulo 2 se elabora el marco conceptual sobre los temas más relevantes que intervendrán en el modelo de evaluación, con la finalidad de familiarizar al lector de ciertos conceptos teóricos empleados en él. Para el capítulo 3 se realiza un análisis de las variables financieras y la determinación de la viabilidad del proyecto. El capítulo 4 se refiere al análisis del carácter de los promotores y recomienda una serie de herramientas de administración del crédito. Finalmente el capítulo 5 consta de las recomendaciones y conclusiones relacionados con los temas tratados en la presente tesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestión del riesgo de liquidez es fundamental en las instituciones de seguridad social como el ISSFA -más aún cuando sus fuentes de ingreso dependen exclusivamente de la caja fiscal-, cuyo fondo de liquidez estructurado con parte de sus reservas, se mantienen en inversiones en el sistema financiero con rendimientos reales negativos por aplicación normativa del Banco Central. La presente investigación de carácter descriptivo, analiza el comportamiento de las prestaciones y del fondo de liquidez en el periodo 2012-2014, identificando ineficiencias en el uso de los recursos producto de la metodología presupuestaria utilizada para determinar el monto del fondo, por lo que se plantea la aplicación de modelos como el VaR Paramétrico, VaR Histórico y de volatilidad condicional GARCH, para el cálculo del máximo requerimiento de liquidez como base para la definición de un fondo óptimo. Se aplican los modelos sobre la serie de diferencias logarítmicas de los pagos diarios de la prestación de salud del periodo 2010-2014, que presenta alta volatilidad afectada por la naturaleza estocástica de la contingencia que genera la prestación y por factores de riesgo operativo, siendo necesario un ajuste a la fórmula del VaR por cuanto no se calcula la máxima pérdida esperada sino el máximo requerimiento de liquidez. El VaR Paramétrico y el VaR Histórico no generan resultados consistentes sobreestimado el requerimiento de liquidez. El VaR calculado con la esperanza y varianza estimados con el modelo GARCH, tiene un mejor ajuste con los datos reales ya que captura eventos de alta y baja volatilidad, permite reducir en un 84,3% el nivel de excedentes de liquidez observado en el periodo 2012-2014 en la seguridad social militar lo que favorecería la capitalización de sus reservas, siendo una base adecuada para la determinación del fondo de liquidez tomando como referencia el valor mínimo del coeficiente de cobertura de liquidez que recomienda el Comité de Basilea para la gestión del riesgo de liquidez, por lo que se recomienda el uso de este modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A argila é uma matéria-prima básica nos processos de fabricação de pisos e azulejos. Especificações industriais devem ser cumpridas para sua utilização como componente das formulações cerâmicas. A homogeneidade é vital. Nos depósitos minerais fonte desse material, as características cerâmicas da argila, sua representatividade, variabilidade e interação com a geologia local precisam ser bem conhecidas, a fim de propriamente quantificá-la e classificá-la de forma georeferenciada. Isso consubstancia a tomada de decisões mineiras relacionadas. Essa dissertação apresenta uma alternativa metodológica de avaliação de recursos geológicos e reservas recuperáveis de argila cerâmica, em uma perspectiva probabilística. Métodos geoestatísticos como krigagem e simulação estocástica são aplicados em suporte de blocos de lavra. Recursos geológicos ocorrentes nos diversos setores de um depósito estudado são estimados acuradamente. Em sua porção mais favorável reservas recuperáveis são avaliadas, sob critérios cerâmicos e de seletividade mineira, tomados separadamente e em conjunto, em escala global e local Para o estudo de caso apresentado, duas propriedades cerâmicas pós-queima são consideradas, absorção d’água e retração linear, além da espessura do horizonte argiloso. Modelos de cenários extremos e medianos de reservas são construídos, flexibilizando a apreciação do quadro geral obtido, e permitindo assim maior segurança na condução de decisões e eventuais operações mineiras. Comparativos com métodos tradicionalmente utilizados na avaliação deste tipo de depósitos, em suas diversas fases, comprovam as vantagens da metodologia proposta, a qual permite, além da quantificação e classificação cerâmica de reservas, uma incorporação de margem de riscos nas predições realizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a crescente popularização dos microcomputadores e da rede mundial de informação, Internet, uma enorme variedade e quantidade de informações estão se tornando acessíveis a um número cada vez maior de pessoas. Desta forma, também cresce a importância de se extrair a informação útil que está no grande conjunto das informações disponibilizadas. Hoje há muito mais dados na forma de textos eletrônicos do que em tempos passados, mas muito disto é ignorado. Nenhuma pessoa pode ler, entender e sintetizar megabytes de texto no seu cotidiano. Informações perdidas, e conseqüentemente oportunidades perdidas, estimularam pesquisas na exploração de várias estratégias para a administração da informação, a fim de estabelecer uma ordem na imensidão de textos. As estratégias mais comuns são recuperação de informações, filtragem de informações e outra relativamente nova, chamada de extração de informações. A extração de informações tem muitas aplicações potenciais. Por exemplo, a informação disponível em textos não-estruturados pode ser armazenada em bancos de dados tradicionais e usuários podem examiná-las através de consultas padrão. Para isso, há um complexo trabalho de gerenciamento, que é conseqüência da natureza não estruturada e da difícil análise dos dados. Os dados de entrada, que são os textos semi ou não-estruturados, são manipulados por um processo de extração configurado através de bases de conhecimento criadas pelo usuário do sistema. Esta dissertação tem como objetivo a definição de uma linguagem, com base em uma arquitetura de múltiplos níveis, para extrair satisfatoriamente as informações desejadas pelo usuário, presentes em bases de dados textuais. Também faz parte deste trabalho a implementação de um protótipo que utiliza a linguagem proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em fontes de nêutrons por spallation para pesquisa de materiais, o comprimento de onda dos nêutrons é geralmente determinado pelos tempos de percurso (TOF) dos nêutrons desde a fonte até o detector. A precisão atingível é limitada pelo fato de o tempo de emissão do pulso característico do sistema alvo/moderador ser diferente de zero (a situação ideal fictícia seria a emissão se ocorresse na forma de um impulso). “Moderadores acoplados” (elementos usados para produzir feixes de alta intensidade com nêutrons de baixa energia) apresentam um decaimento de intensidade em função do tempo muito longo, ao longo de todo o espectro usado nos experimentos. Por este motivo, “moderadores desacoplados”, os quais produzem feixes com intensidade mais reduzida, são freqüentemente usados para instrumentos que requerem alta resolução. Neste trabalho, propusemos e analisamos uma nova técnica de filtragem dinâmica de feixes de nêutrons polarizados de baixa energia para experimentos que utilizam TOF na determinação do comprimento de onda. O dispositivo consiste de um sistema ótico polarizador/analisador e um inversor de spin seletivo em energia, o qual funciona por ressonância espacial do spin. Variando a condição de ressonância em sincronia com a estrutura temporal do pulso de nêutrons (através do controle de campos magnéticos), o filtro pode ajustar a resolução de energia (ou de comprimento de onda) de pulsos de banda larga em tais experimentos, separando os nêutrons com a correta relação “TOF/comprimento de onda” dos demais Um método para o cálculo de desempenho do sistema foi apresentado em um Trabalho Individual (TI) (PARIZZI et al., 2002 - i), do qual se fará aqui uma breve revisão além de amplo uso na otimização dos parâmetros a serem ajustados para o projeto do filtro. Os resultados finais mostram que ganhos consideráveis em resolução podem ser obtidos com a aplicação desta técnica em experimentos de reflectometria por tempo de percurso, sem que para tal seja necessário comprometer a intensidade do feixe usado pelo mesmo instrumento quando operado em um modo de baixa resolução, dando ao usuário do instrumento a opção de escolher a relação ótima entre intensidade e resolução para seu experimento. Como parte da conclusão desta dissertação, é apresentada uma proposta de parâmetros para a construção deste tipo de filtro e previsão de desempenho da configuração proposta, baseada no software de modelamento desenvolvido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentado um método para medição de deslocamentos sem contato, utilizando sensores magnetoresistivos, os quais são sensibilizados pela variação do campo magnético produzido por um imã permanente em deslocamento no espaço. Os sensores magnetoresistivos possuem, internamente, uma ponte de Wheathestone, onde a resistência varia conforme varia o campo magnético, de modo que o circuito mais indicado para este caso é um amplificador e um filtro para cada sensor. O principal objetivo do trabalho é a obtenção de uma técnica para medir deslocamentos sem contato, e estender os resultados para medida de movimentos mandibulares. A montagem consiste de duas placas de celeron, distantes 30mm uma da outra e unidas por parafusos de polietileno. Em cada uma destas placas foram dispostos quatro sensores, num total de oito, sendo que para cada um deles existe um circuito de amplificação e filtragem do sinal de saída. Sob uma chapa de alumínio foi fixado este equipamento e uma mesa de calibração em 3D, a qual, após a obtenção da matriz de calibração, foi substituída por um emulador de movimento mandibular. Os parâmetros do modelo foram estimados através do método dos mínimos quadrados com auxílio do software Matlab, Release 12. Este software também foi utilizado para o sistema de aquisição de dados durante a realização dos experimentos. A imprecisão dos resultados obtidos na determinação dos deslocamentos, está na ordem de décimos de milímetros. O trabalho apresenta, também, o mapeamento do campo magnético do magneto utilizado nos experimentos através do software FEM2000 – Método de elementos finitos aplicado ao eletromagnetismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A sondagem com SPT ("Standard Penetration Test") é o método de investigação com mais freqüência empregado na caracterização geotécnica de solos. Devido a relevância desse tipo de ensaio, desenvolveu-se um procedimento para geração de mapas de SPT com base em métodos geoestatísticos. Esses mapas devem conter a estimativa do índice de penetração (SPT) em diferentes posições no terreno em estudo, partindo de ensaios pré-existentes, objetivando auxiliar de maneira mais efetiva o planejamento de obras de engenharia. O trabalho foi baseado em um banco de dados com 141 sondagens realizadas na cidade de Passo Fundo/RS, compreendendo uma área total de 4,16km2. O banco de dados compreende sondagens de uma única empresa (o que minimiza os erros decorrentes da própria sondagem SPT) e uma única unidade geotécnica. Essas informações foram utilizadas para a avaliação do comportamento espacial dos parâmetros modelados e, posteriormente, construção de mapas de SPT. As estimativas foram efetuadas por krigagem ordinária em blocos com dimensões de 100mx100m, em quatro níveis distintos definidos de acordo com a variação média do índice de penetração com a profundidade Os mapas resultantes da krigagem ordinária revelaram-se satisfatórios para o fim a que se destina esse trabalho. Para a avaliação desses mapas, é relevante que se quantifiquem as incertezas associadas a essas estimativas. A metodologia para tal é baseada em Simulação Geoestatística, onde foram efetuadas simulações seqüenciais Gaussianas (ssG), em blocos de mesma dimensão que a utilizada na krigagem. Os resultados positivos mostraram ser adequado o emprego da simulação seqüencial Gaussiana, para geração de mapas auxiliares de valores de SPT a serem empregados no planejamento de investigações geotécnicas complementares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Novas centrais térmicas utilizam carvão ROM (Run of mine) na sua alimentação. Sem o processamento do minério as flutuações de qualidade do carvão serão transferidas da mina para o consumidor final. Freqüentemente, contratos entre produtor-consumidor estabelecem limites pré-estabelecidos de parâmetros geológicos e tecnológicos como enxofre, cinzas e poder calorífico. Lotes de minério com qualidade fora dos limites estabelecidos podem ser rejeitados ou penalizados. O custo elevado dessas penalizações recomenda a homogeneização do minério ROM. As principais estratégias de homogeneização são as baseadas em técnicas geoestatísticas, as pilhas de homogeneização e as usinas de beneficiamento ou metalúrgicas. A estratégia de homogeneização baseada em técnicas geoestatísticas apresenta os menores custos de implementação, no entanto o conhecimento do depósito deverá ser fundamental. Tradicionalmente, essa estratégia de homogeneização utiliza um modelo de blocos gerado por um estimador tradicional, geralmente krigagem ordinária. A estimativa dos blocos por krigagem não considera a incerteza associada ao modelo geológico, não sendo adequada para prever flutuações locais Diferente da krigagem, os métodos de simulação geoestatística têm como objetivo reproduzir a variabilidade in situ e a continuidade espacial dos dados originais. Uma vez que os teores e sua variabilidade são estimados, flutuações da qualidade do minério podem ser previstas para determinada rota de lavra e certo tamanho de lote entregue ao consumidor. Diferentes tamanhos de lote são testados a fim de obter-se o controle das flutuações da qualidade do minério. Este trabalho apresenta um procedimento para acessar a variabilidade dos teores e predizer a sua flutuabilidade para diferentes tamanhos de lote em um estudo de mineração subterrânea de carvão no sul do Brasil. Simulação geoestatística e planejamento de lavra apropriado proporcionam uma solução para o problema de homogeneização de minérios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No processo de classificação de uma imagem digital, o atributo textura pode ser uma fonte importante de informações. Embora o processo de caracterização da textura em uma imagem seja mais difícil, se comparado ao processo de caracterização de atributos espectrais, sabe-se que o emprego daquele atributo pode aumentar significativamente a exatidão na classificação da imagem. O objetivo deste trabalho de pesquisa consiste em desenvolver e testar um método de classificação supervisionado em imagens digitais com base em atributos de textura. O método proposto implementa um processo de filtragem baseado nos filtros de Gabor. Inicialmente, é gerado um conjunto de filtros de Gabor adequados às freqüências espaciais associadas às diferentes classes presentes na imagem a ser classificada. Em cada caso, os parâmetros utilizados por cada filtro são estimados a partir das amostras disponíveis, empregando-se a transformada de Fourier. Cada filtro gera, então, uma imagem filtrada que quantifica a freqüência espacial definida no filtro. Este processo resulta em um certo número de imagens filtradas as quais são denominadas de "bandas texturais". Desta forma, o problema que era originalmente unidimensional passa a ser multi-dimensional, em que cada pixel passa a ser definido por um vetor cuja dimensionalidade é idêntica ao número de filtros utilizados. A imagem em várias "bandas texturais" pode ser classificada utilizando-se um método de classificação supervisionada. No presente trabalho foi utilizada a Máxima Verossimilhança Gaussiana. A metodologia proposta é então testada, utilizandose imagens sintéticas e real. Os resultados obtidos são apresentados e analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo analisa a série de consumo agregado do Brasil. Como usual, investigamos, primeiramente, a aplicabilidade da hipótese do passeio aleatório do consumo, derivada teoricamente a partir das hipóteses de ciclo de vida/renda permanente e expectativas racionais (TRP). Utilizando a decomposição de Beveridge e Nelson (1981) verificamos que o consumo apresenta, além de uma tendência estocástica, uma parte cíclica estacionária, o que não é compatível com a TRP. Este resultado está em conformidade com o resultado de Reis et alii (1998) de que grande parte da população brasileira está restrita a consumir sua renda corrente, existindo um ciclo comum entre consumo e renda. Em uma tentativa de gerar um processo estocástico para o consumo compatível com a evidência empírica introduzimos formação de hábito nas preferências de um consumidor representativo. No entanto, o processo daí derivado não se mostrou significativo diante da possibilidade dos consumidores serem restritos à liquidez.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O artigo é dividido em duas partes: a primeira tem por fim apresentar um modelo básico de determinaçio de preços de ativos e definir o que vem a ser uma oportunidade de arbitragem. Na segunda parte é analisado inicialmente o mercado a termo, mostrando como o preço do ativo é determinado neste mercado por arbitragem. Depois é analisado o mercado futuro, mostrando como seu preço é determinado por arbitragem no caso de termos taxa de juros não estocástica, e nalisada a relação entre o preço de certo ativo no mercado a termo e no mercado futuro e o papel das expectativas. Finalmente apresentamos um procedimento alternativo para a determinação de preços no mercado futuro, que é o modelo de média-variância