989 resultados para Grevillea robusta (Cunn.)
Resumo:
Point pattern matching in Euclidean Spaces is one of the fundamental problems in Pattern Recognition, having applications ranging from Computer Vision to Computational Chemistry. Whenever two complex patterns are encoded by two sets of points identifying their key features, their comparison can be seen as a point pattern matching problem. This work proposes a single approach to both exact and inexact point set matching in Euclidean Spaces of arbitrary dimension. In the case of exact matching, it is assured to find an optimal solution. For inexact matching (when noise is involved), experimental results confirm the validity of the approach. We start by regarding point pattern matching as a weighted graph matching problem. We then formulate the weighted graph matching problem as one of Bayesian inference in a probabilistic graphical model. By exploiting the existence of fundamental constraints in patterns embedded in Euclidean Spaces, we prove that for exact point set matching a simple graphical model is equivalent to the full model. It is possible to show that exact probabilistic inference in this simple model has polynomial time complexity with respect to the number of elements in the patterns to be matched. This gives rise to a technique that for exact matching provably finds a global optimum in polynomial time for any dimensionality of the underlying Euclidean Space. Computational experiments comparing this technique with well-known probabilistic relaxation labeling show significant performance improvement for inexact matching. The proposed approach is significantly more robust under augmentation of the sizes of the involved patterns. In the absence of noise, the results are always perfect.
Resumo:
Este trabalho examinou as características de carteiras compostas por ações e otimizadas segundo o critério de média-variância e formadas através de estimativas robustas de risco e retorno. A motivação para isto é a distribuição típica de ativos financeiros (que apresenta outliers e mais curtose que a distribuição normal). Para comparação entre as carteiras, foram consideradas suas propriedades: estabilidade, variabilidade e os índices de Sharpe obtidos pelas mesmas. O resultado geral mostra que estas carteiras obtidas através de estimativas robustas de risco e retorno apresentam melhoras em sua estabilidade e variabilidade, no entanto, esta melhora é insuficiente para diferenciar os índices de Sharpe alcançados pelas mesmas das carteiras obtidas através de método de máxima verossimilhança para estimativas de risco e retorno.
Resumo:
Nesta tese estudamos os efeitos de diluição simétrica gradual das conexões entre neurônios e de ruído sináptico sobre a habilidade de categorização de padrões no modelo de Hopfield de redes neurais, mediante a teoria de campo médio com simetria de réplicas e simulações numéricas. Utilizamos generalizações da regra de aprendizagem de Hebb, para uma estrutura hierárquica de padrões correlacionados em dois níveis, representando os ancestrais (conceitos) e descendentes (exemplos dos conceitos). A categorização consiste no reconhecimento dos conceitos por uma rede treinada unicamente com exemplos dos conceitos. Para a rede completamente conexa, obtivemos os diagramas de fases e as curvas de categorização para vários níveis de ruído sináptico. Observamos dois comportamentos distintos dependendo do parâmetro de armazenamento. A habilidade de categorização é favorecida pelo ruído sináptico para um número finito de conceitos, enquanto que para um número macroscópico de conceitos este favorecimento não é observado. Entretanto a performance da rede permanece robusta contra o ruído sináptico. No problema de diluição simétrica consideramos apenas um número macroscópico de conceitos, cada um com um número finito de exemplos. Os diagramas de fases obtidos exibem fases de categorização, de vidro de spin e paramagnética, bem como a dependência dos parâmetros de ordem com o número de exemplos, a correlação entre exemplos e conceitos, os ruídos sináptico e estocástico, e a conectividade. A diluição favorece consideravelmente a categorização, particularmente no limite de diluição extrema.
Resumo:
Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.
Resumo:
Este trabalho apresenta a estruturação de um controle difuso, para a automação de reatores seqüenciais em batelada (RSB), no processo de remoção biológica de matéria orgânica e nitrogênio em águas residuárias domésticas, utilizando parâmetros inferenciais, pH, ORP e OD, em que as variáveis controladas foram as durações da reação aeróbia e anóxica. O experimento, em escala de bancada, foi composto por dois reatores seqüenciais em batelada, com volume útil de 10 L, no qual 6 L foram alimentados com esgoto sintético, com características de águas residuárias domésticas. O sistema de automação foi composto pela aquisição dos parâmetros eletroquímicos (pH, ORP e OD), pelos dispositivos atuadores (motor-bomba, aerador e misturador) e pelo controle predeterminado ou difuso. O programa computacional CONRSB foi implementado de forma a integrar o sistema de automação. O controle difuso, implementado, foi constituído pelos procedimentos de: normalização, nebulização, inferência, desnebulização e desnormalização. As variáveis de entrada para o controlador difuso, durante o período: aeróbio foram dpH/dt, dpH/d(t-1) e o pH ; anóxico foram dORP/dt, dORP/d(t-1) e o OD. As normalizações das variáveis crisps estiveram no universo de [0,1], utilizando os valores extremos do ciclo 1 ao 70. Nas nebulizações foram aplicadas as funções triangulares, as quais representaram, satisfatoriamente, as indeterminações dos parâmetros. A inferência nebulosa foi por meio da base heurística (regras), com amparo do especialista, em que a implicação de Mamdani foi aplicada Nessas implicações foram utilizadas dezoito expressões simbólicas para cada período, aeróbio e anóxico. O método de desnebulização foi pelo centro de áreas, que se mostrou eficaz em termos de tempo de processamento. Para a sintonia do controlador difuso empregou-se o programa computacional MATLAB, juntamente com as rotinas Fuzzy logic toolbox e o Simulink. O intervalo entre as atuações do controlador difuso, ficou estabelecido em 5,0 minutos, sendo obtido por meio de tentativas. A operação do RSB 1, durante os 85 ciclos, apresentou a relação média DBO/NTK de 4,67 mg DBO/mg N, sendo classificado como processo combinado de oxidação de carbono e nitrificação. A relação média alimento/microrganismo foi de 0,11 kg DBO/kg sólido suspenso volátil no licor misto.dia, enquadrando nos sistemas com aeração prolongada, em que a idade do lodo correspondeu aos 29 dias. O índice volumétrico do lodo médio foi de 117,5 mL/g, indicando uma sedimentação com características médias. As eficiências médias no processo de remoção de carbono e nitrogênio foram de 90,8% (como DQO) e 49,8%, respectivamente. As taxas específicas médias diárias, no processo de nitrificação e desnitrificação, foram de 24,2g N/kg SSVLM.dia e 15,5 g N/kg SSVLM.dia, respectivamente. O monitoramento, em tempo real, do pH, ORP e OD, mostrou ter um grande potencial no controle dos processos biológicos, em que o pH foi mais representativo no período aeróbio, sendo o ORP e o OD mais representativos no período anóxico. A operação do RSB com o controlador difuso, apresentou do ciclo 71 ao 85, as eficiências médias no processo de remoção de carbono e nitrogênio de 96,4% (como DQO) e 76,4%, respectivamente. A duração média do período aeróbio foi de 162,1 minutos, que tomando como referência o período máximo de 200,0 minutos, reduziu em 19,0% esses períodos. A duração média do período anóxico foi de 164,4 minutos, que tomando como referência o período máximo de 290,0 minutos, apresentou uma redução de 43,3%, mostrando a atuação robusta do controlador difuso. O estudo do perfil temporal, no ciclo 85, mostrou a atuação efetiva do controlador difuso, associada aos pontos de controle nos processos biológicos do RSB. Nesse ciclo, as taxas máximas específicas de nitrificação e desnitrificação observadas, foram de 32,7 g NO3 --N/kg sólido suspenso volátil no licor misto.dia e 43,2g NO3 --N/kg sólido suspenso volátil no licor misto.dia, respectivamente.
Resumo:
O objetivo deste trabalho é investigar se a relação entre a taxa de câmbio spot e o fluxo de ordens deriva do fato do fluxo agregar informações a respeito dos fundamentos econômicos dispersos na economia. Para efetuar este teste foi utilizada uma base de dados que engloba todas as transações dos segmentos comercial e financeiro no mercado cambial primário brasileiro entre janeiro de 1999 e maio de 2008. Mostramos que o fluxo de ordens foi razoavelmente capaz de explicar variações nas expectativas de inflação, relação que não se manteve robusta para escolha de outros fundamentos, como PIB e Produção Industrial.
Resumo:
Este trabalho tem por objetivo avaliar em que medida a taxa de câmbio real é um condicionante importante para a evolução do quantum exportado brasileiro. Para tanto, é testada a existência de alguma relação entre variações na taxa de câmbio real e variações no quantum exportado, a saber, relação de causalidade no sentido de Granger em qualquer direção e correlação simultânea dos choques que afetam tais séries, conforme o método sugerido por Gourieroux e Jasiak (2001). Não foi possível obter evidência forte de relação entre a taxa de câmbio real e o quantum exportado em termos agregados para o período analisado (1977 a 2009). Entretanto, para várias desagregações e destinos foi possível detectar a existência de pelo menos uma destas relações entre a taxa de câmbio real e quantum exportado. Em particular, para o caso dos bens básicos, não há evidência de relação robusta entre as variáveis pesquisadas. O mesmo vale para bens intermediários. Já para os bens finais – bens de capital, de consumo de bens duráveis e não duráveis – a evidência de relação entre a taxa de câmbio e o quantum é mais forte. Como conclusão, o trabalho sugere que a taxa de câmbio, embora não tenha efeitos significativos em termos agregados, pode gerar importantes efeitos sobre a composição das exportações.
Resumo:
Neste trabalho apresentamos evidência sobre os efeitos da alfabetização de adultos na renda e probabilidade de empregos dos indivíduos. Os dados longitudinais disponibilizados pela Pesquisa Mensal de Emprego (PME) permitem controlar os efeitos fixos não-observáveis dos indivíduos gerando uma estimação mais robusta e consistente dos efeitos analisados. De modo geral, os resultados deste trabalho indicam retorno de 9,3% em rendimentos para indivíduos que se alfabetizam. Mostramos evidência que sugerem que esse efeito no salário se deve a acréscimos de produtividade e não por um aumento na formalização dos trabalhadores alfabetizados. Ademais, observamos que o efeito na renda é mais proeminente em certos grupos de indivíduos: mulheres, residentes de Salvador e pessoas entre 45 e 60 anos
Resumo:
Com o desenvolvimento de materiais mais resistentes, técnicas construtivas mais modernas e a crescente valorização dos terrenos nos centros das grandes cidades, criou-se um ambiente propício à construção de edificações mais altas, leves, flexíveis, menos amortecidas, e, portanto, mais susceptíveis a problemas associados à resposta dinâmica frente à ação do vento. Em algumas situações, quando há ressonância, a parcela flutuante da resposta estrutural devido à ação do vento pode chegar a representar 2/3 da resposta total. Os métodos analíticos atualmente existentes para determinação da resposta flutuante induzida pela ação do vento geralmente conduzem a resultados pouco confiáveis. Em vista desse fato, os ensaios em túnel de vento ainda são a ferramenta mais precisa e robusta para o estudo do comportamento dinâmico de estruturas civis. Este trabalho apresenta o desenvolvimento de um suporte flexível para ensaios de modelos aeroelásticos de estruturas alteadas, visando a determinação da parcela flutuante da resposta à ação do vento nos dois modos fundamentais de vibração livre (flexão em duas direções ortogonais). Este suporte pode ser empregado em testes de modelos de diferentes geometrias, e permite que, com grande facilidade, sejam ajustados o amortecimento estrutural, rigidez e inércia, individualmente em cada direção. Com o objetivo de verificar o correto funcionamento do equipamento e a validade dos resultados por ele obtidos, foram realizados testes com um modelo do edifício alto padrão “CAARC Standard Tall Building”. No trabalho são apresentados e discutidos os resultados dos ensaios, realizados no Túnel de Vento Professor Joaquim Blessmann, da Universidade Federal do Rio Grande do Sul.
Resumo:
Neste artigo, foi estimada a taxa natural de juros para a economia brasileira entre o final de 2001 e segundo trimestre de 2010 com base em dois modelos, sendo o primeiro deles o proposto por Laubach e Williams e o segundo proposto por Mesónnier e Renne, que trata de uma versão alterada do primeiro, que segundo os autores perimite uma estimação mais transparente e robusta. Em ambos os modelos, a taxa natural de juros é estimada em conjunto com o produto potencial, através de filtro de Kalman, no formato de um modelo Espaço de Estado. As estimativas provenientes dos dois modelos não apresentam diferenças relevantes, o que gera maior confiabilidade nos resultados obtidos. Para o período de maior interesse deste estudo (pós-2005), dada a existência de outras análises para período anterior, as estimativas mostram que a taxa natural de juros está em queda na economia brasileira desde 2006. A mensuração da taxa natural de juros, adicionalmente, possibilitou que fosse feita uma avaliação sobre a condução da política monetária implementada pelo Banco Central brasileiro nos últimos anos através do conceito de hiato de juros. Em linhas gerais, a análise mostrou um Banco Central mais conservador entre o final de 2001 e 2005, e mais próximo da neutralidade desde então. Esta conclusão difere da apontada por outros estudos, especialmente para o primeiro período.
Resumo:
Neste artigo, foi estimada a taxa natural de juros para a economia brasileira entre o final de 2001 e segundo trimestre de 2010 com base em dois modelos, sendo o primeiro deles o proposto por Laubach e Williams e o segundo proposto por Mesónnier e Renne, que trata de uma versão alterada do primeiro, que segundo os autores perimite uma estimação mais transparente e robusta. Em ambos os modelos, a taxa natural de juros é estimada em conjunto com o produto potencial, através de filtro de Kalman, no formato de um modelo Espaço de Estado. As estimativas provenientes dos dois modelos não apresentam diferenças relevantes, o que gera maior confiabilidade nos resultados obtidos. Para o período de maior interesse deste estudo (pós-2005), dada a existência de outras análises para período anterior, as estimativas mostram que a taxa natural de juros está em queda na economia brasileira desde 2006. A mensuração da taxa natural de juros, adicionalmente, possibilitou que fosse feita uma avaliação sobre a condução da política monetária implementada pelo Banco Central brasileiro nos últimos anos através do conceito de hiato de juros. Em linhas gerais, a análise mostrou um Banco Central mais conservador entre o final de 2001 e 2005, e mais próximo da neutralidade desde então. Esta conclusão difere da apontada por outros estudos, especialmente para o primeiro período.
Resumo:
Brasil e outros mercados emergentes continuarão a apresentar muitas oportunidades de investimento nos próximos anos. Profissionais financeiros que gerenciam os processos de orçamento de capital nas empresas terão grandes desafios a enfrentar. Características específicas destes projetos como preços ligados a commodities (por exemplo: petróleo e gás e projetos agrícolas) e as incertezas habituais relacionadas com os mercados emergentes são desafios adicionais. Neste cenário, ferramentas mais sofisticadas de orçamento de capital como Opções Reais, oferece uma teoria mais robusta para lidar com incerteza, flexibilidade gerencial, e os resultados voláteis embutidas nestas oportunidades. A teoria de Opções Reais assume que o envolvimento dos gestores nos projetos gera valor à medida que potencializam os bons resultados ou reduzem as perdas por abandonar projetos com maus resultados. O objetivo principal desta pesquisa foi aplicar a análise de Opções Reais para um projeto de investimento e discutir o processo e os resultados da metodologia. O estudo de caso analisa retroativamente um projeto de investimento na Colômbia e compara os resultados sob o tradicional VPL e Opções Reais. As técnicas de avaliação foram realizadas como se estivessem sendo aplicadas no momento em que o projeto foi aprovado, e depois comparadas com o desempenho real do projeto. O estudo de caso avaliado possui dois tipos de Opções Reais: primeiro, o efeito de uma opção para cancelar um contrato que é analisado a partir da perspectiva do cliente que pode exercer essa opção, e o segundo, a opção de abandonar e adiar a partir da perspectiva da empresa que irá executar a investimento.
Resumo:
Este trabalho tem como objetivo abordar as estruturas de financiamento de sondas de perfuração de poços de petróleo, tendo sido duas opções selecionadas para serem discutidas: o uso de empréstimos bancários e o uso de Project Bonds. O trabalho sugere uma estrutura híbrida de financiamento que tem sido usada no Brasil desde 2010 para sondas de perfuração de poços de petróleo, mas de forma não planejada, sem uma análise mais robusta dos fatores que podem interferir na escolha de uma opção em detrimento da outra. Se por um lado as restrições ao financiamento bancário de longo prazo estão aumentando, principalmente devido à adoção das regras da Basiléia III, logo isso tende a diminuir a preferência dos bancos por financiamentos de longo prazo. Por outro lado, o investidor institucional tem buscado diversificar seus investimentos de longo prazo, principalmente após a diminuição das taxas de juros nos países desenvolvidos (Europa e América do Norte). O momento atual é favorável para a discussão desta temática, portanto, o trabalho analisa de forma crítica o cenário e as opções mais utilizadas de financiamento e sugere uma alternativa de financiamento das sondas usadas na perfuração de poços para exploração de petróleo. Para tanto, foi realizado um estudo de caso, onde foi feita uma simulação de financiamento de uma sonda de perfuração do tipo drillship usando duas estruturas de financiamento: a primeira foi um empréstimo bancário via Project Finance e a segunda foi um empréstimo bancário via Project Finance pelo período de construção e um Project Bond após o período de construção pelo prazo remanescente. Em seguida foi feita uma análise quantitativa de algumas variáveis (taxa Treasury e risco de crédito da Petrobrás) que podem impactar as duas opções de estrutura de financiamento com o objetivo de fazer inferências sobre quais considerações os indivíduos tomadores de decisão do mercado, tais como o banco e o investidor institucional, precisam analisar antes de contratar a construção de uma sonda. Esta análise contribuirá para aumentar a previsibilidade na escolha da alternativa de financiamento de forma a proporcionar ao empreendedor a opção de financiamento mais barata antecipadamente e para que ele não precise esperar o período de construção acabar para optar em continuar no empréstimo bancário ou emitir um Project Bond. Se o empreendedor souber como essas duas variáveis se comportam durante o período de construção, poderá optar pela alternativa de financiamento mais barata no momento da estruturação do empréstimo inicial, economizando dinheiro devido ao fato de o período de empréstimo ser menor (o empréstimo seria apenas pelo período de construção) e, consequentemente, teria taxas de juros menores, quanto pelos custos adicionais cobrados em duplicidade (durante a estruturação do empréstimo e depois durante a emissão do Project Bond) que poderiam ser cobrados considerando a operação como um todo.
Resumo:
Esta pesquisa (i) caracteriza o processo de transformação estrutural, (ii) quantifica o seu impacto sobre o crescimento da produtividade agregada do trabalho e (iii) investiga os determinantes do crescimento da produtividade induzido pela transformação estrutural através de um extensivo estudo econométrico. Encontrou-se que, em média, a transformação estrutural desempenhou um papel importante para o crescimento da produtividade agregada em países em desenvolvimento. Em particular, a realocação de trabalhadores entre setores foi capaz de explicar, em média, cerca de 50% do crescimento da produtividade agregada em países da América Latina até a década de oitenta. Dessa década em diante, a tranformação estrutural deixou de contribuir para o crescimento da produtividade nessa região. Esse retrocesso estaria relacionado com a retração de atividades de produtividade relativamente alta, como a indústria de transformação, e com o inchaço do setor de serviços. Em oposição à Mcmillan & Rodrik (2011), os resultados encontrados apontaram para uma relação nula ou muito fraca e, certamente, pouco robusta entre a taxa real de câmbio e o componente estrutural de crescimento da produtividade.
Resumo:
Uma ferramenta importante na avaliação de políticas econômicas é a estimação do efeito médio de um programa ou tratamento sobre uma variável de interesse. Em geral, a atribuição do tratamento aos potenciais participantes não é aleatória, o que pode causar viés de seleção quando desconsiderada. Uma maneira de resolver esse problema é supor que o econometrista observa um conjunto de características determinantes, a menos de um componente estritamente aleatório, da participação. Sob esta hipótese, existem na literatura estimadores semiparamétricos do efeito médio do tratamento que são consistentes e capazes de atingir, assintoticamente, o limite de e ciência semiparamétrico. Entretanto, nas amostras freqüentemente disponíveis, o desempenho desses métodos nem sempre é satisfatório. O objetivo deste trabalho é estudar como a combinação das duas estratégias pode produzir estimadores com melhores propriedades em amostras pequenas. Para isto, consideramos duas formas de integrar essas abordagens, tendo como referencial teórico a literatura de estimação duplamente robusta desenvolvida por James Robins e co-autores. Analisamos suas propriedades e discutimos por que podem superar o uso isolado de cada uma das técnicas que os compõem. Finalmente, comparamos, num exercício de Monte Carlo, o desempenho desses estimadores com os de imputação e reponderação. Os resultados mostram que a combinação de estratégias pode reduzir o viés e a variância, mas isso depende da forma como é implementada. Concluímos que a escolha dos parâmetros de suavização é decisiva para o desempenho da estimação em amostras de tamanho moderado.