998 resultados para dados agregados
Resumo:
A implementação da outorga do uso da água no Brasil implica no estabelecimento de um balanço hídrico de disponibilidades quali-quantitativas, que permita, ao gestor do recurso hídrico, determinar se existe possibilidade de incluir algum uso novo na bacia hidrográfica ou se é necessário algum tipo de racionamento do uso da água. Este balanço deve garantir que as vazões necessárias para o abastecimento público e para a manutenção dos ecossistemas aquáticos e ribeirinhos sejam mantidas. Nesta tese, discute-se a evolução da ecologia de rios e sua implicação nas metodologias desenhadas para avaliação de vazões ecológicas, demonstrando-se que metodologias sintonizadas com os avanços teóricos da ecologia de rios somente surgem no final do século XX e início do século XXI. Discute-se, também, a necessidade de desenvolvimento de metodologias constituídas com ancoragem ecológica em situações de carência ou ausência de dados, que compõem a realidade da maior parte da rede hidrográfica brasileira. Propõe-se uma metodologia e apresenta-se um programa (FFTSint) para avaliação da significância de pulsos em análise espectral de séries temporais de vazões diárias, com base em séries sintéticas, partindo-se do pressuposto de que processos adaptativos, manifestados em termos de tipos funcionais de plantas, dependem de um grau de previsibilidade dos pulsos (associada a pulsos significativos) A série de vazões diárias, filtrada com utilização do FFTSint, é o hidrograma significativo, que pode, então ser estudado através de programas como o IHA e Pulso. Aplicou-se esta abordagem metodológica na estação fluviométrica Rosário do Sul, rio Santa Maria, Estado do Rio Grande do Sul, Brasil, onde verificou-se que o hidrograma significativo, está associado às cotas mais baixas da planície de inundação, enquanto que os componentes aleatórios do hidrograma estão associados às cotas mais altas. Discute-se que processos adaptativos estão associados aos componentes previsíveis, enquanto que processos sucessionais estão mais associados aos aleatórios. Esta observação permitiu a construção de um conjunto de limitações ecológicas ao regime de vazões resultantes do uso na bacia hidrográfica, utilizando-se descritores do regime de pulsos da série não filtrada (original) para as cotas mais altas e descritores filtrados com alta significância para as cotas mais baixas.
Resumo:
O objetivo geral desta tese é estimar a elasticidade-preço da demanda de forma conjunta, decomposta em elasticidade-preço da escolha da marca e da quantidade comprada, e discutir as implicações desta decomposição para uma categoria específica de produto. Para isto foram usados dados escaneados de uma amostra de domicílios no contexto varejista brasileiro. Oito hipóteses foram testadas por meio de dois modelos. O primeiro refere-se à decisão de escolha da marca, em que foi empregado o modelo logit condicional baseado na maximização da utilidade do domicílio. O segundo envolveu equações de demanda, obtidas pelo modelo clássico de regressão linear. Ambos foram especificados de forma que se pudesse testar a dependência das duas decisões de compra. No que diz respeito à validação, o modelo de escolha da marca demonstrou uma satisfatória capacidade de previsão, comparativamente aos modelos analisados na literatura. Implicações gerenciais incluem específicas decisões e ações de preço para as marcas, já que a natureza da decomposição das elasticidades-preço varia entre marcas.
Resumo:
Neste trabalho é investigada uma abordagem para extração de feições baseada na otimização da distância de Bhattacharyya em um classificador hierárquico de estrutura binária. O objetivo é mitigar os efeitos do fenômeno de Hughes na classificação de dados imagem hiper-espectrais. A utilização de um classificador em múltiplo-estágio, analisando um sub-conjunto de classes em cada etapa ao invés do conjunto total, permite modos mais eficientes para extrair as feições mais adequadas em cada etapa do procedimento de classificação. Em uma abordagem de árvore binária, somente duas classes são consideradas em cada etapa, permitindo a implementação da distância de Bhattacharyya como um critério para extração de feições em cada nó da árvore. Experimentos foram realizados utilizando dados imagem do sensor AVIRIS. A performance da metodologia proposta é comparada com métodos tradicionais para extração e seleção de feições.
Resumo:
Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.
Resumo:
Esta pesquisa teve como principal objetivo examinar a relação entre Consumo de Energia Elétrica e Renda Familiar nos domicílios do município de São Paulo. Investigou-se a utilidade do consumo de energia elétrica como base para um indicador que possibilite a extensão e o refinamento do Critério de Classificação Econômica Brasil para estimar o poder de compra da população em geral. A pesquisa dividiu-se em dois níveis de investigação. O primeiro, domiciliar, para o qual foram utilizados três conjuntos de dados oriundos de pesquisas domiciliares (Pesquisa ABRADEE, Pesquisa de Posses e Hábitos do PROCEL, e Pesquisa de Microcrédito da Baixa Renda da FGV-EAESP). O segundo nível, territorial, investigou indicadores de renda, consumo de energia elétrica e classe econômica agregados por áreas de ponderação (conjunto de setores censitários), e utilizou microdados do Censo Demográfico 2000 do município de São Paulo em conjunto com a base de domicílios da AES Eletropaulo. A investigação domiciliar mostrou que não há vantagens na substituição plena da aplicação do Critério Brasil pela coleta de indicadores de consumo de energia elétrica em levantamentos domiciliares. No entanto, o uso combinado do Critério Brasil, do valor da conta de luz e do número de pessoas (ou número de dormitórios) no domicílio apresenta benefícios na classificação da renda (os gráficos de ganhos das árvores de classificação combinadas aproximam-se mais da distribuição real da renda, apesar de o coeficiente de explicação da renda aumentar apenas de 0,577 para 0,582). Além disso, ao contrário do que se especulava, para a baixa renda a associação entre renda e consumo de energia elétrica mostrou-se fraca, apesar de o coeficiente de explicação da renda aumentar de 0,222 para 0,300 quando incorporamos o consumo de energia elétrica e o número de pessoas ao modelo de regressão da renda pelo Critério Brasil. Em nível territorial, as relações entre Renda, Consumo de Energia Elétrica e Classificação Econômica do Critério Brasil mostraram-se muito fortes (os coeficientes de explicação da renda atingiram valores de 0,912 a 0,960), permitindo que medidas de consumo médio de energia elétrica agregadas em áreas de ponderação sejam ótimos indicadores regionais de concentração de renda e classificação econômica dos domicílios para o município de São Paulo. Por serem atuais, disponíveis e de atualização mensal, os indicadores de consumo de energia elétrica, quando disponibilizados pelas empresas de distribuição de energia, podem ser de grande utilidade para empresas de mercado, como subsídio a estratégias que necessitem de informações de classificação, concentração e previsão da renda domiciliar.
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
Este estudo parte de um painel de 52 países entre 1990 e 2007 para verificar se o desalinhamento da taxa de câmbio real contribui para explicar a redução da inflação mundial quando comparada à decisão de adoção do Regime de Metas de Inflação por 25 países desta amostra. O modelo Ball-Sheridan (2005) é re-estimado com novos dados e estendido para considerar os fundamentos da taxa de câmbio e o desalinhamento cambial. Verifica-se que a adoção do regime de metas de inflação é relevante para explicar a redução das taxas de inflação, em particular nos países emergentes onde confere credibilidade à política monetária. Não se verifica que o desalinhamento cambial tenha efeito significativo na convergência da inflação mundial.
Resumo:
Este trabalho busca estimar a relação entre a oferta de trabalho, gasto público e transferências diretas no Brasil. Esta estimativa é fundamental para calcular o custo marginal do financiamento do setor público, em um regime de orçamento equilibrado e com provisão de cestas de bens físicos e monetários (Duarte e Mattos, 2008). São levadas em consideração transferências individuais (o Bolsa-Escola, PETI, previdência etc.) como gastos públicos apropriados pelos indivíduos e não como renda involuntária, diferentemente da literatura. Busca-se com isto, separar os efeitos destes gastos apropriados daqueles agregados, em termos de resposta da oferta de trabalho. Usando os dados para o Brasil – PNAD 2004, separamos os gastos agregados e os gastos apropriados pelo governo para estimarmos a resposta da oferta de trabalho. Os resultados sugerem que os gastos públicos (apropriados e não) podem ter um efeito significativo na oferta de trabalho o que implica que devem ser considerados para estimar o custo marginal do financiamento do setor público no Brasil.
Resumo:
Esta dissertação teve como objetivo o estudo e desenvolvimento da técnica de síntese por combustão em solução para obtenção de nanocristais de alumina, e a caracterização desse material por diferentes técnicas. O estudo da obtenção incluiu o modelamento termodinâmico das reações investigadas e a influência da razão combustíveloxidante no tamanho de partícula. A síntese da alumina por combustão foi realizada a partir do par precursor químico glicina-nitrato de alumínio em água, para diferentes razões combustível-oxidante, temperaturas de chama e número total de moles gasosos, relacionando esses parâmetros com tamanho de cristalito no pó, deformação de rede, área superficial e porosidade total. As reações químicas de combustão em solução resultaram na formação in situ de fases metaestáveis de Al2O3 para o pó como-sintetizado. A fase Al2O3-α, cuja formação não ocorreu nem na presença de um extra-oxidante, somente foi obtida após um tratamento térmico a 1100°C do pó como-sintetizado. O modelamento termodinâmico da reação de combustão em solução mostrou que quando a razão combustível-oxidante aumenta, obtém-se uma elevação da temperatura de chama adiabática e da quantidade de gás produzida, definindo características do particulado como morfologia, tamanho de cristalito, área superficial e nível de aglomeração. A caracterização do pó utilizou técnicas como análise termodiferencial (ATD) e termogravimétrica (ATG), granulometria por dispersão de laser (GDL), BET para análise de área superficial e porosidade total, difração de raios X (DRX), microscopia eletrônica de varredura (MEV), e microscopia eletrônica de transmissão (MET). Os pós de alumina alfa obtidos apresentaram-se como constituídos de cristalitos nanométricos, dispostos na forma de agregados de tamanho micrométrico. O tamanho de cristalito médio, calculado pelo método de Williamson-Hall, a partir de dados de análises por DRX, foi de 97 nm, e deformação média calculada de 5x10-3 % A análise granulométrica dos pós como-sintetizados verificou um tamanho de aglomerado de 40 µm, com distribuição monomodal. As análises por MEV e MET confirmaram a aglomeração das partículas do pó como-sintetizado, a partir de partículas com morfologia irregular.
Resumo:
As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.
Resumo:
O objetivo do trabalho é investigar a relação de longo prazo entre capital e inovação, utilizando técnicas econométricas mais recentes, com dados em painel. Diversos testes alternativos de cointegração foram utilizados, como testes com coeficientes comuns e idiossincráticos entre os cross-sections (testes de Pedroni, de Kao e de Fischer), e testes onde a hipótese de cointegração é nula (teste de McCoskey e Kao), incluindo testes com quebras estruturais (teste de Westerlund). As conclusões principais são a evidência forte de que estoque de capital humano afeta de forma significativa o número de inovações. Tabém foram encontradas evidências de que a hierarquia de educação importe para o aumento de inovações.
Resumo:
Com o desenrolar dos processos de competitividade e globalização, novas tecnologias vem sendo desenvolvidas e estão se espalhando com velocidade cada vez maior. Em particular, nos últimos anos, observa-se um elevado número de novos materiais sendo introduzidos nas edificações. A questão é que estes novos materiais apresentam características e comportamentos diferentes e, muitas vezes, ainda pouco conhecidos e estudados. O cimento Portland branco estrutural enquadra-se neste contexto, pois as modificações necessárias na constituição do cimento convencional, para manipular sua cor, acabam por afetar seu comportamento. Diante do crescimento do consumo deste produto nos últimos anos, as pesquisas científicas de concretos à base de cimento branco, que eram raras, foram intensificadas. Com o objetivo de colaborar para a caracterização do comportamento mecânico deste material, montou-se um programa experimental para analisar como a variação de alguns parâmetros básicos, como tipo de agregado graúdo (basalto e calcário), agregado miúdo (areia e calcário), adições de sílica ativa e relação água/aglomerante (0.42, 0.51 e 0.60) afeta a resistência mecânica e o módulo de deformação de concretos brancos produzidos com um dos dois cimentos brancos estruturais disponíveis no Brasil. Além do mais, as obras com utilização de concretos brancos se caracterizam por possuir um forte apelo estético. Neste caso, as exigências tradicionais, como comportamento mecânico e durabilidade, não são suficientes para caracterizar o desempenho do material. Na produção deste tipo de concreto, a cor passa a se constituir em um parâmetro de qualidade crítico, e seu controle é fundamental. A simples utilização de cimento branco não irá necessariamente permitir satisfazer as exigências de cor. A cromaticidade da mistura de concreto dependerá de todos os materiais envolvidos no processo. Neste programa de pesquisa, o controle cromático foi realizado através do método espectrofotométrico, sendo monitorados os parâmetros L*a*b*. Quanto ao comportamento mecânico os resultados foram adequados, não apresentando tendências diferentes daquelas apresentadas por concretos convencionais. Para a análise cromática a estratégia de ensaio se mostrou muito satisfatória, já que os parâmetros medidos conseguiram representar os efeitos que os materiais constituintes produzem na cor final das superfícies de concreto. Os dados coletados indicaram que os agregados calcários são mais adequados para a produção de concretos brancos, sendo de fundamental importância utilizar uma fração muito fina de tonalidade bem clara. A melhoria da durabilidade estética através da aplicação de sistemas de proteção também foi avaliada, indicando que sistemas de proteção hidrofugantes são os que menos alteram os parâmetros cromáticos do concreto branco.
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.
Resumo:
O objetivo do presente trabalho é analisar as características empíricas de uma série de retornos de dados em alta freqüência para um dos ativos mais negociados na Bolsa de Valores de São Paulo. Estamos interessados em modelar a volatilidade condicional destes retornos, testando em particular a presença de memória longa, entre outros fenômenos que caracterizam este tipo de dados. Nossa investigação revela que além da memória longa, existe forte sazonalidade intradiária, mas não encontramos evidências de um fato estilizado de retornos de ações, o efeito alavancagem. Utilizamos modelos capazes de captar a memória longa na variância condicional dos retornos dessazonalizados, com resultados superiores a modelos tradicionais de memória curta, com implicações importantes para precificação de opções e de risco de mercado