996 resultados para Econometria de dados em painel
Resumo:
Analisa a indústria de informações comerciais, dando maior ênfase ao segmento de bancos de dados. Baseia-se principalmente em dados dos mercados norte-americano e europeu. Apresenta o correto uso das informações gerenciais como estratégia empresarial duradoura, apoiada na exploração das inovações tecnológicas, conhecidas como tecnologias de informação (TI). Discute ainda a transferência de poder dos ofertantes e distribuidores da informação para os usuários, fazendo com que as necessidades e desejos destes últimos prevaleçam e se imponham
Resumo:
Esta dissertação examina soluções para o controle estatístico em sistemas de produção que utilizam meios contínuos, onde freqüentemente os dados de análise apresentam o fenômeno da autocorrelação. A princípio são abordadas as técnicas de CEP tradicional (gráficos de Shewhart) para meios discretos, mostrando-se que estas técnicas não dão o resultado esperado quando utilizadas em processos contínuos, tanto em relação à amostragem como ao problema da autocorrelação. Em seguida são apresentadas outras soluções baseadas em técnicas mais recentes como EWMA e modelos autorregressivos, que tem uma melhor performance em meios contínuos. Damos os aspectos teóricos e exemplos de aplicação de cada solução obtida por consulta bibliográfica. Finalmente, é feita uma simulação comparativa das soluções citadas, baseandose em programação de macros e uso de software, para verificar o escopo e desempenho das soluções, sendo dadas recomendações sobre o seu uso, bem como sugestões para futuras pesquisas.
Resumo:
Efetua uma análise sobre a Amplitude dos Problemas de Comunicação Intraorganizacional entre a Estrutura de Processamento de Dados e o restante de uma Organização e determina suas possíveis causas, com base no Modelo de Empresa como um Sistema Sócio-Técnico Aberto. Para tal fim: consulta-se não só bibliografia tradicional norte-americana como também brasileira e japonesa; adota-se uma postura tanto quanto eclética e também menos ortodoxa, sem no entanto se ter a pretensão de polemizar.
Resumo:
Trata-se de uma pesquisa de campo que abrange 21 empresas, onde se procurou identificar estruturas de dados comuns nos modelos de dados das mesmas. A base teórica para o trabalho são os conceitos de abstração existentes na literatura de Projeto de Banco de Dados, agregação (é-parte-de) e generalização (é-um). Foram identificadas aplicações destes conceitos, mas a pesquisa também mostra que ainda há poucas ferramentas disponíveis para implementação dos mesmos e pouca familiaridade dos técnicos com os conceitos
Resumo:
Esta dissertação procura mostrar uma metodologia de apuração e distribuição de custos de sistemas e processamento de dados e sua integração em controles gerenciais de conglomerados financeiros, através da exploração de um modelo de avaliação econômica por centro de responsabilidade.
Resumo:
Trata-se de uma revisão bibliográfica sobre Marketing com banco de dados, que é o marketing auxiliado por um banco de dados de clientes. No varejo, depois do advento da automação comercial, muitas empresas passaram a possuir um grande banco de dados de seus clientes com as mais variadas informações. Através de alguns exemplos enfatiza-se como aspectos conceituais estão relacionados com os casos práticos apresentados
Resumo:
Os processamentos de imagens orbitais efetuados através de técnicas de sensoriamento remoto geraram informações qualitativas de natureza textural (morfo-estruturas). Estas permitiram (1) o reconhecimento de áreas com diferentes padrões estruturais tendo diferentes potencialidades para a prospecção de fluorita, (2) a identificação de novos lineamentos estruturais potencialmente favoráveis à mineralização e (3) evidenciaram prolongamentos extensos para as principais estruturas mineralizadas, (4) às quais se associam um grande número de estruturas, antes desconhecidas, com grande potencial prospectivo. O aprimoramento de técnicas de classificação digital sobre produtos de razões de bandas e análise por componentes principais permitiu identificar a alteração hidrotermal associada às estruturas, incorporando novos critérios para a prospecção de fluorita. Buscando-se quantificar os dados de alteração hidrotermal, foi efetuada a análise espectrorradiométrica das rochas do distrito fluorítico. Integrando estas informações com dados TM LANDSAT 5, em nível de reflectância, obteve-se a classificação espectral das imagens orbitais, o que permitiu a identificação de estruturas menores com um detalhe nunca antes obtido. Os processamentos de dados aerogeofísicos forneceram resultados sobre estruturas (magnetometria) e corpos graníticos afetados por alteração hidrotermal (aerogamaespectrometria). Estes produtos foram integrados com dados TM LANDSAT 5 associando o atributo textural da imagem orbital ao comportamento radiométrico das rochas. Diagnosticou-se o lineamento Grão-Pará como o principal prospecto do distrito. E levantaram-se uma série de dados sobre a compartimentação tectônica da região, a zonação de fácies das rochas graníticas (rocha fonte do flúor) e as alterações hidrotermais associadas ao magmatismo granítico. Isto permitiu a compreensão da distribuição regional dos depósitos de fluorita, adicionando-se um novo critério à prospecção de fluorita, a relação espacial entre a mineralização e a rocha fonte de F. Esta última corresponde à fácies granítica da borda do Maciço Pedras Grandes.
Resumo:
A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.
Resumo:
O curso de mestrado profissional em administração (MPA) da Fundação Getúlio Vargas é formatado para profissionais que têm interesse em combinar uma sólida base acadêmica com atividades voltadas para a aplicação prática. O objetivo deste trabalho está alinhado com objetivo do curso ao realizar a aplicação prática dos conceitos da resource-based view das firmas aos resultados dos jogos do campeonato brasileiro com o propósito de identificar quais fatores explicam o desempenho operacional dos times de futebol da primeira divisão, o que irá contribuir para auxiliar os clubes de futebol no Brasil nas suas decisões de investimentos e alocação de recursos financeiros. Ao analisar a qualidade dos jogadores e sua posição relativa em relação ao time, a motivação para o jogo, os fatores "casa" e "camisa", todos considerados recursos valiosos, raros, inimitáveis e operacionalmente utilizáveis, procurar-se-á contribuir para esse processo de decisão de investimentos e construção de vantagens competitivas pelos clubes. Aplicando-se o método de análise multivariada de dados conhecida como regressão linear múltipla, foi possível identificar que existem fatores que influenciam o desempenho dos times independente da sua situação dentro do jogo, seja como mandante como visitante: a posição relativa da qualidade do elenco em relação ao time adversário contribui positivamente e o número de cartões vermelhos contribui negativamente. Ao jogar "em casa", a posição relativa da qualidade dos jogadores do ataque do time mandante em relação aos jogadores da defesa do time visitante contribui positivamente para a vitória do time da "casa". Porém, no caso do time visitante, a posição relativa da qualidade dos jogadores da defesa em relação aos jogadores do ataque do time mandante e a "camisa" (neste caso, apenas se ela "carrega" consigo algum título que dê ao time uma reputação a nível internacional) são os fatores que contribuem positivamente para a vitória. Portanto, a disposição tática dos recursos também é um fator relevante que deve ser considerado em pesquisas futuras. Desta forma, não basta ter os recursos e explorá-los aleatoriamente porque o ambiente de disputa não é estático, assim como não é, de forma análoga, o ambiente de negócios.
Resumo:
A implementação da outorga do uso da água no Brasil implica no estabelecimento de um balanço hídrico de disponibilidades quali-quantitativas, que permita, ao gestor do recurso hídrico, determinar se existe possibilidade de incluir algum uso novo na bacia hidrográfica ou se é necessário algum tipo de racionamento do uso da água. Este balanço deve garantir que as vazões necessárias para o abastecimento público e para a manutenção dos ecossistemas aquáticos e ribeirinhos sejam mantidas. Nesta tese, discute-se a evolução da ecologia de rios e sua implicação nas metodologias desenhadas para avaliação de vazões ecológicas, demonstrando-se que metodologias sintonizadas com os avanços teóricos da ecologia de rios somente surgem no final do século XX e início do século XXI. Discute-se, também, a necessidade de desenvolvimento de metodologias constituídas com ancoragem ecológica em situações de carência ou ausência de dados, que compõem a realidade da maior parte da rede hidrográfica brasileira. Propõe-se uma metodologia e apresenta-se um programa (FFTSint) para avaliação da significância de pulsos em análise espectral de séries temporais de vazões diárias, com base em séries sintéticas, partindo-se do pressuposto de que processos adaptativos, manifestados em termos de tipos funcionais de plantas, dependem de um grau de previsibilidade dos pulsos (associada a pulsos significativos) A série de vazões diárias, filtrada com utilização do FFTSint, é o hidrograma significativo, que pode, então ser estudado através de programas como o IHA e Pulso. Aplicou-se esta abordagem metodológica na estação fluviométrica Rosário do Sul, rio Santa Maria, Estado do Rio Grande do Sul, Brasil, onde verificou-se que o hidrograma significativo, está associado às cotas mais baixas da planície de inundação, enquanto que os componentes aleatórios do hidrograma estão associados às cotas mais altas. Discute-se que processos adaptativos estão associados aos componentes previsíveis, enquanto que processos sucessionais estão mais associados aos aleatórios. Esta observação permitiu a construção de um conjunto de limitações ecológicas ao regime de vazões resultantes do uso na bacia hidrográfica, utilizando-se descritores do regime de pulsos da série não filtrada (original) para as cotas mais altas e descritores filtrados com alta significância para as cotas mais baixas.
Resumo:
O objetivo geral desta tese é estimar a elasticidade-preço da demanda de forma conjunta, decomposta em elasticidade-preço da escolha da marca e da quantidade comprada, e discutir as implicações desta decomposição para uma categoria específica de produto. Para isto foram usados dados escaneados de uma amostra de domicílios no contexto varejista brasileiro. Oito hipóteses foram testadas por meio de dois modelos. O primeiro refere-se à decisão de escolha da marca, em que foi empregado o modelo logit condicional baseado na maximização da utilidade do domicílio. O segundo envolveu equações de demanda, obtidas pelo modelo clássico de regressão linear. Ambos foram especificados de forma que se pudesse testar a dependência das duas decisões de compra. No que diz respeito à validação, o modelo de escolha da marca demonstrou uma satisfatória capacidade de previsão, comparativamente aos modelos analisados na literatura. Implicações gerenciais incluem específicas decisões e ações de preço para as marcas, já que a natureza da decomposição das elasticidades-preço varia entre marcas.
Resumo:
Neste trabalho é investigada uma abordagem para extração de feições baseada na otimização da distância de Bhattacharyya em um classificador hierárquico de estrutura binária. O objetivo é mitigar os efeitos do fenômeno de Hughes na classificação de dados imagem hiper-espectrais. A utilização de um classificador em múltiplo-estágio, analisando um sub-conjunto de classes em cada etapa ao invés do conjunto total, permite modos mais eficientes para extrair as feições mais adequadas em cada etapa do procedimento de classificação. Em uma abordagem de árvore binária, somente duas classes são consideradas em cada etapa, permitindo a implementação da distância de Bhattacharyya como um critério para extração de feições em cada nó da árvore. Experimentos foram realizados utilizando dados imagem do sensor AVIRIS. A performance da metodologia proposta é comparada com métodos tradicionais para extração e seleção de feições.
Resumo:
Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
Resumo:
Com o crescente uso das teorias e métodos vindos das áreas de economia regional e urbana, economia e econometria espacial na fronteira entre as áreas de economia e políticas públicas, estudar esse arcabouço teórico e metodológico torna-se relevante no campo da análise de políticas públicas. O objetivo geral dessa dissertação é discutir de modo crítico aspectos da literatura de econometria espacial e sua aplicabilidade, com especial foco na comparação entre os diferentes modelos e matrizes de ponderação espacial. Esse estudo procura analisar diferentes formas de medidas que permitem a construção de uma matriz de ponderação espacial, bem como testar por meio de simulação experimental e em uma aplicação empírica a robustez de algumas dessas matrizes e de diferentes modelos. Dadas as indicações da literatura e as evidências mostradas nessa dissertação, a estratégia mais confiável para a busca de um modelo parece ser utilizar as estimativas dos modelos, em conjunto com as estatísticas de Moran, para identificar presença de algum tipo de correlação espacial, e do teste LM da variável dependente, para indicar esse tipo de correlação especificamente. Observa-se que, de modo geral, não há muita diferença em termos de esperança dos parâmetros não espaciais, quando comparadas a estimações tradicionais com as que utilizam as técnicas espaciais. Com isso, a indicação que se pode fazer é que o uso das ferramentas de econometria espacial deve ser aplicado quando o interesse da análise é justamente na estimação dos parâmetros de correlação espacial. Comparando o uso da matriz de contigüidade no lugar da matriz de distâncias, é possível notar que a matriz de contigüidade não é, de forma geral, uma boa substituição para a matriz de distâncias. Ela capta parcialmente o efeito de rho e lambda, além de captar erroneamente lambda, quando este inexiste.