998 resultados para Análise Conjunta de Quadros de Dados


Relevância:

40.00% 40.00%

Publicador:

Resumo:

A proposta deste trabalho é a apresentação de uma metodologia para avaliação de direcionadores de custos que contribua para a análise crítica e, consequentemente, para a melhoria do sistema de custos baseado em atividades. Esta metodologia reúne e aplica conceitos e técnicas que existem de forma isolada. A precisão do sistema de custos, que é função direta da utilização dos direcionadores de custos, é avaliada de duas formas: a partir da análise das distorções provocadas pelo agrupamento de atividades e de recursos, através do equacionamento dos principais elementos que compõem a estrutura do ABC, sem a necessidade de seqüência de dados históricos e, também, através de ferramentas estatísticas, que são utilizadas para avaliar o relacionamento dos custos dos grupos de atividades e recursos com os fatores de consumo de seus direcionadores. A subjetividade da característica de indução ao comportamento do usuário do sistema é analisada com o apoio do método multicriterial AHP, que auxilia na quantificação dos atributos qualitativos. As diversas características como a precisão, a indução ao comportamento e o custo de mensuração do sistema ABC, são avaliadas de forma conjunta, possibilitando a priorização dos direcionadores. A aplicação da metodologia em uma empresa industrial comprova a importância desta avaliação.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A maioria dos estudos de impactos de pólos geradores de viagens são desenvolvidos a partir da adequação de metodologias desenvolvidas em diferentes contextos e disponíveis na literatura. Este trabalho buscou avaliar a adequação de algumas destas propostas, em termos de área de influência, distribuição de viagens e escolha modal, em shopping centers de Porto Alegre. Os dados para análise foram provenientes de uma pesquisa origem e destino realizada recentemente em Porto Alegre por meio de entrevistas domiciliares (EDOM). A partir da comparação dos resultados obtidos na análise de cinco shopping centers, foi possível identificar a relação entre as características dos usuários, da região de entorno e do padrão de viagens dos empreendimentos. Com relação à escolha modal, observou-se que as características do empreendimento, a facilidade de acesso ao pólo pelos diversos modos de transporte disponíveis e os aspectos sócio-econômicos da área de influência são variáveis que podem explicar a escolha do modo utilizado. Para a delimitação da área de influência dos shopping centers, constatou-se que as propostas que utilizam a distância de viagem como critério para definição se mostraram mais realistas do que aquelas que adotam o tempo de viagem como base. Na distribuição de viagens, verificou-se que o perfil econômico dos residentes na área de influência, bem como informações que caracterizem as atividades existentes nas zonas de tráfego são variáveis que podem explicar a distribuição de viagens de shopping centers. Por fim, concluiu-se que o banco de dados da EDOM é uma fonte de dados potencial na análise da demanda de shopping centers.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Trata das estratégias de comunicação governamental adotadas pelas gestões Jânio Quadros e Luiza Erundina para atingir a opinião pública, frente aos índices de aprovação apontados pelas pesquisas de opinião. Apresenta um relato descritivo de ambas as gestões, apontando o seu relacionamento com outros atores presentes no espaço público paulistano. Aborda as diferenças programáticas e ideológicas de cada governante e suas implicações para as políticas de comunicação desenvolvidas. Orienta a análise dos dados empíricos para a discussão dos conceitos de esfera pública, opiruao pública e políticas de comunicação governamentais

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O curso de mestrado profissional em administração (MPA) da Fundação Getúlio Vargas é formatado para profissionais que têm interesse em combinar uma sólida base acadêmica com atividades voltadas para a aplicação prática. O objetivo deste trabalho está alinhado com objetivo do curso ao realizar a aplicação prática dos conceitos da resource-based view das firmas aos resultados dos jogos do campeonato brasileiro com o propósito de identificar quais fatores explicam o desempenho operacional dos times de futebol da primeira divisão, o que irá contribuir para auxiliar os clubes de futebol no Brasil nas suas decisões de investimentos e alocação de recursos financeiros. Ao analisar a qualidade dos jogadores e sua posição relativa em relação ao time, a motivação para o jogo, os fatores "casa" e "camisa", todos considerados recursos valiosos, raros, inimitáveis e operacionalmente utilizáveis, procurar-se-á contribuir para esse processo de decisão de investimentos e construção de vantagens competitivas pelos clubes. Aplicando-se o método de análise multivariada de dados conhecida como regressão linear múltipla, foi possível identificar que existem fatores que influenciam o desempenho dos times independente da sua situação dentro do jogo, seja como mandante como visitante: a posição relativa da qualidade do elenco em relação ao time adversário contribui positivamente e o número de cartões vermelhos contribui negativamente. Ao jogar "em casa", a posição relativa da qualidade dos jogadores do ataque do time mandante em relação aos jogadores da defesa do time visitante contribui positivamente para a vitória do time da "casa". Porém, no caso do time visitante, a posição relativa da qualidade dos jogadores da defesa em relação aos jogadores do ataque do time mandante e a "camisa" (neste caso, apenas se ela "carrega" consigo algum título que dê ao time uma reputação a nível internacional) são os fatores que contribuem positivamente para a vitória. Portanto, a disposição tática dos recursos também é um fator relevante que deve ser considerado em pesquisas futuras. Desta forma, não basta ter os recursos e explorá-los aleatoriamente porque o ambiente de disputa não é estático, assim como não é, de forma análoga, o ambiente de negócios.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O objetivo geral desta tese é estimar a elasticidade-preço da demanda de forma conjunta, decomposta em elasticidade-preço da escolha da marca e da quantidade comprada, e discutir as implicações desta decomposição para uma categoria específica de produto. Para isto foram usados dados escaneados de uma amostra de domicílios no contexto varejista brasileiro. Oito hipóteses foram testadas por meio de dois modelos. O primeiro refere-se à decisão de escolha da marca, em que foi empregado o modelo logit condicional baseado na maximização da utilidade do domicílio. O segundo envolveu equações de demanda, obtidas pelo modelo clássico de regressão linear. Ambos foram especificados de forma que se pudesse testar a dependência das duas decisões de compra. No que diz respeito à validação, o modelo de escolha da marca demonstrou uma satisfatória capacidade de previsão, comparativamente aos modelos analisados na literatura. Implicações gerenciais incluem específicas decisões e ações de preço para as marcas, já que a natureza da decomposição das elasticidades-preço varia entre marcas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho examina hipóteses de microestrutura de mercado nos dados de minicontratos futuros do Ibovespa divulgados em alta frequência pelo sinal de market data da BM&FBOVESPA. Para a análise, foi utilizado o modelo de duração condicional autoregressivo, o qual permite o tratamento estatístico de séries financeiras que possuem distribuição em espaços irregulares de tempo e padrões condicionais ao conjunto de informações disponíveis no mercado. A contribuição deste trabalho reside na validação das premissas sobre microestrutura nos mercados de futuros de índice, que são diferentes dos mercados de ações, pois não existe a figura do formador de mercado, e a literatura global sugere que o efeito da assimetria de informação é insignificante na formação de preços devido à diversificação de ativos dos índices. Em contrapartida, o especulador é o provedor de liquidez neste mercado, e seu papel na intensidade de negociação, volume e spread é avaliado. Os resultados confirmam a relação negativa entre intensidade de negociação, volume e spread e corroboram a tese de que a liquidez de mercado pode ser entendida como o preço pela demanda por execução imediata de negócios.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Neste trabalho buscamos evidências, para o caso brasileiro, da Hipótese da Renda Permanente. Primeiro, investigamos a existência de tendências e ciclos comuns entre as séries de consumo e renda per capita. Então, usando o resultado de co-movimentos entre as variáveis decompomos cada série em tendência e ciclo, através dos modelos de componentes não observados de Harvey (1989). Por fim, usando os modelos de vetores autorregressivos, decompomos a variância dos erros de previsão, seguindo a metodologia de Blanchard e Quah (1989), com o objetivo de avaliarmos a importância relativa dos choques permanentes e transitórios para as variações do consumo. Os resultados apontam que as inovações permanentes são responsáveis pela maior parte das variações no consumo. Este resultado embora rejeite a Hipótese da Renda Permanente, indica que o consumo responde pouco a variações transitórias na renda, ou seja, os choques temporários têm pouca importância para o consumo.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A presente pesquisa visa identificar os fatores que influenciam a inovação tecnológica em micro e pequenas empresas brasileiras, por meio da análise dos dados secundários da Pesquisa de Inovação Tecnológica (PINTEC 2008), conduzida pelo Instituto Brasileiro de Geografia e Estatística (IBGE) junto a 16.371 empresas de ramos industriais e de serviços selecionados. Para tanto, foi feita a modelagem estatística dos microdados relativos à sub-amostra formada pelas 3.092 micro e pequenas empresas inquiridas pela PINTEC 2008. A análise das correlações entre as variáveis que influenciam as inovações e quatro variáveis que caracterizam o tipo e a abrangência das inovações tecnológicas – inovação em produto para o mercado nacional, inovação em produto para o mercado mundial, inovação em processo para o mercado nacional, inovação em processo para o mercado mundial – permitiu selecionar as variáveis independentes mais significativas em termos de influência sobre a ocorrência de inovação em micro e pequenas empresas. Com base nessas mesmas correlações, foram elaboradas regressões logísticas (logit), nas quais as variáveis dependentes escolhidas foram as quatro variáveis caracterizadoras do tipo e da abrangência da inovação acima mencionadas, e as variáveis independentes foram selecionadas dentre aquelas com maior poder explicativo sobre a ocorrência de inovação. Foram tomadas as devidas precauções para evitar a ocorrência de multicolinearidade nas regressões. Os resultados das regressões, analisados à luz da revisão bibliográfica, revelam a importância das variáveis independentes para a ocorrência de inovação em micro e pequenas empresas, e ajudam nas reflexões sobre possíveis melhorias nas políticas de estímulo à inovação tecnológica em micro e pequenas empresas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O estudo do fenômeno cluster, nos últimos 30 anos, sob inúmeras qualificações, tem atraído atenção crescente tanto do meio acadêmico quanto dos responsáveis pelo desenvolvimento de políticas públicas. No entanto, seu ciclo de desenvolvimento ainda é um aspecto pouco explorado. A necessidade em se investigar e compreender o ciclo de desenvolvimento dos clusters é destacada por vários autores. Do ponto de vista das políticas públicas, a importância em se identificar o ciclo de evolução dos clusters, bem como cada um de seus estágios, reside na assertividade das ações por elas proporcionada. A tese é apresentada na forma de três artigos científicos. O primeiro busca determinar a natureza e as dimensões da noção de cluster pela exploração das bases teórico-conceituais de três áreas de conhecimento em que o conceito é mais comumente empregado: a geografia econômica, a administração estratégica e a administração de operações. Além de outras descobertas, os resultados proporcionam uma classificação dos temas de pesquisa ao redor do conceito, bem como das linhas teórico-conceituais que os sustentam. O segundo lida com a questão de como os clusters são identificados. Partindo de algumas limitações das estatísticas da economia regional, em especial do Quociente Locacional (QL), o autor propõe uma abordagem de aplicação conjunta dessas estatísticas com aquelas apresentadas pela Análise Exploratória de Dados Espaciais (AEDE). Os resultados mostram a complementariedade das abordagens, pois parte das limitações da primeira consegue ser resolvida pela segunda, mas, mais importante, conseguem revelar o valor proporcionado pelas estatísticas da AEDE acerca da dinâmica regional. Por fim, o terceiro e último artigo propõe um instrumento de avaliação do ciclo de desenvolvimento dos clusters envolvendo 6 dimensões e 11 elementos de avaliação. A partir dos potenciais clusters identificados no segundo artigo, o instrumento é aplicado sobre três deles. O resultado é a obtenção de uma abordagem simples, conceitualmente coerente, prática e de baixo custo de aplicação.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Segundo Sampaio (2002), os modelos intertemporais de equilíbrio começaram a ter a sua eficácia na determinação do retorno dos ativos questionada após a publicação do artigo de Mehra e Prescott em 1985. Tendo como objeto de análise os dados observados no mercado norte-americano, os autores não foram capazes de reproduzir a média histórica do prêmio do retorno das ações em relação ao retorno dos títulos públicos de curto prazo através de parâmetros comportamentais dentro de intervalos considerados plausíveis. Através das evidências, os autores, então, puderam verificar a necessidade de coeficientes exageradamente altos de aversão ao risco para equiparação do prêmio de risco histórico médio das ações norte-americanas, enigma que ficou conhecido como equity premium puzzle (EPP). Foi possível também a constatação de outro paradoxo: a necessidade de taxas de desconto intertemporais negativas para obtenção da média histórica da taxa de juros, o risk-free rate puzzle (RFP). Este trabalho tem como objetivo adaptar os dados do modelo proposto por Mehra e Prescott (2003) ao mercado brasileiro e notar se os puzzles apresentados anteriormente estão presentes. Testa-se o CCAPM com dados brasileiros entre 1995:1 e 2013:4 adotando preferências do tipo utilidade esperada e através da hipótese de log-normalidade conjunta dos retornos. Utiliza-se o método de calibração para avaliar se há EPP no Brasil. Em linha com alguns trabalhos prévios da literatura nacional, como Cysne (2006) e Soriano (2002) que mostraram a existência do puzzle nos períodos de 1992:1-2004:2 e 1980:1-1998:4, respectivamente, conclui-se que o modelo usado por Mehra e Prescott (2003) não é capaz de gerar o prêmio de risco observado na economia brasileira. Sampaio (2002), Bonomo e Domingues (2002) e Issler e Piqueira (2002), ao contrário, não encontram evidências da existência de um EPP brasileiro.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O Brasil vem aumentando anualmente a sua participação no comércio exterior mundial, mas apesar de seu significado na economia mundial, o seu volume negociado internacionalmente corresponde a somente 1,1% das exportações mundiais de mercadorias (23ª posição no ranking mundial), e 0,6% das exportações de serviços comerciais (35ª posição no ranking mundial), segundo a organização mundial do comércio (WTO, 2005). Na Fase 1 desta pesquisa, que se encerra com este Relatório, foi desenvolvida uma metodologia para a pesquisa e análise de dados relativos às dificuldades enfrentadas pelas empresas brasileiras no processo de exportação de mercadorias. Essa fase incluiu uma ampla revisão da literatura nacional e internacional sobre os fatores que têm impacto sobre o desempenho das exportações e a formulação e pré-teste de um questionário. Na Fase 2 será realizada a pesquisa propriamente dita através da aplicação do questionário a uma amostra de cerca de 1.000 empresas exportadoras, selecionadas no Catálogo de Exportadores Brasileiros da CNI – Confederação Nacional da Indústria. Os dados resultantes da pesquisa serão utilizados para avaliar o impacto dos gargalos no volume das exportações, no valor FOB das exportações e na variação anual do valor FOB, utilizando a técnica multivariada de regressão múltipla.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Os dados de telefonia celular são um instrumento valioso para analisar o comportamento da população urbana, uma vez que informação sobre a mobilidade das pessoas é difícil de obter. Estes podem oferecer estimativas em relação ao deslocamento e à ocupação da população nos espaços públicos, ajudando a elaborar medidas de planejamento urbano mais especificas e eficientes. A fim de examinar a movimentação ao redor da cidade do Rio de Janeiro em dias de grandes eventos, propomos uma metodologia com o objetivo de identificar aspectos desses eventos que permitem conhecer o público e oferecer soluções para os planejadores desenharem estratégias para a organização e segurança desses participantes. Palavras-chaves: mobilidade urbana. dados CDR. eventos públicos. Rio de Janeiro