998 resultados para Aquisições de dados
Resumo:
No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.
Resumo:
Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.
Resumo:
A implementação de técnicas estatísticas, como modelos de regressão, permite conhecer os efeitos dos fatores sobre a característica de qualidade de um produto, contribuindo na melhoria da qualidade de produtos e processos. O objetivo desta dissertação consiste em elaborar um método que oriente à modelagem de dados mensurados em proporção, levando em consideração a classificação das variáveis dependentes e independentes, com enfoque no Modelo de Regressão Beta e no Modelo de Quaseverossimilhança. O método é ilustrado com um estudo em uma empresa curtidora da região do Vale do Rio dos Sinos no Rio Grande do Sul. A modelagem realizada neste estudo referiuse a proporção de produtos refugados no processo de produção por erro de classificação. Os Modelos de Regressão Beta e de Quase-verossimilhança apresentaram bom ajuste e mostraram-se adequados na modelagem da proporção de produtos por erros de classificação. Esses modelos podem ser estendidos a todos os processos industriais que envolvam a produção de produtos não conformes às especificações de fabricação (defeituosos). O método elaborado apresentou facilidade de entendimento e clareza dos passos para a escolha dos modelos de regressão usados na modelagem de dados mensurados em proporção.
Resumo:
Este trabalho pretende identificar a mudança nas práticas de gestão de carreira de uma empresa que passou por fusões e aquisições. A pesquisa foi conduzida com base no estudo de caso único do Banco Itaú S.A. no período que compreende desde a privatização dos Bancos Estatais até a fusão com o Banco Unibanco no ano de 2009, o que formou o maior Banco privado do Brasil. A justificativa para esse trabalho é contribuir para o conhecimento sobre as práticas de carreiras nas empresas e sobre as influências exercidas pelo ambiente estratégico sobre essas práticas. O referencial teórico utilizado partiu do conceito inicial de carreiras, a abordagem dos novos modelos e as práticas de carreiras adotadas por outras empresas. Realizou-se uma pesquisa qualitativa, adotando-se como estratégia o estudo de caso único. Os instrumentos de coleta dos dados foram a pesquisa documental e entrevistas com funcionários da empresa, e para a análise dos dados foi utilizada a análise de conteúdo. Os resultados obtidos mostraram que as políticas de carreira seguem os movimentos estratégicos da empresa e acompanham os movimentos de mercado. As pessoas entrevistadas percebem de modo similar o modelo de gestão de carreiras adotado pela organização e os papeis e responsabilidades da empresa, gestores e colaboradores no processo.
Resumo:
O presente trabalho busca trazer evidências sobre criação de valor em fusões e aquisições ocorridas mercado brasileiro de serviços de telecomunicações. Para tanto, foi realizado um estudo de eventos com 16 transações ocorridas entre 2003 e 2009, calculando-se os retornos anormais acumulados das ações das empresas adquirentes no longo prazo (18 meses após o evento). O trabalho ainda apresenta uma consolidação dos estudos semelhantes realizados sobre o setor de telecomunicações no exterior, de forma a possibilitar a comparação dos resultados obtidos. Por fim, busca analisar se as etapas de aprovação regulatória e concorrencial às transações apresentam efeito incremental sobre o retorno das ações. O trabalho conclui que há evidências de retornos anormais de longo prazo positivos e significativos. Porém, não houve comprovação estatística de efeito incremental das aprovações regulatória e concorrencial sobre a geração de retornos anormais nos dias em torno do evento (-1, +3).
Resumo:
O mercado de seguros e previdência brasileiro sofreu muitas mudanças no cenário competitivo nos últimos anos, com muitas fusões e crescimento da participação de novos competidores de porte menor, como mostram os dados de 2010 da SUSEP (Superintendência de Seguros Privados), órgão que regulamenta este setor no Brasil, o que indica uma necessidade de reflexão sobre a estratégia de atuação neste mercado de forma a garantir que a mesma propicie sobrevivência e crescimento no longo prazo neste novo ambiente. Com o esgotamento do modelo de crescimento via compra ou fusão, a Bradesco Vida e Previdência reavaliou sua estratégia e identificou na inovação a fonte da diferenciação competitiva para crescimento neste novo cenário e priorizou todo o tipo de ação que possa desenvolver a cultura da inovação na empresa. Diante disso, o maior desafio na implementação deste novo enfoque estratégico se tornou desenvolver uma cultura voltada para inovação num ambiente que cresceu mediante aquisições e foco em oferta de produto, sem que houvesse grande pressão do ambiente externo até então. Nesta pesquisa, temos como objetivo mostrar de que forma podemos aliar a busca da construção de um novo modelo mental, o pensamento criativo e lateral com as artes e criar um ambiente que permita desenvolver inovação interna, ou seja, com colaboradores da própria empresa, para obter projetos inovadores que busquem geração de margens sustentáveis no longo prazo para a Bradesco Vida e Previdência. Para isso, será aplicada a Academia de Criatividade e Inovação a um grupo de gerentes experientes selecionados pela Bradesco Vida e Previdência e aplicaremos a pesquisa-ação mediante acompanhamento dos sete encontros que compõem o programa, contribuindo ativamente no processo de desenvolvimento de projetos inovadores que serão apresentados ao corpo diretivo para priorização de implantação em 2011.
Resumo:
Neste estudo são analisados, através de técnicas de dados em painel, os fatores determinantes dos níveis de ativos líquidos de empresas abertas do Brasil, Argentina, Chile, México e Peru no período de 1995 a 2009. O índice utilizado nas modelagens é denominado de ativo líquido (ou simplesmente caixa), o qual inclui os recursos disponíveis em caixa e as aplicações financeiras de curto prazo, divididos pelo total de ativos da firma. É possível identificar uma tendência crescente de acúmulo de ativos líquidos como proporção do total de ativos ao longo dos anos em praticamente todos os países. São encontradas evidências de que empresas com maiores oportunidades de crescimento, maior tamanho (medido pelo total de ativos), maior nível de pagamento de dividendos e maior nível de lucratividade, acumulam mais caixa na maior parte dos países analisados. Da mesma forma, empresas com maiores níveis de investimento em ativo imobilizado, maior geração de caixa, maior volatilidade do fluxo de caixa, maior alavancagem e maior nível de capital de giro, apresentam menor nível de acúmulo de ativos líquidos. São identificadas semelhanças de fatores determinantes de liquidez em relação a estudos empíricos com empresas de países desenvolvidos, bem como diferenças devido a fenômenos particulares de países emergentes, como por exemplo elevadas taxas de juros internas, diferentes graus de acessibilidade ao mercado de crédito internacional e a linhas de crédito de agências de fomento, equity kicking, entre outros. Em teste para a base de dados das maiores firmas do Brasil, é identificada a presença de níveis-alvo de caixa através de modelo auto-regressivo de primeira ordem (AR1). Variáveis presentes em estudos mais recentes com empresas de países desenvolvidos como aquisições, abertura recente de capital e nível de governança corporativa também são testadas para a base de dados do Brasil.
Resumo:
Este trabalho examina hipóteses de microestrutura de mercado nos dados de minicontratos futuros do Ibovespa divulgados em alta frequência pelo sinal de market data da BM&FBOVESPA. Para a análise, foi utilizado o modelo de duração condicional autoregressivo, o qual permite o tratamento estatístico de séries financeiras que possuem distribuição em espaços irregulares de tempo e padrões condicionais ao conjunto de informações disponíveis no mercado. A contribuição deste trabalho reside na validação das premissas sobre microestrutura nos mercados de futuros de índice, que são diferentes dos mercados de ações, pois não existe a figura do formador de mercado, e a literatura global sugere que o efeito da assimetria de informação é insignificante na formação de preços devido à diversificação de ativos dos índices. Em contrapartida, o especulador é o provedor de liquidez neste mercado, e seu papel na intensidade de negociação, volume e spread é avaliado. Os resultados confirmam a relação negativa entre intensidade de negociação, volume e spread e corroboram a tese de que a liquidez de mercado pode ser entendida como o preço pela demanda por execução imediata de negócios.
Resumo:
O cenário empresarial atual leva as empresas a terem atuações cada vez mais dinâmicas, buscando utilizar as informações disponíveis de modo a melhorar seu processo de decisão. Com esse objetivo, diversas organizações têm adquirido sistemas de business intelligence. O processo de seleção de sistemas é difícil, diferente do utilizado em outras aquisições empresariais e sofre influência de diversos aspectos intangíveis, o que impossibilita o uso das técnicas de análise financeira normalmente utilizadas pelas companhias para apoiar decisões de investimento. Dessa forma, pode-se dizer que a decisão de escolha de um software de business intelligence é baseada em um conjunto de fatores tanto tangíveis quanto intangíveis. Este trabalho teve como objetivo principal identificar e estabelecer um ranking dos principais fatores que influenciam a decisão de escolha entre sistemas de business intelligence, tendo como foco empresas do setor de incorporação imobiliária atuantes na grande São Paulo e como objetivo secundário procurar identificar a possível existência de aspectos determinantes para a decisão de escolha entre a lista de fatores apurados. Essa pesquisa foi realizada através de doze entrevistas com pessoas que participaram de processos de decisão de escolha de sistemas de business intelligence, sendo algumas da área de TI e outras de área de negócio, atuantes em sete empresas incorporadoras da grande São Paulo. Essa avaliação teve como resultado a identificação dos fatores mais importantes e a sua classificação hierárquica, possibilitando a apuração de um ranking composto pelos catorze fatores mais influentes na decisão de escolha e statisticamente válido segundo o coeficiente de concordância de Kendall. Desse total, apenas três puderam ser classificados como determinantes ou não determinantes; o restante não apresentou padrões de resposta estatisticamente válidos para permitir conclusões sobre esse aspecto. Por fim, após a análise dos processos de seleção utilizados pelas sete empresas dessa pesquisa, foram observadas duas fases, as quais sofrem influência de distintos fatores. Posteriormente, estudando-se essas fases em conjunto com os fatores identificados no ranking, pôde-se propor um processo de seleção visando uma possível redução de tempo e custo para a realização dessa atividade. A contribuição teórica deste trabalho está no fato de complementar as pesquisas que identificam os fatores de influência no processo de decisão de escolha de sistemas, mais especificamente de business intelligence, ao estabelecer um ranking de importância para os itens identificados e também o relacionamento de fatores de importância a fases específicas do processo de seleção identificadas neste trabalho.
Resumo:
Neste trabalho buscamos evidências, para o caso brasileiro, da Hipótese da Renda Permanente. Primeiro, investigamos a existência de tendências e ciclos comuns entre as séries de consumo e renda per capita. Então, usando o resultado de co-movimentos entre as variáveis decompomos cada série em tendência e ciclo, através dos modelos de componentes não observados de Harvey (1989). Por fim, usando os modelos de vetores autorregressivos, decompomos a variância dos erros de previsão, seguindo a metodologia de Blanchard e Quah (1989), com o objetivo de avaliarmos a importância relativa dos choques permanentes e transitórios para as variações do consumo. Os resultados apontam que as inovações permanentes são responsáveis pela maior parte das variações no consumo. Este resultado embora rejeite a Hipótese da Renda Permanente, indica que o consumo responde pouco a variações transitórias na renda, ou seja, os choques temporários têm pouca importância para o consumo.
Resumo:
Esta dissertação de mestrado tem o objetivo de estudar o efeito suspensivo do recurso de apelação e seus reflexos no sistema jurídico brasileiro. Com efeito, busca-se analisar as possíveis consequências da supressão do próprio efeito suspensivo sobre o tempo de duração dos processos e quanto a possível insegurança jurídica causada pela ausência da suspensão dos julgados de primeira instância. Sustenta-se neste trabalho que a supressão do efeito suspensivo pode ser uma proposta para aumentar a celeridade na tramitação dos processos no Brasil, sem causar problemas de segurança jurídica. Em primeiro lugar, descreve-se o problema de investigação e suas proposições. O primeiro capítulo apresenta a judicialização das relações sociais e, por conseguinte, a multiplicação do número de ações distribuídas e a crescente exigência pela efetividade da prestação jurisdicional. Neste mesmo capítulo o trabalho se ocupa em apreciar dos dados obtidos junto ao Tribunal de Justiça do Rio de Janeiro e com a análise qualitativa de casos típicos que demonstram o uso do efeito suspensivo tão somente para procrastinar o tempo de duração do processo bem como para barganhar um possível acordo vantajoso para o devedor. Em seguida, apreciamos os Princípios constitucionais da Segurança Jurídica e da Efetividade e Celeridade da Prestação Jurisdicional indicando o marco teórico de cada princípio. O segundo capítulo descreve conceito de sentença e seus efeitos, levando-se em consideração as últimas reformas processuais. Após, estuda-se a suposta estabilidade do sistema jurídico com a aplicação do efeito suspensivo, abordando o duplo grau de jurisdição como garantia constitucional. Posteriormente, indicamos a utilização estratégica do efeito suspensivo pelos atores (réus) do processo. O terceiro capítulo destina-se a apontar a legislação estrangeira e seus respectivos fundamentos jurídicos que influenciaram o nosso ordenamento jurídico, bem como a colaboração do autor em sugerir uma nova proposta de lei. Aproveitamos a oportunidade para trazer á baila as possíveis alterações oriundas do projeto do novo Código de Processo Civil e suas aspirações para dirimir os obstáculos que causam o longo tempo de duração dos processos. Por fim, apresentamos as considerações finais sobre a hipótese de supressão do efeito suspensivo como meio de alcançar a redução do tempo de duração do processo mantendo-se as garantias constitucionais da ampla defesa e do devido processo legal. Com efeito, demonstra-se que não há qualquer violação ao Princípio da Segurança Jurídica.
Resumo:
Os grupos econômicos representam a internalização das falhas de mercado por empreendedores buscando superar as dificuldades de obtenção de recursos produtivos em mercados emergentes. A proposta deste trabalho é verificar se o acesso a um mercado interno de recursos permite a uma empresa afiliada a um grupo econômico obter um desempenho superior em relação a empresas independentes no caso de aquisições. Com base nas perspectivas teóricas da economia e da visão baseada em recursos, analisou-se o desempenho pós-aquisição de empresas de capital aberto afiliadas e não-afiliadas a grupos econômicos. Por meio de regressões com dados em painel, foram encontrados indícios de que a afiliação a grupos econômicos afeta negativamente o desempenho financeiro das empresas pós-aquisições. A principal implicação deste resultado para a prática refere-se à necessidade de revisão das estratégias de crescimento inorgânico e de seleção de empresas-alvo para aquisição por parte de afiliadas a grupos econômicos.
Resumo:
Trata das questões de organização e recuperação da informação no caso específico do acervo do Centro de Pesquisa e História Contemporânea do Brasil – CPDOC. Baseia essa análise num estudo de caso do uso do serviço de referência da instituição prestado pela Sala de Consulta e também no utilização da base de dados Accessus. Traça um perfil do usuário do acervo da instituição além de um perfil de pesquisa desses indivíduos ao mapear o comportamento dos usuários diante da ferramenta Accessus. Aborda o contexto da elaboração da base de dados e investiga a criação da linguagem controlada em história e ciências afins que serviu de base para o Accessus. Problematiza as questões de acessibilidade da linguagem a um público não relacionado com a área. Pareia essa problematização com análise dos diferentes perfis de usuários. Discute a forma de indexação do acervo do CPDOC e suscita reflexões sobre esse processo que considere uma relação direta com o perfil dos usuários.