984 resultados para Ciência aplicada
Resumo:
Os processamentos de imagens orbitais efetuados através de técnicas de sensoriamento remoto geraram informações qualitativas de natureza textural (morfo-estruturas). Estas permitiram (1) o reconhecimento de áreas com diferentes padrões estruturais tendo diferentes potencialidades para a prospecção de fluorita, (2) a identificação de novos lineamentos estruturais potencialmente favoráveis à mineralização e (3) evidenciaram prolongamentos extensos para as principais estruturas mineralizadas, (4) às quais se associam um grande número de estruturas, antes desconhecidas, com grande potencial prospectivo. O aprimoramento de técnicas de classificação digital sobre produtos de razões de bandas e análise por componentes principais permitiu identificar a alteração hidrotermal associada às estruturas, incorporando novos critérios para a prospecção de fluorita. Buscando-se quantificar os dados de alteração hidrotermal, foi efetuada a análise espectrorradiométrica das rochas do distrito fluorítico. Integrando estas informações com dados TM LANDSAT 5, em nível de reflectância, obteve-se a classificação espectral das imagens orbitais, o que permitiu a identificação de estruturas menores com um detalhe nunca antes obtido. Os processamentos de dados aerogeofísicos forneceram resultados sobre estruturas (magnetometria) e corpos graníticos afetados por alteração hidrotermal (aerogamaespectrometria). Estes produtos foram integrados com dados TM LANDSAT 5 associando o atributo textural da imagem orbital ao comportamento radiométrico das rochas. Diagnosticou-se o lineamento Grão-Pará como o principal prospecto do distrito. E levantaram-se uma série de dados sobre a compartimentação tectônica da região, a zonação de fácies das rochas graníticas (rocha fonte do flúor) e as alterações hidrotermais associadas ao magmatismo granítico. Isto permitiu a compreensão da distribuição regional dos depósitos de fluorita, adicionando-se um novo critério à prospecção de fluorita, a relação espacial entre a mineralização e a rocha fonte de F. Esta última corresponde à fácies granítica da borda do Maciço Pedras Grandes.
Resumo:
Este trabalho visa prover uma visão sobre o impacto da implementação do Operador Epistemológico Tácito, ferramenta de Gestão do Conhecimento, na atividade bancária através de um estudo de caso. Em especial, analisa o uso e suas conseqüências para a melhoria da Inteligência Organizacional. Começando por uma visão de Gestão do Conhecimento, demonstra a importância do ser humano como epicentro da Inteligência Organizacional, numa abordagem cognitivista pouco explorada na literatura, dominada por exemplos de Tecnologia de Informação. Considera-se que a Inteligência Organizacional deve ser exercida no contexto da ação, pois “não basta somente afirmar que a inteligência é o ativo mais importante de uma organização, é imperativo que essa afirmação se transforme em estratégias e planos para atingir um melhor desempenho”. A formulação da estratégia é o próprio exercício da inteligência, pois lida com as escolhas da organização e o amadurecimento de suas competências. Por fim, faz-se um estudo de caso do Operador Epistemológico Tácito para a consolidação do conhecimento de uma instituição financeira e proposição de novas estratégias de gestão de risco advindas dos requerimentos de Basiléia II.
Resumo:
Esta pesquisa originou-se do pensador Gilles Deleuze (2006). Deleuze contrasta o pensamento sedentário enquanto linear e reconhece o pensamento nômade como estriado, cheio de nervuras, em uma palavra morfogênica, a germinar formas inusitadas. O sedentário, não está à altura de fazer frente a contextos ou ambientes onde predominam complexidade, incerteza e caos, não lida com diversidade. Já o pensamento nômade é movido pelo desejo de fazer do pensar um fluxo, um devir que se assemelhe à realidade instável, mutante, surpreendente, improvável na qual vive. O sedentário era rei nos tempos onde buscávamos a estabilidade, a repetição, os padrões, as previsões com as quais podíamos regular o processo de pensar, gerir e viver. A vida útil dos paradigmas vem sofrendo uma contração temporal, dificultando o estabelecimento de platôs de serenidade. Einstein (1930), em uma carta de dirigida a seu filho Eduard instrui: “A vida é como andar de bicicleta. Para manter o equilíbrio, é preciso se manter em movimento”. No campo da Administração emergem pesquisadores buscando entender neste novo contexto qual forma de pensar e agir é mais eficaz: se deviríamos mudar a percepção que temos do mundo ou obrar para alterá-lo. Ao contrário dos que retiram suas leis da imobilidade, da regularidade, da estabilidade, da repetição, frutos de uma abstração, de uma tradição cartesiana equivocada, são os que interpretam e compreendem o mundo a partir de sua turbulência das singularidades, do inusitado, do inédito e que romperam com a representação clássica, liberando assim o pensar de sua função recognitiva -- do uso de ferramentas analíticas, de diagnósticos, de métodos como o SWOT – (Forças, Oportunidades, Debilidades e Ameaças) – os que fazem do pensamento uma potência criadora, a gerar as inovações que alimentam o sucesso empresarial. É possível, então, afirmar que o modelo mental predominante do executivo pode ser classificado, seja como nômade, seja como sedentário -- usando as expressões cunhadas por Deleuze (2006)—para avaliar sua adequação ao novo ecossistema empresarial. Nossa hipótese é que o pensador nômade está mais bem preparado para lidar com o ambiente contemporâneo. Na primeira parte desta dissertação desvelamos a teoria que sustenta a hipótese formulada. Na seguinte justificamos o porquê de formular uma boa pergunta, propor uma explicação, avançar baseado numa hipótese e enunciar uma lei pode ser tão eficaz quanto uma pesquisa empírica para fazer avançar a compreensão dos fenômenos organizacionais, Na quarta e última parte detalhamos a hipótese ora proposta e sugerimos como continuidade num futuro próximo, um roteiro para uma pesquisa empírica.
Resumo:
Trata da análise das principais ferramentas quantitativas para a tomada de decisão e análise de investimentos, em particular de análise por árvore de decisão e teoria de precificação de opções aplicada a casos de investimentos em ativos não financeiros. Mostra as vantagens e desvantagens de cada metodologia, em especial as limitações de aplicação prática da TPO. Propõe uma metodologia para calcular o valor das "opções reais" utilizando árvores de decisão
Resumo:
O curso de mestrado profissional em administração (MPA) da Fundação Getúlio Vargas é formatado para profissionais que têm interesse em combinar uma sólida base acadêmica com atividades voltadas para a aplicação prática. O objetivo deste trabalho está alinhado com objetivo do curso ao realizar a aplicação prática dos conceitos da resource-based view das firmas aos resultados dos jogos do campeonato brasileiro com o propósito de identificar quais fatores explicam o desempenho operacional dos times de futebol da primeira divisão, o que irá contribuir para auxiliar os clubes de futebol no Brasil nas suas decisões de investimentos e alocação de recursos financeiros. Ao analisar a qualidade dos jogadores e sua posição relativa em relação ao time, a motivação para o jogo, os fatores "casa" e "camisa", todos considerados recursos valiosos, raros, inimitáveis e operacionalmente utilizáveis, procurar-se-á contribuir para esse processo de decisão de investimentos e construção de vantagens competitivas pelos clubes. Aplicando-se o método de análise multivariada de dados conhecida como regressão linear múltipla, foi possível identificar que existem fatores que influenciam o desempenho dos times independente da sua situação dentro do jogo, seja como mandante como visitante: a posição relativa da qualidade do elenco em relação ao time adversário contribui positivamente e o número de cartões vermelhos contribui negativamente. Ao jogar "em casa", a posição relativa da qualidade dos jogadores do ataque do time mandante em relação aos jogadores da defesa do time visitante contribui positivamente para a vitória do time da "casa". Porém, no caso do time visitante, a posição relativa da qualidade dos jogadores da defesa em relação aos jogadores do ataque do time mandante e a "camisa" (neste caso, apenas se ela "carrega" consigo algum título que dê ao time uma reputação a nível internacional) são os fatores que contribuem positivamente para a vitória. Portanto, a disposição tática dos recursos também é um fator relevante que deve ser considerado em pesquisas futuras. Desta forma, não basta ter os recursos e explorá-los aleatoriamente porque o ambiente de disputa não é estático, assim como não é, de forma análoga, o ambiente de negócios.
Resumo:
A abordagem trata como o intento estratégico interfere nas organizações, quando a nova economia exige um dinamismo mais veloz do que o planejamento das organizações, atropelando as regras tradicionais das mesmas. Tomando como base o exemplo do Pão de Açúcar, os pontos positivos e pontos a melhorar no processo de mudança de estratégia e implementação de um novo negócio. Apontando a estratégia com base na mais moderna teoria, e visão de tecnologia e impactos no ambiente dentro dos conceitos mais apurado na atualidade.
Resumo:
Analisa as opções estratégicas para as empresas de comércio eletrônico que vendem produtos e serviços a consumidores finais. Formula um modelo de desenho estratégico baseado em 4 pontos: atenção, confiança, personalização e fidelidade. Aplica o modelo proposto na análise do sucesso do modelo de negócios da empresa Amazon.com.
Resumo:
O cenário que se desenha é fortemente marcado pela informação intensiva e pelas redes, além de evolução acelerada da tecnologia e globalização. Além disso, o contínuo aumento da competição tem tornado mais difícil a diferenciação com base em custos ou qualidade, gerando uma oportunidade para que a introdução de novos produtos se destacasse e se transformasse em uma fonte de ganhos competitivos. Vários são os exemplos de empresas que tiveram (e têm) sucesso em grande medida através de inovações em seus produtos ou serviços. O propósito desta pesquisa é o estudo de instituições financeiras, particularmente a análise de bancos de varejo no Brasil e seus respectivos processos de desenvolvimento de produtos e serviços. As instituições financeiras, do qual o setor bancário brasileiro faz parte, têm sofrido grandes e significativas transformações nos anos recentes. Este segmento possui expressiva participação no cenário nacional, apresentando taxas positivas de crescimento de ativos e lucros nos últimos anos. Esse cenário de intensas mudanças apresenta uma rara oportunidade de estudos nessa área. Dessa maneira, conduziu-se uma pesquisa de cunho exploratório que fez uso de estudos de casos múltiplos. Utilizou-se uma amostra de seis bancos que respondem por cerca de 50% do segmento no país. Para a análise dos casos, utilizaram-se alguns modelos conceituais clássicos a respeito de desenvolvimento de novos produtos, além de referências acerca do cenário em que a amostra está imersa. Pela aplicação deste arcabouço aos estudos de casos, mapeou-se o processo de desenvolvimento de produtos, bem como suas etapas. A análise possibilitou ainda a compreensão de questões subjacentes ao tema principal que surgiram ao longo do trabalho.
Resumo:
O presente trabalho estuda as estratégias de dois laboratórios farmacêuticos transnacionais diante do cenário brasileiro após a Lei dos Genéricos. Uma das empresas optou por produzir esse tipo de medicamento, enquanto a outra manteve apenas a linha de produtos de marca. A visão das empresas foi obtida a partir de entrevistas com os diretores e os resultados do estudo foram analisados à luz do referencial teórico sobre administração estratégica e sobre o mercado de medicamentos no Brasil. Dessa forma, foi possível analisar as escolhas estratégicas dos laboratórios e suas conseqüências, além de suas perspectivas para o futuro. Foi constatado que, apesar de subordinadas às determinações das respectivas matrizes, as duas filiais brasileiras têm autonomia para definir a maneira como as estratégias serão implementadas e adaptadas à realidade local.
Resumo:
Verifica-se hoje, no Brasil, a emergência de uma série de estudos, tanto no lado acadêmico quanto no lado governamental e empresarial, relacionados às aglomerações industriais, mais notadamente clusters e Arranjos Produtivos Locais (APLs). Contudo, a maioria destes se direciona a abordagens metodológicas qualitativas, deixando o aspecto quantitativo ainda pouco explorado. Outro fato também constatado sobre estes estudos é que poucos são aqueles que se direcionam a avaliar o desempenho das firmas localizadas em aglomerações industriais, em comparação com as não aglomeradas. Este trabalho teve como objetivo preencher parcialmente esta lacuna. Marcado por uma abordagem quantitativa, buscou-se avaliar como as firmas aglomeradas se desempenham economicamente em relação às não aglomeradas. Dado o aparente ganho de competitividade do setor de confecções brasileiro e a importância relativa na economia que este voltou a adquirir após décadas de decadência, as firmas deste setor localizadas no estado de São Paulo foram as escolhidas para a análise. Para alcançarmos este objetivo, foi utilizada uma base de dados secundários que, conjugada com informações relativas às aglomerações industriais existentes no estado de São Paulo, permitiu avaliar o desempenho das firmas de confecções através de medidas relacionadas ao conceito de Valor Adicionado. Contrariando as expectativas geradas pela revisão de literatura, foi constatada a ausência de evidências que confirmem que as firmas localizadas em aglomerações industriais se desempenhem melhor do que as firmas não aglomeradas. Opondo-se de forma mais intensa às expectativas, foi constatado que as firmas localizadas na cidade de São Paulo, região com a maior aglomeração de firmas do setor de confecções, possuem seu desempenho econômico prejudicado. Todavia, dado o caráter exploratório do estudo, os resultados não devem ser generalizados, ficando estes restritos às empresas componentes da amostra.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
Apesar dos aparelhos celulares terem se tornado parte fundamental da comunicação pessoal durante os últimos dez anos, há escassez de pesquisas de ordem acadêmica dedicadas à valoração das diferentes características dos planos e aparelhos celulares. Vários fatores precisam ser levados em conta para se conhecer a percepção de valor dos atributos dos planos e aparelhos celulares, desde as condições microeconômicas que afetam a evolução do mercado de aparelhos celulares em geral, até as decisões e motivações pessoais do processo de decisão de compra de um consumidor. Este estudo procura responder quais atributos são mais valorizados pelo consumidor brasileiro em um aparelho celular pós-pago, bem como o preço destes atributos no mercado. Para isto aplicou-se o método de preços hedônicos a uma base de dados de 48 modelos de celulares diferentes, de seis marcas presentes no mercado brasileiro, de três operadoras, em nove diferentes planos de assinatura, com observações de preços semanais ao longo do ano de 2008, totalizando 27 atributos diferentes e 292.410 observações. Por fim, também é apresentada nesta dissertação uma interpretação do mercado brasileiro pela ótica da Economia das Telecomunicações, e é realizado o cálculo da deflação ocorrida no mercado brasileiro de aparelhos celulares pós-pagos no ano de 2008 levando-se em consideração as mudanças de qualidade, funcionalidades e características destes aparelhos ocorridas ao longo do ano mencionado.
Resumo:
O presente trabalho utiliza a “Contabilidade do crescimento” para analisar e explicar as diferenças nas taxas de crescimento do PIB per capita dos países Brasil, Chile, China, Índia e Coréia no período compreendido entre os anos 1960 e 2000. Descrevendo os quatro fatos estilizados do crescimento econômico, a “Contabilidade do crescimento de Solow”, bem como a função de produção Cobb-Douglas, buscou-se dar o embasamento teórico para o modelo utilizado de fato no presente trabalho, que decompôs o crescimento dos diferentes países para identificar qual fator mais contribuiu ou quais fatores de produção mais contribuíram para os diferentes níveis de crescimento econômico dos países analisados. A metodologia utilizada no trabalho baseia-se em pesquisas bibliográficas, que visam primordialmente a fundamentação conceitual e teórica de alguns conceitos utilizados e em pesquisas às diferentes bases de dados históricos referentes aos países e variáveis analisadas. Pode-se afirmar que as principais fontes de consulta foram a “Penn World Table” da Universidade da Pensilvânia e o Banco Mundial. O estudo irá demonstrar, além dos diferentes níveis de cada um dos fatores (capital humano, físico e progresso tecnológico ou “TFP – Total Factor Productivity” ) nos países, como cada um desses fatores evoluiu ao longo dos anos e qual a contribuição de cada um nas taxas de crescimento do PIB per capita de cada um dos países analisados. É feito um estudo da variância do crescimento do PIB per capita, onde ficará claro que boa parte das diferenças apresentadas nas taxas de crescimento dos países vem do progresso tecnológico ou da covariância dos fatores, que são progresso tecnológico e o agrupamento do capital físico e humano. Também verificou-se a correlação existente entre a variação do PIB per capita e as variáveis que o compõe, permitindo a visualização do alto grau de correlação existente, principalmente com o progresso tecnológico ou “TFP”.
Resumo:
This thesis has three chapters. Chapter 1 explores literature about exchange rate pass-through, approaching both empirical and theoretical issues. In Chapter 2, we formulate an estate space model for the estimation of the exchange rate pass-through of the Brazilian Real against the US Dollar, using monthly data from August 1999 to August 2008. The state space approach allows us to verify some empirical aspects presented by economic literature, such as coe cients inconstancy. The estimates o ffer evidence that the pass-through had variation over the observed sample. The state space approach is also used to test whether some of the "determinants" of pass-through are related to the exchange rate pass-through variations observed. According to our estimates, the variance of the exchange rate pass-through, monetary policy and trade ow have infuence on the exchange rate pass-through. The third and last chapter proposes the construction of a coincident and leading indicator of economic activity in the United States of America. These indicators are built using a probit state space model to incorporate the deliberations of the NBER Dating Cycles Committee regarding the state of the economy in the construction of the indexes. The estimates o ffer evidence that the NBER Committee weighs the coincident series (employees in nonagricultural payrolls, industrial production, personal income less transferences and sales) di fferently way over time and between recessions. We also had evidence that the number of employees in nonagricultural payrolls is the most important coincident series used by the NBER to de fine the periods of recession in the United States.
Resumo:
Nesta dissertação visa-se estudar e propor alternativas de solução para a proteção de estruturas e sistemas elétricos contra fogo numa unidade de craqueamento catalítico de uma refinaria de petróleo, por meio de proteção passiva. A proteção passiva tem por finalidade garantir a integridade das estruturas sujeitas a incêndio, durante um determinado período de tempo, para possibilitar, no caso da refinaria, a realização de procedimentos de parada da unidade de forma segura e controlar o incêndio a fim de diminuir a possibilidade de propagação do fogo para outras áreas. Com base em técnicas de análise de riscos fez-se a identificação de zonas potencialmente sujeitas a cenários de acidente envolvendo jato de fogo e/ou incêndio em poça. A delimitação das áreas onde haveria necessidade de proteção passiva foi realizada com base em modelos para jatos de fogo e incêndio em poça já estabelecidos na literatura. O dimensionamento da proteção passiva de estruturas e sistemas elétricos com o uso de diversos materiais usados comercialmente para este fim foi estimado com base em equações empíricas desenvolvidas por Jeanes, 1980, Stanzak, 1973 e PABCO, 1984, e, para alguns casos particulares foi feita uma verificação por solução numérica da equação da condução do calor em meio sólido.Assim, foram determinados quais os materiais mais adequados em cada caso de aplicação e qual a espessura em que deve ser aplicado para que a temperatura no elemento estrutural ou no sistema elétrico não atinja a sua determinada temperatura crítica em um período de tempo pré-determinado. Para os casos de elementos estruturais como colunas de sustentação da unidade de seção cilíndrica, o principal material para proteção passiva é a argamassa projetada e para perfil I, é o emprego de placas de gesso. Já para o caso de sistemas elétricos, podem ser utilizadas tanto tintas intumescentes quanto as mantas reforçadas com fibras minerais, esta escolha depende da geometria do sistema em que será empregado. Da comparação entre estes dois métodos pode-se concluir que o dimensionamento da proteção passiva fazendo o uso das correlações empíricas é menos conservativo que para o caso do uso da equação da difusão do calor resolvida por método numérico. Porém, os resultados diferem dentro de um limite considerado aceitável (em torno de 15%) levando-se em consideração os erros embutidos em cada método de cálculo. É importante mencionar que as correlações empíricas são de mais simples aplicação por possuir apenas operações matemáticas básicas. Usando as correlações empíricas para os perfis cilíndricos de aço (diâmetro de 0,1524 m e espessura de parede de 0,0254 m), a espessura de revestimento estimada com o uso das correlações empíricas necessária para garantir que a temperatura na interface entre os dois materiais não atinja 550°C em duas horas seria de 13,5 mm para argamassa projetada, 19,7 mm para vermiculita com silicato de sódio e 34,5 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Cabe ressaltar que com a realização desta dissertação busca-se uma integração entre o mestrado acadêmico e o meio empresarial com o desenvolvimento de trabalhos de natureza acadêmica que tenham aplicação direta na prática. Espera-se assim permitir que Universidade dê retorno à sociedade que a mantém e propiciar que setores da sociedade possam usufruir da capacidade disponível na academia.