962 resultados para operações enunciativas
Resumo:
O propósito deste estudo é identificar as competências operacionais - flexibilidade, desempenho de entrega, qualidade e eficiência em custo - desenvolvida pelas empresas estudadas e mapear os fatores externos e internos à empresa que estimulam ou inibem o seu desenvolvimento. As empresas analisadas são fabricantes de calçados femininos de pequeno e médio porte, localizadas em um polo industrial e atravessam um período de aumento da hostilidade da concorrência e maior dinamismo do mercado alvo. Este estudo mapeou as decisões estratégicas e as competências operacionais desenvolvidas para o enfrentamento competitivo. A busca por uma maior em flexibilidade e pontualidade foi a resposta dada ao aumento da concorrência. Das seis empresas estudadas, apenas três apresentaram alinhamento entre a estratégia competitiva declarada e a estratégia de operações implementada. O estudo mostrou que as escolhas estratégicas relacionadas com as políticas de Gestão da Cadeia de Suprimentos e Gestão de Recursos Humanos são determinantes para o desenvolvimento das competências operacionais desejadas. Empresas que introduziram práticas operacionais relacionadas a JIT (Just In Time) ou Produção Enxuta apresentaram um desenvolvimento mais expressivo das competências operacionais.
Resumo:
A textura é um atributo ainda pouco utilizado no reconhecimento automático de cenas naturais em sensoriamento remoto, já que ela advém da sensação visual causada pelas variações tonais existentes em uma determinada região da imagem, tornando difícil a sua quantificação. A morfologia matemática, através de operações como erosão, dilatação e abertura, permite decompor uma imagem em elementos fundamentais, as primitivas texturais. As primitivas texturais apresentam diversas dimensões, sendo possível associar um conjunto de primitivas com dimensões semelhantes, em uma determinada classe textural. O processo de classificação textural quantifica as primitivas texturais, extrai as distribuições das dimensões das mesmas e separa as diferentes distribuições por meio de um classificador de máxima-verossimilhança gaussiana. O resultado final é uma imagem temática na qual cada tema representa uma das texturas existentes na imagem original.
Resumo:
Baseado no referencial teórico existente se pode constatar que as principais funções da TI que são comumente terceirizadas são: as operações de infraestrutura; o desenvolvimento e a manutenção de aplicações (fábrica de software); e o gerenciamento de redes e computadores (service desk). Dentre as funções comumente terceirizadas, uma que parece ter menor potencial de contribuição diferencial quanto ao seu valor para o negócio é a de infraestrutura, uma atividade bastante estruturada que normalmente é uma das primeiras a serem terceirizadas, parecendo ser corriqueiro que empresas optem por essa terceirização. Este trabalho teve como principal objetivo identificar a associação que pode existir entre o anúncio de terceirização da TI, especialmente infraestrutura, e o valor de mercado das empresas, e para tanto teve como foco empresas brasileiras de capital aberto. Já é sabido que investidores levam em consideração tanto as informações financeiras como não financeiras das empresas que pretendem investir, o que resulta em menor ou maior valorização dessas empresas. O valor da ação no mercado representa o retorno superior esperado em certos momentos, como reflexo da expectativa futura de desempenho que a empresa possa ter. Neste estudo queremos verificar se o anúncio da terceirização da TI levando a essa expectativa de desempenho superior, ou geração de valor futuro, leva também a alguma alteração no valor da ação no mercado. Isto foi feito por meio da comparação da variação do valor de mercado de algumas empresas antes e após o anúncio da realização da terceirização da TI. A metodologia utilizada foi o Estudo de Eventos e, para mensuração dos retornos normais e anormais, utilizamos um modelo de retornos ajustados ao risco e ao mercado, adotando o Capital Asset Pricing Model (CAPM) como modelo econômico para precificação de ativos. O tratamento dos dados das 11 empresas que compuseram a nossa amostra apontou que o anúncio da terceirização da TI parece ter afetado o comportamento das ações dessas empresas. Tomando por base a amostra escolhida, pudemos identificar que houve um impacto positivo no valor de mercado das empresas estudadas, o que pode ter ocorrido em função dos anúncios publicados.
Resumo:
Este trabalho estuda a formação dos Bookbuildings em emissões de ações no Brasil, também conhecidos como “Livro de Ofertas”, o último e mais importante estágio de um processo de IPO. Testam-se hipóteses de assimetria de informação, monitoramento e liquidez e conflito de interesse para o caso brasileiro em um conjunto de 18 emissões, todas oriundas de IPO’s emitidos no mercado de capitais brasileiro, sob a ótica das 5 variáveis mais significativas: Tipo de Investidor – curto e longo-prazo; Nacionalidade – Investidores dos Estados Unidos e locais; Participações em ofertas; Tamanho das ofertas; e Preço das emissões. O nosso banco de dados analisa todas as 209 operações de listagem primária e secundária dos últimos 7 anos, desde 2004, na Bovespa. São 209 ofertas públicas. Aprofundamo-nos em 18 delas, das quais possuímos todas as informações de formação de livro de ofertas. Demonstrou-se que em todas essas 18 ofertas o volume de ofertas feitas por investidores estrangeiros de fato “ancorou” as operações (representando mais do que 67% das ordens dos livros), fato que teve uma função muito importante, de “sinalizar” a força das determinadas ofertas em termos de demanda. Das 18 operações, o livro de ofertas de 39% excedeu mais do que 3 vezes a quantidade ofertada pela empresa issuer ao mercado. Em 56% dos casos, a demanda foi maior do que o dobro do número de ações oferecidas pelo issuer. Em 72% dos casos, a demanda excedeu a oferta em pelo menos 50%. A média de demanda das 2.229 ofertas de compra, divididas nos 18 IPO’s estudados, foi de quase 4 vezes o número de ações ofertadas, ou 394%, conforme tabela 11 deste trabalho. Os resultados obtidos seguem na direção das teorias de preferência por investidores de longo prazo em detrimento de investidores de curto prazo. Encontramos que o preço e a participação em diversos IPO’s não são determinantes para explicar as diferenças nas alocações, distanciando nossos resultados das teorias de assimetria de informação. Já as variáveis que exprimem características dos investidores mostraram-se bastante relevantes para explicar as diferenças nas alocações. Primeiramente, o tipo de investidor mostrou-se uma variável decisiva na alocação. Nas hipóteses testadas, encontramos evidências de que investidores de longo prazo, os chamados Long-Only são beneficiados enquanto investidores de curto prazo, em geral hedge-funds e tesourarias, são penalizados nas alocações. Segundo, a nacionalidade do investidor também exprime papel fundamental na alocação. Investidores norte-americanos são beneficiados enquanto investidores brasileiros são penalizados, outro resultado contrário às teorias de troca de alocação por informação, dado que investidores domésticos, em teoria, deveriam ter maior informação do que estrangeiros. Em realidade, se existe um consenso nesse campo de pesquisa é o de que investidores norte-americanos determinam a direção da grande maioria dos recursos destinados a esse mercado e emitem forte sinalização quando “entram” em negócios dessa natureza ao redor do mundo, o mesmo ocorrendo no caso brasileiro e demonstrado em nossa análise, conforme acima mencionado. Os resultados apenas comprovam que esse tipo de ação de tais investidores tem sido premiado por meio de favorecimento em alocações nas ofertas no mercado brasileiro, principalmente quando controlamos para emissões com alta demanda, os chamados Hot IPO’s. Também encontramos evidências contrárias às teorias de controle. Ao regredir nossa variável Tamanho, encontramos um sinal contrário ao esperado. Isto é, para os dados que dispúnhamos, verificamos o favorecimento de grandes ofertas em detrimento de pequenas, enquanto esperaríamos que os underwriters evitassem concentração de ações, “protegendo” as empresas emissoras de eventuais problemas de liquidez e até potenciais tentativas de hostile take-overs no futuro.
Resumo:
A Assinatura Digital de Contratos de Câmbio, regulamentada em 2004, é um processo que surge como uma alternativa ao tradicional processo de assinatura manual nos contratos. Este trabalho pretende, através de análise quantitativa da base de dados de um grande banco no Brasil, verificar padrões de comportamento que podem existir nos registros de operações de câmbio assinadas digitalmente, de acordo com o porte da empresa e sua segmentação dentro do Banco. O conceito do mercado de câmbio será analisado, assim como sua estrutura e funcionamento no Brasil. A Assinatura Digital será analisada profundamente, apresentando conceitos imprescindíveis para este processo, como a criptografia, funções hash, certificação digital e infra-estrutura de chaves públicas. Como contribuições do estudo serão apresentadas a importância do processo de assinatura digital na atualidade, o crescimento e a relevância das pequenas e médias empresas no uso da assinatura digital e as diferenças relativas à segmentação das empresas.
Resumo:
Devido ao fenômeno da globalização, alguns aspectos em Economia Internacional e Política têm sido amplamente debatidos entre os estudiosos de Negócios Internacionais, dada a extensão do seu impacto sobre a competitividade operacional e estratégica das empresas multinacionais. Em conjunto com a realidade mais regional da maioria dos acordos preferenciais de comércio e de investimentos – que promovem uma integração regional mais profunda dos mercados, ao contrário do teórico mercado "global" – as abordagens teóricas mais globalizantes em estratégia de negócios internacionais têm sido mais questionadas. Enquanto alguns estudiosos, como Pankaj Ghemawat, (2007), propõem abordagens para a chamada "semi-globalização"; outros, por exemplo, com Alan Rugman e Alain Verbeke (inter alias 2004, 2007), por outro lado, defendem abordagens regionalistas mais restritas em negócios internacionais e estratégia de empresas internacionais. Tais posições sobre o desempenho das empresas transnacionais, no entanto, não foram amplamente testadas, deixando, assim, outras questões relevantes sem soluções. Assim sendo, identificou-se um espaço na literatura quanto à questão de as regiões – em vez de países individualmente considerados – serem ou não relevantes ao desempenho global das empresas multinacionais e em que medida. Nesse sentido, foi utilizada uma metodologia quantitativa longitudinal a fim de avaliar a evidência histórica da repercussão de presença em regiões selecionadas e/ou países sobre o desempenho das empresas transnacionais. Foram coletados dados no Compustat Global (2009) com vistas a uma análise econométrica de dados em painel. Nossos resultados consistem, brevemente, em três aspectos. Em primeiro lugar, quando ambas as variáveis (país e região) são simultaneamente consideradas influentes sobre o desempenho, existe significância estatística. Em segundo lugar, ao contrastar ambas as variáveis (país e região) entre si, em relação ao maior nível de impacto no desempenho, ainda que tenhamos encontrado relevância estatística para os países individualmente considerados, suspeitou-se de algum problema nos dados brutos. Em terceiro lugar, ao assumir uma correlação positiva entre o desempenho da empresa multinacional e do número de regiões geográficas onde essas corporações possuem operações significativas, foi encontrada significância estatística. Nossa conclusão, portanto, consiste no fato de que, dado que a maioria dos países são signatários de pelo menos um acordo de integração regional, as regiões devem ser o foco principal dos negócios internacionais e estratégia corporativa internacional, tanto nos propósitos teóricos (tendo em vista as conclusões desta pesquisa e a literatura sobre o assunto), quanto nos aspectos práticos (em vez de da customização da gestão e da estratégia para cada país individual).
Resumo:
No presente trabalho, apresentamos as conclusões de uma pesquisa jurisprudencial que realizamos junto ao Conselho Administrativo de Recursos Fiscais, por meio da qual foi possível identificar algumas características para as operações de planejamento tributário que tendem a ser julgadas oponíveis ou não oponíveis ao Fisco. Assim, a existência de operações incongruentes entre si praticadas num curto intervalo de tempo, associada à existência de um caminho alternativo usual mais oneroso e apto a alcançar os mesmos resultados das operações realizadas pelo contribuinte, bem como a existência de partes relacionadas, sociedades aparentes, sociedades fictícias, sociedades residentes em paraísos fiscais, a neutralização de efeitos indesejáveis, a prática de operações não-usuais e que se desviam da finalidade dos negócios jurídicos típicos envolvidos são propriedades que, dentre outras, tendem a influenciar o resultado dos julgados. Verificamos, também, que, a par de algumas incoerências encontradas, as operações com as mesmas características tendem a ter o mesmo desfecho quanto à legitimidade das operações, porém os institutos utilizados para fundamentar tal resultado (como simulação, abuso de direito, propósito negocial, etc.) não mantêm uma uniformidade. Constatamos que os próprios institutos, da forma pela qual vêm sendo manejados nas decisões, foram misturados e não encontram mais correspondência conceitual com as figuras conhecidas pela doutrina. Na maioria dos julgados foi possível identificar um instituto híbrido: a simulação decorrente do descompasso entre a forma e a sua substância e/ou decorrente da ausência de propósito negocial. Por fim, após apontarmos as características e desafios do atual modelo regulatório das operações de planejamento tributário no nosso sistema jurídico, comparamos os incentivos fornecidos pelas possíveis configurações que se pode dar aos mecanismos regulatórios das condutas estudadas e concluímos que uma estratégia de “enforcement” que prioriza a regulação destas condutas por meio da ameaça de severas e raras penalidades não consegue fazer frente às demandas da realidade brasileira. Assim, entendemos que um modelo que priorize a capacidade de detecção das infrações, através de exigências de transparência e de abertura de informações (“disclosure”), e que também se vale de estratégias de “responsive regulation” é o mais adequado a atender a tais demandas.
Resumo:
O presente trabalho apresenta evidências empíricas para o canal de crédito no Brasil, utilizando como base o trabalho de Nelson Sobrinho (2003). O trabalho consisti-se de uma análise descritiva e de diversos testes econométricos baseados em diferentes indicadores do mercado de crédito, monetário e de produção real. A análise descritiva mostrou que embora a proporção crédito/ PIB no Brasil seja pequena quando comprada a outras economias, a mesma tem crescido nos últimos anos. Da mesma forma, por mais que o custo do crédito (medido pelo spread bancário) seja elevado, há uma tendência declinante, o que já sugere alguma evolução positiva para o canal do crédito no país. De fato, calculamos que a medida de alavancagem das empresas brasileiras vem aumentando, e esse aumento pode indicar dependência das firmas aos bancos, uma das condições necessárias para a operação do canal de crédito. Por outro lado, vimos que a maturidade das operações de crédito no Brasil tem se expandido fortemente, e esse crescimento pode gerar alguma perda de eficiência no canal de crédito como transmissor da política monetária. Os testes de causalidade de Granger mostram que crédito Granger causa o produto com defasagem inferior ao encontrado em trabalhos terminados em períodos anteriores há 10 anos, o que sugere que o canal de crédito da política monetária ficou mais rápido quando comparado ao período encerrado em 2001, ao passo que a oferta monetária (M1) não sugere efeitos de causalidades no produto. Nesse sentido, o produto real reage rapidamente a choques de política monetária, porém a análise mostra que o setor varejista reage mais rapidamente do que o setor industrial. Por fim, importante considerar a velocidade do crédito e da moeda para calcular a eficiência do canal de crédito na política monetária no Brasil. Os testes baseados em equações OLS evidenciam que a política monetária consegue afetar a economia real através da velocidade do crédito a partir de dois meses. Dessa forma, as evidências dos testes sugerem que o canal de crédito no Brasil é importante na transmissão da política monetária, conforme o previsto pela teoria do canal de crédito encontrada na literatura econômica; e gera maior valor a avanços nas alterações no produto e, por conseqüência, na inflação, quando utilizada em conjunto com a política monetária via taxa de juros.
Resumo:
O Banco do Brasil tem participado de atividades internacionais desde o final do século XIX. Sua atuação no setor se inicia, como agente do Governo, com atividades relativas a normas, controle e operações cambiais, passando mais tarde a trabalhar no controle e coordenação do comércio exterior e mais recentemente tornando-se um banco internacional com agências na América Latina, Europa, América do Norte, Ásia, África e Oriente Médio. Este fato, ue capital relevância, tanto para a própria instituiçã.o como para a economia brasileira, é o tema deste trabalho que procura investigar como o Banco do Brasil internacional concilia a lógica da entidade pública com a racionalidade empresarial multi nacional. Sob a orientação do pensamento de alguns autor(,f; que têm se preocupado em estudar o fenômeno "Empresas Estatais Multinacionais", é feita uma análise desta instituição em que é observada a coerência entre flua prática como empresa internacional e a teoria levantada. Resultados obtidos atr~vés de pesquisa bibliográfica e entrevistas aos dirigentes da organização possibilitaram que se chegasse a importantes conclusões que permitem compreender e explicar a função de uma empresa estatal brasileira como meio de articulação entre a economia nacional e a internacional.
Resumo:
O OBJETIVO PRINCIPAL DO TRABALHO É DEMONSTRAR QUE A INTERFERÊNCIA GOVERNAMENTAL, VIA PROMULGAÇÃO DE LEIS (REGULAMENTAÇÃO DO MERCADO SECUNDÁRIO DE TÍTULOS, BENEFICIOU SOBEJAMENTE AS GRANDES EMPRESAS: BANCOS COMERCIAIS, EM DETRIMENTO DAS PEQUENAS: SOCIEDADES CORRETORAS E DISTRIBUIDORAS. PARA ATINGIR ESTE FIM, A OBRA INICIA-SE COM UM ESTUDO DE CRLVO MAIS LONGO: O FINANCIAMENTO DOS GASTOS DO GOVERNO, COM ESPECIAL LUSTRE NOS IMPOSTOS, PROCURANDO LEVANTAR OS MOTIVOS DA UTILIZAÇÃO DE OUTRAS FONTES DE CARREAMENTO DE RECURSOS PARA O FINANCIAMENTO DOS GASTOS DO SETOR GOVERNO E COMO ISSO SE PROCESSOU: O SANEAMENTO DA DÍVIDA PÓBLICA FEDERAL INTERNA, POSSIBILITANDO O LANÇAMENTO DE NOVOS PAPÉIS (ORTN E LTN). AS FORMAS CLÁSSICAS DE CONTROLE DA QUANTIDADE DE MOEDA EXISTENTE NO SISTEMA ECONÔMICO: O REDESCONTO E O COMPULSÓRIO. O MERCADO ABERTO. O QUE É MERCADO ABERTO (" OPEN MARKET"). O QUE SÃO OPERAÇOES DE MERCADO ABERTO - SUA IMPORTÂNCIA PARA O CONTROLE DA LIQUIDEZ. OS TÍTULOS CIRCULANTES NO MERCADO. O FUNCIONAMENTO DO MERCADO PRIMÁRIO (COLOCAÇÃO PELO MECANISMO DE LEILÃO. A PARTICIPAÇÃO DOS "DEALERS". AS OPERAÇOES DO MERCADO SECUNDÁRIO DE TÍTULOS: A FINAL, A PREÇO DE MERCADO, A PREÇO FIXO. A RESOLUÇÃO NG 366, DE 09.04.76 E A INSTITUIÇÃO DAS CARTAS DE RECOMPRA PARA AS OPERAÇÕES A PREÇO FIXO. O QUE SÃO E QUAIS OS TIPOS DE COMPROMISSO. A SEGMENTAÇÃO LEGAL DO MERCADO. A NECESSIDADE DE HABILITAÇÃO. POSSIBILIDADES DE ATUAÇÃO E TIPOS POSSÍVEIS DE COMPROMISSO. LIMITES. O TRATAMENTO DIFERENCIADO DE ACORDO COM O CAPITAL. A PROIBIÇÃO DE ATUAÇÃO EM OPERAÇÕES DE GRANDE RISCO. A CRIAÇÃO DE MERCADOS CATIVOS PARA OS TÍTULOS DE EMISSÃO FEDERAL. A ADAPTAÇÃO GRADATIVA. A PARTE FINAL FICA POR CONTA DOS DADOS E GRÁFICOS QUE COMPROVAM A DIMINUIÇÃO PERCENTUAL DA PARTICIPAÇÃO DAS PEQUENAS EMPRESAS NO MERCADO SECUNDÁRIO DE PAPÉIS, COM INCLUSÃO DE APÊNDICE DE LEGISLAÇÃO CONSULTADA.
Resumo:
O objetivo dessa dissertação é estabelecer um modelo quantitativo de gestão de riscos estratégicos de um ativo de produção de petróleo, notadamente o valor em risco do seu fluxo de caixa e de sua rentabilidade. Para tanto, foi utilizado um modelo de fluxo de caixa onde a receita operacional foi definida como variável estocástica. A receita operacional foi estimada a partir de uma função de perdas que descreve o volume de produção de petróleo, e de uma trajetória de preços definida por um modelo geométrico browniano sem reversão a média e com volatilidade descrita por um processo GARCH. Os resultados obtidos demonstram que o modelo proposto é capaz de fornecer informações importantes para a gestão de riscos de ativos de produção de petróleo ao passo que permite a quantificação de diferentes fatores de risco que afetam a rentabilidade das operações. Por fim, o modelo aqui proposto pode ser estendido para a avaliação do risco financeiro e operacional de um conjunto de ativos de petróleo, considerando sua estrutura de dependência e a existência de restrições de recursos financeiros, físicos e humanos.
Resumo:
Ao longo dos últimos 20 anos tem havido uma profusão de estudos que examinam, no âmbito de empresas, a contribuição dos mecanismos de aprendizagem e da adoção de técnicas de gestão para o processo de acumulação tecnológica. No entanto, ainda são escassos os estudos que examinem, de maneira conjunta e sob uma perspectiva dinâmica, o relacionamento entre a adoção de técnicas de gestão, mecanismos de aprendizagem e trajetórias de acumulação de capacidades tecnológicas. Mais que isto, faltam estudos que examinem o duplo papel das técnicas de gestão, ora como parte do estoque de capacidades tecnológicas, ora como um processo de aprendizagem tecnológica em si. Esta dissertação objetiva oferecer uma contribuição para preencher esta lacuna neste campo de estudo. O enfoque desta dissertação deriva de observações empíricas, realizadas em empresas, e inspira-se no clássico estudo Innovation and Learning: the two faces of R&D, de Cohen e Levinthal (1989). Assim a dissertação baseia-se em um estudo de caso individual, realizado em uma empresa do setor siderúrgico no Brasil, no período de 1984 a 2008, examinando estas questões à luz de modelos analíticos disponíveis na literatura internacional. Neste sentido, adotou-se o entendimento de capacidade tecnológica como o conjunto de recursos necessários para gerar e gerir mudanças tecnológicas, sendo construída e acumulada de forma gradual, a partir do engajamento em processos de aprendizagem e da coordenação de bases de conhecimentos acumulados em diferentes dimensões, simbioticamente relacionadas. As métricas utilizadas identificam tipos e níveis de capacidade tecnológica para diferentes funções e identifica quatro tipos de processos de aprendizagem tecnológica e os avalia em termos de suas características-chave. Tomando-se por base evidências empíricas qualitativas e quantitativas, colhidas em primeira mão, a base de trabalho de campo, este estudo verificou que: 1. A empresa acumulou níveis inovativos de capacidades tecnológicas em todas as funções examinadas, sendo o nível Inovativo Intermediário (Nível 5) nas funções Engenharia de Projetos (de forma incompleta) e Equipamentos e o nível Intermediário Avançado (Nível 6) nas funções Processos e Organização da Produção e Produtos. 2. Os mecanismos de aprendizagem subjacentes à acumulação destes níveis de capacidade tecnológica apresentaram resultados relevantes em termos de suas características-chave, principalmente no que diz respeito à variedade e intensidade: de 24 mecanismos em 1984 para um total de 59 em 2008, com uma variação de 145,8%, e com 56 dos 59 mecanismos (94,92%) utilizados atualmente de forma sistemática. 3. O período compreendido entre os anos de 1990 e 2004, no qual foram implementadas as técnicas de gestão estudadas, exceto o Plano de Sugestões, se caracteriza por apresentar a maior taxa de acumulação de capacidades tecnológicas e por dar início à utilização da quase totalidade dos 35 novos mecanismos de aprendizagem incorporados pela empresa após o início de suas operações (1984). E que as técnicas de gestão estudadas: 1. Colaboraram para o processo de aprendizagem tecnológica da AMBJF, principalmente pela necessidade de se: (i) incorporar novos mecanismos de aprendizagem que lhe permitissem acumular, antecipadamente, a base de conhecimentos necessária à implementação das técnicas de gestão estudadas; (ii) coordenar um número maior de mecanismos que dessem o adequado suporte ao aumento da complexidade de seu Sistema de Gestão Integrada (SOl). 2. Ampliaram, por si, o estoque de capacidades tecnológicas da empresa, maIS especificamente em sua dimensão organizacional, a partir da acumulação de conhecimento em procedimentos, instruções de trabalho, manuais, processos e fluxos de gestão e de produção, dentre outros. Desta forma, os resultados aqui encontrados confirmam que a adoção e a implementação das técnicas de gestão estudadas contribuíram com e influenciaram o processo de aprendizagem tecnológica e a trajetória de acumulação tecnológica da empresa, ao mesmo tempo, exercendo, portanto, um duplo papel na organização. Esta conclusão nos leva a um melhor entendimento do tema e pode contribuir para a compreensão de ações políticas e gerenciais que possam acelerar a acumulação de capacidades tecnológicas, entendendo a relevância das técnicas de gestão menos em termos de sua "mera" adoção e mais do seu processo de implementação.
Resumo:
A área de pesquisa de testes não-destrutivos é muito importante, trabalhando com o diagnóstico e o monitoramento das condições dos componentes estruturais prevenindo falhas catastróficas. O uso de algoritmos genéticos para identificar mudanças na integridade estrutural através de mudanças nas respostas de vibração da estrutura é um método não-destrutivo que vem sendo pesquisado. Isto se deve ao fato de que são vantajosos em achar o mínimo global em situações difíceis de problemas de otimização, particularmente onde existem muitos mínimos locais como no caso de detecção de dano. Neste trabalho é proposto um algoritmo genético para localizar e avaliar os danos em membros estruturais usando o conceito de mudanças nas freqüências naturais da estrutura. Primeiramente foi realizada uma revisão das técnicas de detecção de dano das últimas décadas. A origem, os fundamentos, principais aspectos, principais características, operações e função objetivo dos algoritmos genéticos também são demonstrados. Uma investigação experimental em estruturas de materiais diferentes foi realizada a fim de se obter uma estrutura capaz de validar o método. Finalmente, se avalia o método com quatro exemplos de estruturas com danos simulados experimentalmente e numericamente. Quando comparados com técnicas clássicas de detecção dano, como sensibilidade modal, os algoritmos genéticos se mostraram mais eficientes. Foram obtidos melhores resultados na localização do que na avaliação das intensidades dos danos nos casos de danos propostos.
Resumo:
Esta dissertação investiga a efetividade das práticas de governança corporativa contidas no Regulamento do Novo Mercado (RNM), segmento especial de listagem da BM&FBOVESPA criado em 2000. Em tese, tais práticas deveriam assegurar a proteção efetiva dos direitos dos investidores de companhias desse segmento. Contudo, alguns casos ocorridos ao longo da primeira década do Novo Mercado lançaram dúvida sobre o respeito aos direitos dos acionistas de suas companhias. Entre eles, dois casos se destacam: Cosan, em 2007, e Tenda, em 2008. Especificamente, a presente pesquisa analisa qualitativamente e em profundidade ambos os casos a fim de verificar se as regras do RNM e as instituições responsáveis por sua aplicabilidade foram suficientes para proteger os investidores. Metodologicamente, utilizou-se a abordagem de estudo de caso de “crise corporativa” e “autopsia institucional” baseada em MILHAUPT e PISTOR (2008). Observou-se que o Novo Mercado foi resultado de um transplante jurídico e que a mera adoção de regras do segmento não foi suficiente para garantir a proteção efetiva aos investidores. Como resultado principal, concluiu-se que as operações societárias lideradas pelos controladores das companhias não só contrariaram regras do segmento (e princípios de governança que nortearam sua criação) como também podem ter infringido a regulação. Com isso, evidencia-se a falta de fiscalização do cumprimento das regras e de punição por parte da BM&FBOVESPA, bem como uma atitude insuficiente da CVM quando de potenciais infrações a dispositivos do ambiente regulatório brasileiro. Por outro lado, o Novo Mercado foi, no mínimo, indiretamente responsável pelo aprimoramento do arcabouço regulatório brasileiro na incorporação de novos instrumentos de proteção aos investidores. Os resultados deste trabalho podem auxiliar na elaboração de reformas na regulação e autorregulação a fim de facilitar a executoriedade das normas já existentes, a qual pode proporcionar maior credibilidade ao mercado de valores mobiliários e fomentar, em última instância, o desenvolvimento do mercado de capitais brasileiro. Trata-se de discussão fundamental, haja vista que a credibilidade do segmento mais exigente quanto às práticas de governança da Bolsa depende da proteção efetiva aos investidores, razão de criação do Novo Mercado.
Resumo:
Esta dissertação estuda o movimento do mercado acionário brasileiro com o objetivo de testar a trajetória de preços de pares de ações, aplicada à estratégia de pair trading. Os ativos estudados compreendem as ações que compõem o Ibovespa e a seleção dos pares é feita de forma unicamente estatística através da característica de cointegração entre ativos, sem análise fundamentalista na escolha. A teoria aqui aplicada trata do movimento similar de preços de pares de ações que evoluem de forma a retornar para o equilíbrio. Esta evolução é medida pela diferença instantânea dos preços comparada à média histórica. A estratégia apresenta resultados positivos quando a reversão à média se efetiva, num intervalo de tempo pré-determinado. Os dados utilizados englobam os anos de 2006 a 2010, com preços intra-diários para as ações do Ibovespa. As ferramentas utilizadas para seleção dos pares e simulação de operação no mercado foram MATLAB (seleção) e Streambase (operação). A seleção foi feita através do Teste de Dickey-Fuller aumentado aplicado no MATLAB para verificar a existência da raiz unitária dos resíduos da combinação linear entre os preços das ações que compõem cada par. A operação foi feita através de back-testing com os dados intra-diários mencionados. Dentro do intervalo testado, a estratégia mostrou-se rentável para os anos de 2006, 2007 e 2010 (com retornos acima da Selic). Os parâmetros calibrados para o primeiro mês de 2006 puderam ser aplicados com sucesso para o restante do intervalo (retorno de Selic + 5,8% no ano de 2006), para 2007, onde o retorno foi bastante próximo da Selic e para 2010, com retorno de Selic + 10,8%. Nos anos de maior volatilidade (2008 e 2009), os testes com os mesmos parâmetros de 2006 apresentaram perdas, mostrando que a estratégia é fortemente impactada pela volatilidade dos retornos dos preços das ações. Este comportamento sugere que, numa operação real, os parâmetros devem ser calibrados periodicamente, com o objetivo de adaptá-los aos cenários mais voláteis.