13 resultados para Impostos locais

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo testou a existência do efeito clientela no cenário brasileiro, verificando se o preço das ações que pagaram dividendos durante os anos de 1996 a 1998 comportou-se conforme o modelo de Elton e Gruber (1970). Além disso, verificou a existência de alguma anormalidade no retomo das ações no primeiro dia ex-dividend. Em relação ao modelo de Elton e Gruber, dos 620 eventos analisados, em apenas quatro casos, o valor da ação no 10 dia após o pagamento do dividendo situou-se dentro do intervalo teórico esperado. Trinta por cento dos eventos apresentaram um resultado surpreendente, em que o preço da ação no primeiro dia ex-dividend foi maior do que na data em que a ação tinha direito de receber dividendos. Essas constatações contrariam as expectativas do modelo, e esse comportamento pode ser considerado irracional, já que se estaria pagando mais por uma ação sem direito a dividendos, do que quando esta tinha direito a recebê-lo. O cálculo dos retornos anormais evidenciou um retomo anormal médio positivo no primeiro dia exdividend de 5,2% para a amostra total e de 2,4% para a amostra sem outliers. Além disso, constataram-se retornos anormais significativos a 5% e 1% em outros dias da janela do evento, o que demonstra o comportamento anormal do mercado desses papéis nesse período. O retomo anormal cumulativo (CAR) apresentou um retomo residual de 5% no 50 dia ex-dividend para a amostra total e 2% após a exclusão dos outliers, o que significa que as empresas que distribuíram dividendos obtiveram um retomo anormal no preço de suas ações durante a janela do evento. Verificou-se, ainda, uma relação diretamente proporcional entre o yield da ação e os resultados anormais encontrados em ambas as hipóteses. Isso se deve à redução de incerteza e à minimização do risco do investidor. As empresas que optaram por pagar altos dividendos em valores absolutos e yields elevados para as suas ações apresentaram retornos anormais médios superiores aos demais. Enfim, os resultados encontrados não identificaram evidências de efeito clientela no mercado acionário brasileiro. Pode-se dizer que a formação de preços das ações que distribuem dividendos no Brasil está bem mais relacionada à minimização da incerteza do investidor do que influenciada pela interferência tributária nos mesmos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A inserção das empresas transnacionais no Brasil afeta a competitividade das empresas brasileiras. Há dificuldades de crescimento ou mesmo de sobrevivência das empresas com atuação local frente ao processo de Globalização. Neste contexto, a cadeia do leite é exemplar, pois apresenta concentração no elo da industrialização, com a presença tanto de empresas transnacionais instaladas no país como pela importação de produtos lácteos dos países do MERCOSUL (principalmente Uruguai e Argentina). Neste estudo é analisada uma empresa transnacional, líder de mercado em alguns segmentos de produtos lácteos, que se instalou no país nos últimos anos. É caracterizada e descrita a forma de inserção adotada, a configuração e a coordenação internacional, além do papel estratégico que a subsidiária brasileira exerce na estratégia da matriz. No que concerne as empresas locais, apresentam-se casos de três laticínios locais que também posicionam-se no elo da industrialização do leite. São identificadas quais as opções estratégias que elas adotaram com as mudanças do mercado, e em particular com a entrada da transnacional no país. Os resultados deste trabalho contribuem pela utilização de um referencial teórico novo e trabalhando de forma conjunta duas questões importantes, porém tratadas separadamente na literatura, como configuração e cooperação. No nível prático, exemplificou-se a gama de opções estratégicas disponíveis às empresas locais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A simulação computacional de processos é uma ferramenta valiosa em diversas etapas da operação de uma planta química, tais como o projeto, a análise operacional, o estudo da estratégia de controle e a otimização, entre outras. Um programa simulador requer, freqüentemente, o cálculo das propriedades termofísicas que fazem parte das equações correspondentes aos balanços de massa, energia e quantidade de movimento. Algumas dessas quantidades, típicas de operações baseadas no equilíbrio de fases (tais como a destilação fracionada e a separação flash), são as fugacidades e entalpias das fases líquida e vapor em equilíbrio. Contudo, o uso de modelos e correlações cada vez mais sofisticadas para representar acuradamente as propriedades termofísicas dos sistemas reais fez com que grande parte do tempo gasto numa simulação de processos seja devida à avaliação destas propriedades. Muitas estratégias têm sido propostas na literaturas a fim de se reduzir a carga computacional envolvida na simulação, estática e dinâmica, dos problemas de Engenharia Química. Esta diminuição do tempo de processamento pode muitas vezes ser determinante na aplicação ou não da simulação de processos na prática industrial, como, por exemplo, no controle automático. Esta dissertação aborda uma das alternativas para a redução do tempo computacional gasto na simulação de processos: a aproximação das funções que descrevem as propriedades termofísicas através de funções mais simples, porém de fácil avaliação. Estas funções, a fim de se garantir uma aproximação adequada, devem ser corrigidas ou atualizadas de alguma forma, visto que se tratam de modelos estritamente válidos em uma pequena região do espaço das variáveis, sendo, por isto, chamados de modelos locais. Partindo-se do estado atual desta técnica, é proposta nesta dissertação uma nova metodologia para se efetuar esta aproximação, através da representação global da propriedade mediante múltiplas funções simples, constituindo, desse modo, uma rede de modelos locais. Algumas possibilidades para a geração efetiva destas redes são também discutidas, e o resultado da metodologia é testado em alguns problemas típicos de separação por equilíbrio de fases.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de melhor se adaptar ao ambiente de competição (informacional) global, que se estrutura e se impõe a partir de uma ´divisão inter-regional do trabalho´, as regiões tendem a desenvolver estratégias de planejamento regional e urbano com o objetivo de impulsionar o parque produtivo informacional local. Intentam desta maneira compôr mecanismos locais que permitam a formação de um Sistema Local de Inovação, baseado na interação sinergética entre os atores sociais. Esta articulação regional trabalha em diversas esferas espaciais (e consequentemente temporais), uma vez que a fluida lógica estrutural do sistema informacional global (´espaço de fluxos´) difere dos mecanismos locais de articulação, pois estes estão ligados teluricamente às tradições culturais (´espaço de lugares´). Segundo Castells, o ´espaço de fluxos´ é definido como sendo um sistema de alcance global estruturado em redes (nós e eixos) permeadas por informações que circulam (eletronicamente) instantaneamente. Porém a dinâmica do sistema é gerada a partir do historicamente construído ´espaço de lugares´(local), articulado reflexivamente a partir da ação de três instituições internas (reconhecidas pelo modelo da Hélice Tripla como: universidades, empresas e governo). De maneira geral, podemos observar que a universidade, enquanto instituição empreendedora e voltada para a produção de inovações informacionais, passa a exercer importante função catalisadora deste processo de organização das forças produtivas regionais (a nível de ´espaço de lugares´) Reconhecendo que há uma tendência à incompatibilidade entre as esferas espaciais de articulação citadas (embora elas tenham uma existência ativa), esta dissertação irá sugerir a pertinência da observação de uma articulação espacial híbrida, tanto global-informacional quanto local-cultural (denominada ´espaço híbrido´), atuando estrategicamente na construção dos Sistemas Locais de Inovação. Desta maneira, com a finalidade de estruturar espacialmente os Sistemas Locais de Inovação, uma das principais estratégias que o planejador regional dispõe é a da formação e potencialização de clusters espaciais de inovação, na forma de programas de criação de pólos e/ou parques tecnológicos (e/ou tecnópoles). Tendo como objetivo a criação de um processo produtivo local sinergético e informacional, são projetadas e aplicadas políticas industriais e urbanas de longo prazo que buscam retirar o máximo possível da proximidade espacial existente e/ou induzida. Como estudo de caso, serão analisados projetos intra-urbanos atuantes nas áreas das Ciências da Vida. Inicialmente serão apresentados quatro casos internacionais, para por fim serem comparados ao projeto Porto Alegre Tecnópole (e em especial ao projeto Cidade Saúde de Porto Alegre).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta e a implementação de um sistema de gerência de energia para redes locais de computadores (Local Area Networks ou LANs). Desde sua introdução, no início dos anos 90, os mecanismos de gerência de energia para computadores têm contribuído de maneira significativa para a redução do consumo nos períodos de inatividade, mas podem ter seu efeito minimizado por uma série de fatores, dentre os quais destaca-se a conexão do equipamento a uma rede. Em linhas gerais, o objetivo do sistema proposto é, justamente, facilitar a gerência de energia em ambientes de rede. O funcionamento do sistema é baseado na aplicação de políticas de consumo definidas pelo administrador da rede. As políticas podem ser aplicadas em duas situações distintas: em horários pré-determinados (p. ex. depois do horário comercial), quando podem ajudar a reduzir o desperdício de energia, ou em resposta a alterações no fornecimento de energia, caso a rede seja protegida por no-breaks, quando a redução no consumo resulta em maior tempo de autonomia da fonte reserva (banco de baterias). As políticas são configuradas através de um mecanismo flexível, que permite não apenas desligar os equipamentos, mas colocá-los em estados intermediários de consumo e executar outros tipos de ações. A arquitetura do sistema é baseada no modelo SNMP (Simple Network Management Protocol) de gerência de redes. É composta, basicamente, de agentes, elementos de software que residem nos equipamentos da rede e detêm o conhecimento específico sobre suas características de consumo de eletricidade, e de um gerente, elemento central que contém a configuração das políticas de consumo e que é responsável pelo monitoramento e controle dos agentes. Gerente e agentes comunicam-se através do protocolo SNMP, trocando informações segundo uma base de informações (MIB) projetada especificamente para a gerência de energia. A ênfase da parte prática do trabalho está no gerente, que foi inteiramente implementado através da linguagem Java, utilizando bibliotecas disponíveis gratuitamente. Adicionalmente, foi implementado um agente-protótipo para a plataforma Windows, o que permitiu observar o sistema completo em execução. Os testes permitiram validar a praticabilidade da arquitetura e estimar o ganho potencial proporcionado pela utilização do sistema. São apresentadas medições que demonstram um aumento de até 6 vezes na autonomia do banco de baterias do no-break para uma configuração de rede pequena, utilizando o sistema para desligar automaticamente 90% dos computadores durante um corte no fornecimento externo. A economia decorrente da redução de consumo em horários de inatividade foi estimada em até R$0,63 por computador no período de um ano (tomando por base a tarifa média praticada no Brasil entre janeiro e maio de 2002).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A equação de difusão-advecção é muito utilizada no campo de estudos da poluição atmosférica na determinação da concentração de poluentes. Uma maneira de solucionar o problema de fechamento desta equação está baseada na hipótese de transporte por gradiente que, em analogia com a difusão molecular, assume que o fluxo turbulento de concentração é proporcional à magnitude do gradiente de concentração média. Neste trabalho, diferentemente do modo tradicional, utiliza-se uma equação genérica para a difusão turbulenta considerando-se que o fluxo mais a sua derivada são proporcionais ao gradiente médio. Desta forma, obtém-se uma equação que leva em conta a assimetria no processo de dispersão de poluentes atmosféricos. Portanto, a proposta do presente trabalho é a obtenção da solução analítica desta nova equação utilizando-se a técnica da Transformada de Laplace, considerando-se a Camada Limite Planetária (CLP) como um sistema multicamadas. Os parâmetros que encerram a turbulência sâo derivados da teoria de difusão estatística de Taylor combinada com a teoria de similaridade convectiva válidos para grandes tempos de difusão. Finalmente, na avaliação da performance deste modelo que considera a assimetria no processo de dispersão de poluentes atmosféricos, utilizam-se os dados experimentais de Copenhagen e Prairie Grass.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho analisa a ocorrência de efeitos de sinalização através dos anúncios de pagamentos de proventos pelas empresas brasileiras negociadas em bolsa, testando as teorias de Bhattacharya (1979) e John e Williams (1985). São analisados 203 anúncios de proventos de 1996 a 2003, período em que os dividendos não foram tributados no Brasil e juros sobre o capital próprio sofreram tributação a alíquota de 15%. Os resultados para a amostra completa indicam que não há retorno anormal significativo no dia do evento e também em janelas de 3 dias e 21 dias centradas no evento. A sub-amostra de dividendos, que são isentos de tributação, não apresentou sinalização, com AR[0] de 0,29%, CAR[-1,+1] de 0,15% e CAR[-10,+10] de 0,08%, todos sem significância estatística ao nível de 10%. Anúncios de juros sobre o capital próprio apresentaram reação negativa, um resultado inesperado, já que estes proventos são tributados e deveriam sinalizar positivamente. Foram obtidos AR[0] de -0,77% (significativo ao nível de 5%), CAR[-1,+1] de -0,30% e CAR[-10,+10] de -1,31% (ambos sem significância estatística ao nível de 10%). Anúncios de dividendos no Brasil se comportam como prevê a teoria de sinalização e aumentam as evidências ao seu favor. Anúncios de juros sobre o capital próprio contradizem a teoria de sinalização, e trazem a tona a necessidade de novas explicações para o comportamento dos anúncios destes proventos típicos do Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tecnologia de rede dominante em ambientes locais é ethernet. Sua ampla utilização e o aumento crescente nos requisitos impostos pelas aplicações são as principais razões para a evolução constante presenciada desde o surgimento deste tipo de rede simples e barata. Na busca por maior desempenho, configurações baseadas na disputa por um meio de transmissão compartilhado foram substituídas por topologias organizadas ao redor de switches e micro-segmentadas, ou seja, com canais de transmissão individuais para cada estação. Neste mesmo sentido, destacam-se os dispositivos de qualidade de serviço padronizados a partir de 1998, que permitem a diferenciação de tráfego prioritário. O uso desta tecnologia em ambientes de automação sempre foi refreado devido à imprevisibilidade do protocolo CSMA/CD. Entretanto, o uso de switched ethernet em conjunto com a priorização de tráfego representa um cenário bastante promissor para estas aplicações, pois ataca as duas fontes principais de indeterminismo: colisões e enfileiramento. Este trabalho procura avaliar esta estrutura em ambientes de controle distribuído, através de uma análise temporal determinística. Como resultado, propõe-se um modelo analítico de cálculo capaz de prever os valores máximos, médios e mínimos do atraso fim-a-fim observado nas comunicações de diferentes classes de tráfego. Durante a análise, outras métricas relevantes são investigadas como a variação no atraso (jitter) e a interferência entre classes de prioridades distintas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo o estudo e a integração, como forma de validação, de ferramentas de software livre para o uso em Gerência e Monitoração de Redes de computadores. Com o crescimento das redes surgiu a necessidade por controle de seus recursos. Desta necessidade foi criado o protocolo SNMP, utilizado nos dias de hoje como padrão de fato na gerência e monitoração de redes. Anteriormente ao surgimento do Software Livre, para a atividade de gerência e monitoração, existiam apenas produtos proprietários, os quais estavam restritos a poucas empresas que podiam arcar com seus custos. Com o surgimento do Software Livre, ferramentas simples de gerência e monitoração começaram a ser criadas. Estas ferramentas simples necessitam ser integradas de forma a prover maior quantidade de recursos. O método proposto desenvolve um protótipo capaz de integrar várias ferramentas de gerência e monitoração utilizando exclusivamente ferramentas de Software Livre. E para demonstrar a idéia na prática, um Estudo de Caso é apresentado utlizando o protótipo desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho estudamos a regularidade de fun»c~oes que minimizam funci- onais com comportamento quadr¶atico. Provamos que estes m¶³nimos locais s~ao fun»c~oes diferenci¶aveis e suas derivadas s~ao fun»c~oes de HÄolder. Al¶em disso, optimizamos o expoente de HÄolder para funcionais que satisfazem cer- tas condi»c~oes de crescimento.