922 resultados para IMI, método de actualização, taxas, coeficientes técnicos, benefícios fiscais, valor patrimonial tributário.


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nas últimas décadas a operação de parte das rodovias brasileira foi transferida à iniciativa privada através de concessões. Seguindo tendências mundiais, o governo federal e os governos estaduais criaram as agências reguladoras, responsáveis pelo controle das concessões. Neste contexto, ganha importância a utilização de instrumentos que avaliem as condições gerais dos elementos físicos e dos serviços, essenciais ao desempenho das funções sociais e econômicas das rodovias. O objetivo desta dissertação é o desenvolvimento e aplicação de um modelo de avaliação de rodovias concedidas por parte de técnicos. A consulta ao estado da arte e da prática em avaliação rodoviária, a procedimentos de monitoração previstos em contratos de concessão e ao plano de fiscalização da Agência Nacional de Transportes Terrestres (ANTT) concorreram para a definição de um modelo teórico de avaliação técnica e subjetiva. Este modelo baseia-se em uma estrutura de itens que representam os vários elementos físicos e de serviços de uma concessão. Tal estrutura permite monitorar, de forma dinâmica, a qualidade rodoviária a partir dos seguintes níveis de agregação: itens, constructos (agrupamento de itens), trechos e concessão como um todo. A definição dos itens de avaliação, de suas ponderações (importâncias relativas) e de seus critérios de avaliação foi conduzida através da realização de grupos focados junto a técnicos de rodovias. Para a definição dos itens utilizou-se ainda a literatura como fonte de informação. A ponderação dos itens baseou-se na aplicação do Método de Análise Hierárquica em grupos focados. A aplicação do modelo de avaliação ocorreu através de dois estudos de caso: concessão 1 e concessão 2. Em relação à ponderação dos itens de avaliação, destacam-se itens dos constructos pavimento e sinalização, que representam aproximadamente 27% da importância da nota de uma concessão, cada. O item relacionado a panelas e buracos apresenta uma importância de aproximadamente 10% da nota. A análise da condição e da importância dos itens permitiu verificar os constructos mais críticos das concessões. A concessão 1 apresenta, como críticos, os constructos pavimento; sinalização; vegetação, limpeza, drenagem e visibilidade; e serviços prestados pela concessionária. A concessão 2 apresenta, como críticos, os constructos pavimento; acostamentos, refúgios e encostas; pontes, viadutos e túneis; sinalização; vegetação, limpeza, drenagem e visibilidade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

trata da determinação das taxas de desconto ajustadas ao risco para avaliação, pelo método do fluxo de caixa descontado, do valor econômico de estatais brasileiras privatizadas no período 1991-1992. Utiliza conceitos financeiros como valor presente líquido, eficiência de mercado, capital asset pricing model e risco sistemático, que são aplicados a dados do mercado de capitais e demonstrativos financeiros das empresas. Com as metodologias de regressão linear simples múltipla, desenvolve uma equação que relaciona índices fundamentais com os coeficientes de risco sistemático (betas) das empresas de uma amostra, que por sua vez serve para estimar os coeficientes de risco das estatais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente estudo busca entender como profissionais técnicos, cuja opção inicial de carreira não era o empreendedorismo, efetuaram uma transição ao longo do tempo e se tornaram empreendedores. A pesquisa é de caráter qualitativo e exploratório, utilizando-se o método de investigação de Estória de Vida, por meio de entrevistas em profundidade com três empreendedores com formação universitária em cursos técnico-científicos. Identificaram-se experiências durante toda a vida do indivíduo capazes de desenvolver características e conhecimentos inerentes a um empreendedor, e que ao longo de suas carreiras pressionaram uma mudança de suas escolhas profissionais iniciais

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trata da apresentação técnica conhecida como Macaulay Duration e sua aplicação na administração do risco de taxa de juros. Aborda aspectos conceituais e práticos da medida e as recentes discussões a respeito de sua aplicabilidade e limitações em finanças.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é examinar a hipótese de que a estrutura a termo das taxas de juros é um bom indicador antecedente das trajetórias futuras da inflação e da atividade econômica, especificamente para o caso brasileiro, no período de 1999 a 2006. As evidências empíricas, examinadas através de regressões da inclinação da curva de juros realizadas contra a variação futura da produção industrial (IBGE) apresentaram resultados pouco robustos, porém coeficientes significativos a 5% (para prazos de projeção de 3 a 18 meses). Quando controlada para outras variáveis explicativas, manteve seu poder de previsão, sugerindo que há conteúdo informacional relevante na inclinação da curva de juros para previsão da produção industrial futura. As regressões realizadas contra a variação futura do PIB a preços constantes (IBGE) apresentaram resultados bastante fracos e coeficientes pouco significativos. Por outro lado, os resultados empíricos das regressões do spread da curva de juros contra a variação futura da inflação (IPCA) mostraram-se robustos, para todas as especificações de diferencial de curva de juros. Novamente, quando controlada para outras variáveis explicativas, manteve seu poder de previsão. As conclusões deste trabalho permitem sugerir aos bancos centrais estar atentos à informação contida na estrutura a termo de juros, utilizando-a como mais um input de informação nos modelos utilizados pela autoridade monetária para suas decisões de política monetária.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho é apresentada uma solução analítica de um problema bidimensional e transiente de dispersão de poluentes atmosféricos. O modelamento utilizado é conhecido na literatura como modelo Kzz para dispersão de poluentes atmosféricos e é representado por uma equação difusivo-advectiva com coeficientes de difusão e advecção variáveis. São utilizados três diferentes coeficientes de difusão nas simulações, bem como as componentes horizontal e vertical do vento são tomadas como variáveis. A solução analítica é gerada através da aplicação da técnica GITT (Generalized Integral Transform Technique) dupla com problema transformado resolvido por Transformada de Laplace e diagonalização de matrizes. Filtros matemáticos são usados para homogenizar as condições de contorno viabilizando o uso da técnica citada. Além disso, o tipo de filtro matemático utilizado permite a sensível diminuição do custo computacional. Resultados numéricos são obtidos e comparados com dados experimentais e outras soluções da literatura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existem mais de 50 mil ONGs internacionalizadas no planeta. Tais entidades são muito importantes para a conscientização da sociedade, para o monitoramento de empresas e órgãos governamentais, para a ajuda na criação de organizações intergovernamentais internacionais, entre outras funções. Entretanto, apesar da internacionalização de empresas e da gestão do terceiro setor serem ambas estudadas há várias décadas, existem poucos trabalhos acadêmicos (especialmente com a lente da área de management) que exploram o cruzamento destes dois temas: a internacionalização de organizações não governamentais sem fins lucrativos. Sendo assim, o principal propósito desta pesquisa é o estudo da seguinte questão de pesquisa: por que as ONGs se internacionalizam e como são definidas as estratégias de internacionalização das mesmas? Após a revisão bibliográfica e entrevistas exploratórias iniciais, realizei pesquisas de campo através de estudos de caso (quatro casos foram estudados) e de uma survey (367 respondentes). Como principais “achados”, pode-se citar a percepção de que há mais benefícios do que custos ao se internacionalizar uma ONG, indícios mostraram que o processo de decisão é racional e que motivações “econômicas” estão entre as mais importantes na decisão de ir ao estrangeiro, de escolher um parceiro neste processo e de escolher quais serão os países de destino. Os estudos de caso revelaram também a forte influência do empreendedor social na internacionalização das entidades. Identificou-se um forte caráter “emergente” no processo de ida ao estrangeiro, em contraponto a uma estratégia de internacionalização mais planejada. Entretanto, identificou-se que quanto maior a maturidade internacional da ONG, mais planejado tende a ser o processo de expansão geográfica internacional. Quanto às parcerias e à rede das ONGs, constatou-se que os relacionamentos influenciam na internacionalização. As percepções levantadas na survey não só confirmaram as impressões dos casos, como apontaram alguns indícios interessantes. As principais motivações para a internacionalização de uma ONG citadas pelos profissionais foram: captar recursos no exterior, trazer boas práticas e atender necessidades no estrangeiro. Desconhecimento de formatos legais de atuação no estrangeiro foi a barreira apontada como mais relevante. Foram elencados também os principais critérios na escolha dos destinos da internacionalização e os principais motivadores para o uso de redes no processo. Sugeri diversos temas futuros de pesquisa que acredito que possam avançar alguns “tijolos” na construção do conhecimento ligado ao tema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho analisa o impacto de surpresas inflacionárias, definidas como a diferença entre inflação esperada e inflação efetiva, sobre as variações na expectativa dos agentes em relação à política monetária, medida através da Estrutura a Termo de Taxa de Juros retirada dos contratos de juros futuros da BM&F. A abordagem empírica utilizada foi a do método dos Mínimos Quadrados Ordinários com erros robustos à heterocedasticidade, identificado a partir das variações exógenas decorrentes da divulgação mensal do índice IPCA de inflação. Para o período de janeiro de 2003 a outubro de 2012, os resultados estão em linha com que o que é esperado e mostram que os agentes alteram suas expectativas de política monetária quando são surpreendidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, apresenta-se um estudo numérico de um modelo convectivo-difusivo-reativo em combustão baseado no Método de Elementos Finitos. Primeiramente, apresenta-se o desenvolvimento das equações de balanço (quantidade de movimento, massa, espécie e energia) que modelam um processo de mistura molecular e reação química, irreversível, de passo único e exotérmica entre duas espécies químicas F (Combustível) e O (Oxidante). Tais espécies reagem e formam um produto P, conforme vFF +vOO ! vPP + calor, onde vF , vO e vP são os coeficientes estequiométricos molares. No modelo, considera-se que a reação é de primeira ordem com respeito a cada um dos reagentes e que a taxa de reação específica segue a cinética de Arrhenius. Em seguida, o modelo é estudado numericamente considerando-se um domínio retangular e condições de contorno do tipo Neumann. Tanto a Técnica das Diferenças Finitas como a Técnica de Elementos Finitos são utilizadas na discretização espacial das equações do modelo. Para a integração no tempo, utiliza-se a método de Runge-Kutta simplificado de três estágios. Os diferentes códigos computacionais obtidos, tanto pela Técnica de Diferenças Finitas como de Elementos Finitos, são comparados frente ao problema de interesse. Observa-se que ambas as técnicas apresentam resultados equivalentes. Além disso, os códigos desenvolvidos são robustos (capazes de lidar com vários conjuntos de parâmetros), de baixo custo e precisos. Por fim, apresenta-se uma revisão do trabalho de Zavaleta [48], no qual obtem-se uma estimativa local do erro na aproximação do problema estudado pela Técnica de Elementos Finitos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese é composta por três artigos. Dois deles investigam assuntos afeitos a tributação e o terceiro é um artigo sobre o tema “poupança”'. Embora os objetos de análise sejam distintos, os três possuem como característica comum a aplicação de técnicas de econometria de dados em painel a bases de dados inéditas. Em dois dos artigos, utiliza-se estimação por GMM em modelos dinâmicos. Por sua vez, o artigo remanescente é uma aplicação de modelos de variável dependente latente. Abaixo, apresenta-se um breve resumo de cada artigo, começando pelos dois artigos de tributação, que dividem uma seção comum sobre o ICMS (o imposto estadual sobre valor adicionado) e terminando com o artigo sobre poupança. O primeiro artigo analisa a importância da fiscalização como instrumento para deter a evasão de tributos e aumentar a receita tributária, no caso de um imposto sobre valor adicionado, no contexto de um país em desenvolvimento. O estudo é realizado com dados do estado de São Paulo. Para tratar questões relativas a endogeneidade e inércia na série de receita tributária, empregam-se técnicas de painel dinâmico. Utiliza-se como variáveis de controle o nível do PIB regional e duas proxies para esforço fiscal: a quantidade e o valor das multas tributárias. Os resultados apontam impacto significativo do esforço fiscal nas receitas tributárias. O artigo evidencia, indiretamente, a forma como a evasão fiscal é afetada pela penalidade aplicada aos casos de sonegação. Suas conclusões também são relevantes no contexto das discussões sobre o federalismo fiscal brasileiro, especialmente no caso de uma reforma tributária potencial. O segundo artigo examina uma das principais tarefas das administrações tributárias: a escolha periódica de contribuintes para auditoria. A melhora na eficiência dos mecanismos de seleção de empresas tem o potencial de impactar positivamente a probabilidade de detecção de fraudes fiscais, provendo melhor alocação dos escassos recursos fiscais. Neste artigo, tentamos desenvolver este mecanismo calculando a probabilidade de sonegação associada a cada contribuinte. Isto é feito, no universo restrito de empresas auditadas, por meio da combinação “ótima” de diversos indicadores fiscais existentes e de informações dos resultados dos procedimentos de auditoria, em modelos de variável dependente latente. Após calculados os coeficientes, a probabilidade de sonegação é calculada para todo o universo de contribuintes. O método foi empregado em um painel com micro-dados de empresas sujeitas ao recolhimento de ICMS no âmbito da Delegacia Tributária de Guarulhos, no estado de São Paulo. O terceiro artigo analisa as baixas taxas de poupança dos países latino-americanos nas últimas décadas. Utilizando técnicas de dados em painel, identificam-se os determinantes da taxa de poupança. Em seguida, faz-se uma análise contrafactual usando a China, que tem apresentado altas taxas de poupança no mesmo período, como parâmetro. Atenção especial é dispensada ao Brasil, que tem ficado muito atrás dos seus pares no grupo dos BRICs neste quesito. O artigo contribui para a literatura existente em vários sentidos: emprega duas amplas bases de dados para analisar a influência de uma grande variedade de determinantes da taxa de poupança, incluindo variáveis demográficas e de previdência social; confirma resultados previamente encontrados na literatura, com a robustez conferida por bases de dados mais ricas; para alguns países latino-americanos, revela que as suas taxas de poupança tenderiam a aumentar se eles tivessem um comportamento mais semelhante ao da China em outras áreas, mas o incremento não seria tão dramático.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos últimos dez anos, milhares de trabalhos foram publicados somente no desenvolvimento da técnica de eletroforese capilar (CE) e suas aplicações em ciências biológicas, química e em outras áreas. Apesar disto, muitos tópicos de pesquisa básica da CE ainda continuam sendo desenvolvidos. Algumas vantagens da CE sobre as demais técnicas de separação são marcantes, tais como: possibilidade de automação, rapidez na obtenção dos resultados e alto poder de resolução. A pequena quantidade de amostra que é necessária para uma análise é uma característica muito interessante no estudo de sistemas biológicos, sendo que normalmente são injetados no capilar, volumes de 5 a 50 nl de amostra. Por outro lado, esta reduzida quantidade de amostra utilizada, a pequena janela de detecção e as baixas concentrações dos analitos nas amostras biológicas, são fatores que desafiam os pesquisadores nesta área. Para contornar este problema diversos métodos de pré-concentração de amostra foram desenvolvidos. Neste trabalho, foi desenvolvido um método inédito de pré-concentração de amostras através de gradientes térmicos em CE. O princípio do método é concentrar o analito quando ele passa de uma zona de alta temperatura para uma zona de baixa temperatura. Um modelo teórico foi desenvolvido para auxiliar o planejamento experimental no que diz respeito à determinação das condições em que a corrida deve ser realizada (pH, tipo de tampão, temperatura) para aplicar a compressão térmica em um analito. Foi utilizado L-Lisina derivatizada com naftaleno 2,3-dicarboxialdeído (Lys/NDA) como analito modelo. Uma diferença de temperatura de 58 °C entre as duas zonas térmicas foi suficiente para comprimir em 2,5 vezes a banda da Lys/NDA em um tampão de baixo coeficiente térmico com o pH ajustado para 8,7. O método de compressão de banda por gradientes térmicos proposto neste trabalho é uma nova opção para aumentar a sensibilidade e a resolução em CE. Ao contrário dos métodos clássicos de pré-concentração, esse novo método pode ser aplicado em amostras tanto com alta ou baixa condutividade iônica, comprimir bandas de analitos aniônicos ou catiônicos e ser aplicado em corridas em solução livre ou não. Além disso, considerando que o controle de temperatura seja realizado de maneira automatizada, pode apresentar altas taxas de reprodutibilidade, além de ser de simples e de fácil aplicação, podendo ser empregado em análises de rotina. Diferentes LEDs (Light Emitting Diode) foram testado em detector por fluorescência induzida por LED. Além disso, um novo sistema de aquisição de dados e tratamento de sinal utilizando a placa de som de um PC (Personal Computer) e um amplificador Lock-in emulado por software foi montado e comparado com um sistema de aquisição de dados convencional. O equipamento de CE utilizado neste trabalho com esses componentes, apresentou uma elevada sensibilidade, na faixa de 0,5 à 1 fmol para os peptídeos e aminoácidos testados e foi superior ao sistema convencional em vários aspectos como: sensibilidade de detecção, faixa linear de detecção em concentração do analito, facilidade de operação e custo do sistema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é obter os parâmetros turbulentos para o crescimento da camada limite planetária (CLP), durante a realizaçãoo do experimento Olad (Overland along wind dispersion experiment), conduzido na transição da noite para o dia. Nesta hora a CLP exibe uma altura, geralmente, pequena, disponibilizando pouco volume para a dispersão dos poluentes. Assim, concentrações superficiais elevadas podem ocorrer, atacando materiais, plantas e a saúde da população. Logo, conhecer os parâmetros do crescimneto é de fundamental importância para o correto modelamento da dispersão atmosférica ao amanhecer. A validação dos parâmetros é realizada a partir da solução da equação da difusão-advecção bidimensional, pelo método da GILTT (Generalized Integral Laplace Transform Technique). São empregados coeficientes de difusão turbulenta (problema de fechamento) dependentes da estabilidade atmosférica. As concentrações superficiais tridimensionais são obtidas através do espalhamento lateral da pluma com distribuição gaussiana. Apresentam-se os resultados numéricos e estatísticos, comparando os resultados obtidos com os dados experimentais. O modelo proposto mostrou-se aceitável em relação aos dados do experimento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Segundo Sampaio (2002), os modelos intertemporais de equilíbrio começaram a ter a sua eficácia na determinação do retorno dos ativos questionada após a publicação do artigo de Mehra e Prescott em 1985. Tendo como objeto de análise os dados observados no mercado norte-americano, os autores não foram capazes de reproduzir a média histórica do prêmio do retorno das ações em relação ao retorno dos títulos públicos de curto prazo através de parâmetros comportamentais dentro de intervalos considerados plausíveis. Através das evidências, os autores, então, puderam verificar a necessidade de coeficientes exageradamente altos de aversão ao risco para equiparação do prêmio de risco histórico médio das ações norte-americanas, enigma que ficou conhecido como equity premium puzzle (EPP). Foi possível também a constatação de outro paradoxo: a necessidade de taxas de desconto intertemporais negativas para obtenção da média histórica da taxa de juros, o risk-free rate puzzle (RFP). Este trabalho tem como objetivo adaptar os dados do modelo proposto por Mehra e Prescott (2003) ao mercado brasileiro e notar se os puzzles apresentados anteriormente estão presentes. Testa-se o CCAPM com dados brasileiros entre 1995:1 e 2013:4 adotando preferências do tipo utilidade esperada e através da hipótese de log-normalidade conjunta dos retornos. Utiliza-se o método de calibração para avaliar se há EPP no Brasil. Em linha com alguns trabalhos prévios da literatura nacional, como Cysne (2006) e Soriano (2002) que mostraram a existência do puzzle nos períodos de 1992:1-2004:2 e 1980:1-1998:4, respectivamente, conclui-se que o modelo usado por Mehra e Prescott (2003) não é capaz de gerar o prêmio de risco observado na economia brasileira. Sampaio (2002), Bonomo e Domingues (2002) e Issler e Piqueira (2002), ao contrário, não encontram evidências da existência de um EPP brasileiro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o objetivo de mostrar uma aplicação dos modelos da família GARCH a taxas de câmbio, foram utilizadas técnicas estatísticas englobando análise multivariada de componentes principais e análise de séries temporais com modelagem de média e variância (volatilidade), primeiro e segundo momentos respectivamente. A utilização de análise de componentes principais auxilia na redução da dimensão dos dados levando a estimação de um menor número de modelos, sem contudo perder informação do conjunto original desses dados. Já o uso dos modelos GARCH justifica-se pela presença de heterocedasticidade na variância dos retornos das séries de taxas de câmbio. Com base nos modelos estimados foram simuladas novas séries diárias, via método de Monte Carlo (MC), as quais serviram de base para a estimativa de intervalos de confiança para cenários futuros de taxas de câmbio. Para a aplicação proposta foram selecionadas taxas de câmbio com maior market share de acordo com estudo do BIS, divulgado a cada três anos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artigo estuda a validade da Hipótese das Expectativas (HE) racionais para o Brasil, utilizando dados diários de Julho de 1996 a Dezembro de 2002 para prazos entre 1 dia e 1 ano. (i) Os coeficientes do diferencial endimento (yield spread) estimados na equação de mudança de curto prazo da taxa de longo prazo são imprecisos e não permitem conclusão. (ii) A estimação da equação de mudança de curto prazo da taxa curta indica que o diferencial tem poder preditivo. (iii) Os coeficientes do diferencial na equação de mudança de longo prazo da taxa curta são mais precisamente estimados e não são significativamente diferentes da unidade. (iv) A previsão de expectativas racionais da mudança de longo prazo da taxa curta é altamente correlacionada com o diferencial, e (iv) o diferencial observado é mais volátil que o diferencial teórico. Os resultados dos testes rejeitam a hipótese particular coeficiente unitário, porém reconhecem o poder preditivo do diferencial observado.