1000 resultados para parâmetro EI30
Resumo:
Esta dissertação aborda a questão da “inocência americana” em duas obras do escritor norte-americano Henry James, empregando conceitos da Literatura Comparada como base para a análise dos textos escolhidos: The American e Daisy Miller: A Study. Portanto, os conceitos de intertextualidade, influência e alteridade são fundamentais para o estabelecimento das confluências e divergências entre as duas obras. Este trabalho também apresenta uma análise, com base na teoria comparatista da interdisciplinaridade, entre a obra literária Daisy Miller: A Study e o filme Daisy Miller, dirigido por Peter Bogdanovich. O tema recorrente nas obras analisadas, o da “inocência americana”, foi abordado por Henry James em grande parte de sua produção literária, sendo um reflexo de sua própria experiência como o “outro”, bem como de suas observações sobre seus compatriotas, quando confrontados com os valores e tradições vigentes na Europa, no século XIX. James alcançou seu merecido lugar no cânone literário ocidental, graças ao seu estilo incomparável, o qual foi aperfeiçoando durante toda sua carreira e até hoje é parâmetro para escritores contemporâneos.
Resumo:
O objetivo deste trabalho é apresentar a base teórica para o problema de aprendizagem através de exemplos conforme as ref. [14], [15] e [16]. Aprender através de exemplos pode ser examinado como o problema de regressão da aproximação de uma função multivaluada sobre um conjunto de dados esparsos. Tal problema não é bem posto e a maneira clássica de resolvê-lo é através da teoria de regularização. A teoria de regularização clássica, como será considerada aqui, formula este problema de regressão como o problema variacional de achar a função f que minimiza o funcional Q[f] = 1 n n Xi=1 (yi ¡ f(xi))2 + ¸kfk2 K; onde kfk2 K é a norma em um espa»co de Hilbert especial que chamaremos de Núcleo Reprodutivo (Reproducing Kernel Hilbert Spaces), ou somente RKHS, IH definido pela função positiva K, o número de pontos do exemplo n e o parâmetro de regularização ¸. Sob condições gerais a solução da equação é dada por f(x) = n Xi=1 ciK(x; xi): A teoria apresentada neste trabalho é na verdade a fundamentação para uma teoria mais geral que justfica os funcionais regularizados para a aprendizagem através de um conjunto infinito de dados e pode ser usada para estender consideravelmente a estrutura clássica a regularização, combinando efetivamente uma perspectiva de análise funcional com modernos avanços em Teoria de Probabilidade e Estatística.
Resumo:
Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.
Resumo:
O presente trabalho tem como objetivo representar através de um modelo dinâmico de equilíbrio geral, uma característica do mercado brasileiro de subsidiar o setor de infraestrutura através do sistema financeiro. Além disso, objetiva-se simular o efeito do aumento de impostos - destinando recursos tributários, tanto para um agente público quanto privado - para subsidiar o investimento em infraestrutura. Alternativamente, simula-se o efeito da redução do compulsório bancário, destinando esses recursos também à infraestrutura. As simulações apresentam resultados semelhantes, de tal modo que no curto prazo, há uma contração do produto e da infraestrutura, mas no longo prazo, há uma expansão do produto, infraestrutura e bem-estar. Os resultados podem apresentar comportamentos diferentes para o bem-estar dependendo do parâmetro de elasticidade da infraestrutura em relação à renda.
Resumo:
Este trabalho apresenta as principais aplicações de técnicas de gestão de riscos ao estudo de interrupções em cadeias de fornecimento, tendo como motivação o caso do fornecimento de energia elétrica, assunto de extrema relevância para o Brasil. Neste sentido, o cálculo do “custo do déficit” ou perda de produção dada uma falha no fornecimento de energia elétrica (parâmetro utilizado em todo o planejamento do setor elétrico brasileiro), foi escolhido como fator relevante a ser analisado. As principais metodologias existentes para a apuração desse parâmetro são apresentadas fazendo uma comparação com aquela atualmente em uso no Brasil. Adicionalmente, apresentamos uma proposta de implementação para as metodologias alternativas, utilizadas no exterior, e baseadas no conceito de VOLL (“Value of Lost Load”) - medida do valor da escassez de energia para empresas ou consumidores individuais e fundamental para o desenho de programas de gerenciamento de demanda.
Resumo:
This paper presents a methodology to estimate and identify different kinds of economic interaction, whenever these interactions can be established in the form of spatial dependence. First, we apply the semi-parametric approach of Chen and Conley (2001) to the estimation of reaction functions. Then, the methodology is applied to the analysis financial providers in Thailand. Based on a sample of financial institutions, we provide an economic framework to test if the actual spatial pattern is compatible with strategic competition (local interactions) or social planning (global interactions). Our estimates suggest that the provision of commercial banks and suppliers credit access is determined by spatial competition, while the Thai Bank of Agriculture and Agricultural Cooperatives is distributed as in a social planner problem.
Resumo:
Esta Dissertação analisa em que medida os critérios contidos na Lei 12.527/11, conhecida como a Lei de Acesso à Informação, são atendidos pelo Sistema Integrado de Gestão de Aquisições – SIGA, do Estado do Rio de Janeiro. O pilar desta pesquisa é o inciso IV do art. 8º da referida Lei, que determina a divulgação dos registros de despesas, juntamente com os procedimentos licitatórios e os contratos celebrados, objetivando especialmente, transparência dos gastos públicos. A efetivação das compras públicas através da internet, é uma implementação da governança eletrônica, dimensão política mais avançada do governo eletrônico, proporcionando inúmeras vantagens como a celeridade nos processos licitatórios. Além disso, as transações efetuadas por meio de sistema são facilmente rastreáveis por auditorias. As informações registradas em um ambiente único garantem o cumprimento integrado de normas diminuindo erros. O pregão na forma eletrônica é, atualmente, a modalidade mais utilizada pela Administração Pública, pois vem ao encontro das demandas por transparência nos atos públicos E a análise apresentada neste trabalho É recomendada por destacara relevância da análise do site de compras eletrônicas do Estado do Rio de Janeiro, o Sistema Integrado de Gestão de Aquisições – SIGA. Para criar um parâmetro entre o SIGA e os sistemas utilizados por outros Estados, foram analisadas informações disponibilizadas nos pregões ocorridos durante o ano de 2014. Esta pesquisa mais ampla objetiva balizar o SIGA, do Estado do Rio de Janeiro, montando um ranking de transparência E o site ficou em quarto lugar, empatado com o Estado do Amazonas, atrás de São Paulo, Rio Grande do Sul e Mato Grosso.A metodologia qualitativa favoreceu a leitura valorativa do emprego do SIGA, em busca do atendimento a política pública de significativo impacto social da modalidade enfocada devido a resultados rápidos e abertura participativa de acompanhamento cidadão.As entrevistas reforçaram essa característica inerente à postura qualitativa do estudo, com percepções e informações oportunas.As considerações finais destacam avanços e limitações nos sistemas de compras eletrônicas governamentais existentes. O Siga, embora consolidado, em uso desde 2009, por todos os órgãos estaduais do Rio de Janeiro, necessita, ainda, aperfeiçoamento a implantar-se durante 2015, quando novas pesquisas devem acompanhar o movimento.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
Esta dissertação traça uma trajetória, evitando, no entanto, uma linha evolucionista, dos termos e conceitos que foram usados no decorrer da história para identificar as intervenções das empresas em ações sociais, desde as atuações assistencialistas até a atuação direta em projetos, com criação de institutos e fundações ligados às empresas, compartilhando não só investimentos financeiros, mas conhecimento, tecnologia e mão de obra especializada. Mas, como veremos, só isso não é suficiente para que uma empresa seja caracterizada como socialmente responsável. Como parâmetro, será trabalhada a diferenciação entre responsabilidade social empresarial (RSE) e investimento social privado (ISP), usando as definições e modelos do Instituto Ethos de Responsabilidade Social e do Grupo de Institutos e Fundações e Empresas (GIFE), respectivamente. Como estudo de caso, será apresentada a GTECH Brasil, empresa multinacional do ramo de loterias online, que, para realizar ações sociais, criou o Instituto Gtech de Cidadania e Cultura (IGCC), em 2000. A empresa, fazendo uso da verba disponível de incentivo à cultura, com a Lei Rouanet, realizou um projeto corporativo de arte-educação, chamado Projeto Asa, que tinha por foco trabalhar com jovens de sete a 17 anos, englobando arte e tecnologia. Por acreditar no poder transformador da arte, o projeto foi se atualizando e passou a desenvolver o conceito de arte-cidadania. O Asa funcionou até 2009, durando mais do que a própria empresa, que, em 2006, encerrou as atividades no Brasil. Nesse período, atendeu a mais de 3.500 crianças e jovens. Por meio de documentos, manuais, relatórios e diversas entrevistas, o presente trabalho delineou as atividades sociais da GTECH, analisando se a empresa deveria se enquadrar como RSE ou ISP e também demonstrando alguns dos impactos gerados pelas ações realizadas tanto nos funcionários da empresa, quanto na equipe do projeto e, principalmente, nos jovens que participaram das atividades.
Resumo:
Os cientistas políticos geralmente classificam a diversidade de regras eleitorais existentes em três grandes famílias: (1) sistemas majoritários que prezam pela regra da maioria; (2) sistemas “proporcionais”, que prezam pela proporcionalidade entre votos e representantes; e (3) sistemas “mistos”, que buscam conciliar características dos dois anteriores. Os sistemas majoritários têm a favor a simplicidade. O princípio que guia todo o processo é garantir ao(s) mais votado(s) o cargo de representante. Não há qualquer forma de transferência de votos que, com base em algum parâmetro que não o voto no indivíduo (partidos, coligações, ou mesmo outra preferência do eleitor), altere o resultado final. Ganham os mais votados.
Resumo:
When estimating policy parameters, also known as treatment effects, the assignment to treatment mechanism almost always causes endogeneity and thus bias many of these policy parameters estimates. Additionally, heterogeneity in program impacts is more likely to be the norm than the exception for most social programs. In situations where these issues are present, the Marginal Treatment Effect (MTE) parameter estimation makes use of an instrument to avoid assignment bias and simultaneously to account for heterogeneous effects throughout individuals. Although this parameter is point identified in the literature, the assumptions required for identification may be strong. Given that, we use weaker assumptions in order to partially identify the MTE, i.e. to stablish a methodology for MTE bounds estimation, implementing it computationally and showing results from Monte Carlo simulations. The partial identification we perfom requires the MTE to be a monotone function over the propensity score, which is a reasonable assumption on several economics' examples, and the simulation results shows it is possible to get informative even in restricted cases where point identification is lost. Additionally, in situations where estimated bounds are not informative and the traditional point identification is lost, we suggest a more generic method to point estimate MTE using the Moore-Penrose Pseudo-Invese Matrix, achieving better results than traditional methods.
Resumo:
A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.
Resumo:
O turismo vem crescendo bastante em todo mundo e sendo enquadrado, cada vez mais, na perspectiva econômica, pelos resultados que proporciona. Nesse contexto, o desempenho de seus destinos passou a ser avaliado com o mesmo parâmetro de outras atividades do mercado: a competitividade. No Brasil, para atender à meta do Plano Nacional de Turismo de estruturar 65 destinos turísticos, de modo a deixá-los em condições de competir internacionalmente, a Fundação Getúlio Vargas, o Ministério do Turismo e o Serviço Nacional de Apoio às Micro e Pequenas Empresas realizaram um diagnóstico de seus níveis de competitividade. Os resultados, apontando as ações necessárias, encontram-se descritos no “Estudo de Competitividade de 65 Destinos Indutores do Desenvolvimento do Turismo Regional”. O objetivo deste trabalho é verificar se os resultados desse Estudo, dado o prazo estabelecido no Plano para estruturação dos destinos, influenciaram a agenda do Ministério do Turismo, em termos de criação de vertentes específicas de programas para alcance das finalidades previstas. Para tanto, foi feita uma pesquisa documental, por meio da qual se comprovou que os problemas detectados no Estudo não foram considerados prioridade, permanecendo no patamar dos demais problemas do país, nem sua solução foi alinhada às ações do Ministério.
Resumo:
Apresenta conceitos de margem de contribuição unitária e de razão de contribuição, explicando a relação com o lucro, levando em conta a produção por hora. Introduz o conceito de ponto de equilíbrio e os impactos que o aumento de preço, ou aumento dos custos fixos e variáveis gera nesse parâmetro, ilustrando esses fenômenos na forma de gráficos. Essa técnica é válida para análise individual de produtos. Gráficos de participação de vendas versus rentabilidade são úteis para a análise global da empresa.