44 resultados para Teorema Fundamental do Cálculo
Resumo:
o nosso trabalho mostra que mesmo com esse dispositivo e a volta da democracia representativa, onde tivemos dois Governos no Estado do Rio de Janeiro eleitos pelo voto popular na década de 80, a situação do Ensino Fundamental do Estado não mudou na sua essência e, o que é pior, não foi produzido um projeto capaz de solucionar a curto, médio e longo prazos as péssimas condições em que se encontrava o Ensino Fundamental. pelo menos no tocante à produção escolar e à dotação de recursos.
Resumo:
Neste artigo estimam-se os fluxos escolares do ensino fundamental para o médio e os fluxos ao longo do médio para a última década nas seis maiores regiões metropolitanas do país. Também se estimam que conjuntos de variáveis associadas às características do aluno e sua família, do mercado de trabalho local e das condições locais de oferta escolar que estão mais fortemente relacionadas com os fluxos observados. Os resultados indicam que: a não aprovação ainda é uma barreira para o ingresso no ensino médio e para a sua progressão ideal; a não aprovação perdeu importância nos últimos anos para a explicação da evasão escolar; a educação dos pais é um fator relevante tanto para a aprovação quanto para a continuação dos estudos; e a qualidade da escola é um fator importante para a aprovação.
Resumo:
Este trabalho procurou estimar os efeitos das mudanças ocorridas no sistema de educação fundamental brasileiro com relação à descentralização sobre o desempenho do setor, sendo o conceito de descentralização entendido de modo mais amplo do que em trabalhos anteriores, incorporando tanto aspectos relativos à autonomia municipal de arrecadação e de gastos, quanto àqueles relacionados ao gerenciamento das escolas. Para isso considerou-se um modelo de dados em painel correspondente ao período de 1999 a 2006, em que as unidades de observação são os municípios. Os indicadores educacionais utilizados correspondem a duas taxas de rendimento (taxa de aprovação e taxa de abandono), além do indicador de distorção idade-série. De um modo geral, os resultados encontrados fornecem evidências de que a análise realizada até agora no Brasil sobre a relação entre descentralização e desempenho em educação pode ter sido incompleta, uma vez que desconsiderou um aspecto importante do conceito de descentralização, que é o aspecto fiscal. Os resultados obtidos revelam uma forte correlação entre descentralização fiscal e desempenho em educação, sendo que essa relação tem o sinal que seria o esperado de acordo com a literatura que prevê efeitos benéficos para a descentralização. O mesmo não acontece quando se consideram indicadores de municipalização da rede de ensino como medida de descentralização. Este estudo apresenta evidências de que as mudanças ocorridas no sistema de ensino fundamental brasileiro após a implementação do FUNDEF não devem ser interpretadas como um movimento de descentralização sob todos os aspectos. Ao considerar o aspecto fiscal, surgem novas medidas e novas relações entre descentralização e desempenho.
Resumo:
O desenvolvimento do mercado financeiro e, principalmente, a abertura para o capital externo impulsionaram o desenvolvimento das boas práticas de governança corporativa. Um de seus benefícios é reduzir o custo de captação da empresa e, consequentemente, gerar maior valor para a companhia. Com o novo cenário, o conselho de administração tem um papel fundamental na atividade de governança corporativa, supervisionando a diretoria executiva. O presente trabalho investiga se a adoção de melhores práticas de governança corporativa diminui o risco das empresas. Adicionalmente, analisa se um grau de escolaridade mais alto entre membros do conselho de administração e da diretoria executiva impacta no risco. Para atingir o objetivo, adotou-se o método dos mínimos quadrados para regredir o risco, variável dependente, contra as variáveis independentes nível de governança corporativa e grau de escolaridade. Para o cálculo do risco, utilizaremos a metodologia apresentada por Estrada (2007), o downside beta, ou seja, risco que considera apenas os retornos negativos. Os resultados do estudo sugeriram que um nível de governança corporativa mais alto está presente nas empresas que apresentam um maior risco visto pelo mercado, indicando que as empresas que necessitam de captação, isto é, empresas mais alavancadas, são as empresas que necessitam de um nível de governança corporativa mais alto. Constatou-se, também, que empresas com nível de escolaridade mais alto entre membros do conselho de administração e da diretoria executiva apresentam maiores riscos, pois as empresas que necessitam de pessoas com maior grau de escolaridade são empresas que querem se desenvolver e, portanto, mais arriscadas.
Resumo:
O objetivo deste trabalho é propor um projeto com o intuito de levar o aluno de ensino fundamental da rede pública ao conhecimento e à reflexão acerca de um determinado período social e político da historia brasileira, conhecido como a ditadura militar da década de 1960, através da obra do artista popular Waldomiro de Deus. Para tanto, propõe-se a utilização da Abordagem Triangular (AT) para o ensino da arte, que consiste em uma metodologia baseada em três eixos principais: a contextualização da obra, a sua apreciação e a prática. A contextualização da obra de arte no projeto é para o aluno entender a época na qual foi criada, e estabelecer as relações sociais e culturais de forma integrada. A apreciação da obra é a leitura crítica das imagens, que ajudará ao aluno a formar seus próprios conceitos sobre os trabalhos artísticos a partir daí analisados. A prática refere-se ao trabalho no ateliê, a criação visual, a utilização dos materiais para composição dos trabalhos. Estes trabalhos serão elaborados a partir do estudo da obra do artista, não sendo uma cópia, e o aluno terá a liberdade para se expressar dentro de sua realidade. Este projeto pretende trazer para os seus beneficiários a discussão da arte e o seu papel no ensino fundamental. Compartilhar com as crianças um cotidiano educativo proposto por este projeto é envolver linguagens artísticas diferentes, como prática de dinâmicas entre professores e alunos, no processo de desenvolvimento e criação da arte e na apropriação de valores éticos. Espera-se ao final do projeto que os alunos conheçam a obra do artista Waldomiro de Deus, a temática que envolveu e a sua importância para o conhecimento desse período histórico do país.
Resumo:
O reconhecimento pela Ciência de que os animais são seres sencientes e conscientes propiciou o surgimento das teorias morais que chamamos de direito animal, bem como o desenvolvimento de alternativas técnicas ao uso de animais, sobretudo na educação. Neste cenário, estudantes de biomédicas se recusam à realização de experimentação animal, baseados no direito à objeção de consciência protegido pela Constituição da República Federativa Brasileira de 1988, que, contudo, tem sido negado pelos tribunais. Este trabalho tem por objetivo, através do estudo de casos, apresentar que as premissas e os fundamentos em que se apoiam os tribunais para negar a objeção de consciência são questionáveis do ponto de vista jurídico, tendo em vista o sentido da objeção de consciência e hermenêutico, pela aplicação do princípio da força normativa da constituição e do princípio da proporcionalidade.
Resumo:
A energia elétrica é fundamental para o desenvolvimento de qualquer país e o Brasil atravessa atualmente uma crise energética devido ao baixo nível de seus reservatórios, então diversos temas sobre o sistema elétrico brasileiro vêm à tona a fim de dar mais confiabilidade e evitar futuros racionamentos, permitindo assim que a escassez de energia não seja um impeditivo para o crescimento econômico do país. O presente estudo calcula o potencial de redução de demanda por energia elétrica no estado do Rio de Janeiro através do modelo de preço variável, que consiste em ter tarifas distintas para o horário de ponta e fora de ponta. Este é um entre diversos programas de eficiência energética existentes no mundo atualmente. Para tal cálculo as principais premissas são a projeção de demanda máxima coincidente, o número de consumidores por classe e a elasticidade preço da demanda por energia elétrica. A partir dai são sugeridos três cenários de penetração de AMI (Advanced Metering infrastructure), e três cenários de variação de preço, chegando assim a nove resultados possíveis.
Resumo:
O produto potencial é uma variável não-observável e, por isso, de difícil mensuração. O objetivo deste trabalho é contribuir para a discussão sobre a estimação da taxa de crescimento do produto potencial brasileiro através de uma revisão teórica e metodológica das estimativas da variável para a economia brasileira. Após uma análise sintética sobre os principais conceitos relacionados ao tema e sobre os métodos de estimação mais utilizados na literatura nacional, optou-se por utilizar seis tipos de mensurações distintas. As principais conclusões do trabalho foram: primeiramente, as estimativas de Produto Interno Bruto (PIB) potencial são bastante sensíveis à metodologia utilizada; em segundo lugar, baseado em dados trimestrais da economia brasileira, foi possível verificar que a taxa de crescimento do produto potencial brasileiro caiu nos últimos anos e que esta se encontra em uma banda entre 1,63% e 2,72%.
Resumo:
Este trabalho apresenta as principais aplicações de técnicas de gestão de riscos ao estudo de interrupções em cadeias de fornecimento, tendo como motivação o caso do fornecimento de energia elétrica, assunto de extrema relevância para o Brasil. Neste sentido, o cálculo do “custo do déficit” ou perda de produção dada uma falha no fornecimento de energia elétrica (parâmetro utilizado em todo o planejamento do setor elétrico brasileiro), foi escolhido como fator relevante a ser analisado. As principais metodologias existentes para a apuração desse parâmetro são apresentadas fazendo uma comparação com aquela atualmente em uso no Brasil. Adicionalmente, apresentamos uma proposta de implementação para as metodologias alternativas, utilizadas no exterior, e baseadas no conceito de VOLL (“Value of Lost Load”) - medida do valor da escassez de energia para empresas ou consumidores individuais e fundamental para o desenho de programas de gerenciamento de demanda.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
Em resposta à crise financeira de 2008, em 2010 o Comitê de Basileia em Supervisão Bancária (Basel Committee on Banking Supervision - BCBS) emitiu a metodologia do cálculo do indicador de Risco de Liquidez de curto prazo (Liquidity Coverage Ratio - LCR) que é um dos componentes do conjunto de normas conhecido como Basileia III. Esse índice mede se cada conglomerado possui um estoque de ativos financeiros líquidos de alta qualidade de forma a suportar uma crise severa por 30 dias. Esse trabalho calculou o índice de liquidez de curto prazo dos dez maiores bancos brasileiros em ativos totais nos últimos cinco anos, seguindo as diretrizes do documento acima mencionado e do Banco Central do Brasil. A finalidade desse estudo foi verificar se houve uma melhora na liquidez dos grandes bancos após a divulgação da metodologia de cálculo do LCR, uma vez que a partir de 2015 é esperado pelo Banco Central do Brasil que os bancos possuam pelo menos 60% de ativos líquidos para suportar uma crise de 30 dias. A análise foi conduzida utilizando dados contábeis oriundos tanto do banco de dados do Banco Central do Brasil quanto das publicações individuais de cada instituição. Essa análise permitiu avaliar que os principais bancos do sistema financeiro brasileiro já estão preparados para atender aos requisitos internacionais e que não serão necessárias grandes alterações na estrutura do balanço das instituições analisadas, evitando a migração seus ativos de empréstimos, aplicações em certificados de depósitos interbancários e títulos privados para títulos de alta qualidade e liquidez.