933 resultados para Calor - Condução


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisa os vínculos estabelecidos entre a Secretaria de Assistência Social da PMSP e algumas Entidades Sociais para a prestação do serviço creche. Investigou-se o campo da Assistência Social e o da relação entre a esfera pública estatal e a esfera privada, sem fins lucrativos, na provisão de serviços públicos. A partir de revisão bibliográfica, de pesquisa documental e de estudo de casos, dando voz a todos que se relacionam no convênio, definiu-se parcerias como sendo relações substantivas que implicam corresponsabilidades, compartilhamento de valores e comprometimentos. Analisou-se duas creches diretas, duas conveniadas e duas indiretas, (e as respectivas Entidades Sociais), além da SAS Regional de IQ/G e SAS Central. Foram escolhidas as creches que obtiveram avaliação positiva quanto ao seu desempenho e alcance de resultados. Considerou-se que tanto os serviços prestados de forma direta quanto os conveniados podem ter qualidade e sucesso no alcance de seus objetivos, sendo necessário, em qualquer das modalidades, ter presente aspectos como: transparência nas ações, diálogos permanentes, clarificação de papéis e competências, responsabilização e compromissos com causas e com acordos. Justificam-se os serviços conveniados em razão das questões conjunturais hoje postas, e da responsabilização por parte de toda uma sociedade no enfrentamento da questão social. Justificam-se os serviços diretos pela necessidade vital da afirmação do papel do Estado na provisão de serviços públicos para garantia de serviços de forma continuada com vistas à universalização. Indicou-se, como desafio a necessidade de rever a forma como estão se dando os vínculos entre os agentes estudados, na direção do estabelecimento de parcerias, bem como o desafio da apropriação da condução da política pública pelos órgãos de assistência social, consolidando como esfera pública não-estatal a ação das Entidades Sociais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é analisar as regras de condução da política monetária em modelos em que os agentes formam suas expectativas de forma racional (forward looking models), no contexto do regime de metas de inflação. As soluções ótimas de pré - comprometimento e discricionária são derivadas e aplicadas a um modelo macroeconômico para a economia brasileira e os resultados são também comparados com os obtidos pela adoção da regra de Taylor. A análise do comportamento do modelo sob diferentes regras é feita através da construção da fronteira do trede-oit da variância do hiato do produto e da inflação e da análise dinâmica frente a ocorrência de choques. A discussão referente à análise dinâmica do modelo é estendida para o caso onde a persistência dos choques é variada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é analisar a política de juros do Banco Central durante o período entre os anos de 1995 a 2002, procurando verificar se houve mudança nesta política, isto é se houve mudanças de regimes na condução da política monetária, principalmente com a mudança do regime cambial. Para tanto o modelo estimado mais adequado para a análise foi um switching regression model que determina endogenamente se há mudança de regimes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A geração, transmissão e distribuição de energia elétrica são atividades que muitas vezes são realizadas fora dos limites das unidades fabris, enquanto em grande parte dessas mesmas unidades, a energia térmica (calor através de vapor d’água, por exemplo), é gerada internamente. Existe uma forma de geração distribuída de energia que pode ser realizada dentro da unidade fabril que utiliza o ciclo térmico de cogeração. A cogeração é altamente eficiente e traz grandes vantagens aos usuários como fornecimento contínuo de energia, redução de custos e melhor qualidade de energia. Uma empresa pode optar por executar a atividade de geração de energia internamente como autoprodutor ou contratar um terceiro chamado de produtor independente. Nessa pesquisa exploratória foram entrevistadas pessoas ligadas a essa atividade para se entender como as empresas estão vislumbrando o mercado de energia elétrica no Brasil e como o mercado de geração distribuída através da cogeração está se formando no país, à luz da Transaction Cost Theory (TCT) e da Resource Based View (RBV). A pesquisa apresenta a certeza de que o custo da geração de energia elétrica no país será mais alto no futuro próximo, devido à diversificação de fontes energéticas com a entrada de fontes nucleares, térmicas e renováveis como eólicas e biomassa. Notou-se também que a redução de custos é um item fundamental, muito mais importante que qualquer característica positiva que um ciclo de cogeração possua. Além disso, a visão de longo prazo de ambas as empresas (contratante e terceira) e o contrato de fornecimento de energia assumem grandes responsabilidades na relação entre as empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ambiente institucional do financiamento do ensino fundamental no Brasil sofreu diversas modificações nas últimas décadas, principalmente nos anos 1990. Com o objetivo de aliar a priorização do ensino fundamental à descentralização das políticas públicas de educação para o nível municipal, o governo federal promoveu uma reforma profunda nas normas legais para a execução dessas políticas, inclusive através de emendas constitucionais, que passaram a constituir importantes regras para o financiamento do ensino. Uma das principais alterações foi a criação do Fundo de Manutenção e Desenvolvimento do Ensino Fundamental e de Valorização do Magistério – Fundef, destinado ao financiamento do ensino fundamental no Brasil. Apesar das reformas ocorridas, a situação do ensino fundamental no Brasil é ainda bastante precária. Esta não condiz com as necessidades de sua população, e nem com as possibilidades econômicas do Estado brasileiro. Do ponto de vista analítico, com base no referencial teórico da Nova Economia Institucional, a criação da vinculação de verbas para a política educacional é considerada a principal regra de financiamento do ensino fundamental e serviu à redução de vários custos de transação. Esses custos estão relacionados à descontinuidade de ações e ao comportamento oportunista dos atores envolvidos no cenário das políticas públicas. Dentre esses atores estão os representantes do poder público, executivo e legislativo, a burocracia estatal e a sociedade civil. Esta tese busca avaliar se o conjunto de estratégias de financiamento do ensino criado a partir das vinculações orçamentárias de receitas, em especial para o ensino fundamental, é condição suficiente para a obtenção de eficiência na condução das políticas de educação, ou se há outros elementos, ligados ou não a essa estratégia, que contribuem para a manutenção de ineficiências. O enfoque teórico utilizado na tese é o da Nova Economia Institucional, baseado, principalmente, nos trabalhos de North (1988 e 1990), Williamson (1985) e Miller (1992). Esse referencial teórico fundamenta-se no papel central das instituições na avaliação de problemas sócio-econômicos. Dessa maneira, a primeira parte da tese é dedicada à descrição dos elementos centrais dessa teoria, como, por exemplo, os conceitos de regras formais e informais, custos de transação e estruturas de governança. Com base nessa estruturação inicial é construído o modelo teórico utilizado na tese que pode ser entendido como uma adaptação da abordagem da Nova Economia Institucional para organizações do setor público. Esse modelo leva em consideração elementos e características importantes das instituições, atores e estruturas de governança, fundamentais na análise das organizações públicas. A partir desse modelo teórico é realizada uma análise pormenorizada do arranjo institucional desenvolvido para o financiamento do ensino fundamental nos municípios brasileiros, abrangendo o ambiente institucional, isto é, as regras do jogo, assim como o comportamento dos agentes frente a essas regras. Como forma de testar empiricamente os pressupostos teóricos utilizados na tese, é também realizado um estudo de caso para o Município de São Paulo. Esta tese busca contribuir com as discussões acerca das mudanças necessárias na construção das políticas de educação no Brasil, chamando atenção para a importância da adequação institucional entre as regras formais estabelecidas para as políticas e as características, valores e capacitação dos atores envolvidos na implantação dessas regras. A própria teoria institucional antecipa que a não consideração desses fatores implica a possibilidade de ocorrência de custos de transação associados aos custos de controle dos gestores públicos e ao comportamento oportunista dos agentes no cenário das políticas públicas. Com isso, mesmo existindo recursos vinculados não estará garantida uma condução eficiente das políticas públicas de ensino.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo da tese é analisar questões relativas à coordenação entre as políticas monetária e fiscal no Brasil após a adoção do regime de metas de inflação. Utiliza-se de um modelo de metas de inflação para uma economia pequena e aberta para a incorporação um bloco de equações que descrevem a dinâmica das variáveis fiscais. Tendo por base os conceitos de Leeper (1991), ambas as entidades, Banco Central e Tesouro Nacional, podem agir de forma ativa ou passiva, e será este comportamento estratégico que determinará a eficiência da política monetária. Foram estimados os parâmetros que calibram o modelo e feitas as simulações para alguns dos choques que abalaram a economia brasileira nos últimos anos. Os resultados mostraram que nos arranjos em que a autoridade fiscal reage a aumentos de dívida pública com alterações no superávit primário, a trajetória de ajuste das variáveis frente a choques tende a ser, na maioria dos casos, menos volátil propiciando uma atuação mais eficiente do Banco Central. Nestes arranjos, o Banco Central não precisa tomar para si funções que são inerentes ao Tesouro. Também são analisadas as variações no comportamento do Banco Central e do Tesouro Nacional em função de diferentes composições da dívida pública. Os resultados mostram que a estrutura do endividamento público será benéfica, ou não, à condução das políticas monetária e fiscal, dependendo do tipo de choque enfrentado. O primeiro capítulo, introdutório, procura contextualizar o regime de metas de inflação brasileiro e descrever, sucintamente, a evolução da economia brasileira desde sua implantação. No segundo capítulo são analisados os fundamentos teóricos do regime de metas de inflação, sua origem e principais componentes; em seguida, são apresentados, as regras de política fiscal necessárias à estabilidade de preços e o problema da dominância fiscal no âmbito da economia brasileira. O terceiro capítulo apresenta a incorporação do bloco de equações fiscais no modelo de metas de inflação para economia aberta proposto por Svensson (2000), e as estimações e calibrações dos seus parâmetros para a economia brasileira. O quarto capítulo discute as diferentes formas de coordenação entre as autoridades monetária e fiscal e a atuação ótima do Banco Central. O quinto capítulo tem como base a mais eficiente forma de coordenação obtida no capítulo anterior para analisar as mudanças no comportamento da autoridade monetária e fiscal frente a diferentes estruturas de prazos e indexadores da dívida pública que afetam suas elasticidades, juros, inflação e câmbio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese tem por objetivo principal o estudo da política monetária aplicada ao caso brasileiro no tocante a três aspectos importantes: a coordenação das políticas monetária e fiscal, a variabilidade de preços relativos e a persistência inflacionária. A pergunta central que permeia os artigos componentes deste trabalho é se a condução da política monetária sob um regime de metas de inflação tem sido mais eficaz para promover uma melhor coordenação de políticas econômicas e um arrefecimento da dispersão de preços relativos e da persistência inflacionária. A análise inicia-se no ano seguinte à implementação do Plano Real, em 1995. Contudo, uma ênfase maior é dada ao período posterior à implementação das metas de inflação. Em linhas gerais, nossos resultados mostram que a persistência inflacionária da inflação tem diminuído consideravelmente. Entretanto, ainda continuam persistentes as expectativas de inflação e a taxa de juros. Isso pode indicar um trade-off entre persistências: da inflação para a taxa de juros. Por outro lado, a queda da inflação significou uma diminuição considerável da dispersão de preços relativos, principalmente após a implementação das metas inflacionárias. Os preços administrados ainda são muito influentes na determinação da inflação e dispersão de preços do IPCA e dos preços livres. Por fim, o exercício de coordenação de políticas mostra que cada autoridade cuida de seu papel principal, isto é, a autoridade monetária fica mais a cargo do controle da inflação enquanto a autoridade fiscal lida com o gasto inercial do governo sem se preocupar com o nível da dívida pública. Ou seja, a coordenação das duas políticas econômicas parece estar comprometida no período estudado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A formação interna da estrutura de uma peça fundida deve determinar as características mecânicas dessa peça, quando em serviço. Dessa forma, torna-se fundamental conhecer e parametrizar os elementos que influem na formação da estrutura do componente sólido, para o desenvolvimento adequado de sistemas de solidificação que permitam conduzir a melhoria da qualidade de uma peça no processo de solidificação. Modelos numéricos podem ser empregados para a determinação da formação estrutural, entretanto estes devem ser aferidos adequadamente para garantir sua aplicabilidade. No trabalho em questão, desenvolveu-se uma metodologia que permitiu a aferição de um modelo numérico para a previsão das condições de resfriamento de ligas de alumínio. Elaborou-se um conjunto de coquilhas e moldes que permitiram o acoplamento e verificação da estrutura formada na solidificação em diferentes situações de resfriamento, observando principalmente a direção de extração de calor e a taxa de resfriamento associada. O modelo numérico aplicado respondeu coerentemente aos resultados obtidos permitindo a previsão da estrutura solidificada pela observação dos resultados de evolução das isotermas solidus e liquidus no interior dos sistemas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A determinação da taxa de juros estrutura a termo é um dos temas principais da gestão de ativos financeiros. Considerando a grande importância dos ativos financeiros para a condução das políticas econômicas, é fundamental para compreender a estrutura que é determinado. O principal objetivo deste estudo é estimar a estrutura a termo das taxas de juros brasileiras, juntamente com taxa de juros de curto prazo. A estrutura a termo será modelado com base em um modelo com uma estrutura afim. A estimativa foi feita considerando a inclusão de três fatores latentes e duas variáveis ​​macroeconômicas, através da técnica Bayesiana da Cadeia de Monte Carlo Markov (MCMC).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram conduzidos dois ensaios de metabolismo com suínos em crescimento para avaliar o efeito do tratamento térmico sobre a digestibilidade de grão de soja integral. No ensaio 1 foram utilizados 18 animais distribuídos em 6 dietas, à base de amido de milho e grão de soja, em um arranjo fatorial 3*2, composto por três tratamentos de calor submetidos ao grão (cru, AUTOCLAVADO e AUTOCLAVADO o dobro tempo) e dois níveis de lisina (85 e 100% das exigências do NRC (1988)). No ensaio 2 foram utilizados 18 suínos distribuídos em 18 dietas, à base de amido de milho e grão de soja (autoclavado ou autoclavado o dobro tempo) em um arranjo fatorial 3x3x2, composto por três níveis de lisina (80, 100 e 120% NRC (1988)), três suplementações de aminoácidos (0, metionina e treonina) dois tempos de tratamento térmico (autoclavado e dobro do tempo). No ensaio 1 foi observado efeito do tratamento térmico (P< 0,004) e do nível de lisina (P= 0,009) sobre o ganho de peso e do tratamento térmico (P= 0,006) sobre o consumo de matéria seca. Não foram observados efeitos do tratamento térmico e do nível de lisina sobre os coeficientes de digestibilidade da matéria seca, da proteína e da energia das dietas. No ensaio 2 foi observado efeito do nível de lisina (P= 0,008) sobre a excreção fecal de proteína bruta e de energia bruta (P= 0,003) e do tratamento térmico sobre a excreção fecal da energia bruta (P= 0,04).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho analisa a evolução da política monetária desde a implementação do regime de metas de inflação no período de 1999 a 2009 com o intuito de avaliar se há diferenças na condução de política monetária entre as gestões Armínio Fraga e Henrique Meirelles. Um modelo de equilíbrio geral novo-keynesiano baseado em expectativas racionais é utilizado para modelar a economia brasileira e deriva-se uma regra de Taylor para encontrar a condição suficiente para a convergência da inflação. O processo de analise empírica consiste em estimar um modelo de vetores auto-regressivos, cujos parâmetros variam ao longo do tempo assim como as inovações na matriz de variância-covariância. Para tanto, será utilizado um algoritmo de simulação de Monte Carlo. Os resultados empíricos mostram que (i) não há diferenças significativas na condução de política monetária durante as gestões Armínio Fraga e Henrique Meirelles; (ii) A partir de 2003, a taxa de juros permaneceu acima da necessária para a convergência da inflação de acordo com a condição de estabilidade; e (iii) a gestão Armínio Fraga agiu de acordo com a regra de estabilização na crise de 2002, porém a inflação permaneceu acima da meta por causa da magnitude dos choques exógenos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho analisa o comportamento da volatilidade do crescimento do produto brasileiro entre 1980 e 2008, cuja trajetória apresenta um declínio de 70% desde 1991. Através da análise do comportamento do PIB, de seus componentes e de seus determinantes, objetiva-se apontar as razões pela qual a volatilidade do crescimento caiu de forma significativa no período considerado. A baixa volatilidade do crescimento do produto traz conseqüências positivas para o bem-estar da sociedade, para a distribuição de renda e para o crescimento econômico de longo prazo. Diferentes estudos foram realizados para apontar as causas do declínio desta volatilidade em diversos países nas últimas três décadas, fenômeno que nos Estados Unidos passou a ser conhecido como The Great Moderation. Dados os benefícios deste processo, entender as suas razões é imprescindível para a formulação de políticas econômicas que garantam a sustentabilidade da moderação dos ciclos econômicos. Este trabalho concentra-se nos fatores nominais (choques de demanda) para explicar o processo de redução da volatilidade do crescimento brasileiro. De um lado, a ausência de restrições externas ao crescimento econômico e o ciclo de prosperidade mundial dos últimos cinco anos garantiram a contribuição da parcela externa. Por outro lado, a condução de políticas macroeconômicas mais sólidas, refletindo em uma maior estabilidade de variáveis como o nível de preços, respondem pelos fatores internos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho procura verificar empiricamente se, no caso brasileiro, o sinal da covariância entre surpresas de inflação e variações da taxa nominal de câmbio podem indicar de que forma a política monetária é conduzida. Trabalhos anteriores que consideraram economias desenvolvidas constataram empiricamente que más notícias para a inflação (ou seja, inflação divulgada maior que a inflação esperada) podem ser boas notícias para o câmbio (ou seja, apreciação cambial ante a notícia) se o banco central adota um regime de metas de inflação e o implementa com uma regra de Taylor. A partir de séries intradiárias do primeiro dólar futuro BM&F e a diferença entre os dados divulgados e esperados para o IPCA e o IPCA15, analisam-se as variações nominais de câmbio em uma janela de 10 minutos ao redor das divulgações de índices de inflação. O período considerado vai de agosto de 1999 até outubro de 2007. Não se encontra evidência estatística significativa de que variações nominais de câmbio reajam à surpresas inflacionárias em uma base intradiária no caso brasileiro e que, quando há evidencia, ela é fraca e tem o sentido “tradicional”, ou seja, más notícias para a inflação são más notícias para o câmbio. Diversos trabalhos afirmam que o Banco Central do Brasil implementa uma Regra de Tayor agressiva na condução da política monetária. Ponderam-se então alguns fatores específicos de uma economia emergente, como ambiente macroeconômico sujeito a maior volatilidade e curto histórico de credibilidade da autoridade monetária.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A monografia tem como objetivo analisar e tentar mensurar a Credibilidade do Banco Central do Brasil através da formação das expectativas inflacionárias dos agentes no regime monetário de metas de inflação. A credibilidade da autoridade monetária é um dos pilares do atual regime, diminuindo o custo de desinflação e ajudando a conter a inflação em patamares baixos. A credibilidade só pode ser adquirida gradativamente com um histórico de comprometimento de combate à inflação e autonomia na condução da política monetária. Um dos grandes problemas práticos encontrados atualmente é a mensuração quantitativa da credibilidade da autoridade monetária. O estudo tanta mensurar a credibilidade através do peso da meta central da inflação na formação da expectativa inflacionária, ou seja, quanto mais crível for o Banco Central, maior o peso da meta. O estudo se baseia na hipótese central de que as expectativas da meta de inflação no Brasil ainda apresentam um efeito da indexação da inflação passada que vem diminuindo com o ganho de credibilidade do Banco Central, ao mesmo tempo em que a meta vem ganhando significância. Testes econométricos foram realizados de forma a empiricamente modelar a formação das expectativas 12 meses à frente no regime de metas de inflação contemplando os efeitos históricos, dados de mercado, desvalorização cambial e a meta central do regime. Os resultados empíricos mostram que os fatores presentes na previsão da inflação vêm mudando ao longo do regime, mas os participantes de mercado levam em consideração o IPCA acumulado nos últimos três meses, a desvalorização cambial e a meta de inflação. O estudo mostra que mesmo com as diversas crises sofridas ao longo do regime, a significância da meta vem aumentando e o peso da inércia vem diminuindo ao longo ao tempo, representando um ganho de credibilidade do Banco Central brasileiro no regime de metas de inflação.