985 resultados para Unidade de cálculo com pipeline
Resumo:
Essa dissertação possui como objetivo traçar, uma nova metodologia de classificação de patogenicidade da Escherichia.coli,.através de um índice no qual, além do número de animais mortos, também foi considerado o tempo de morte e a capacidade da cepa causar lesão compatível à colibacilose em pintos de 1 dia. Para gerar esse critério, foram utilizadas 300 amostras de E.coli oriundas de lotes com lesão de celulite, cama desses mesmos aviários e amostras de quadros respiratórios. Através desse experimento foi possível observar que as amostras de E.coli originadas das camas dos aviários, apresentavam índice de patogenicidade significativamente menor do que aquelas isoladas das lesões cutâneas e de quadros respiratórios.Também foi associado às cepas de E.coli a capacidade de causar lesões de: pericardite, perihepatite, aerossaculite, peritonite e celulite. Dentre as lesões citadas somente a celulite foi considerada de apresentação significativamente mais freqüente em comparação às outras.
Resumo:
Na realização deste trabalho foi utilizado o método de estudo de caso para estudar uma grande instituição financeira pública brasileira que decidiu substituir a estrutura organizacional funcional de projetos por outra que pudesse ser compartilhada por outras unidades organizacionais. Esta pesquisa analisa o desempenho desta unidade compartilhada de projetos, uma organização matricial de projetos, criada como um centro de serviços compartilhado. A concentração dos projetos neste centro buscou dentre os benefícios esperados em outros centros de serviço compartilhado a melhoria de desempenho dos projetos, quanto a maior pontualidade, melhor planejamento, controle dos atrasos e maior dedicação aos projetos. Porém não havia indicadores para verificação da melhoria após a implantação deste novo arranjo organizacional e, portanto, não era possível afirmar que seu desempenho havia melhorado conforme esperado. Foram então utilizados novos indicadores que permitiram efetuar o diagnóstico do desempenho dos projetos antes e depois da mudança organizacional. Para isto foram utilizadas as informações dos relatórios de acompanhamento do Escritório de Projetos do período de 2009 a 2013 para obtenção de indicadores de eficiência, eficácia e efetividade. Estes indicadores permitem afirmar que esta unidade compartilhada de projetos é mais eficiente, mais eficaz e mais efetiva que a estrutura organizacional funcional anterior quanto a maior pontualidade, melhor planejamento, menores atrasos e maior dedicação aos projetos.
Resumo:
O produto potencial é uma variável não-observável e, por isso, de difícil mensuração. O objetivo deste trabalho é contribuir para a discussão sobre a estimação da taxa de crescimento do produto potencial brasileiro através de uma revisão teórica e metodológica das estimativas da variável para a economia brasileira. Após uma análise sintética sobre os principais conceitos relacionados ao tema e sobre os métodos de estimação mais utilizados na literatura nacional, optou-se por utilizar seis tipos de mensurações distintas. As principais conclusões do trabalho foram: primeiramente, as estimativas de Produto Interno Bruto (PIB) potencial são bastante sensíveis à metodologia utilizada; em segundo lugar, baseado em dados trimestrais da economia brasileira, foi possível verificar que a taxa de crescimento do produto potencial brasileiro caiu nos últimos anos e que esta se encontra em uma banda entre 1,63% e 2,72%.
Resumo:
As organizações contemporâneas apresentam elevado grau de complexidade. A extensa cadeia de processos deve ser gerenciada de forma integrada e requer descentralização da tomada de decisões para assegurar respostas ágeis aos estímulos do ambiente competitivo. Este contexto demanda a criação de ferramentas de gestão que apoiem os gestores no atingimento dos objetivos estratégicos globais das empresas, como o modelo de referência analisado neste trabalho, que alia as métricas de gestão da cadeia de suprimentos com o conceito do Balanced Scorecard. Este trabalho objetivou, por um lado, avaliar a atual arquitetura de indicadores de desempenho da unidade operacional (UO) de uma grande distribuidora de combustíveis à luz deste modelo de referência e, por outro, testar o modelo de referência através do estudo de caso quanto à sua universalidade de aplicação por diferentes empresas. Dentre os resultados obtidos, destacam-se: a arquitetura de indicadores atual da UO está desequilibrada nas dimensões do BSC – comparada à dimensão financeira que apresenta 7 indicadores, a dimensão clientes apresenta somente 2 indicadores; identificou-se uma lacuna de 50% na relação de indicadores de desempenho da UO quando a confrontamos com o modelo de referência; para as lacunas identificadas, desenvolveu-se um plano de ação para sua incorporação à arquitetura da UO; constatou-se que 24% das métricas do modelo de referência não se aplicam à realidade da UO e; o modelo de referência não abarca itens relevantes como treinamento, engajamento e Saúde, Meio Ambiente e Segurança (SMS), primordial para a realidade da empresa, que acompanha atualmente 6 indicadores de SMS. Verificou-se, também, que o uso de um modelo de referência genérico não é o mais adequado por causa das complexidades intrínsecas de cada uma das organizações. Entretanto, o mesmo pode ser usado como um guia para verificação de suficiência dos indicadores pré-selecionados por uma determinada empresa porque indica lacunas que podem não ser percebidas no processo de seleção.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
A preocupação com a segurança do paciente, fator importante na dimensão da qualidade do cuidado de saúde, é, atualmente, um tema de grande relevância entre pesquisadores do todo o mundo. Os “erros” ocorrem em qualquer local onde se prestam cuidados de saúde e na maioria das situações são passíveis de medidas preventivas. O objetivo deste estudo de caso para ensino é desvelar, através de uma revisão bibliográfica, o debate em torno do tema da segurança do paciente a partir do século XXI, enfocando sua relevância enquanto problema global de saúde pública. Além disso, este estudo discorre sobre os desafios relacionados às lacunas e perspectivas neste tema e sua abordagem na realidade brasileira. Os resultados da análise sugerem que a investigação sobre a segurança do paciente apresenta falhas nas suas abordagens a serem melhor definidas e estabelecidas. Foram identificadas ainda, as barreiras, como grande demanda dos prontos-socorros das grandes cidades, o medo do profissional que cometeu o erro, adesão de todos os profissionais e dos gestores, e desafios para serem enfrentados, como o desenvolvimento de estratégias e ações políticas de saúde específicas, tanto para a pesquisa na área de saúde quanto para a literatura de saúde pública em gestão pública.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
Em resposta à crise financeira de 2008, em 2010 o Comitê de Basileia em Supervisão Bancária (Basel Committee on Banking Supervision - BCBS) emitiu a metodologia do cálculo do indicador de Risco de Liquidez de curto prazo (Liquidity Coverage Ratio - LCR) que é um dos componentes do conjunto de normas conhecido como Basileia III. Esse índice mede se cada conglomerado possui um estoque de ativos financeiros líquidos de alta qualidade de forma a suportar uma crise severa por 30 dias. Esse trabalho calculou o índice de liquidez de curto prazo dos dez maiores bancos brasileiros em ativos totais nos últimos cinco anos, seguindo as diretrizes do documento acima mencionado e do Banco Central do Brasil. A finalidade desse estudo foi verificar se houve uma melhora na liquidez dos grandes bancos após a divulgação da metodologia de cálculo do LCR, uma vez que a partir de 2015 é esperado pelo Banco Central do Brasil que os bancos possuam pelo menos 60% de ativos líquidos para suportar uma crise de 30 dias. A análise foi conduzida utilizando dados contábeis oriundos tanto do banco de dados do Banco Central do Brasil quanto das publicações individuais de cada instituição. Essa análise permitiu avaliar que os principais bancos do sistema financeiro brasileiro já estão preparados para atender aos requisitos internacionais e que não serão necessárias grandes alterações na estrutura do balanço das instituições analisadas, evitando a migração seus ativos de empréstimos, aplicações em certificados de depósitos interbancários e títulos privados para títulos de alta qualidade e liquidez.