979 resultados para Testes de fluxo lateral
Resumo:
Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.
Resumo:
Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.
Resumo:
O novo cenário mundial, marcado pela globalização e atingindo todos os tipos de empresas nos mais variados setores, é descrito como um ambiente de competição muito acirrada, no qual as empresas precisam encontrar soluções cada vez mais rápidas, com precisão e eficiência, entregando um valor maior para seus clientes e melhores retornos para os acionistas. Nesse ambiente, a informação é um fator primordial de diferenciação, sobrevivência e prosperidade para as organizações. Fluxos de informações confiáveis devem ser desenvolvidos, a fim de contribuir para uma melhor qualidade das decisões. O operador de central de atendimento, ou atendente como é conhecido no segmento, é um infomediário e deve ser preparado e treinado para melhor desempenhar o seu papel na coleta de dados e informações. Assim, o objetivo deste trabalho é propor um fluxo que disponibilize informações precisas e confiáveis a respeito dos clientes, a partir de contatos via central de atendimento da Telet, tornando o processo decisório mais ágil e com foco do cliente. Para isso, foram realizadas entrevistas para identificar as carências e as dificuldades de informações disponibilizadas pela Central de Atendimento às áreas clientes da empresa (marketing, planejamento,engenharia e TI), e foi aplicada uma pesquisa com os atendentes, buscando entender os fatores críticos que os levam a não registrar corretamente as demandas dos clientes, bem como o entendimento de seu papel na organização. Da análise dos dados das entrevistas com especialistas das áreas clientes e dos resultados da pesquisa, estruturada e aplicada em uma amostra de atendentes, emergiu a proposta de um novo fluxo de informações que qualifique a tomada de decisão. Constatou-se que não basta apenas a central de atendimento estar preparada, treinada e capacitada, para melhor atender o cliente e coletar dados e informações dos produtos e serviços. Um fluxo de informações estruturado é fundamental para que a informação trafegue até o destino correto, apoiando a tomada de decisão, permitindo a aprendizagem e a geração do conhecimento.
Resumo:
o objetivo deste trabalho foi analisar o Fluxo de Informações entre a CAIXA e os outros órgãos do Governo, na área de Fomento - Habitação e Saneamento, do Setor Público e com aplicação dos recursos do FGTS, e propor soluções que visem melhorar sua eficiência e eficácia, procurando dar maior transparência ao processo. Na realização do trabalho, foram selecionadas para análise as seguintes categorias: Capacidade de Pessoal, Sistema de Informação, Estrutura Organizacional e a questão Habitacional. A análise dos dados tomou possível propor o desenvolvimento de um sistema, que através de um modelo descentralizado, permita o tratamento das informações de forma mais eficiente e eficaz.
Resumo:
Ao mesmo tempo que os ativos intangíveis têm sido amplamente discutidos e apresentados como condutores de sucesso, ainda são poucas as reflexões sobre a influência destes ativos no valor das empresas. Este trabalho surge portanto com o objetivo de identificar uma maneira de se contemplar os ativos intangíveis no valor de uma empresa, quando a mesma é avaliada pelo método de Fluxo de Caixa Descontado. A partir desta metodologia foram analisadas como os intangíveis marca, reputação, redes e alianças estratégicas, tecnologias e processos, capital humano, capital intelectual, inovação, adaptabilidade, cultura organizacional, liderança, responsabilidade socioambiental, e comunicação e transparência podem impactar o valor da empresa, e como eles relacionam-se entre si.
Resumo:
No Brasil, de forma geral, é elevado o custo do capital de terceiros para financiamento das atividades empresariais. Para a gestão financeira das corporações brasileiras, são cruciais o fortalecimento do capital próprio e a obtenção de melhores saldos no fluxo de caixa. Uma importante fonte de financiamento são os recursos gerados na própria empresa. Entre as várias opções para fortalecimento do capital próprio e para melhoria do fluxo de caixa, uma alternativa que pode ser viável, dependendo das variáveis às quais a empresa está submetida, é o uso dos juros sobre o capital próprio, previsto na Lei nº 9.249/1995 e alterações posteriores. Este trabalho tem como objetivo a proposição de um modelo para gestão financeira das empresas, considerando o impacto dos juros sobre o capital próprio na estrutura do capital e no fluxo de caixa da empresa. Objetiva também mensurar os efeitos do uso dos juros sobre o capital próprio no conjunto formado pela empresa e seus investidores. Efetuou-se um diagnóstico das principais variáveis que podem afetar a decisão das empresas de utilizar ou não os juros sobre o capital próprio para remunerar os investidores. Posteriormente, foi elaborado um modelo para avaliação do impacto dos juros sobre o capital próprio na estrutura de capital e no fluxo de caixa da empresa. O modelo foi aplicado em uma empresa hipotética. A aplicação do modelo proposto proporcionou à empresa melhoria na rapidez, qualidade, confiabilidade e flexibilidade das informações, e maior racionalização e transparência nos processos de gestão relacionados à decisão de uso dos juros sobre o capital próprio Os juros sobre o capital próprio são uma opção fiscal à disposição dos gestores da empresa para remunerar os investidores. O valor dos juros remuneratórios do capital deduzido o imposto de renda retido na fonte, pode ser imputado aos dividendos obrigatórios ou utilizado para aumento do capital da empresa. O modelo proposto gera informações a respeito do impacto que o uso da opção fiscal provoca na carga tributária, no capital próprio e no fluxo de caixa da empresa e dos respectivos acionistas. Outras informações do modelo são as possíveis alterações na remuneração, com base no lucro societário, propiciada a debenturistas, empregados, administradores, partes beneficiárias e acionistas. As informações produzidas pelo modelo têm natureza estratégica e permitem aos gestores da empresa tomar decisões com melhor fundamentação.
Resumo:
O estudo em questão tem por objetivo atestar a eficácia do modelo do Fluxo de Caixa pelo Método Indireto em comparação ao Fluxo de Caixa Direto e à Demonstração de Origens e aplicações de Recursos, como sendo o instrumento mais recomendado para avaliar e mensurar a capacidade de geração de caixa em relação a um determinado período de tempo. O fundamento teórico foi baseado nos seguintes autores: Matarazzo (1998), Brigham e Houston (1999), Vinagre Brasil e Guimarães Brasil (1992); Sanvicente (1993), Assaf Neto (1991), Falcini (1992), Ross, Westerfild e Jaffe (1995), Hoji (2001), Brigham, Gapenski e Ehrhardt (2001), Campos (1999) e Gitman (2001). Para validar a questão central, foi elaborada uma análise dos dados relativos aos demonstrativos da Petrobrás SI A referentes aos anos de 2001 e 2000, comparando-se os resultados observados no Fluxo de Caixa Indireto com os da Demonstração de Origens e Aplicações de Recursos. A pesquisa conclui que o fluxo de caixa pelo método indireto é um instrumento útil para se avaliar qualitativamente a capacidade de geração de caixa, porém limitado às organizações de maior porte, em função da necessidade de um sistema integrado de planejamento e análise de informações gerenciais, que nem sempre é observado no universo das empresas de menor dimensão.
Resumo:
Sob a premissa de que a geometria do perfil deposicional das clinoformas pode conter informações sobre a composição textural dos sedimentos que as compõem, bem como sobre a energia da coluna d’água, foi desenvolvido um modelo computacional para a análise teórica dos fatores controladores do tipo de curvatura dos foresets das clinoformas, e, por extensão dos taludes submarinos. Um modelo análogo de suspensão dinâmica foi implementado experimentalmente com um programa em código Matlab, denominado MAXWELL, e é classificado como um modelo estratigráfico, bidimensional, analítico, determinístico, dinâmico, parcialmente dedutivo e parcialmente baseado em regras. Contém um modelo de escoamento de fluido em linhas de corrente, e trata indiretamente a tensão de cisalhamento no domínio de um sistema fechado bifásico líquido-vapor análogo, a partir a proposta de analogias entre os processos de evaporação e de suspensão de sedimentos. É uma abordagem baseada na competência de transporte do fluxo d’água, pois considera temperatura e velocidade de fluxo combinado onda-corrente como variáveis controladoras análogas da intensidade de transferência de energia. Os processos deposicionais marinhos são reduzidos a um fenômeno da superfície deposicional, que é considerada análoga a uma interface líquidovapor dentro de um sistema fechado. A equação de distribuição estatística de velocidades moleculares de Maxwell é usada para calcular a proporção de moléculas na fase líquida, considerada análoga à proporção de sedimentos depositados, bem como a proporção na fase vapor, tomada como análoga à proporção de sedimentos em suspensão. O estado energético do sistema é parametrizado por três potenciais: energia interna, como função do tamanho de grão (areia, silte ou argila); energia térmica do meio, como função da energia hidrodinâmica, e energia gravitacional, como função do declive topográfico As simulações indicam que os principais fatores controladores do perfil deposicional das clinoformas, e por extensão, dos taludes submarinos em geral, são a energia hidrodinâmica da coluna d’água e a granulometria (ou coesão) do sedimento, que podem ser consideradas dois parâmetros comutáveis, isto é, grãos grossos ou coesos podem produzir sobre a geometria das clinoformas o mesmo efeito da baixa energia hidrodinâmica, e vice-versa. Com base no fator de decaimento da energia hidrodinâmica com o aumento da batimetria, foram definidas três ordens de grandeza da intensidade da energia da coluna d’água: baixa energia (10–1), alta x energia (10-2) e muito alta energia (10-3). Com base nesse critério, foram caracterizados quatro tipos de perfis deposicionais de clinoformas: dois tipos sigmoidais e dois tipos exponenciais. Os tipos sigmoidais podem ser de alta energia ou de muito alta energia, e distinguem-se pela granulometria do sedimento e pela distribuição de declividades em relação à dimensão na direção horizontal. Os perfis de tipo exponencial podem ser tanto de baixa energia, quanto de alta energia. A subida relativa do nível do mar afeta o tipo geométrico do perfil deposicional apenas de forma indireta, a partir da retenção da fração grossa do influxo sedimentar na plataforma ou topset. Os principais fatores controladores do ângulo de declividade do perfil das clinoformas são a granulometria do sedimento, a energia hidrodinâmica, a profundidade d’água da bacia e o desvio lateral da corrente de fundo. A dedução da litofácies a partir da geometria das clinoformas parece promissora apenas para os tipos teóricos sigmoidais, que são distintos na forma e no conteúdo sedimentar.
Resumo:
Diante do aumento da competição no mercado de edificações habitacionais, o paradigma de produção tradicional da construção apresenta limitações, pois resulta em um elevado índice de desperdícios, com altos custos de produção, baixa qualidade e atrasos na entrega dos produtos. A Produção Enxuta, como um paradigma de produção que busca eliminar os desperdícios para que os custos de produção diminuam, a qualidade dos produtos e a rapidez com que são entregues sejam melhores, apresenta-se com potencial de reduzir as ineficiências da construção. As idéias da Produção Enxuta têm sido introduzidas na construção desde 1993, originando a Construção Enxuta. Apesar de estudos demonstrarem bons resultados na introdução dessas idéias na construção, observa-se que tais esforços têm-se voltado mais para uma implementação isolada e pontual, limitando assim a possibilidade de melhorias ao longo do fluxo de valor. Na tentativa de reverter este quadro, o objetivo principal deste trabalho é visualizar o processo produtivo da construção de modo sistêmico, ou seja, do seu fluxo de valor. E assim, identificar os seus principais problemas e desperdícios e propor ações de melhoria, visando uma implementação sistêmica da Produção Enxuta. Para visualização do fluxo de valor utiliza-se a ferramenta chamada Mapeamento do Fluxo de Valor (MFV). Utilizado na manufatura como forma de iniciar a implementação da Produção Enxuta nas empresas, o MFV possibilita uma visualização sistêmica da produção, relacionando o processo produtivo com os clientes e fornecedores, a identificação dos desperdícios e a proposição de melhorias. Devido às diferenças entre construção e manufatura, foram necessárias adequações no MFV para sua aplicação na construção. O estudo foi realizado em uma construtora de edificações habitacionais de Porto Alegre/RS e em função do longo período de construção, a aplicação do MFV ocorreu somente na etapa da alvenaria. A partir da visualização sistêmica da alvenaria foi identificada uma série de problemas e desperdícios e propostas ações de melhorias, almejando a implementação da Produção Enxuta ao longo do fluxo de valor. Entre as melhorias que se mostraram possíveis tem-se a redução do lead time de produção, um processo produtivo mais fluído, a redução dos estoques, o melhor aproveitamento da mão-de-obra e a melhor interação com os diversos agentes que fazem parte da construção como, por exemplo, os clientes, os arquitetos e os fornecedores.
Resumo:
Objetivo: Avaliar a correlação do volume de pulmão com densidade anormal através da Densitovolumetria (DV) com características clínicas e testes de função pulmonar em crianças com Bronquiolite Obliterante (BO). Métodos: Realizou-se um estudo transversal em 19 crianças, com idade entre 7 e 15 anos, com diagnóstico clínico-evolutivo e tomografia de tórax característicos de BO. Foram excluídas ou-tras doenças que cursam com obstrução ao fluxo aéreo. Todas as crianças fizeram o Teste da cami-nhada de seis minutos com monitorização da saturação de oxigênio da hemoglobina. A espirometria foi feita em repouso, após o Teste da caminhada e após a administração de broncodilatador. A Den-sitovolumetria foi realizada em um tomógrafo computadorizado helicoidal de pista simples, marca Toshiba, modelo Xvision EX, com pós-processamento de imagem em estação de trabalho O2 da Si-licon Graphics, com programa de computação Alatoview®. Cada paciente foi submetido a 9 aquisi-ções tomográficas eqüidistantes de alta resolução e a duas varreduras helicoidais, cobrindo toda a extensão do tórax em pausa da respiração no final da inspiração e expiração profundas. Para separar parênquima normal de parênquima com diminuição de atenuação utilizou-se o limiar -950 UH e um outro limiar escolhido de forma subjetiva pelo radiologista Resultados: O volume de parênquima pulmonar com densidade anormalmente baixa na inspiração variou de 0,03 a 8,67 % e, na expiração, de zero a 7,27% do volume pulmonar total. O volume de pulmão hipoatenuado teve boa correlação com os testes de função pulmonar; na inspiração com VEF1% (r= -0,56) e com VEF1/CVF%(r= -0,75). O percentual de zonas hipoatenuadas na inspiração apresentou correlação com VEF1%(r= -0,64) e com VEF1/CVF%(r= -0,71). Na expiração, houve correlação com VEF1% (r= -0,50) e não houve com o VEF1/CVF%. Na comparação com o previsto em adultos, a correlação foi melhor na inspiração. A saturação de oxigênio em repouso não apresentou associação com o volume de áreas hipoatenuadas, enquanto que a saturação mínima durante o exercício apresentou correlação negativa forte com o volume de zonas com hipoatenuação na inspiração (r= -0,60) e na expiração (r= -0,61). Os pacientes com volumes pulmonares maiores percorreram uma distância maior (r=0,53), e a distância percorrida não foi afetada significativamente pelo volume de áreas hipoatenuadas. Conclusão: Em crianças com BO, o volume de zonas hipoatenuadas correlaciona-se com o VEF1% e VEF1/CVF% e com a queda na saturação durante o exercício, mas não se correlaciona com a saturação em repouso e a distância percorrida.
Resumo:
Objetivos: a) avaliar a contribuição de um novo coeficiente, o CEF50 (FEF50/0,5CVF), medido através da curva fluxo-volume, no diagnóstico dos distúrbios ventilatórios; b) testar o CEF50 na diferenciação dos grupos Normais, DVO, DVR; c) estabelecer pontos de corte para cada um dos diagnósticos funcionais e valores de probabilidade para cada diagnóstico a partir de valores individuais. Métodos: estudo transversal, prospectivo, com análise de testes de função pulmonar realizados no HCPA no período de janeiro a dezembro de 2003. Foram coletados dados demográficos e analisados CVF, VEF1, VEF1/CVF, VEF1/CV, CV, VR, CPT, FEF50, FEF75 e DCO. Os pacientes foram divididos conforme o diagnóstico funcional em Normais, DVO e DVR. Foi calculado o CEF50 (FEF50/0,5CVF) nos grupos e as médias foram comparadas. Para correlacionar o CEF50 com o CEF1, utilizou-se a correlação de Pearson. Os pacientes foram, então, redivididos em obstrutivos (Dobst) e não-obstrutivos (dnobst) e foram calculadas as razões de verossimilhança (RV) para diferentes pontos de corte. Resultados: Foram estudados 621 pacientes com idade média de 55,8 14,7 anos. O CEF50 foi diferente nos grupos Normal (2,100,82), DVR (2,551,47) e DVO (0,560,29) (p<0,001). O CEF50 mostrou uma correlação positiva com o CEF1 nos pacientes obstrutivos (r=0,83). O cálculo das RV mostrou que valores abaixo de 0,79 mostraram-se fortes indicadores de DVO e valores acima de 1,33 praticamente afastam esse diagnóstico. Conclusão: O CEF50 (FEF50 / 0,5CVF) é um parâmetro útil no diagnóstico diferencial dos distúrbios ventilatórios, correlacionando-se positivamente com o CEF1.
Resumo:
A crescente preocupação com o lançamento de nutrientes aos corpos d'água e seu impacto sobre a qualidade dos mananciais justifica o aprofundamento do estudo de técnicas de tratamenot de águas residuárias que promovam a remoção destes poluentes. Com a finalidade de estudar a remoção do nitrogênio, foram operados dois sistemas biológicos de tratamento de efluentes por lodos ativados em escala piloto. Esses sistemas apresentavam diferenças em relação a seu fluxo de operação, onde um deles trabalhava de forma intermitente (Reator Seqüencial em Batelada) enquanto o outro se caracterizava por apresentar um fluxo contínuo (Bardenpho). A pesquisa foi realizada no tratamento de esgoto doméstico e dividiu-se em duas etapas: na primeira, foi adotada uma idade de lodo de 10 dias como parâmetro operacional enquanto que, na segunda , adotou-se uma idade de lodo de 30 dias. O monitoramento dos processos foi realizado por meio de análises físico-químicas e também pela observação da microfauna presente no lodo, como um parâmetro adicional de controle dos sistemas. O RSB apresentou-se mais eficiente do que o sistema de fluxo contínuo ao longo das duas etapas da pesquisa Na primeira fase, o RSB apresentou remoções médias de 88, 86 e 59% para a DQO, nitrogênio total e ST, respectivamente, enquanto que, para o sistema em fluxo contínuo, essas remoções foram de 76, 56 e 50%, respectivamente. Na segunda etapa, o RSB apresentou uma remoção média de 88% para DQO, 88% para nitrogênio total e 50% para ST, enquanto que o sistema contínuo apresentou valores médios de 72,49 e 29%, respectivamente. Os sistemas de tratamento apresentaram boas condições de sedimentabilidade durante as duas etapas comprovadas através dos valores obtidos a partir do stestes do IVL e IVLA. Observou-se uma variação da composição da microfauna nos dois sistemas de fluxo contínuo e uma predominância de ciliados fixos no RSB. No RSB, a presença de ciliados fixos esteve associada a boas condiçôes de sedimentabilidade e de remoção de matéria orgânica enquanto que no sistema contínuo, esta associação deu-se com o gênero Euplotes sp. e com os metazóarios. Observaram-se relações entre a presença de amebas e a remoção de nitrogênio no RSB. A presença de ciliados rastejantes esteve associada à geração de um efluente com baixa concentração de SSV em ambos os sistemas de tratamento.
Resumo:
Trata-se de uma proposta de automação da manufatura baseada no relatório técnico ISO/TR 1034-1, que sugere a sua adoção de forma gradativa. Procura também estabelecer relacionamentos com o atual estágio das tecnologias de produção e com os negócios da empresa e, por fim, avaliá-la de forma ampla, quer quantitativa quer qualitativamentente.
Resumo:
Esse trabalho apresenta os resultados obtidos através de ensaios realizados com diferentes tipos de efluentes tratados de diferentes formas de tratamento de esgotos. Foi selecionado um tipo de desinfetante, o Hipoclorito de Sódio para testar sua capacidade como agente desinfetante desses esgotos tratados e avaliar a sanidade das águas após sua aplicação. Foram avaliados quatro diferentes tipos de sistemas de tratamento de esgotos: lodos ativados de aeração extendida, lagoas de estabilização, reator anaeróbio de manto de lodos de fluxo ascendente e reator seqüencial em batelada. O experimento foi dividido basicamente em duas etapas; na primeira foram realizados testes de batelada em laboratório, tentado verificar os resultados quando os esgotos são submetidos à desinfecção na forma estática. A segunda etapa, constituiu-se no teste de desinfecção utilizando uma estação piloto tentando dessa forma simular a desinfecção quando o material é submetido a um regime hidrodinâmico. Foi mensurada a eficiência do desinfetante através do teste de coliformes fecais e totais nos diferentes tipos de esgotos e em variados tipos de dosagens. Simultaneamente verificou-se a formação de Trihalometanos, subproduto da Hipocloração. Eficiências de inativação de 99,99% foram obtidas em tempos de detenção e doses típicas de sistemas de tratamento em escala real. Nos tempos de detenção e dosagens adotadas não houve formação considerável de Trihalometanos.