1000 resultados para Combinações de Previsões


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho estuda o reaproveitamento do efluente alcalino do branqueamento da polpa, da indústria de celulose, através de processos de separação com membranas. Para tanto, foram realizados testes com o efluente industrial para diferentes membranas e, simultaneamente, foi pesquisada a aplicação do processo de flotação como pré-tratamento para retirada de fibras do efluente. A avaliação dos resultados foi realizada por meio de determinações analíticas e monitoramento de alguns parâmetros. Os experimentos foram executados em equipamentos de bancada e piloto. A etapa de separação com membranas envolveu os processos de ultrafiltração, nanofiltração, osmose reversa e combinações destas operações. De forma a escolher um processo com retenção e fluxo permeado adequados variou-se durante os testes a pressão através das membranas e a temperatura. As análises realizadas para a caracterização do efluente foram: pH, condutividade elétrica, turbidez, sólidos totais (ST), demanda química de oxigênio (DQO), compostos organo-halogenados (AOX), ferro, magnésio, cálcio, sódio, potássio e manganês. A DQO foi o principal critério utilizado para avaliar a qualidade do permeado. Os ensaios de flotação foram realizados com e sem adição de compostos químicos auxiliares. A eficiência do processo foi avaliada através das análises de ST, condutividade elétrica, pH, recuperação de fibras, teor de alumínio, turbidez e visualmente Os resultados indicaram que todos os processos testados trouxeram uma melhoria nas características do efluente, incluindo reduções de até 90% no valor de DQO em alguns casos. O processo que apresentou a melhor performance foi a combinação UF5+ORP. A investigação preliminar sobre a flotação das fibras mostrou que, apesar de ter atingido uma remoção de fibras de 95% ainda havia a presença de partículas grosseiras, as quais poderiam causar danos aos processos com membranas. Mais estudos devem ser realizados no sentido de otimizar o processo de flotação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A deficiência da enzima desidrogenase de acil-CoA de cadeia curta (SCAD) é um erro inato do metabolismo potencialmente letal que afeta o último ciclo da oxidação de ácidos graxos. O bloqueio da rota na conversão de n-butiril-CoA a acetil-CoA resultante da deficiência enzimática leva ao acúmulo tecidual e aumento da concentração nos líquidos biológicos predominantemente dos ácidos etilmalônico e metilsucínico. Os pacientes afetados apresentam episódios de acidose metabólica intermitente, hiperamonemia, coma e acidose neonatal com hiperreflexia, miopatia por depósito de lipídios e hipotonia. Os sinais e sintomas dessa doença são variáveis, podendo aparecer em qualquer idade, do nascimento à vida adulta, e em combinações variáveis, freqüentemente levando a episódios ameaçadores à vida de descompensação metabólica depois de um período de ingesta inadequada de calorias e/ou doença intercorrente. Tendo em vista que a patogênese do dano cerebral na deficiência da SCAD é pouco conhecida, no presente estudo investigamos a ação dos ácidos etilmalônico e metilsucínico sobre alguns parâmetros envolvendo o sistema glutamatérgico e a produção de estresse oxidativo em cérebro de ratos jovens. Observamos inicialmente que o ácido etilmalônico promoveu uma diminuição significativa na captação de L-[3H]glutamato por fatias de córtex nas concentrações de 0,01, 0,1 e 1,0 mM. Já nas técnicas relacionadas à união de L-[3H]glutamato em membranas sinápticas plasmáticas, o ácido provocou uma diminuição da ligação de L-[3H]glutamato às membranas na ausência de sódio em todas as concentrações testadas (0,01 – 1,0 mM) e, quando em presença de sódio, houve diminuição da união somente na concentração de 1,0 mM do ácido. Por outro lado, não foi verificado qualquer efeito desse ácido sobre a captação vesicular de L-[3H]glutamato nas concentrações utilizadas. O ácido metilsucínico comportou-se de forma semelhante ao ácido etilmalônico nos parâmetros de captação de L-[3H]glutamato por fatias e união de L-[3H]glutamato em membranas sinápticas plasmáticas. Houve uma diminuição da captação de glutamato por fatias de córtex cerebral, uma diminuição da união de L-[3H]glutamato na ausência de sódio em todas as concentrações e, na presença de sódio, uma diminuição da captação apenas na concentração de 1,0 mM. Por outro lado, distintamente do que ocorreu com o ácido etilmalônico, na captação vesicular observamos uma diminuição da captação em todas as concentrações testadas. Nossos resultados demonstram, desta forma, alterações importantes no sistema glutamatérgico pelos ácidos acumulados na deficiência da desidrogenase de acil-CoA de cadeia curta. A etapa seguinte foi investigar o efeito dos ácidos etilmalônico e metilsucínico sobre parâmetros de estresse oxidativo em córtex cerebral de ratos jovens: medida do potencial antioxidante total (TRAP), medida das substâncias reativas ao ácido tiobarbitúrico (TBA-RS) e medida de quimiluminescência. Foi verificado que os dois ácidos não afetam a lipoperoxidação, medida através do TBA-RS e quimiluminescência e tampouco as defesas antioxidantes não-enzimáticas, medidas através do TRAP. Embora não tenhamos medido o efeito dos ácidos sobre as defesas enzimáticas antioxidantes representadas pelas enzimas superóxido dismutase, catalase e glutationa peroxidase, os resultados dos parâmetros analisados no presente trabalho sugerem que os ácidos acumulados na deficiência da SCAD não produzem estresse oxidativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo visou determinar os resultados atuais da pecuária de corte gaúcha, determinando os custos limites para a adoção de práticas que conduzam a atividade a melhores níveis de produtividade e rentabilidade. Com este propósito, simulou-se, utilizando programação matemática (multiperiódica), a transição do sistema de criação tradicional ao sistema “dois anos”, determinando o seu custo limite e testando-se vinte e sete combinações tecnológicas, a fim de verificar sua viabilidade econômica e financeira. Concluiu-se que a maioria das inovações tecnológicas testadas (dezesseis das vinte e sete), não traz benefício econômico para a atividade. Os melhores resultados estavam sempre associados ao uso de pastagens consorciadas hibernais (gramíneas e leguminosas), e que é determinante para a viabilidade econômica das mesmas a capacidade de suporte das pastagens, sendo necessário trabalhar-se com mais de 810 kg/ha de carga animal, para atingir-se resultados econômicos satisfatórios para a atividade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A reciclagem de resíduos sólidos industriais tem-se tornado uma prática indispensável na preservação de recursos naturais, minimização de custos e redução de impacto ambiental. Dentro deste contexto destaca-se a indústria da construção civil, com enorme potencial de reciclagem, tendo em vista o grande volume de materiais consumidos. A utilização de materiais alternativos neste setor é uma prática economicamente atraente e ambientalmente correta. Sendo assim, o emprego de escórias como matéria-prima em estradas, aterro, concreto e cimento já é uma prática corrente, onde o destino mais nobre destes materiais recicláveis depende da existência de características adequadas ao uso proposto. A escória granulada de fundição (EGF) é um resíduo gerado no processo de fusão de sucatas de ferro fundido via forno cubilô. Ensaios realizados mostram que esta escória, quando finamente moída, apresenta propriedades pozolânicas. Além disso, sua estrutura amorfa, resultante do processo de geração através de resfriamento brusco e composição química adequada podem permitir uma aplicação nobre deste resíduo, como substituição ao cimento. Este trabalho tem como objetivo estudar a viabilidade da utilização de escória granulada de fundição como substituição de parte do cimento em concreto, através da avaliação de suas propriedades mecânicas. Para tanto foram moldados corpos-de-prova de concreto com diferentes combinações de teores de substituição de cimento por escória granulada de fundição (10%, 30% e 50%), em volume, e relações água/aglomerante (0,40; 0,55 e 0,70), comparando-se com o concreto referência. Para cada idade do concreto (7, 28 e 91 dias) realizaram-se ensaios mecânicos, tais como, resistência à compressão uniaxial, resistência à tração por compressão diametral e resistência à tração na flexão. Além disso, foram realizadas avaliação da microestrutura e caracterização ambiental de concretos com EGF, comparativamente ao concreto referência. Os resultados mostram que o teor de 10% de substituição de cimento por escória granulada de fundição, em volume, apresentou desempenho mecânico similar ao concreto referência. A caracterização ambiental dos concretos com EGF mostra que este material é considerado inerte (NBR 10004).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O câncer colorretal é um dos tumores humanos mais freqüentes e a terceira causa de morte relacionada ao câncer no mundo. Apesar de importantes progressos terapêuticos, os resultados na doença avançada ainda são muito modestos. Isto deve-se ao fato de que a droga mais utilizada nesta neoplasia, o antimetabólito 5-fluorouracil (5-FU), foi desenvolvido a mais de 40 anos produzindo taxas de respostas de somente 10-15%. Recentemente, o inibidor da topoisomerase I irinotecan (CPT-11) demonstrou, em carcinoma de cólon avançado, respostas comparáveis tanto em pacientes não tratados quanto naqueles que tiveram recaída após terapia com 5-FU. Estes resultados justificam a avaliação da combinação 5-FU/CPT-11 nesta doença. Apesar das respostas dos estudos clínicos serem promissoras, a melhor seqüência de administração destes agentes ainda não foi determinada. Neste estudo, avaliamos a combinação CPT-11/5-FU quanto ao aumento da inibição do crescimento celular quando comparada com os agentes sozinhos nas linhagens celulares de carcinoma de cólon humano SW620, HT-29 e SNU-C4. Para isto, as células foram expostas às drogas sozinhas ou a várias combinações e seqüências de dose baixa e fixa (IC20) de um dos agentes na presença de dose alta e seriada do outro. As células foram avaliadas imediatamente após os tratamentos e/ou cultivadas por mais 2 dias em meio de cultura sem drogas através de coloração com sulforodamina B. As interações entre CPT-11 e 5-FU foram avaliadas por um programa de computador que permite calcular os índices de combinação (CIs) das drogas indicando sinergismo, adição, ou antagonismo (CI < 1, = 1, ou > 1, respectivamente). As respostas celulares foram relacionadas com as atividades das enzimas timidilato sintase, topoisomerase I e carboxil esterase, que foram determinadas através de ensaio que mede os sítios de ligação e atividade catalítica da enzima, ensaio de decatenação do DNA e método espectrofotométrico, respectivamente. Estando a toxicidade no DNA envolvida no mecanismo de ação das duas drogas, também relacionamos as respostas celulares com a introdução de danos ao DNA por método fluorescente. Para melhor entendermos as interações entre as drogas, examinamos os efeitos da exposição à IC20, IC50 e/ou IC80 do CPT-11 ou 5-FU por 2 h ou 24 h em alvos celulares possivelmente relacionados com a citotoxicidade destes agentes. Estes incluem: capacidade de reparo por excisão do 10 DNA, distribuição das células nas fases do ciclo celular, integridade da membrana plasmática e formação de complexos DNA-topoisomerase I. Para isto, utilizamos método de incorporação de [3H-metil]timidina, citometria de fluxo, liberação de lactato desidrogenase (LDH) no meio de cultura e ensaio de precipitação com SDS, respectivamente. Os estudos de inibição do crescimento celular revelaram valores de IC50 do 5-FU nas linhagens SW620, HT-29 e SNU-C4 de aproximadamente 15, 8 e 2 µM, respectivamente, e do CPT-11 próximos a 2, 2 e 4 µM, respectivamente. As diferentes sensibilidades ao 5-FU nas três linhagens foram determinadas principalmente pela diferença na afinidade ao substrato. As respostas comparáveis obtidas pela exposição ao CPT-11 podem ser explicadas pelo equilíbrio entre as diferentes atividades das enzimas topoisomerase I e carboxil esterase, entre as linhagens. O programa de análise da combinação das drogas mostrou adição ou sinergismo após exposição a IC20 do CPT-11 seguido do 5-FU, nas três linhagens celulares. Por outro lado, o pré-tratamento com IC20 do 5-FU antagonizou a inibição do crescimento mediada pelo CPT-11. Nenhum dos tratamentos simultâneos determinou um aumento na inibição do crescimento nas linhagens SW620 e HT-29; mas mostraram adição ou antagonismo na linhagem SNU-C4. Observamos um significativo acréscimo na introdução de danos ao DNA nas linhagens celulares SW620 e HT-29 somente quando a IC20 do CPT-11 precedeu a IC50 do 5-FU. Já na linhagem SNU-C4, não somente este tratamento, mas também a utilização simultânea dos agentes introduziu mais dano ao DNA. Os tratamentos por 2 h ou 24 h com IC20, IC50, e/ou IC80 do 5-FU ou CPT-11 não causaram mudanças significativas na distribuição das células nas fases do ciclo celular, concentração de LDH no meio de cultura, ou formação de complexos DNA-topoisomerse I. Indicando que alterações nestes processos não estão envolvidas com os efeitos modulatórios dos pré-tratamentos na citotoxicidade das drogas. Entretanto, a incorporação de [3H-metil]timidina no DNA de células tratadas com CPT-11, aumentou em função da dose e tempo de exposição à droga. Este resultado sugere que o dano ao DNA introduzido pelo CPT-11 depende da dose e tempo de exposição podendo ser reparado por mecanismos de excisão. Somente foi observada significativa incorporação de [3H-metil]timidina em células tratadas com IC20 do 5-FU por 2 h, sugerindo que o reparo por excisão só ocorre após exposição por curto período e à doses baixas deste agente. Juntos, os resultados deste estudo mostraram que tanto os efeitos anti-proliferativos quanto a introdução de danos ao DNA pela combinação CPT-11/5-FU em dose baixa e fixa de um agente junto com dose alta do outro, nas linhagens celulares de carcinoma de cólon humano SW620, HT-29 e SNU-C4, dependem da seqüência de administração das drogas. Estes achados podem ter sido determinados pelos diferentes efeitos do tratamento com uma dose baixa dos agentes nos mecanismos de reparo por excisão do DNA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As técnicas utilizadas em sistemas de reconhecimento automático de locutor (RAL) objetivam identificar uma pessoa através de sua voz, utilizando recursos computacionais. Isso é feito a partir de um modelamento para o processo de produção da voz. A modelagem detalhada desse processo deve levar em consideração a variação temporal da forma do trato vocal, as ressonâncias associadas à sua fisiologia, perdas devidas ao atrito viscoso nas paredes internas do trato vocal, suavidade dessas paredes internas, radiação do som nos lábios, acoplamento nasal, flexibilidade associada à vibração das cordas vocais, etc. Alguns desses fatores são modelados por um sistema que combina uma fonte de excitação periódica e outra de ruído branco, aplicadas a um filtro digital variante no tempo. Entretanto, outros fatores são desconsiderados nesse modelamento, pela simples dificuldade ou até impossibilidade de descrevê-los em termos de combinações de sinais, filtros digitais, ou equações diferenciais. Por outro lado, a Teoria dos Sistemas Dinâmicos Não-Lineares ou Teoria do Caos oferece técnicas para a análise de sinais onde não se sabe, ou não é conhecido, o modelo detalhado do mecanismo de produção desses sinais. A análise através dessa teoria procura avaliar a dinâmica do sinal e, assumindo-se que tais amostras provêm de um sistema dinâmico não-linear, medidas qualitativas podem ser obtidas desse sistema. Essas medidas não fornecem informações precisas quanto ao modelamento do processo de produção do sinal avaliado, isto é, o modelo analítico é ainda inacessível. Entretanto, pode-se aferir a respeito de suaO problema analisado ao longo deste trabalho trata da busca de novos métodos para extrair informações úteis a respeito do locutor que produziu um determinado sinal de voz. Com isso, espera-se conceber sistemas que realizem a tarefa de reconhecer um pessoa automaticamente através de sua voz de forma mais exata, segura e robusta, contribuindo para o surgimento de sistemas de RAL com aplicação prática. Para isso, este trabalho propõe a utilização de novas ferramentas, baseadas na Teoria dos Sistemas Dinâmicos Não-Lineares, para melhorar a caracterização de uma pessoa através de sua voz. Assim, o mecanismo de produção do sinal de voz é analisado sob outro ponto de vista, como sendo o produto de um sistema dinâmico que evolui em um espaço de fases apropriado. Primeiramente, a possibilidade de utilização dessas técnicas em sinais de voz é verificada. A seguir, demonstra-se como as técnicas para estimação de invariantes dinâmicas não-lineares podem ser adaptadas para que possam ser utilizadas em sistemas de RAL. Por fim, adaptações e automatizações algorítmicas para extração de invariantes dinâmicas são sugeridas para o tratamento de sinais de voz. A comprovação da eficácia dessa metodologia se deu pela realização de testes comparativos de exatidão que, de forma estatisticamente significativa, mostraram o benefício advindo das modificações sugeridas. A melhora obtida com o acréscimo de invariantes dinâmicas da forma proposta no sistema de RAL utilizado nos testes resultou na diminuição da taxa de erro igual (EER) em 17,65%, acarretando um intrínseco aumento de processamento. Para sinais de voz contaminados com ruído, o benefício atingido com o sistema proposto foi verificado para relações sinal ruído (SNRs) maiores que aproximadamente 5 dB. O avanço científico potencial advindo dos resultados alcançados com este trabalho não se limita às invariantes dinâmicas utilizadas, e nem mesmo à caracterização de locutores. A comprovação da possibilidade de utilização de técnicas da Teoria do Caos em sinais de voz permitirá expandir os conceitos utilizados em qualquer sistema que processe digitalmente sinais de voz. O avanço das técnicas de Sistemas Dinâmicos Não-Lineares, como a concepção de invariantes dinâmicas mais representativas e robustas, implicará também no avanço dos sistemas que utilizarem esse novo conceito para tratamento de sinais vocais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho utiliza-se como sistema dinâmico o circuito eletrônico que integra o sistema de equações acopladas de Rossler modificado. Este sistema possui uma nãolinearidade dada por uma função linear por partes e apresenta comportamento caótico para certos valores dos seus parâmetros. Isto e evidenciado pela rota de dobramento de período obtida variando-se um dos parâmetros do sistema. A caracterização experimental da dinâmica do sistema Rossler modificado e realizada através do diagrama de bifurcações. Apresenta-se uma fundamentação teórica de sistemas dinâmicos introduzindo conceitos importantes tais como atratores estranhos, variedades invariantes e tamb em uma análise da estabilidade de comportamentos assintóticos como pontos fixos e ciclos limites. Para uma caracterização métrica do caos, apresenta-se a definção dos expoentes de Lyapunov. São introduzidos também os expoentes de Lyapunov condicionais e transversais, que estão relacionados com a teoria de sincronizção de sistemas caóticos. A partir de uma montagem mestre-escravo, onde dois osciladores de Rossler estão acoplados unidirecionalmente, introduz-se a de nição de sincronização idêntica, sincronização de fase e variedade de sincronização. Demonstra-se a possibilidade de sincronização em uma rede de osciladores caóticos de Rossler, acoplados simetricamente via acoplamento de primeiros vizinhos. A rede composta por seis osciladores mostrou ser adequada pelo fato de apresentar uma rica estrutura espacial e, ao mesmo tempo, ser experimentalmente implementável. Além da sincronização global (osciladores identicamente sincronizados), obtém-se a sincronização parcial, onde parte dos osciladores sincronizam entre si e a outra parte não o faz. Esse tipo de sincronização abre a possibilidade da formação de padrões de sincronização e, portanto, exibe uma rica estrutura de comportamentos dinâmicos. A sincronização parcial e investigada em detalhes e apresentam-se vários resultados. A principal ferramenta utilizada na análise experimental e numérica e a inspeção visual do gráfico yi yj , fazendo todas as combinações entre elementos diferentes (i e j) da rede. Na análise numérica obtém-se como resultado complementar o máximo expoente de Lyapunov transversal, que descreve a estabilidade da variedade de sincronização global.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo de caráter descritivo teve como objetivo investigar a qualidade e cinesfera dos movimentos dos membros superiores de jogadores de basquete em cadeira de rodas da Associação Rio-grandense de Paralíticos e Amputados. A revisão de literatura destacou a caracterização da pessoa portadora de deficiência motora e o basquete em cadeira de rodas, assim como o significado, a qualidade e cinesfera do movimento humano. Não tendo sido encontrada literatura sobre pesquisas realizadas a respeito desse assunto quanto ao usuário da cadeira de rodas, a coleta dos dados ocorreu através de entrevistas, filmagens e fichas de observação, o que possibilitou a análise e interpretação da qualidade e cinesfera dos indivíduos da amostra. Com os resultados obtidos, foi possível verificar que, em todos os movimentos locomotores, manipulativos, estabilizantes e expressivos, os indivíduos apresentaram uma qualidade própria dentro dos fatores do movimento (peso, tempo, espaço e fluência); foram também identificadas combinações entre estes fatores (caracterizando ações básicas de esforço). Quanto à cinesfera dos movimentos dos membros superiores, os indivíduos observados, portadores de deficiência motora, demonstraram explorar diferentes direções espaciais (dimensionais, diametrais e diagonais), predominando a direção espacial diametral, denominada de movimento das ações práticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, apresenta-se um estudo numérico, através do Método dos Elementos Finitos, do efeito de instalação de uma parede diafragma com tirantes, seguida de uma grande escavação em solo residual de Granito Independência. As simulações numéricas são comparadas a deslocamentos medidos em uma obra localizada no Bairro Moinhos de Vento, na cidade de Porto Alegre, Rio Grande do Sul - Brasil. Para realizar esta análise utilizou-se o programa computacional Plaxis. Este programa se destina especificamente a análises da deformabilidade e estabilidade de projetos de engenharia geotécnica, cuja simulação requer o uso de métodos numéricos que consideram linearidade e não-linearidade constitutiva, bem como dependência do tempo. Foi utilizado nas simulações o Modelo Elástico-Perfeitamente Plástico com Superfície de Ruptura de Mohr- Coulomb. Os parâmetros do solo foram determinados a partir de ensaios de SPT e CPT, e balizados através de dados obtidos na literatura. Os resultados das análises numéricas são comparados com os resultados medidos in situ, durante a execução da escavação. Foram feitas duas análises distintas, uma chamada Classe A, onde os parâmetros estimados através dos ensaios SPT e CPT foram adotados como padrão e utilizados na simulação da obra Na segunda análise, denominada análise Classe C, correspondente a uma avaliação dos valores de ângulo de atrito (φ), coesão (c) e Módulo de Elasticidade (E), procurando-se avaliar a sensibilidade das previsões. Os resultados da análise numérica Classe A apresentam uma boa aproximação dos resultados medidos em 3 dos 5 perfis analisados, sendo que as simulações reproduziram de forma qualitativa a tendência das curvas experimentais. Parâmetros de resistência e deformabilidade têm um grande influência no comportamento do modelo numérico. A variação de parâmetros de projeto, como a força de ancoragem nos tirantes e a rigidez da parede diafragma também foram testadas. Os resultados demonstram que a influência destes parâmetros é significativa na medida dos deslocamentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo explicar o funcionamento do Sistema Brasileiro de Defesa da Concorrência e apresentar novas ferramentas de auxílio à política antitruste. Para isso, discutiremos o Sistema Norte-Americano de Defesa da Concorrência e, principalmente, o guideline americano, que é a base das técnicas de análise de fusões e aquisições em grande parte dos países, inclusive o Brasil. Uma vez apresentado o ambiente institucional, explicare- mos alguns modelos de simulação de fusões, uma técnica relativamente recente utilizada por alguns órgãos antitruste do mundo que permite fazer previsões do novo nível de preços da indústria após a fusão. Para ilustrar as virtudes do método, aplicaremos o modelo a alguns casos de aquisições conhecidos no Brasil e analisaremos seus resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem como objetivo analisar o desempenho de vários modelos econométricos ao prever Inflação . Iniciamos o trabalho utilizando como base de comparação para todos os modelos a tradicional curva de Phillips que usa a taxa de desemprego como variável explicativa para diferenças de preço. Dentre os modelos analisados temos univariados e bivariados, sendo estes últimos uma curva de Phillips alternativa já que apenas sustitui a variável desemprego por outra variável macroeconômica. Além destes modelos também comparamos o desempenho de previsão de modelos que usam como covariadas uma combinação das previsões dos modelos anteriores (univariados e bivariados). O resultado deste estudo aponta a combinação de modelos por "ridge regression" como uma técnica - dentre as analisadas para combinação de previsões - de menor erro de previsão sempre; sendo alcançado pela combinação da média em apenas um dos casos analisados. No entanto, a combinação de previsões não apresentou melhor resultado que algumas das covariadas testadas em modelos bivariados