949 resultados para Injeção de solução polimérica e controle de mobilidade
Resumo:
Neste trabalho, duas equações modedlo na área da dinâmica de gases rarefeitos, são derivadas a partir de algumas soluções exatas da equação linearizada de Boltzmann homogênea e não homogênea. Em adição, uma versão analítca do método de ordenadas discretas é usado para resolver problemas clássicos nesta área, descritos pelo "Modelo S". Resultados numéricos são apresentados para os problemas de fluxo de Couette, fluxo de Poiseuille, "Creep" Térmico, Deslizamento Térmico e problema de Kramers.
Resumo:
Introdução: a obtenção de um bom controle metabólico é essencial para a prevenção das complicações crônicas do Diabetes Melito (DM). O tratamento é complexo e depende da implementação efetiva das diferentes estratégias terapêuticas disponíveis. Para que isso seja possível, é necessário que o paciente entenda os princípios terapêuticos e consiga executá-los. A precária educação em diabetes é percebida como um dos obstáculos para o alcance das metas terapêuticas. Objetivo: analisar, os fatores associados ao controle metabólico, em pacientes com DM tipo 2 (DM2) não usuários de insulina. Métodos: foi realizado um estudo transversal em pacientes com DM2 não usuários de insulina, selecionados ao acaso entre aqueles que consultavam nos ambulatórios de Medicina Interna, Endocrinologia e Enfermagem do Hospital de Clínicas de Porto Alegre. Os pacientes foram submetidos à avaliação clínica, laboratorial e responderam um questionário que incluía o tipo de tratamento realizado para DM, outros medicamentos e co-morbidades, pesquisa de complicações em ano prévio e avaliação do conhecimento sobre DM. Os pacientes foram classificados em dois grupos, com bom ou mau controle glicêmico, de acordo com o valor da glico-hemoglobina de 1 ponto % acima do limite superior do método utilizado. As comparações entre variáveis contínuas, com distribuição normal, foram analisadas pelo teste t de Student para amostras não-pareadas e para as variáveis de distribuição assimétrica ou com variância heterogênea o teste U de Mann-Whitney. A comparação entre percentagem foi feita pelo teste de qui-quadrado ou exato de Fisher. Foi realizada uma análise logística múltipla para identificar os fatores mais relevantes associados ao controle metabólico (variável dependente). As variáveis independentes com um nível de significância de P < 0,1 na análise bivariada, foram incluídas no modelo. Resultados: foram avaliados 143 pacientes com DM2, idade de 59,3 ± 10,1 anos, duração conhecida do DM 7,5 ± 6,3 anos, índice de massa corporal (IMC) de 29,7 ± 5,2 kg/m².Destes, 94 pacientes (65,73%) apresentavam bom controle glicêmico. Os pacientes com mau controle glicêmico usavam mais anti-hiperglicemiantes orais como monoterapia (OR = 9,37; IC = 2,60-33,81; P=0,004) ou associados (OR = 31,08; IC = 7,42-130,15; P < 0,001). Da mesma maneira, não fizeram dieta em dias de festa (OR = 3,29; IC = 1,51-7,16; P = 0,012). A inclusão do conhecimento sobre diabetes não foi diferente entre os pacientes com bom ou mau controle glicêmico (OR = 1,08; IC = 0,97 - 1,21; P = 0,219). A análise multivariada demonstrou que a consulta com a enfermeira educadora (OR = 0,24; IC = 0,108-0,534; P = 0,003), com o endocrinologista (OR = 0,15 ; IC = 0,063-0,373; P = 0,001) e o uso de hipolipemiantes (OR = 0,10; IC = 0,016 - 0,72; P = 0,054) foram associados ao bom controle glicêmico, ajustados para a não realização de dieta em festas, uso de anti-hiperglicemiantes orais e conhecimento sobre diabetes. Conclusão: o controle metabólico em pacientes DM2 é influenciado pelas atividades de educação com enfermeira e endocrinologista. O tratamento do DM2 deve incluir atividades de educação de forma sistemática.
Resumo:
A codificação de vídeo de modo a permitir a escalabilidade durante a transmissão tem se tornado um tópico de grande nos últimos anos. Em conjunto com um algorítmo de controle de congestionamento, é possível a criação de um ambiente de transmissão multimída mais apropriado. Esta dissertação apresente um algoritimo de codificação de vídeo escalável baseado em bit-planes. O modelo de codificação do video utiliza 3D-DCT para codificação espacial e temporal e um quantizador escalar semelehante ao empregado no MPEG 4. A técnica de escalabilidade em bit-planes implementada permite a divisão da saída de codificador em taxas complementares e com granularidade fina. Este algorítmo e parte integrante doprojeto SAM (Sistema Adaptativo Multimídia), que busca criar um ambiente de transmissão multimídia adaptativo em tempo real. Este projeto está em desenvolvimento na tese de doutorado de Valter Roesler. O algorítmo proposto e implementado é capaz de transmitir de forma unidirecional vídeos de baixa movimentação. Os resultados dos testes realizados com a implementação feita mostram que a solução proposta é flexível em realação a tecnologia disponível de transmissão através do ajuste no númerp de camadas e suas respectivas especificações de banda. Os testes realizados apresentaram um desempenho aceitável para codificação e decodificação de vídeo em tempo real. A taxa de compressão apresentou resultados satisfatórios na transmissao em ambientes de baixa velocidade para as camadas inferiores, bem como taxas de transmissão para ambientes em ADSL, cable modem e rede local para as camadas superiores. Com relação a qualidade do vídeo, esta varia de acordo com o grau de movimentação do mesmo. Por exemplo, no modelo "talking-head", comum em videoconferências, a qualidade se mostrou viável para ambientes de baixa velocidade (56 kbits/s).
Resumo:
Resumo não disponível.
Resumo:
Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.
Resumo:
O presente trabalho tem como objetivo estabelecer uma rota alternativa para obtenção de ímãs de Fe-Si pelo processo de injeção de pós metálicos. Utilizando uma matéria-prima de custo mais baixo do que a tradicional e o processo de Mecano Síntese, deseja-se obter um ímã de baixo custo e boas propriedades magnéticas.
Resumo:
Esta tese teve como objetivos investigar: (1) as mudanças relacionadas à idade no controle de força e torque isométrico em crianças de diferentes idades em três tarefas manipulativas distintas, e (2) as diferenças no controle de força e torque isométrico, assim como nas respostas neuromusculares, entre crianças com e sem DCD de idade relacionadas em três tarefas manipulativas distintas. Neste sentido, foi realizado um ensaio teórico sobre a criança com Desordem Coordenativa Desenvolvimental (DCD), além de dois estudos experimentais que têm em comum a análise da estrutura da resposta do sistema motor em relação à performance das crianças com e sem DCD, em três tarefas manipulativas distintas de controle de força e torque isométrico, contínuo e constante. No primeiro estudo, foram investigadas as mudanças desenvolvimentais no controle motor usando um delineamento transversal de pesquisa com crianças de 7, 9 e 11 anos de idade, as quais foram incentivadas a manter o controle de força e torque durante vinte segundos nas tarefas de pressão digital, preensão digital em pinça e torque em preensão digital. Os resultados demonstraram que a performance melhorou com o avanço da idade, devido à capacidade do sistema sensório-motor apresentar uma resposta mais irregular e com um perfil de freqüências mais distribuídas. No segundo estudo, o controle de força e torque entre crianças com e sem DCD, com nove anos de idade, foram investigadas. Os participantes realizaram as mesmas tarefas do estudo desenvolvimental e, além disso, respostas neuromusculares foram mapeadas Os resultados não revelaram uma variabilidade maior e irregularidade menor no grupo com DCD nas tarefas de pressão digital e preensão digital em pinça. No entanto, na tarefa de controle de torque em preensão digital, foi identificada uma maior variabilidade e menor irregularidade na resposta motora do grupo com DCD. Os resultados não revelaram uma variabilidade maior e irregularidade menor no grupo com DCD nas tarefas de pressão digital e preensão digital em pinça. No entanto, na tarefa de controle de torque em preensão digital, foi identificada uma maior variabilidade e menor irregularidade na resposta motora do grupo com DCD. Os resultados da análise das respostas neuromusculares sugerem o uso de estratégias distintas entre os grupos, todavia, tais achados não foram conclusivos.
Resumo:
Além de armazenar e distribuir o aço líquido para os moldes, uma das funções do distribuidor de lingotamento contínuo é a flotação e separação das inclusões para uma melhor qualidade do produto final. A eficiência e otimização deste processo requer o conhecimento das características do escoamento do aço líquido dentro do distribuidor. Esta dissertação trata do modelamento matemático do escoamento do aço num distribuidor DELTA-T, sem e com modificadores de fluxo e inibidores de turbulência, em condições isotérmicas e não isotérmicas em diferentes situações de vazão e condições térmicas. O software CFX-4 foi utilizado para resolver as equações de movimento, continuidade e transferência de calor utilizando modelo k-ε de turbulência para uma geometria tri-dimensional. A validação de modelo matemático com o modelo físico foi feita através da comparação de planos de laser entre os vetores de velocidade. Para a trajetória do escoamento foi utilizado no modelo físico a técnica do corante. Para a obtenção das curvas DTR – distribuição de tempos de residência no modelo físico foi usada a técnica de injeção de pulso, enquanto que no modelo numérico esta mesma técnica foi aplicada para um escoamento multifásico homogêneo. O perfil de temperatura calculado do aço na superfície foi comparado com medidas experimentais realizadas na usina O objetivo deste trabalho é caracterizar o escoamento do aço através dos perfis de velocidade, energia cinética de turbulência, perfis de temperatura e curvas de distribuição de tempos de residência, avaliando os tempos mínimo e médio de residência e as porções de volumes característicos. Os resultados obtidos indicam que o uso de modificadores de fluxo e inibidores de turbulência são eficientes no controle da emulsificação. É observado que o escoamento apresenta diferenças quando tratado isotermicamente e não isotermicamente.
Resumo:
Este trabalho apresenta um estudo da liga zinco-níquel obtida a partir de um banho ácido de cloretos, de formulação sugerida pela Boeing. A liga zinco níquel é uma proposta atual para a substituição de revestimentos de cádmio eletrodepositados, tanto na industria aeronáutica como na indústria automobilística. O interesse nesta substituição surge da necessidade de se encontrar um processo menos poluente ao meio ambiente e ao operador que aplica o revestimento, economicamente viável e que também atenda legislação ambiental, cada vez mais restritiva. As ligas zinco-níquel são de especial interesse, porque além de apresentarem as características descritas anteriormente, também conferem ao substrato ferroso, uma proteção do tipo catódico. O estudo aqui apresentado avaliou uma faixa de densidade de corrente de deposição, entre 0,5 e 5 A.dm-2 quanto aos teores de níquel das ligas formadas, a resistência a corrosão e outras características das ligas, através de curvas de polarização, voltametrias e ensaios de impedância eletroquímica e ensaios de névoa salina e outros ensaios . Especial atenção foi dada para a faixa de densidade de corrente considerada como ótima pela Boeing, entre 2 e 3 A.dm-2.
Resumo:
Novas centrais térmicas utilizam carvão ROM (Run of mine) na sua alimentação. Sem o processamento do minério as flutuações de qualidade do carvão serão transferidas da mina para o consumidor final. Freqüentemente, contratos entre produtor-consumidor estabelecem limites pré-estabelecidos de parâmetros geológicos e tecnológicos como enxofre, cinzas e poder calorífico. Lotes de minério com qualidade fora dos limites estabelecidos podem ser rejeitados ou penalizados. O custo elevado dessas penalizações recomenda a homogeneização do minério ROM. As principais estratégias de homogeneização são as baseadas em técnicas geoestatísticas, as pilhas de homogeneização e as usinas de beneficiamento ou metalúrgicas. A estratégia de homogeneização baseada em técnicas geoestatísticas apresenta os menores custos de implementação, no entanto o conhecimento do depósito deverá ser fundamental. Tradicionalmente, essa estratégia de homogeneização utiliza um modelo de blocos gerado por um estimador tradicional, geralmente krigagem ordinária. A estimativa dos blocos por krigagem não considera a incerteza associada ao modelo geológico, não sendo adequada para prever flutuações locais Diferente da krigagem, os métodos de simulação geoestatística têm como objetivo reproduzir a variabilidade in situ e a continuidade espacial dos dados originais. Uma vez que os teores e sua variabilidade são estimados, flutuações da qualidade do minério podem ser previstas para determinada rota de lavra e certo tamanho de lote entregue ao consumidor. Diferentes tamanhos de lote são testados a fim de obter-se o controle das flutuações da qualidade do minério. Este trabalho apresenta um procedimento para acessar a variabilidade dos teores e predizer a sua flutuabilidade para diferentes tamanhos de lote em um estudo de mineração subterrânea de carvão no sul do Brasil. Simulação geoestatística e planejamento de lavra apropriado proporcionam uma solução para o problema de homogeneização de minérios.
Resumo:
Este trabalho apresenta um estudo de camada “duplex” em aços para trabalho à quente da classe AISI H13, com enfoque em matrizes de injeção de ligas de alumínio, visando otimizar a vida das matrizes atuando tanto sobre os mecanismos de ataque superficial da matriz pelo alumínio como sobre a formação de trincas por fadiga térmica. O tratamento duplex consistiu em nitretação à plasma, com gás contendo 5% de nitrogênio e diferentes parâmetros de tempos e temperaturas, sendo as amostras posteriormente revestidas com nitreto de titânio (TiN) ou nitreto de cromo (CrN). As camadas nitretadas foram avaliadas através de análises metalográficas, perfis de dureza e difração de raios X, buscando caracterizar e qualificar a camada nitretada. Tendo sido observado na difração de raios X a presença de camada de compostos (nitretos de ferro ε e γ’) mesmo com a utilização de gás pobre em nitrogênio, foram também avaliados substratos nitretados sem a remoção mecânica dos nitretos e com um polimento para remoção destes antes da deposição. A rugosidade dos substratos nitretados com e sem a realização do polimento mecânico também foram determinados, buscando relação deste parâmetro com os resultados obtidos. O conjunto camada nitretada e depósitos (TiN ou CrN) com e sem o polimento mecânico após-nitretação foram avaliados em termos de adesão com ensaios de indentação Rockwell C com análise em microscopia eletrônica de varredura (qualitativamente) e com o teste do risco (quantitativamente) avaliando tanto as cargas críticas para a falha do filme como o modo de falha também em microscopia eletrônica de varredura. Além disso, foram realizados testes de fadiga térmica em banho de alumínio para simulação e avaliação do desempenho da camada “duplex” em condições de trabalho, bem como foram testadas duas condições de nitretação com TiN ou CrN em regime industrial. Os resultados mostram ganhos de adesão crescentes com o aumento dos tempos e das temperaturas de nitretação, além de maiores ganhos com a remoção mecânica (polimento) do substrato nitretado antes da deposição dos filmes. O comportamento, frente às condições de trabalho também foi superior para condições de nitretação com maiores tempos e temperaturas, tanto nos ensaios de laboratório com nos testes em regime industrial.
Resumo:
As redes ATM têm se constituído na solução tecnológica ideal para o desenvolvimento da RDSI-FL. O ATM foi desenvolvido para dar suporte, com altas velocidades e com garantia de qualidade, a uma ampla variedade de serviços. A demanda por serviços de comunicação de dados, em velocidades maiores do que as redes de pacotes atuais são capazes de oferecer, tem crescido rapidamente, estimulando o desenvolvimento da tecnologia ATM, que tem sido muito promissora, devida a sua flexibilidade e eficiência. Para dar suporte à comunicação de dados em redes ATM, foram desenvolvidas soluções, como a emulação de redes locais (LANE), a interconexão de redes locais (LAN) e metropolitanas (MAN), e o protocolo IP sobre ATM. O ATM utiliza multiplexação estatística (assíncrona) para inserir os dados nos canais de comunicação de forma otimizada. Esta técnica, permite atender uma quantidade maior de fontes heterogêneas sob num único canal, porém, pode causar congestionamento na rede. O uso da multiplexação estatística, aliada à necessidade de garantir níveis de qualidade diferentes, para cada tipo de serviço, torna necessária a adoção de uma combinação de técnicas de controle de tráfego e congestionamento. Com este propósito, foram desenvolvidos diversas funções e mecanismos, como, por exemplo, controle de acesso (CAC), controle dos parâmetros de uso (UPC), descarte seletivo de células e conformação de tráfego (TS), os quais necessitam conhecer as características do tráfego emitido pela fonte. Por esta razão, toda e qualquer conexão ATM está associada a um contrato de tráfego, que especifica as exigências do usuário, quanto à qualidade de serviço (QoS) a ser oferecida pela rede, através de um descritor de tráfego. O trabalho apresentado nesta dissertação, tem por objetivo propor uma metodologia capaz de discriminar um fluxo de células ATM arbitrário, visando a obter os parâmetros descritores de UPC do mesmo. A discriminação de tráfego é relevante à medida que todos os usuários de redes ATM necessitam, de alguma forma, determinar os parâmetros que caracterizam seu fluxo, para poder negociar o contrato de trafego. Infelizmente, a maioria das aplicações ATM, não tem condições prévias de fornecer dados sobre o comportamento do fluxo que geram. Para estas situações, estamos propondo um Discriminador de Tráfego ATM (DTA), que infere a partir de uma amostra inicial do fluxo um conjunto mais provável de parâmetros, os quais constituirão o descritor de tráfego da fonte (STD).
Resumo:
Recentes terremotos e furacões mostraram quão vulneráveis são as estruturas às forças da natureza. Ainda em países desenvolvidos, existe alto risco a desastres naturais. Portanto, um dos principais desafios da Engenharia é a prevenção de desastres mediante o desenvolvimento de conceitos inovadores de projeto, para proteger eficientemente as estruturas, seus moradores e o conteúdo, dos efeitos destrutivos das forças ambientais. O tradicional procedimento de projeto de construções para prevenir falhas catastróficas é baseado na combinação de resistência e capacidade de deformação (ductilidade). Solicitações de baixos níveis provocadas por ventos ou sismos são freqüentemente idealizados com cargas laterais que devem ser resistidas só pela ação elástica da estrutura, enquanto que, em eventos moderados ou severos permite-se certos níveis de dano estrutural e não estrutural, mas não, colapso da mesma. Esta filosofia proporcionou a base da maioria dos códigos de construção (fundados em métodos estáticos equivalentes) desde princípios do século, com resultados satisfatórios. No entanto, a partir do estudo das características dinâmicas das estruturas surgem novos e diversos conceitos de proteção dos sistemas estruturais que tem sido desenvolvidos e ainda estão em expansão, entre os quais pode-se citar a dissipação de energia externa. Esta nova tecnologia consiste em incorporar na estrutura, elementos projetados especificamente para dissipar energia. Com isto, logra-se reduzir as deformações nos membros estruturais primários e portanto, diminui-se a demandada de ductilidade e o possível dano estrutural, garantindo uma maior segurança e vida útil da estrutura Graças a recentes esforços e ao particular interesse da comunidade científica internacional, estudos teóricos e experimentais têm sido desenvolvidos durante a última década com resultados surpreendentes. Hoje já existem sistemas de dissipação de energia aplicados com sucesso em países como Estados Unidos, Itália, Nova Zelândia, Japão e México. Recentemente este campo está-se estendendo na América do Sul. Dentro deste contexto, considerando o beneficio econômico e o melhor desempenho estrutural que implica a incorporação desta nova tecnologia, no presente trabalho abordou-se o estudo deste tipo de sistemas de proteção estrutural orientado ao uso de amortecedores metálicos. O trabalho dividiu-se em três partes principais: a) Projetar e construir um amortecedor metálico que usa as excelentes propriedades do chumbo para dissipar energia. b) Desenvolvimento de metodologias de análise e projeto de estruturas que incorporam amortecimento suplementar a fim de melhorar o seu desempenho estrutural. c) Avaliação da eficiência de sistemas externos de dissipação de energia em estruturas. A primeira parte consistiu em projetar e construir um amortecedor metálico para logo submetê-lo a numerosos testes com diferentes níveis de amplitude de deslocamento e freqüência a fim de avaliar suas propriedades mecânicas e desempenho. Os resultados são considerados altamente satisfatórios. Na segunda parte foram desenvolvidas ferramentas computacionais para pesquisa e docência na área da mecânica estrutural mediante as quais é possível simular o comportamento linear e não linear de estruturas que incorporam amortecimento suplementar Finalmente, apresenta-se um procedimento robusto para avaliar a eficiência dos sistemas dissipadores de energia baseado numa análise da confiabilidade estrutural. Através de vários exemplos com estruturas reais e teóricas se atingem os objetivos traçados no presente trabalho.
Resumo:
Este trabalho realiza uma análise do potencial dos sistemas centralizados para controle de tráfego no Brasil, executando uma comparação entre as diferentes tecnologias disponíveis, e os conseqüentes resultados obtidos. Estes resultados são apresentados, através de "cases", na forma de benefícios obtidos, comparados com os custos associados para a implantação de cada sistema. As partes que compõem estes sistemas são apresentadas através de um histórico do controle de tráfego e das evoluções tecnológicas dos equipamentos e dos critérios de controle utilizados. Um resumo dos panoramas atuais, americano e brasileiro, permite uma comparação, quanto à utilização e investimentos em sistemas centralizados para controle de tráfego. Ao final do trabalho é apresentada uma proposta, adequada à realidade brasileira, para implantação de sistemas centralizados de tráfego, baseada em uma metodologia de implantação em etapas, com investimentos e benefícios crescentes, atendendo gradativamente à demanda de cada município.