969 resultados para Velocidade de recebimento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo avalia a dinâmica de correntes de densidade conservativas através da análise da influência dos principais parâmetros que atuam no escoamento: a diferença de massa específica (Dr) entre os fluidos, a declividade do canal e o volume inicial. As correntes simuladas com soluções salinas em canal unidimensional utilizaram massa específica inicial numa faixa que variou de 1010 kg/m3 a 1045 kg/m3. Também foram conduzidos ensaios em canal bidimensional onde a declividade foi variada de –0,5º a 4º, utilizando soluções salinas de 1010 kg/m3 e 1022 kg/m3. Em ambos os canais, os volumes iniciais foram variados para verificar sua influência no escoamento. Os resultados mostraram que a variação de apenas 1% em Dr provoca um acréscimo de 25% na velocidade média da corrente, indicando que esse parâmetro é determinante na sua dinâmica. O escoamento da corrente apresenta um regime não permanente, sendo que há uma aceleração no início do movimento até que se atinja a velocidade máxima, seguido de uma desaceleração da corrente. Durante o escoamento, a velocidade de avanço da cabeça da corrente apresenta oscilações com uma freqüência principal definida. A correlação dessa freqüência com a freqüência de desprendimento de vórtices, através do número de Strouhal (St), é forte, sugerindo que na simulação física de correntes de densidade, não só o número de Froude Densimétrico deve ser respeitado, mas também o número de Strouhal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta o desenvolvimento de um estudo da extração de óleo vegetal em instalações industriais do tipo Rotocell. O extrator tem forma cilíndrica e possui um eixo principal no qual estão fixos vagões que transportam os sólidos através do extrator, e, abaixo desses existem reservatórios responsáveis pelo recebimento da micela. Acima dos vagões há seções de distribuição de micela que é despejada sobre os sólidos dos vagões, que extrai o óleo. Possui também seções de carregamento e drenagem. Um modelo físico-matemático e um programa para simular a operação do extrator foram desenvolvidos considerando os seguintes fenômenos: difusão de óleo pela micela; transferência de óleo entre as fases bulk e poro; variação da massa específica e viscosidade da micela; os processos nas seções de drenagem e de carregamento. Na forma final, o modelo acoplado apresenta-se em termos de redes neurais artificiais, que possibilita operar com tempos discretos e contínuos, permitindo a simulação numérica deste extrator industrial, o treinamento favorável da rede, sua identificação, e o acompanhamento em tempo real. Foram determinadas características da matéria-prima através de um trabalho experimental em laboratório. Através dos resultados obteve-se a validação do modelo por meios teóricos e experimentais Os resultados teóricos foram comparados com os dados experimentais e com cálculos feitos através do método de estágios ideais. As simulações numéricas revelam propriedades do campo de extração para o regime transiente com distribuição uniforme e regime transiente industrial, onde verifica-se que o modelo descreve corretamente o comportamento real do campo de percolação do extrator. Também foram realizadas simulações numéricas com o objetivo de avaliar as principais características do extrator em função da sua geometria e características da matéria-prima, variando a altura e o número de vagões do extrator verificou-se que é possível simular o comportamento do extrator para diferentes formas e tipo de qualidades da matéria-prima. Foram feitas simulações utilizando um solvente alternativo(álcool) e mudando parâmetros do extrator, onde observou-se que o solvente exige alterações na dimensão do extrator.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As lagoas costeiras em geral exibem reduzidas profundidades máximas, sendo portanto, ambientes altamente vulneráveis às oscilações dos fatores climáticos, em particular o vento. Movimentos da água em zonas pelágicas são fortemente influenciados por mudanças no tempo, as quais promovem mudanças no plâncton. A biomassa é uma importante variável em ecossistemas aquáticos uma vez que representa a quantidade de energia estocada em certo nível trófico da comunidade biológica. O trabalho teve como hipótese principal do trabalho que o vento (principal fator determinante na hidrodinâmica da Lagoa Itapeva), influencia diretamente a biomassa fitoplanctônica. Períodos de ausência de ventos ou ventos fracos provocam uma homogeneidade da comunidade, devido á estabilidade da coluna d’água, propiciando eventos de florações com alta biomassa e baixa diversidade. Outra hipótese formulada é que há variação espaço-temporal da biomassa, da diversidade de espécies e das diferentes frações de tamanho na Lagoa Itapeva, no período estudado. O objetivo do trabalho foi determinar o efeito do vento, principal fator hidrodinâmico da Lagoa Itapeva, sobre a comunidade fitoplanctônica em termos de biomassa, diversidade de espécies e categorias de tamanho. A Lagoa Itapeva é a primeira lagoa do Sistema Lagunar de Tramandaí no sentido N→S. Foram realizadas análises espaciais, formando-se três pontos de amostragem (Norte, Centro e Sul) ao longo do maior eixo longitudinal da lagoa, aliada a uma escala temporal diária (turnos de amostragem: 6h, 10h, 14h e 18h) e sazonal (quatro estações do ano), procurando estabelecer padrões e relações com os fatores hidrodinâmicos (velocidade e direção de vento, e nível d’água). Durante o estudo a Divisão Cyanophyta foi a responsável pelos elevados valores de biomassa observados nos pontos de amostragem. Este fato deve-se principalmente às florações de Anabaena circinalis durante as campanhas sazonais. A biomassa foi a variável que melhor se relacionou com os fatores físicos (nível d’água e velocidade média do vento) pela ação dos ventos de quadrantes predominantes que resultavam num fetch efetivo longo. Neste estudo foram apresentados índices de diversidade de espécies calculados através de indivíduos (H’ind) e de biomassa (H’ biom). Estes índices apresentaram estreitas relações positivas entre si. Os índices também apresentaram relações diretas e significativas com os fatores físicos (nível d’água e velocidade média do vento). Na Lagoa Itapeva, a contribuição das diferentes categorias de tamanho em função da biomassa (estimada através do biovolume), ressaltou três frações que melhor representaram a comunidade fitoplanctônica: nanoplâncton, microplâncton e netplâncton. A fração netplanctônica predominou sobre as demais frações de tamanho. A predominância desta fração sobre as outras estudadas deu-se principalmente às espécies de colônias filamentosas Aulacoseira granulata, Anabaena circinalis e A. spiroides. O comportamento da comunidade fitoplanctônica na Lagoa Itapeva sugere estar de acordo com a Hipótese de Distúrbio Intermediário de Connell (1978). Os distúrbios intensos (provocados pelos forte ventos e fetch longo) ou a falta deste (criando um ambiente estável), nos pontos de amostragem, resultaram em florações da cianobactéria Anabaena circinalis. Essas florações proveram uma densa biomassa em todo o período da pesquisa, além de promoverem a baixa diversidade através do domínio desta cianobactéria, e provocar sucessões das frações de tamanho do fitoplâncton.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A identificação e o monitoramento de microorganismos aquáticos, como bactérias e microalgas, tem sido uma tarefa árdua e morosa. Técnicas convencionais, com uso de microscópios e corantes, são complexas, exigindo um grande esforço por parte dos técnicos e pesquisadores. Uma das maiores dificuldades nos processos convencionais de identificação via microscopia é o elevado número de diferentes espécies e variantes existentes nos ambientes aquáticos, muitas com semelhança de forma e textura. O presente trabalho tem por objetivo o desenvolvimento de uma metodologia para a caracterização e classificação de microorganismos aquáticos (bactérias e microalgas), bem como a determinação de características cinemáticas, através do estudo da mobilidade de microalgas que possuem estruturas que permitem a natação (flagelos). Para caracterização e reconhecimento de padrões as metodologias empregadas foram: o processamento digital de imagens e redes neurais artificiais (RNA). Para a determinação da mobilidade dos microorganismos foram empregadas técnicas de velocimetria por processamento de imagens de partículas em movimento (Particle Tracking Velocimetry - PTV). O trabalho está dividido em duas partes: 1) caracterização e contagem de microalgas e bactérias aquáticas em amostras e 2) medição da velocidade de movimentação das microalgas em lâminas de microscópio. A primeira parte envolve a aquisição e processamento digital de imagens de microalgas, a partir de um microscópio ótico, sua caracterização e determinação da densidade de cada espécie contida em amostras. Por meio de um microscópio epifluorescente, foi possível, ainda, acompanhar o crescimento de bactérias aquáticas e efetuar a sua medição por operadores morfológicos. A segunda parte constitui-se na medição da velocidade de movimentação de microalgas, cujo parâmetro pode ser utilizado como um indicador para se avaliar o efeito de substâncias tóxicas ou fatores de estresse sobre as microalgas. O trabalho em desenvolvimento contribuirá para o projeto "Produção do Camarão Marinho Penaeus Paulensis no Sul do Brasil: Cultivo em estruturas Alternativas" em andamento na Estação Marinha de Aquacultura - EMA e para pesquisas no Laboratório de Ecologia do Fitoplâncton e de Microorganismos Marinhos do Departamento de Oceanografia da FURG. O trabalho propõe a utilização dos níveis de intensidade da imagem em padrão RGB e oito grandezas geométricas como características para reconhecimento de padrões das microalgas O conjunto proposto de características das microalgas, do ponto de vista de grandezas geométricas e da cor (nível de intensidade da imagem e transformadas Fourier e Radon), levou à geração de indicadores que permitiram o reconhecimento de padrões. As redes neurais artificiais desenvolvidas com topologia de rede multinível totalmente conectada, supervisionada, e com algoritmo de retropropagação, atingiram as metas de erro máximo estipuladas entre os neurônios de saída desejados e os obtidos, permitindo a caracterização das microalgas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A forte pressão do mercado pela contratação de melhores serviços faz com que as empresas busquem tornar-se cada vez mais competitivas; portanto, em uma doutrina voltada à competitividade, as empresas obrigam-se a tratar as questões relacionadas às estratégias de Produção e Operações como fator prioritário para competir. Esta pesquisa propôs-se a estudar o mercado de construção de obras de rede de distribuição de energia elétrica. Inicialmente foram identificados os graus de importância para o cliente, com relação a determinados critérios competitivos. Logo após, foram identificados o desempenho das empresas para os mesmos critérios. Finalmente, por meio da Matriz Importância x Desempenho, avaliou-se a adequação entre o grau de importância para o cliente e o desempenho das empresas fornecedoras. As empresas selecionadas para esta pesquisa exploratória são: 1) cliente: Companhia Paranaense de Energia – COPEL, e 2) fornecedoras: empresas da região metropolitana de Curitiba/PR, com cadastro tipo “A” na COPEL. O resultado demonstrou haver, por parte do cliente, um equilíbrio com relação ao grau de importância nas dimensões competitivas qualidade, velocidade, confiabilidade, flexibilidade, custo e inovação. Com relação às empresas fornecedoras foi possível verificar que a grande maioria dos critérios competitivos se situou na “zona de melhoramento” da Matriz Importância x Desempenho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A codificação dedeo de modo a permitir a escalabilidade durante a transmissão tem se tornado um tópico de grande nos últimos anos. Em conjunto com um algorítmo de controle de congestionamento, é possível a criação de um ambiente de transmissão multimída mais apropriado. Esta dissertação apresente um algoritimo de codificação dedeo escalável baseado em bit-planes. O modelo de codificação do video utiliza 3D-DCT para codificação espacial e temporal e um quantizador escalar semelehante ao empregado no MPEG 4. A técnica de escalabilidade em bit-planes implementada permite a divisão da saída de codificador em taxas complementares e com granularidade fina. Este algorítmo e parte integrante doprojeto SAM (Sistema Adaptativo Multimídia), que busca criar um ambiente de transmissão multimídia adaptativo em tempo real. Este projeto está em desenvolvimento na tese de doutorado de Valter Roesler. O algorítmo proposto e implementado é capaz de transmitir de forma unidirecional vídeos de baixa movimentação. Os resultados dos testes realizados com a implementação feita mostram que a solução proposta é flexível em realação a tecnologia disponível de transmissão através do ajuste no númerp de camadas e suas respectivas especificações de banda. Os testes realizados apresentaram um desempenho aceitável para codificação e decodificação dedeo em tempo real. A taxa de compressão apresentou resultados satisfatórios na transmissao em ambientes de baixa velocidade para as camadas inferiores, bem como taxas de transmissão para ambientes em ADSL, cable modem e rede local para as camadas superiores. Com relação a qualidade do vídeo, esta varia de acordo com o grau de movimentação do mesmo. Por exemplo, no modelo "talking-head", comum em videoconferências, a qualidade se mostrou viável para ambientes de baixa velocidade (56 kbits/s).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é estudar os efeitos eletromagnéticos e fluido-dinâmicos induzidos no aço, decorrentes do uso de um agitador eletromagnético. Para tal, foi proposta a construção de um modelo numérico que resolva, de forma acoplada, os problemas de eletromagnetismo e fluido-dinâmica. O modelo numérico do problema eletromagnético, em elementos finitos, foi construído utilizando-se o software Opera-3d/Elektra da Vector Fields. O mesmo foi validado com medidas experimentais de densidade de fluxo magnético feitas na usina. O escoamento decorrente da agitação eletromagnética foi resolvido fazendo-se o acoplamento das forças de Lorentz com as equações de Navier-Stokes. Essas últimas foram resolvidas pelo método de volumes finitos, usando-se o software CFX-4 da AEA Technology. O modelo eletromagnético mostrou que existe um torque máximo dependente da freqüência do campo magnético. Também foi observado que a força magnética aumenta em quatro vezes seu valor, quando a corrente é duplicada. O perfil de escoamento produzido no molde, sob agitação eletromagnética, indica, que as situações de lingotamento testadas, não propiciam o arraste da escória. A velocidade crítica de arraste, determinada via modelo físico, não foi atingida para nenhum caso testado. O modelo fluido-dinâmico e térmico apresentou um aumento do fluxo de calor cedido pelo fluido para a casca solidificada com o uso do agitador eletromagnético. Como conseqüência, observou-se uma queda na temperatura do banho. Também foi observado, que o uso do agitador propicia a remoção de inclusões das camadas mais externas do tarugo. Ao mesmo tempo, notou-se que o uso do agitador aumenta o índice de remoção de inclusões para as duas seções de molde analisadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é a simulação numérica de escoamentos incompressíveis bidimensionais em dutos com expansão brusca, considerando o raio de expansão de 3 : 1. As equações governantes implementadas são as de Navier, que junto com relações constitutivas para a tensão visam representar comportamentos não newtonianos. A integração temporal é feita usando o esquema explícito de Runge-Kutta com três estágios e de segunda ordem; as derivadas espaciais são aproximadas pelo método de diferenças finitas centrais. Escoamentos em expansões bruscas para fluidos newtonianos apresentam um número de Reynolds crítico, dependente do raio de expansão, na qual três soluções passam a ser encontradas: uma solução sim étrica instável e duas soluções assimétricas rebatidas estáveis. Aumentando o número de Reynolds, a solução passa a ser tridimensional e dependente do tempo. Dessa forma, o objetivo é encontrar as diferenças que ocorrem no comportamento do fluxo quando o fluido utilizado possui características não newtonianas. As relações constitutivas empregadas pertencem à classe de fluidos newtonianos generalizados: power-law, Bingham e Herschel-Bulkley. Esses modelos prevêem comportamentos pseudoplásticos e dilatantes, plásticos e viscoplásticos, respectivamente. Os resultados numéricos mostram diferenças entre as soluções newtonianas e não newtonianas para Reynolds variando de 30 a 300. Os valores de Reynolds críticos para o modelo power-law não apresentaram grandes diferenças em comparação com os da solução newtoniana. Algumas variações foram percebidas nos perfis de velocidade. Entretanto, os resultados obtidos com os modelos de Bingham e Herschel-Bulkley apresentaram diferenças significativas quando comparados com os newtonianos com o aumento do parâmetro adimensional Bingham; à medida que Bingham é aumentado, o tamanho dos vórtices diminui. Além disso, os perfis de velocidade apresentam diferenças relevantes, uma vez que o fluxo possui regiões onde o fluido se comporta como sólido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho teve como objetivo estudar a eficiência na aplicação de força a um barco “skiff” com dois tipos de pás de remo (“standard” e cutelo) e verificar se a utilização desses dois tipos de pás produziam alterações na técnica da remada. Um barco “skiff” foi preso por seis cabos de aço às bordas de uma piscina coberta. Um dinamômetro foi instalado a um destes cabos para coletar os dados de força, enquanto a técnica da remada foi estudada por meio de um sistema de cinemetria. A amostra consistiu-se de 5 remadores de diferentes clubes de Porto Alegre. Cada atleta remou um total de cinco minutos com cada pá de remo, mantendo uma voga de 10 remadas por minuto. Não houveram mudanças aparentes na técnica da remada. Um ganho médio de 13,13% de força foi observado a favor do remo cutelo, bem como um aumento de 2,19% no comprimento do percurso do cabo do remo na remada quando este remo foi utilizado. Essas evidências demonstram que o remo cutelo é mais eficiente que o remo “standard” na situação estudada. Assumindo-se que a velocidade de um barco tem relação com a força a ele aplicada, os resultados do presente estudo sugerem que o remo cutelo pode imprimir uma velocidade maior ao barco do que o remo “standard” pela sua maior aplicação de força e maior comprimento de remada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Além de armazenar e distribuir o aço líquido para os moldes, uma das funções do distribuidor de lingotamento contínuo é a flotação e separação das inclusões para uma melhor qualidade do produto final. A eficiência e otimização deste processo requer o conhecimento das características do escoamento do aço líquido dentro do distribuidor. Esta dissertação trata do modelamento matemático do escoamento do aço num distribuidor DELTA-T, sem e com modificadores de fluxo e inibidores de turbulência, em condições isotérmicas e não isotérmicas em diferentes situações de vazão e condições térmicas. O software CFX-4 foi utilizado para resolver as equações de movimento, continuidade e transferência de calor utilizando modelo k-ε de turbulência para uma geometria tri-dimensional. A validação de modelo matemático com o modelo físico foi feita através da comparação de planos de laser entre os vetores de velocidade. Para a trajetória do escoamento foi utilizado no modelo físico a técnica do corante. Para a obtenção das curvas DTR – distribuição de tempos de residência no modelo físico foi usada a técnica de injeção de pulso, enquanto que no modelo numérico esta mesma técnica foi aplicada para um escoamento multifásico homogêneo. O perfil de temperatura calculado do aço na superfície foi comparado com medidas experimentais realizadas na usina O objetivo deste trabalho é caracterizar o escoamento do aço através dos perfis de velocidade, energia cinética de turbulência, perfis de temperatura e curvas de distribuição de tempos de residência, avaliando os tempos mínimo e médio de residência e as porções de volumes característicos. Os resultados obtidos indicam que o uso de modificadores de fluxo e inibidores de turbulência são eficientes no controle da emulsificação. É observado que o escoamento apresenta diferenças quando tratado isotermicamente e não isotermicamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta simulações físicas de correntes de densidade não conservativas em canal bidimensional e tridimensional. Primeiramente, foram desenvolvidas a seleção e caracterização de materiais granulares, bem como a classificação de tamanhos de grãos adequados capazes de simular tais correntes. Foram desenvolvidas também, metodologias de ensaios, abordando os detalhes como a preparação de materiais, equipamentos e instalações. Como resultados foram selecionados cinco materiais para as simulações, a areia (0,125mm a 0,063mm); os calcários B e C (0,125mm a 0,063mm) e os carvões 205 e carvão 207 (0,354mm a 0,063mm). Através de ensaios por fluxo contínuo de material, caracterizado por uma injeção de mistura durante um período de tempo, foram estudados as características geométricas, dinâmicas e os padrões de deposição destas correntes. Nestes ensaios foram variados o material granular e seu tamanho de grão utilizado na mistura e a concentração da mistura. Observou-se que: a velocidade da corrente aumenta à medida que a massa específica/concentração da mistura aumenta; que à medida que o tamanho do grão diminui, para um mesmo material com a mesma massa específica na mistura, a velocidade aumenta; a altura da cabeça da corrente aumenta à medida que a massa específica/concentração da mistura diminui; a distribuição dos volumes de depósitos apresentou uma tendência geral, com acúmulo de material, da ordem de 90%, nas regiões mais proximais do canal (0-75cm) e acúmulo de material, da ordem de 5%, canal nas regiões mais distais do canal (150-250cm). A distribuição dos grãos indica que o tamanho dos grãos vai diminuindo com a distância, estando as frações maiores (correspondentes a areia fina) presentes nas zonas mais proximais do canal (até 50cm) e com os grãos mais finos chegando até as regiões mais distais do canal (250cm). Foi avaliada, também, a influência da vazão inicial e do volume total de material sobre o desenvolvimento e depósitos das correntes de densidade não conservativas. As características medidas foram a evolução e as velocidades da corrente, além da espessura, granulometria e formas de fundo dos depósitos gerados. Como resultados foi verificado que a velocidade de avanço, espessuras, formas de fundo e distribuição granulométricas do material estão intimamente mais ligada à vazão de entrada do que ao volume total. Nota-se que, a vazão condiciona a tendência geral da evolução da corrente (padrão de variação da velocidade e da deposição) e as formas de fundo, enquanto que o volume de material injetado é responsável apenas pela magnitude dessas variações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.