24 resultados para refrigeração otimizada

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As ações decorrentes das decisões estratégicas têm seu impacto num horizonte de tempo relativamente longo. Por vezes as decisões estratégicas são tomadas com base em análises subjetivas, ou em percepções de quem conduz a empresa. Neste trabalho procura-se identificar quais são os critérios importantes no processo de comercialização de equipamentos de refrigeração de grande porte, e saber qual o desempenho da empresa Springer Carrier nestes mesmos critérios. Foi realizada uma revisão bibliográfica buscando a identificação de atributos competitivos, a elaboração e implementação de uma pesquisa destes atributos e, por fim, a elaboração de uma Matriz Importância x Desempenho. Os resultados destacam a importância da dimensão competitiva confiabilidade. Tanto confiabilidade de entrega do equipamento, como confiabilidade de funcionamento foram destacados pelos pesquisados. Além da confiabilidade, foi salientada a importância da dimensão competitiva qualidade, pelo destaque dado ao atributo eficiência energética. Além disso, um resultado paralelo, decorrente do processo de pesquisa, traz a possibilidade de uma variação na metodologia proposta por Slack para a determinação da importância dos atributos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante a realização de projetos de sistemas de refrigeração assistidos por sistemas de armazenagem de energia, na forma latente, é necessário que se saiba de antemão as taxas de transferência de energia dos mesmos. Na literatura soluções para este problema são escassos e não abordam todas as geometrias utilizadas para o armazenamento de energia latente, inexistindo correlaçõesmatemáticas que permitam aos projetistas prever o comportamento da fusão e da solidificação do material de mudança de fase (MMF) e as taxas de transferência de energia térmica. Na solução destes problemas são usualmente adotadas hipóteses simplificativas para amenizar o grau de complexidade da descrição matemática do problema Uma destas hipóteses constitui-se em desconsiderar o processo advectivo na transferência de calor no MMF, em sua fase líquida. Outra hipótese adotada, quando o MMF é a água pura, consiste em utilizar um comportamento linear para a massa específica ou um comportamento médio, consistindo em um afastamento da realidade. Este trabalho descreve esforços no sentido de aproximar estas soluções cada vez mais da realidade fisica do problema. São apresentadas simulações para a mudança de fase da água pura levando em conta a inversão da massa específica, em geometria polar, na forma transiente, utilizando o método de Volumes Finitos para solução das equações governantes. As soluções apresentadas, otimizadas quanto às malhas espacial e temporal, envolvem condições de contorno de primeira e terceira espécies Como resultado das soluções são apresentados o Nusselt local, ao longo da parede do cilindro além do Nusselt médio. Correlações matemáticas para o número de Nusselt médio durante a fusão e para o volume de MMF fundido, são propostos e apresentados. A evolução geométrica da fronteira de mudança de fase também é avaliada para as duas condições de contorno e diversos números de Rayleigh. Comparações entre o volume fundido considerando apenas o processo difusivo e o volume fundido utilizando a convecção são realizadas. Para a verificação da independ~encia de malha aplica-se o índice de convergência de malha (GCI) . Algumas comparações qualitativas com soluções experimentais disponíveis na literatura são apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste estudo foi de avaliar in vitro a microinfiltração cervical imediata em restaurações ocluso-proximais de resina composta, onde foram utilizados dois sistemas adesivos (Scotchbond Multi Purpose - 3M; Clearfil Mega Bond - Kuraray) através de uma técnica de baixa intensidade de luz polimerizável. Em cada um dos 11 molares decíduos foram confeccionados dois preparos cavitários ocluso-proximais padronizados (um ocluso-mesial e outro ocluso-distal), com o auxílio de uma ponta diamantada cilíndrica de extremidade plana n°2094, (KG Sorensen), fixada a uma caneta de alta rotação sob refrigeração ar/água. Os sistemas adesivos foram aplicados seguindo as instruções do fabricante, um na cavidade ocluso-mesial e outro na ocluso distal, sendo inserida, posteriormente, uma resina composta híbrida (Z250 - 3M) pela técnica incremental LUTZ (1986). O primeiro incremento foi inserido na parede cervical da caixa proximal (sentido horizontal) e fotopolimerizado (fotopolimerizador VIPTM - Bisco) a uma intensidade de 100 mW/cm2 por 60 segundos. Dois outros incrementos foram inseridos diagonalmente na porção vestibular e lingual/palatina, a uma intensidade de 200 mW/cm2, também pelo tempo de 60 segundos. As restaurações foram submetidas a acabamento e polimento com o auxílio de um bisturi lâmina n°12 e com discos Sof-lex Pop-on (3M). Após o acabamento, foi realizada a impermeabilização, em seguida os dentes foram imersos em solução azul de metileno a 0,5% por um período de 24 horas, sendo posteriormente seccionados longitudinalmente no sentido mésio-distal para avaliação da penetração do corante, usando para tal o estereo-microscópio. Os resultados foram submetidos à análise estatística através dos testes Qui-quadrado e o teste não-paramétrico U de Mann-Whitney. Os resultados demonstraram não haver diferença estatisticamente significante entre os dois sistemas adesivos testados, podendo-se concluir que a utilização deste protocolo restaurador de cavidades ocluso-proximais com resina composta em molares decíduos resultou em baixos níveis de microinfiltração cervical imediata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta uma comparação entre resultados computacionais, obtidos através do "software" EnergyPlus e experimentais do comportamento térmico de um ambiente condicionado e não condicionado. Para tanto, monitoraram-se os dados climáticos de radiação, velocidade do vento e temperatura, no período de 11 a 20 de janeiro de 2002 e produziu-se um arquivo climático. Simultaneamente, fez-se a aquisição das temperaturas de uma sala-teste, localizada no terceiro pavimento de um prédio na cidade de Porto Alegre, bem como das salas adjacentes. As temperaturas do ar de insuflamento e de retorno dos condicionadores de ar, localizados na sala-teste, foram medidas durante o dia, em seis dias do período de monitoramento. Mediu-se também a velocidade do ar de retorno e determinou-se a potência sensível de refrigeração. Os ganhos de calor interno da sala também foram medidos e utilizaramse as formulações apresentadas pela ASHRAE, 2001, para determiná-los em relação às pessoas e à infiltração. Tais dados foram declarados ao programa como variáveis de entrada. As simulações do comportamento térmico da sala-teste foram implementadas informando-se ao programa a temperatura das salas ou os coeficientes de uma equação representativa das mesmas. Por considerar que a primeira representava melhor as condições térmicas das salas contíguas, utilizou-se esta modalidade para análise As simulações foram conduzidas, alterando-se opções fornecidas pelo programa: modelo de céu isotrópico e anisotrópico, coeficiente de convecção simples e detalhado. Os resultados da carga térmica e temperatura ambiente da sala-teste obtidos nas simulações foram comparados com os dados experimentais do período de monitoramento. A melhor concordância foi obtida para o modelo anisotrópico, coeficiente de convecção detalhado. Constatou-se uma grande discrepância entre as cargas térmicas, para o modelo de convecção simples. Assim, conclui-se que o "software" EnergyPlus representa bem o comportamento térmico de uma edificação "termicamente pesada" para coeficiente de convecção detalhado, necessitando pesquisa para as demais edificações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é a obtenção de uma técnica para a modelagem otimizada de corpos submetidos a fluxos de alta velocidade, como aerofólios em escoamentos transônicos e outras geometrias aerodinâmicas. A técnica é desenvolvida através de expansões em séries de Fourier para um conjunto de equações diferenciais com interrelação com as condições de contorno, sendo uma equação para a parte superior e outra para a parte inferior do aerofólio. O método de integração temporal empregado baseia-se no esquema explícito de Runge-Kutta de 5 estágios para as equações da quantidade de movimento e na relação de estado para a pressão. Para a aproximação espacial adota-se um esquema em volumes finitos no arranjo co-localizado em diferenças centrais. Utiliza-se dissipação artificial para amortecer as frequências de alta ordem do erro na solução das equações linearizadas. A obra apresenta a solução de escoamentos bi e tridimensionais de fluidos compressíveis transônicos em torno de perfis aerodinâmicos. Os testes num´ericos são realizados para as geometrias do NACA 0012 e 0009 e asas tridimensionais usando as equações de Euler, para número de Mach igual a 0.8 e ® = 0o. Os resultados encontrados comparam favoravelmente com os dados experimentais e numéricos disponíveis na literatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar a influência do tratamento superficial, através da técnica de nitretação a plasma, no processo de fresamento com fresas de aço rápido AISI M2. Foram investigados os efeitos deste tratamento superficial no processo de corte, variando-se a forma de refrigeração/lubrificação das fresas com fluído de corte convencional (emulsão) em abundância, com minimização e sem fluído (lubrificação a seco). Na nitretação, a composição da mistura de gases utilizada nos experimentos foi de 5% N2 e 95% H2 em volume, a uma pressão de tratamento de 5 mbar (3,8 Torr). A temperatura utilizada foi de 440oC, durante um tempo de tratamento de 30 minutos, resultando em uma camada nitretada com uma zona de difusão com aproximadamente 8µm de profundidade. As ferramentas empregadas no processo de fresamento foram investigadas através de medição de forças de usinagem, medições de desgaste na superfície de incidência (flanco) e na superfície de saída (face), sendo as camadas nitretadas caracterizadas por metalografia óptica e microdureza. Foi observado um desempenho superior das fresas nitretadas apenas para as condições de corte a seco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A gestão assistencial, cada vez mais, assume a responsabilidade integral do desempenho dos serviços e/ou unidades hospitalares, passando a responder não somente pelo desempenho assistencial como também pelo econômico. Em conseqüência, há maior compreensão do processo e dos recursos consumidos. Assim, os indicadores assistenciais (tempo médio de permanência, taxas de infecção, taxas de óbito) passam a ser as causas mais óbvias e verdadeiramente afins para explicar e revestir os valores econômicos. Todavia, ela necessita de um modelo administrativo que a norteie, possibilitando assim, um gerenciamento sistematizado, científico e qualificado, que atinja as metas traçadas, refletidas nos indicadores de resultado da qualidade assistencial e econômica. Este trabalho teve como objetivo desenvolver um modelo integrado ao Activity-Based Management (ABM) para melhor analisar a eficácia em Serviços de Emergência, buscando através do mapeamento dos processos e custeio das principais atividades, propor o gerenciamento dos Protocolos Clínicos e das Intervenções Terapêuticas - Therapeutic lntervention Scoring System (TISS) pelo método ABM. O desenvolvimento do modelo deu-se em duas etapas: I°) Identificação dos principais serviços prestados e mapeamento dos processos e principais atividades do Plantão Médico do Hospital Mãe de Deus, Porto Alegre -RS; 2°) Desdobramento da análise de Eficiência e Eficácia através de um sistema de informações, onde as entradas consideradas foram os processos, subprocessos e atividades mapeadas e custeadas pelo método Activity- Based Costing (ABe); os processadores foram os protocolos clínicos (ABM estratégico), as rotinas, o TISS e a estatística descritiva (ABM operacional); resultando na saída do sistema a análise da Eficácia (qualidade, tempo e custo) gerando relatórios da Eficácia Assistencial. Considerando-se que na saúde, mesmo contando com a utilização dos melhores recursos e tempos hábeis, existe a probabilidade de desfechos insatisfatórios, o modelo assumiu que para análise da qualidade, a avaliação está embasada num todo, onde se somam basicamente o tempo ideal preconizado para cada situação e a expectativa da utilização otimizada dos recursos (mão-de-obra, materiais, medicamentos, exames e equipamentos). Para análise dos tempos, considerou-se as evidências da obtenção de melhores resultados clínicos. Assim sendo, toda vez que os tempos forem além do preconizado pelos protocolos e rotinas, haverá ineficácia no processo, pois os objetivos assistenciais dos desfechos clínicos serão perturbados. E por fim, na análise dos custos, foram considerados ao mesmo tempo o meio e o fim da quantificação de ociosidade ou desperdício e da qualidade assistencial respectivamente. Fazer as coisas que devem ser feitas, com qualidade a custo menor, proporciona perspectivas de eficácia ao encontro dos objetivos da organização. Como resultados, pode-se constatar que os protocolos clínicos e as intervenções pelo TISS integrados ao ABM e com o uso da estatística descritiva, muito embora não sejam fórmulas rígidas a serem seguidas, mostraram indiscutivelmente a eficácia e a eficiência do processos assistencial, respeitadas as variabilidades de condutas e utilização de recursos explicáveis pela diversidade das doenças.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As redes ATM têm se constituído na solução tecnológica ideal para o desenvolvimento da RDSI-FL. O ATM foi desenvolvido para dar suporte, com altas velocidades e com garantia de qualidade, a uma ampla variedade de serviços. A demanda por serviços de comunicação de dados, em velocidades maiores do que as redes de pacotes atuais são capazes de oferecer, tem crescido rapidamente, estimulando o desenvolvimento da tecnologia ATM, que tem sido muito promissora, devida a sua flexibilidade e eficiência. Para dar suporte à comunicação de dados em redes ATM, foram desenvolvidas soluções, como a emulação de redes locais (LANE), a interconexão de redes locais (LAN) e metropolitanas (MAN), e o protocolo IP sobre ATM. O ATM utiliza multiplexação estatística (assíncrona) para inserir os dados nos canais de comunicação de forma otimizada. Esta técnica, permite atender uma quantidade maior de fontes heterogêneas sob num único canal, porém, pode causar congestionamento na rede. O uso da multiplexação estatística, aliada à necessidade de garantir níveis de qualidade diferentes, para cada tipo de serviço, torna necessária a adoção de uma combinação de técnicas de controle de tráfego e congestionamento. Com este propósito, foram desenvolvidos diversas funções e mecanismos, como, por exemplo, controle de acesso (CAC), controle dos parâmetros de uso (UPC), descarte seletivo de células e conformação de tráfego (TS), os quais necessitam conhecer as características do tráfego emitido pela fonte. Por esta razão, toda e qualquer conexão ATM está associada a um contrato de tráfego, que especifica as exigências do usuário, quanto à qualidade de serviço (QoS) a ser oferecida pela rede, através de um descritor de tráfego. O trabalho apresentado nesta dissertação, tem por objetivo propor uma metodologia capaz de discriminar um fluxo de células ATM arbitrário, visando a obter os parâmetros descritores de UPC do mesmo. A discriminação de tráfego é relevante à medida que todos os usuários de redes ATM necessitam, de alguma forma, determinar os parâmetros que caracterizam seu fluxo, para poder negociar o contrato de trafego. Infelizmente, a maioria das aplicações ATM, não tem condições prévias de fornecer dados sobre o comportamento do fluxo que geram. Para estas situações, estamos propondo um Discriminador de Tráfego ATM (DTA), que infere a partir de uma amostra inicial do fluxo um conjunto mais provável de parâmetros, os quais constituirão o descritor de tráfego da fonte (STD).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho objetiva disponibilizar informações claras e ordenadas aos leitores em língua portuguesa acerca do vasto campo que é o monitoramento de espécies gasosas tóxicas ou perigosas em distintos ambientes. Também esclarece alguns termos técnicos comumente usados nesta área e tece comentários sobre a legislação e as normas brasileiras relativas ao assunto monitoramento de gases tóxicos ou perigosos, sempre buscando um paralelo com publicações técnicas de organizações internacionais de amplo conhecimento dos profissionais da área. Segue com uma elucidação dos princípios de funcionamento dos sensores de gases, componentes básicos das tecnologias mais extensivamente usadas, bem como as vantagens e desvantagens dos equipamentos deles decorrentes com vistas a permitir uma escolha acertada de tecnologias e equipamentos para uma resposta otimizada e eficiente envolvendo monitoramento de gases em situações rotineiras e especiais. Objetiva também prover uma exemplificação prática envolvendo o uso de equipamento de sensoriamento. Para tanto, finaliza com um exemplo de monitoramento de emissões poluentes, avalia comparativamente a performance de queima e tira conclusões acerca das emissões poluentes decorrentes da queima de gás liquefeito de petróleo (GLP) e gás natural (GN) comerciais em um forno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A glico-hemoglobina (HbA1c) é um parâmetro importante no controle glicêmico de pacientes diabéticos. Vários estudos clínicos mostraram claramente que a melhora no controle glicêmico está fortemente associada com a diminuição no desenvolvimento e/ou progressão das complicações microvasculares do diabetes. A medida exata e precisa da HbA1c é uma questão importante para os laboratórios clínicos. Vários fatores afetam os resultados e podem levar a resultados errôneos. Este trabalho analisou o efeito de fatores analíticos, estados patológicos e drogas nos resultados de HbA1c. Em um primeiro estudo, demonstramos que a fração lábil de HbA1c contribui significativamente para o resultado final. Quando está fração é separada inadequadamente, há a necessidade de um pré - tratamento na amostra, para evitarmos valores falsamente elevados. O armazenamento das amostras é um fator pré – analítico importante. Amostras mantidas sob refrigeração são estáveis por 10 dias e o armazenamento a longo prazo deve ser feito a – 80oC. No entanto, amostras congeladas a –20oC apresentam uma diminuição significativa nos valores de HbA1c, já nas primeiras 24h de armazenamento. Em um segundo estudo, relatamos que as hemoglobinas anômalas estão associadas com valores muito baixos de HbA1c. Adicionalmente, também demonstramos que a anemia é uma importante fonte de interferência negativa nos resultados. Sugerimos que, para a correta interpretação dos valores de HbA1c, o estado hematológico do paciente seja sempre considerado. Em um terceiro estudo, analisamos o uso crônico de aspirina, vitamina C e vitamina E nos níveis de HbA1c. Houve inexistência de efeito significativo nos resultados de HbA1c, medidos por 3 métodos rotineiramente utilizados pelos laboratórios clínicos, em indivíduos não - diabéticos. O clínico deve conhecer os fatores que afetam a determinação de HbA1c na população atendida e os resultados discordantes com a história clínica do paciente devem ser sempre investigado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O bom dimensionamento de equipes contribui para o aumento do nível dos serviços prestados pelas empresas, com o menor custo possível. Uma alternativa para abordar a questão foi dimensionar as equipes de eletricistas, de uma empresa do setor elétrico, (utilizando técnicas de previsão de demanda, de simulação e de alocação) para atender de forma otimizada, a demanda variável das atividades prestadas - fornecimento de energia. Um equilíbrio entre a demanda por serviços e a capacidade de execução da empresa evitaria longas filas de espera dos clientes e servidores (eletricistas) ociosos. Cinco etapas forma cumpridas: fase exploratória, coleta de dados, previsão de demanda e simulação do processo e alocação do recurso. Na primeira houve um entendimento de como chegava o pedido do serviço na empresa até a finalização da ordem de serviço. Na coleta de dados foram levantados aproximadamente 80 tipos diferentes de atividades desenvolvidas pelos eletricistas e classificadas de acordo com a prioridade de urgência, prazos de atendimento dos serviços e afinidade de execução das tarefas. Nesta etapa ainda foram coletados os volumes de serviços gerados e tempos médios de deslocamento e execução das atividades. Na terceira etapa foi utilizado um software de previsão de demanda chamado Forecast Pro, possibilitando a escolha automática do modelo de previsão mais apropriado para a série histórica em estudo. Na quarta etapa, foi utilizado um software de simulação de processos chamado Arena. Desenvolveu-se um modelo do processo real com os respectivos dados de entrada dos serviços, tempos de deslocamento e execução e número de equipes. Na última etapa, utilizando a ferramenta Solver do Excel otimizou-se o número de equipes. Um dos resultados da ação foi obter vários cenários com a variação do número de equipes e seus respectivos tempos médios de atendimento, sem causar nenhum dano para a empresa, podendo assim ser analisado qual o melhor cenário para ser implementado na companhia, minimizando o problema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo principal determinar a troca de calor em uma torre de resfriamento de grande porte, do tipo seca. A força motriz deste sistema é o empuxo resultante da diferença de temperatura entre o ar interior e exterior da torre. A partir de uma certa velocidade o vento externo também desempenha um papel importante. A convecção natural ocorre em regime turbulento, devido às grandes dimensões. A modelagem numérica é feita pelo Método dos Volumes Finitos com malhas criadas sobre Elementos Finitos, através dos softwares comerciais Fluent e CFX. Os resultados são obtidos para diferentes potências dissipadas no trocador de calor. A partir dos resultados são realizados estudos sobre a viabilidade de mudanças na geometria da torre, a fim de se obter melhorias no escoamento, bem como uma troca de calor mais eficiente. Faz-se ainda uma regressão a fim de obter correlações entre a potência dissipada no trocador de calor e a vazão mássica de ar necessária para a troca. Estas correlaçõoes são de utilidade, para aplicações posteriores, na implantação de um simulador para o processo de troca de calor nesta torre. O trocador de calor também é enfocado a fim de se determinar o coeficiente global de troca térmica, a fim de disponibilizá-lo para aplicação em outros trabalhos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, sistemas de suprimento de energia que utilizam recursos renováveis têm sido estudados e empregados como opção para o fornecimento de energia elétrica em comunidades isoladas em áreas remotas. Devido aos avanços da tecnologia fotovoltaica associada à diminuição de custos e maior conhecimento de seu desempenho, os sistemas fotovoltaicos apresentam-se como uma opção promissora. Neste trabalho apresenta-se o desenvolvimento de um programa computacional de dimensionamento e simulação de sistemas fotovoltaicos autônomos na linguagem de programação Visual Basic 5.0, chamado PVSize, capaz de propor, para uma certa configuração de sistema, o número de baterias e módulos com seu risco de déficit de energia. Este programa tem como finalidade facilitar a interação com o usuário, e poderá ser utilizado como uma ferramenta auxiliar no processo de escolha dos elementos do sistema e estabelecer a melhor configuração através de um acompanhamento anual com base horária dos parâmetros envolvidos. Estes elementos são caracterizados através da implementação de modelos matemáticos propostos por diferentes autores que descrevem o seu desempenho individual. A integração destes modelos através de uma metodologia apropriada levou ao desenvolvimento de um programa completo de dimensionamento e simulação de sistemas fotovoltaicos autônomos. O potencial energético solar é obtido a partir de informações das características climatológicas locais, utilizadas para gerar séries de dados de radiação a partir de modelos estatísticos O programa permite projetar sistemas de suprimento de energia elétrica que atenderão cargas comunitárias (iluminação pública e de escolas, bombeamento de água, refrigeração em centros de saúde, irrigação, telecomunicações, e mais) e cargas residenciais (iluminação, refrigeração, lazer, etc.) tornando-se uma ferramenta importante para o projeto de sistemas fotovoltaicos autônomos. A comparação dos valores obtidos através de PVSize e outros programas computacionais desenvolvidos por estabelecimentos conceituados na área apresentou uma ótima concordância. Desta forma fica demonstrada a adequação do PVSize para o dimensionamento e simulação de sistemas fotovoltaicos autônomos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo o desenvolvimento de uma nova técnica para determinação do tamanho médio e da distribuição de tamanho de bolhas de ar em meio aquoso. A nova técnica, denominada de LTM-BSizer, uma vez otimizada, foi aplicada na caracterização das bolhas geradas por diversos métodos utilizados tanto na flotação para tratamento de efluentes líquidos quanto na flotação de partículas minerais e, principalmente, na investigação de parâmetros operacionais e do efeito do tamanho de bolhas na flotação de partículas minerais (quartzo como modelo) finas (40-10 µm) e ultrafinas (<10 µm). A técnica LTM-BSizer é baseada no conceito da captura, ou seja, ao contrário das técnicas fotográficas até agora propostas, onde as imagens (fotos ou vídeos) das bolhas em movimento foram obtidas com visores verticais, este método obteve as imagens das bolhas estabilizadas em um visor disposto na horizontal. Entre as vantagens em relação aos métodos fotográficos existentes destacam-se a melhor qualidade das imagens e a capacidade de medir distribuições de tamanho de bolha com grande amplitude, desde microbolhas (<100 µm) até bolhas maiores (~ 1 a 3 mm). Os métodos de geração de bolhas pesquisados foram: microbolhas geradas por despressurização de água saturada com ar em um vaso saturador (processo de flotação por ar dissolvido-FAD) ou por uma bomba centrífuga multifase (novo equipamento para geração de microbolhas), injeção de mistura ar-líquido através de um constritor tipo venturi (destaque na flotação não convencional), injeção de ar em cilindro inox poroso (comumente aplicado para dispersão de gás) e bolhas geradas em uma célula de flotação por ar induzido (FAI), convencional de bancada Para todos os métodos citados, exceto o último, a distribuição de tamanho de bolha foi avaliada numa coluna em acrílico com 200 cm de altura e 72 mm de diâmetro, onde através de um ponto de amostragem parte do fluxo foi conduzida até o visor. Os resultados obtidos com esta técnica foram, para os diâmetros médios de bolha: 30 a 70 µm para FAD, 65 a 130 µm para bomba multifase, 200 a 1400 µm para venturi, 500 a 1300 µm para FAI e 500 a 1000 µm para o cilindro poroso. A influência de alguns parâmetros operacionais na formação das bolhas foi estudada em detalhe e os resultados obtidos mostraram uma boa correspondência com os valores encontrados na literatura e em outros casos, elucidaram efeitos considerados contraditórios na literatura técnica. Este trabalho demonstrou que, o tamanho médio e a distribuição de tamanho das microbolhas, não são influenciados pela pressão de saturação no intervalo de 294 a 588 kPa, mas sim pela quantidade de bolhas e pelo tempo de retenção Também foi constatado que a diminuição da tensão superficial da água (adição de 30 mg/L de oleato de sódio) aumenta consideravelmente (3 a 8 vezes) o número de microbolhas na FAD a baixas pressões de saturação (196 e 294 kPa). O tamanho e a distribuição de tamanho de bolhas geradas em constrições de fluxo tipo venturi variam em função dos parâmetros concentração de tensoativo, velocidade superficial de líquido (UL) e razão gás/líquido (Qr). Uma pequena diminuição da tensão superficial, de 73 para 68 mN/m, provocada pela adição de 20 mg/L do tensoativo DF 250, foi suficiente para diminuir consideravelmente o tamanho das bolhas geradas, permanecendo constante para concentrações maiores, sugerindo que esta seja a concentração crítica de coalescência (CCC) para este sistema. Um aumento de UL (mantendo Qr constante) e diminuição de Qr (com UL constante) levaram a distribuições com menor amplitude e diâmetro médio. No caso das microbolhas geradas através da bomba multifase, o tamanho de bolhas diminuiu com a pressão até atingir o limite de solubilidade teórico ar/líquido. O tamanho das bolhas gerados através de placa porosa e FAI apresentaram boa correspondência com os reportados na literatura e em ambas as técnicas foi, de novo, encontrada, para DF 250, a mesma CCC igual a 20 mg/L. O sistema de flotação de partículas finas e ultrafinas, foi estudado via recuperação de finos de quartzo (50% < 10µm) em coluna de laboratório. As variáveis estudadas foram; a distribuição de tamanho de bolhas e a concentração de coletor (amina). Os resultados obtidos mostraram que a recuperação das frações mais finas aumenta com a diminuição do tamanho de bolhas de acordo com os modelos existentes de flotação. Entretanto, foi encontrado, na captura de partículas ultrafinas pelas bolhas, um valor ótimo de tamanho de partícula. Assim, a captura diminui com o tamanho de partícula até 5-7 µm e aumenta, de novo, nas frações menores. Esses resultados são discutidos em termos de um mecanismo de difusão como fenômeno predominante nos mecanismos de adesão bolha-partícula.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com as recentes tecnologias de fabricação é possível integrar milhões de transistores em um único chip, permitindo a criação dos chamados System-on-Chip (SoCs), que integram em um único chip um grande número de componentes (tipicamente blocos reutilizáveis conhecidos por núcleos). Quanto mais complexos forem estes sistemas, melhores técnicas de projeto serão necessárias para também reduzir o tempo e custo do projeto. Uma destas técnicas, chamada de Network-on-Chip (NoC), permite melhorar a performance da comunicação entre os núcleos e, ao mesmo tempo, fornecer uma plataforma de comunicação escalável e que pode ser reutilizada para um grande número de sistemas. Uma NoC pode ser definida como uma estrutura de roteadores e canais ponto-a-ponto que interconectam os núcleos de um sistema, provendo o suporte de comunicação entre eles. Os dados são transmitidos pela rede na forma de mensagens, que podem ser divididas em unidades menores chamadas de pacote. Uma das desvantagens desta plataforma de comunicação é o impacto na área do sistema causado pelos roteadores. Dentro deste contexto, este trabalho apresenta uma arquitetura de roteador de baixo custo, com o objetivo de permitir o uso de NoCs em sistemas onde a área do roteador representará um grande impacto no custo do sistema. A arquitetura deste roteador, chamado de Tonga, é baseada em um roteador chamado RASoC, um soft-core para SoCs. Nesta dissertação será apresentada também uma rede heterogênea, baseada na rede SoCIN, e composta por dois tipos de roteadores – RASoC e Tonga. Estes roteadores visam diferentes objetivos: Rasoc alcança uma maior performance comparada ao Tonga, mas ocupa área consideravelmente maior. Potencialmente, uma NoC heterogênea otimizada pode ser desenvolvida combinando estes roteadores, procurando o melhor compromisso entre área e latência. Os modelos desenvolvidos permitem a estimativa de área e do desempenho das arquiteturas de comunicação propostas e são apresentados resultados de performance para algumas aplicações.