108 resultados para Equipamento de salvamento aquático


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo foi dirigido para identificar as causas que determinam a formação de concentrados de zircão de baixa qualidade, mineral extraído de dunas da jazida do Guaju, no Estado da Paraíba, e beneficiado em uma rota industrial desenvolvida pela empresa Millennium Inorganic Chemicals do Brasil S/A. A caracterização tecnológica indicou que a jazida do Guaju corresponde a sedimentos de origem eólica, inconsolidados, constituídos por quartzo (95%), argila (2%) e minerais pesados (3%) disseminados nas dunas. Ilmenita, zircão, rutilo e cianita são os minerais pesados de interesse econômico na jazida. Devido a características mineralógicas e texturais, o pacote foi dividido, neste estudo, em dois compartimentos: TOPO e BASE. O primeiro corresponde à parte superior do pacote sedimentar; o segundo, à parte inferior. No TOPO, 95% dos grãos têm brilho vítreo, 5% são opacos, e 20% dos grãos de ilmenita têm alteração parcial ou total para leucoxeno. Na BASE, 2% dos grãos têm brilho vítreo, 98% são opacos, e 90% da ilmenita tem alteração parcial ou total para leucoxeno. O TOPO possui concentração de minerais pesados quatro vezes maior que a BASE. A opacidade dos grãos decorre de uma película argilo-ferruginosa fortemente aderida e que os envolve. A empresa produz seis tipos de concentrados de zircão, cujas qualidades variam conforme o teor de ZrO2 e das substâncias contaminantes Fe2O3, TiO2, Al2O3 e P2O5. Quanto maior o teor de ZrO2 e menores os teores das substâncias contaminantes, melhor é a qualidade do concentrado. Pesquisas desenvolvidas em um concentrado de baixa qualidade, denominado Zirconita B, indicaram que a formação dessa matéria-prima é decorrente de três fatores principais: excesso de minerais contaminantes, que não são eliminados nos processos eletrostáticos e magnéticos devido à película argilo-ferruginosa; presença de inclusões minerais nos zircões; processo de metamitização nos zircões Identificadas as causas, o estudo progrediu para o estabelecimento de uma rota alternativa de beneficiamento, para a produção de concentrados de zircão mais puros. A remoção da película ocorreu com a implementação do processo de atrição (escrubagem), tendo sido definidos os parâmetros operacionais otimizados, tanto em escala de bancada de laboratório, como em equipamento semipiloto. Removida a película, a matéria-prima foi submetida a separadores eletrostático e magnético para a retirada dos minerais condutores e/ou magnéticos do concentrado. Posteriormente, para a remoção das inclusões minerais dos zircões, foi implementada uma rota que iniciou com o aquecimento prévio do concentrado em forno de microondas, para fraturar as zonas de contato entre as inclusões minerais e a massa zirconítica, considerando as diferenças entre os coeficientes de dilatação dos minerais; seguiuse com o processo de moagem, para provocar a quebra dos zircões portadores de inclusões e liberar ou expor as mesmas; posteriormente, o material foi peneirado e a fração retida na malha 0,063 mm foi repassada nos separadores eletrostático e magnético, para a remoção das inclusões liberadas, ou expostas nos zircões quebrados Tecnicamente, esta rota foi considerada parcialmente eficaz, devido, principalmente, à baixa granulometria dos grãos de zircão. Essa característica afetou as performances na moagem e na separação magnética, determinando uma baixa recuperação do produto final. Apesar disso, esse produto final teve teor de ZrO2 compatível com o do produto de melhor qualidade produzido na mina do Guaju; entretanto, os teores das substâncias contaminantes ficaram levemente superiores aos mínimos exigidos para um produto de alta qualidade. Devido à baixa produção anual da matéria-prima, acredita-se que a rota para a remoção das inclusões minerais não seja economicamente viável. A atrição, no entanto, é perfeitamente viável, devido aos baixos investimentos de implantação e custos operacionais. Deverá ser implementada no produto denominado Pré-Concentrado de Zircão (PCZ), gerado no beneficiamento da ilmenita. A atrição do PCZ vai condicionar a produção de massas maiores de concentrados de zircão de qualidade superior, diminuindo, conseqüentemente, a formação dos produtos de menor qualidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A homocistinúria é uma doença metabólica hereditária causada pela deficiência severa na atividade da enzima cistationina β-sintase e é bioquimicamente caracterizada pelo acúmulo tecidual de homocisteína e metionina. Retardo mental, deficiência cognitiva, isquemia, convulsões e aterosclerose são achados clínicos comuns em pacientes homocistinúricos. No entanto, os mecanismos fisiopatológicos da doença são pouco conhecidos. Modelos animais experimentais de erros inatos do metabolismo são úteis para compreender a fisiopatologia dessas doenças em humanos. No nosso laboratório, já foram criados alguns modelos animais de algumas doenças metabólicas hereditárias, como, por exemplo, fenilcetonúria e hiperprolinemia tipo II. A Na+,K+-ATPase é uma enzima fundamental responsável pela manutenção do gradiente iônico necessário para a excitabilidade neuronal e consome de 40 a 60% do ATP formado no cérebro. Essa enzima é inibida por radicais livres e sua atividade está diminuída na isquemia cerebral, epilepsia e em doenças neurodegenerativas como a doença de Alzheimer. A diminuição de energia cerebral e o estresse oxidativo têm sido associados com algumas doenças que afetam o sistema nervoso central, como as doenças de Alzheimer, Parkinson e Huntington e isquemia cerebral. Por outro lado, a homocisteína tem sido considerada um fator de risco para o aparecimento dessas doenças. No sentido de ampliar o conhecimento das alterações bioquímicas envolvidas na gênese da disfunção neurológica característica da homocistinúria, esse trabalho teve como principal objetivo desenvolver um modelo químico experimental de hiperhomocisteinemia em ratos. Utilizando esse modelo, verificamos a atividade da Na+,K+-ATPase e alguns parâmetros de metabolismo energético (produção de CO2, captação de glicose, produção de lactato e atividades das enzimas succinato desidrogenase e citocromo c oxidase) em hipocampo de ratos. A aprendizagem e a memória na tarefa do labirinto aquático de Morris foram avaliadas em ratos submetidos ao modelo químico experimental de hiperhomocisteinemia. Nesse trabalho, também estudamos o efeito in vitro dos metabólitos acumulados na homocistinúria, homocisteína e metionina, sobre a atividade da Na+,K+-ATPase e sobre alguns parâmetros de metabolismo energético (produção de CO2, captação de glicose, produção de lactato e atividade da enzima citocromo c oxidase). Além disso, o efeito in vitro da homocisteína sobre alguns parâmetros de estresse oxidativo (potencial antioxidante total (TRAP), substâncias reativas ao ácido tiobarbitúrico (TBARS) e atividades das enzimas antioxidantes catalase, superóxido dismutase e glutationa peroxidase) em hipocampo de ratos foi investigado. O tratamento crônico foi realizado do 6o ao 28o dia de vida, através de administrações subcutâneas de homocisteína, duas vezes ao dia, com intervalos de 8 horas. As doses de homocisteína administradas foram escolhidas com o objetivo de induzir concentrações plasmáticas de 0,4 a 0,5 mM, semelhantes àquelas encontradas em pacientes homocistinúricos. Através desse tratamento, também foram induzidas concentrações elevadas de homocisteína no cérebro de ratos. Os controles receberam solução salina em volumes semelhantes. Os resultados mostram que a administração crônica de homocisteína inibiu a atividade da Na+,K+-ATPase de membrana plasmática sináptica, a produção de CO2 e a captação de glicose, assim como as atividades das enzimas succinato desidrogenase e citocromo c oxidase em hipocampo de ratos. Os animas tratados com homocisteína também apresentaram diminuição de memória na tarefa do labirinto aquático de Morris. Além disso, a homocisteína e a metionina inibiram a atividade da Na+,K+-ATPase de hipocampo de ratos in vitro. Estudos cinéticos sobre a inibição da Na+,K+-ATPase, causada pela homocisteína, também foram realizados. Os resultados mostraram que a homocisteína inibe a enzima de forma não-competitiva com o ATP como substrato. Também foi verificado que a incubação de homogeneizados de hipocampo com homocisteína diminuiu a atividade da Na+,K+-ATPase e que a incubação simultânea com alguns antioxidantes, tais como glutationa, ditiotreitol, cisteína e a enzima antioxidante superóxido dismutase preveniram esse efeito. Os metabólitos acumulados na homocistinúria também alteraram alguns parâmetros de metabolismo energético cerebral (produção de CO2 e lactato, captação de glicose e atividades das enzimas succinato desidrogenase e citocromo c oxidase) in vitro. Além disso, verificou-se que a homocisteína in vitro diminuiu o TRAP e aumentou a quantidade de TBARS, um marcador de lipoperoxidação, mas não alterou as atividades das enzimas antioxidantes catalase, superóxido dismutase e glutationa peroxidase. Os achados sugerem que a inibição da atividade da Na+,K+-ATPase, a diminuição do metabolismo energético e o aumento do estresse oxidativo podem estar relacionados com as disfunções neurológicas características dos pacientes homocistinúricos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Metilmercúrio (MeHg), a forma orgânica do mercúrio, é um dos poluentes de maior risco ao ambiente. MeHg é uma potente neurotoxina, principalmente durante o desenvolvimento do sistema nervoso central. A neurotoxicidade induzida pelo MeHg no período pré-natal pode causar desordens mentais, paralisia cerebral e convulsões. Nós investigamos o imunoconteúdo de S100B no fluído cerebroespinal (FCE) e no tecido encefálico, uma proteína ligante de cálcio produzida e secretada pelos astrócitos, na qual tem uma atividade trófica e tóxica, dependendo da sua concentração. Ratas grávidas foram expostas ao MeHg (5 mg/kg/dia) no 12°, 13° e 14° dias de gestação. O fluído cerebroespinal e o tecido encefálico (mais especificamente hipocampo, córtex cerebral e cerebelo) foram obtidos dos neonatos no 1°, 15° e 30° dia pós-natal. O acúmulo de MeHg foi medido do tecido encefálico após o nascimento e aos 30 dias de vida. Um aumento da S100B no FCE foi observado aos 15 dias de vida pós-natal, mas desapareceu aos 30 dias. No tecido hipocampal mostrou um aumento da S100B (e redução da proteína ácida fibrilar glial) imediatamente após nascimento, mas não posteriormente. Nenhuma mudança foi observada no teste cognitivo (labirinto aquático) desses ratos em idade adulta. Nossos resultados reforçam o envolvimento glial na neurotoxicidade induzida pelo MeHg. As mudanças no hipocampo ao nascimento, poderiam estar relacionadas com as desordens cognitivas e epilépticas atribuídas ao MeHg. O aumento da S100B no FCE reforça a hipótese de que o aumento da S100B está relacionado a danos no sistema nervoso central. Embora, o mecanismo celular envolvido no aumento do conteúdo da S100B no FCE seja desconhecido, os resultados sugerem que a S100B possa ser usada como um marcador periférico na injúria induzida pelo MeHg.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta o desenvolvimento de um projeto para análise experimental em semeadoras agrícolas a fim de levantar dados sobre as deformações e solicitações mecânicas na sua estrutura, bem como nos diversos componentes da máquina. Visa-se o desenvolvimento de uma ferramenta / metodologia que permita localizar as regiões de maior deformação mecânica, quantificar estas deformações e registrá-las de forma dinâmica com a máquina realizando seu trabalho em campo para posterior análise dos dados. Para o desenvolvimento deste trabalho foi realizada a averiguação do estado da arte na análise experimental de tensões. Posteriormente foi feito um estudo para verificar quais dos métodos experimentais poderiam ser utilizados e qual destes métodos poderia apresentar melhores resultados para este caso. As características básicas de cada método receberam classificação e estes dados foram colocados em um programa comercial de QFD. Este estudo considerou que o baixo custo de implementação e a facilidade de operação devem apresentar maior importância. O estudo mostrou que nenhum dos métodos isoladamente atende a todos os requisitos exigidos. A fim de que atender as necessidades decidiu-se pela aplicação de dois métodos: Camada Frágil e Extensometria. O primeiro método utilizado inicialmente para localizar os pontos de maior deformação do equipamento, enquanto o segundo método fornece dados quantitativos para a posterior análise dos dados. Assim, os dois métodos escolhidos são apresentados com maior detalhamento. Este trabalho ainda apresenta uma descrição de problemas encontrados na aplicação de cada método, bem como as soluções adotadas; descreve detalhes de equipamentos e materiais comerciais utilizados e discute detalhes do processo experimental empregado. Posteriormente são discutidos os erros experimentais Os resultados obtidos demonstram que o método escolhido atendeu as necessidades e que foi capaz de proporcionar arquivos contendo dados sobre as deformações mecânicas dos componentes quando submetidos aos carregamentos dinâmicos encontrados no trabalho em campo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A competição entre as empresas pela busca de mercado tem levado ao aprimoramento de suas atividades e melhorias em seus processos produtivos. Este trabalho apresenta a análise do processo produtivo de uma empresa produtora de embalagens de papelão ondulado através da técnica da simulação computacional. O simulador ProModel foi utilizado no desenvolvimento do estudo e se mostrou adequado para a modelagem do processo produtivo e geração de resultados. Com a sua capacidade de animação, criação de macros e geração de relatórios, ficou facilitado o desenvolvimento e analise de cenários. Isto permitiu que o foco do estudo ficasse sobre a análise dos resultados e simulação de cenários e não na programação para criação e rodagem do modelo de simulação. A partir da modelagem do processo real de trabalho foi possível identificar restrições de capacidades no sistema, o que levou à criação de cenários onde oportunidades de melhoria pudessem ser avaliadas. A revelação de que a parcial utilização do equipamento denominado Onduladeira, o qual gerava perdas por ociosidade nas impressoras, acabou se mostrando como o gargalo do processo produtivo é o mais indicado ponto de melhoria. Com o incremento de produtividade sobre este equipamento, definido a partir de análises dos cenários, obteve-se como resultado a utilização de 100% dos demais equipamentos do processo produtivo. Análises e comparações de resultados entre os cenários e as conclusões do estudo são apresentadas no final do trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho contempla a interpretação e quantificação das relações entre a alocação da demanda e da oferta de equipamentos de ensino em um sistema local, instrumentado a partir de modelo de oportunidade espacial. Avalia o desempenho de equipamentos escolares baseado na descrição detalhada da configuração espacial e abordagem probabilística para a escolha do usuário em potencial. Constitui objetivo principal medir o desempenho de equipamentos escolares, considerando a configuração espacial urbana, a demanda qualificada representada pelos diversos usuários em potencial e a distribuição dos equipamentos na cidade, verificando a possibilidade teórica de avaliar a qualidade do serviço em função de sua localização, utilizando como variáveis a acessibilidade, a eficiência e equidade espacial. Neste sentido, o método adotado compreende a introdução de variáveis físicas, sociais e econômicas associadas a modelos configuracionais para análise entre as diferentes medidas, adaptado a partir do conceito de oportunidade espacial. Utiliza a medida de Convergência Espacial, definida como uma particularidade do conceito de Centralidade Espacial Os resultados esperados, tendo em vista os propósitos da pesquisa, deverão conduzir a verificação das seguintes hipóteses: a) Do ponto de vista do sistema educacional e habitacional existente, a avaliação do desempenho do sistema escolar pode ser obtida considerando uma combinação de variáveis locais (tipo de demanda e tipo/tamanho de oferta de escolas) e variáveis globais (posição relativa no espaço); b) Do ponto de vista das políticas públicas, a avaliação de impactos de novos equipamentos/serviços de educação pode ser simulada através da medida de Convergência Urbana, desta vez considerando localizações prováveis; A utilização dos modelos propostos neste estudo resultaria da manipulação de variáveis de oferta de serviços de ensino através da computação e associação de dados para cada caso em particular obter-se-ia atributo ao qual estariam relacionadas a eficiência do equipamento, além dos fatores de tamanho, tipo e localização e de variáveis de demanda. Apresentado como instrumento de suporte à decisão a convergência espacial dá avaliação sistemática de situações urbanas, bem como uma performance esperada de situações virtuais do ponto de vista da distribuição de facilidades urbanas em relação a áreas residenciais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A síntese de redes de trocadores de calor foi muito bem estudada pela comunidade científica nos últimos trinta anos, porém, o desenvolvimento de métodos e a melhoria dos já existentes sempre foram o foco principal da grande maioria dos autores. São poucos os trabalhos que aplicam qualquer uma das metodologias a situações reais e discorrem sobre as dificuldades encontradas - provavelmente porque as empresas não têm interesse em tornar público os resultados obtidos. Este trabalho aplica a metodologia do ponto de estrangulamento na nova fábrica de farelo branco do Parque Industrial de Esteio e, portanto, pode servir como um guia prático aos profissionais que desejem fazer o mesmo em outras plantas industriais. Esta dissertação sintetiza duas redes de trocadores de calor para a fábrica de farelo branco de Esteio, levando em consideração as condições econômicas e os custos de equipamento e de montagem no Brasil. A primeira rede estabelecida é baseada em aproveitamentos térmicos utilizados pelos fabricantes e pelas empresas que dominam a tecnologia de extração de óleos vegetais, já a segunda rede sintetizada utiliza a metodologia do ponto de estrangulamento. Os dois resultados obtidos são bastante viáveis economicamente, sendo que a rede sintetizada pelo ponto de estrangulamento é mais econômica. O Valor Presente Líquido é utilizado como critério de cálculo de viabilidade das duas redes. Foi demonstrado que para a realidade brasileira este critério é mais adequado que o Custo Total Anualizado. A flexibilidade da rede produzida pelo método do ponto de estrangulamento foi avaliada de maneira preliminar por simulação e tabelas de sensibilidade. O resultado obtido é robusto na posta em marcha e quando a planta é submetida a variações no extrator - situações que produzem distúrbios importantes e freqüentes. A aplicação da metodologia do ponto de estrangulamento na integração energética da fábrica de farelo branco confirmou a simplicidade do método e a sua forte interação com o engenheiro de processos. O Rio Grande do Sul tem muito a ganhar se esta metodologia for disseminada nas universidades e nas empresas que compõe o parque industrial do estado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O atual ambiente competitivo, onde baixo custo, alta qualidade e um grau crescente de customização são exigências para a sobrevivência das empresas, tem influenciado as ações dos profissionais de manutenção com vistas ao aprimoramento das políticas de manutenção. Como resultado, tem-se na área de manutenção industrial, uma grande quantidade de métodos, software, modelos e ferramentas de gestão disponíveis. Dentre eles, dois métodos se destacam: o RCM (Reliability Centered Maintenance ou Manutenção Centrada em Confiabilidade), de origem norte-americana, e a TPM (Total Productive Maintenance ou Manutenção Produtiva Total), de origem japonesa. A TPM promove a integração total entre homem, máquina e empresa, onde a manutenção dos meios de produção passa a constituir uma responsabilidade de todos. A utilização da TPM contempla a implementação de pilares de sustentação, sendo um deles, a manutenção planejada. Entretanto, a TPM não especifica a estratégia a ser adotada pela manutenção planejada. O RCM é uma metodologia lógica de procedimentos que objetiva estabelecer uma manutenção preditiva e preventiva para alcançar, de maneira efetiva e eficiente, os níveis de segurança e confiabilidade requeridas para cada equipamento. Considerando um ambiente com a TPM já implementada, o objetivo deste trabalho é a melhoria do pilar Manutenção Planejada da TPM através da utilização do RCM para nortear as estratégias de manutenção em empresas industriais. A sistemática proposta é ilustrada através de um estudo de caso na indústria de conformação de metais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Considerando a lavagem das mãos como uma importante medida de controle de infecção hospitalar, objetivou-se investigar as razões que impulsionam os trabalhadores de enfermagem a lavar ou não as mãos. Optou-se pela pesquisa qualitativa e pela técnica de grupo focal para a coleta dos dados. O grupo consolidou-se com seis sujeitos (três enfermeiros e três técnicos de enfermagem), selecionados através dos critérios de voluntariedade e interesse pela temática. A coleta de dados transcorreu em cinco encontros semanais, estendendo-se pelos meses de novembro e dezembro de 2002. Utilizando a análise de enunciação, verificou-se que os profissionais mostram conhecimento teórico sobre o tema, entretanto percebeu-se que a prática da lavagem das mãos é influenciada pelas diferentes situações, como de surtos, emergências e isolamentos. As dificuldades como a superlotação do hospital, distância das pias, recursos (in)disponíveis e/ou (in)adequados, entre outros, interferem na execução desse procedimento, mas não o determinam. Essas condições, associadas à forma como o trabalho é organizado e à cultura que privilegia a cura em detrimento da prevenção, levam à negligência com a lavagem das mãos, que acaba por ser considerada uma prática paralela e secundária ao trabalho da enfermagem. Outras questões foram consideradas para analisar a lavagem das mãos, como sua relação com o uso de luvas, que evidenciou ambos como procedimento/equipamento de proteção individual, e com a fricção higiênica das mãos, que se mostrou pouco aceita pelos sujeitos. Sinaliza-se a necessidade de se trabalhar esse tema junto aos profissionais da saúde para que se possa efetivar a lavagem das mãos como medida preventiva de infecções hospitalares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem por objetivo definir um sistema de flotação em coluna para ser utilizado, em um sistema rougher, para flotar partículas grossas de fluorita. Para esse fim, foi proposta uma detalhada investigação de parâmetros que poderiam influenciar o processo de flotação de partículas grossas. Foram definidos dois perfis granulométricos com alto conteúdo de grossos em comparação à granulometria convencional, e foi analisada a variação dos parâmetros de separação (recuperação e teor) em função de determinados parâmetros operacionais, como concentração do agente coletor (tall oil), velocidade superficial do ar, concentração de sólidos na polpa de alimentação, velocidade superficial de água de bias e de água de lavagem. Nesse trabalho, a inovação proposta é a utilização da coluna de flotação para a concentração de partículas grossas em uma etapa rougher, trabalhando em regime de bias negativo (velocidade de alimentação maior que a velocidade de rejeito), como aplicação e otimização de um sistema de flotação rápida (tipo flash flotation) em coluna curta. Os resultados obtidos em coluna mostram que, mesmo com uma granulometria grossa, é possível atingir valores de recuperação e teor semelhantes aos anotados na flotação de finos. Nos ensaios com bias negativo (0,3 cm/s), foram registrados teores acima de 85% de fluorita nos concentrados, com recuperações em torno de 70%. Os teores de sílica e carbonato foram menores em comparação a um sistema convencional, em escala de bancada. Os ensaios com adição de água de bias também apresentaram bons resultados metalúrgicos. Nesses ensaios a mobilidade das bolhas de ar apresentou um aumento, uma vez que o fluxo ascendente de água de bias ajudou a diminuir o conteúdo de ar na zona de coleção. Esse efeito foi comprovado pelos menores valores de hold up. O ensaio com bias negativo e água de lavagem, aqui considerado como um indicativo para novos estudos, mostrou um efeito negativo da água com relação à recuperação, mas bastante positivo com relação à seletividade, uma vez que baixos valores de teor de sílica e carbonato foram observados, sendo que nesse sistema uma única etapa rougher foi suficiente para a obtenção de fluorita tipo cerâmico. A partir dos resultados, é possível afirmar que a coluna de flotação, operando em regime de bias negativo, se mostra um equipamento eficiente na recuperação de partículas minerais grossas, podendo ser considerada uma rota tecnicamente adequada para o aproveitamento, concentração e controle de qualidade de minérios, como o de fluorita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A participação do Brasil no moderno processo tecnológico, disseminado através da globalização, tem colocado as organizações empresariais em ritmo aceleradode mudanças, proporcionando um mercado altamente competitivo. o aprimoramento da qualidade, valor, bom atendimento e inovação dos produtos e serviços, que precisam ser adaptados rapidamente, proporcionam condições de sobrevivência para as empresas num mundo altamente globalizado. O programa TPM - Total productive maintenance, que, traduzido, resulta em Manutenção Produtiva Total, auxilia as empresas na redução de ocorrência de falhas em instalações, máquinas e equipamentos nestes ambientes competitivos. O objetivo deste trabalho é consolidar uma metodologia de implementação de TPM. Para isso, tem-se o desenvolvimento de um estudo de caso de implementação do programa em uma indústris gráfica. O trabalho limita-se às etapas de planejamento, implantação e avaliação dos resultados obtidos com a aplicação do TPM em um equipamento piloto, buscando confirmar as vantagens do método proposto. Os resultados obtidos com a implantação do programa na equipe piloto demonstram a eficácia das atividades desenvolvidas em grupo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O emprego de materiais geossintéticos em obras de Engenharia Civil tem sido freqüente nas últimas décadas. Os projetos e obras exigem uma maior compreensão do comportamento de interação solo-geossintético. Este mecanismo de interação é complexo e depende das propriedades dos materiais envolvidos. Os parâmetros de resistência da interface são determinados em ensaios de campo, menos usuais, e ensaios de laboratório, dos quais destacam-se os ensaios de arrancamento e cisalhamento direto, e, mais recentemente, ensaios de rampa. A escolha do ensaio mais adequado é função do tipo de geossintético e da sua solicitação na massa de solo. Este trabalho teve como finalidade geral desenvolver um equipamento de grande escala, capaz de executar em uma mesma estrutura os principais ensaios de resistência de interfaces solo-geossintético. Especificamente, o objetivo principal consistiu em habilitar o equipamento para a realização de ensaios de rampa. O equipamento de rampa teve seu desempenho avaliado através de ensaios preliminares que permitiram avaliar a acurácia dos resultados e a adequação da metodologia de preparação dos corpos de prova e procedimento de ensaio O programa experimental envolveu ensaios de rampa em quatro tipos distintos de interface: solo-solo, solo-geotêxtil, solo-geogrelha e solo-geomembrana. Os ensaios de interface solo-solo permitiram a avaliação do equipamento, a comparação com ensaios convencionais de cisalhamento direto e a obtenção dos parâmetros de resistência para a determinação das eficiências de interação das interfaces em termos de adesão e ângulo de atrito. Os ensaios de interface sologeossintéticos indicaram um comportamento de resistência semelhante ao reportado na literatura e condicionado pelo tipo de material.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos 10 anos, o desenvolvimento de técnicas de deposição e seus equipamentos permitiu o surgimento de novos tipos de filmes finos, principalmente voltados para aplicações mecânicas e tribológicas, que são multicamadas nanoestruturadas. Esses revestimentos apresentam propriedades que não são diretamente ligadas as propriedades das camadas individuais de cada material, geralmente apresentando valores de dureza extremamente elevados relacionados a um período de modulação crítico ΛC. Esses filmes demonstram um claro potencial para aplicações tribológicas mesmo com o seu comportamento de dureza ainda não completamente esclarecido. O objetivo deste trabalho é produzir multicamadas nanoestruturadas do tipo metal / nitreto pela técnica de magnetron sputtering usando Nb, Ta e TiN, visando obter uma estrutura com valores de dureza extremamente elevados, tipicamente observados em revestimentos do tipo super-redes. A estrutura periódica dos revestimentos com baixo valor de Λ (< 10 nm) foi caracterizada por XRR (Refletividade por Difração de Raios X) e por RBS (Espectrometria por Retroespalhamento Rutherford) para os valores altos de Λ. As propriedades mecânicas dos revestimentos foram avaliadas por testes instrumentados de dureza usando um equipamento Fischerscope HV100. Todas as multicamadas foram produzidas com sucesso e apresentaram uma periodicidade bem definida, o que foi confirmado pelos resultados de RBS e XRR. Os valores de dureza medidos apresentaram um comportamento tipicamente observado em superredes com um valor máximo maior que 50 GPa sempre relacionado a uma valor crítico de Λ. O valor ΛC foi 8 nm para as amostras de Nb/TiN e 4 nm para as amostras de Ta/TiN. A razão H/E indicou que o revestimento nanoestruturado mais adequado para aplicações tribológicas foram as multicamadas com maior valor de dureza. Esses resultados mostraram claramente a possibilidade de aplicação industrial destes revestimentos.