924 resultados para FRONTERA EFICIENTE
Resumo:
A água é um bem essencial a todos os seres vivos. Porém, o homem não tem dado o valor e atenção necessários para a preservação dessa riqueza. Por mais que o ser humano não faça a água desaparecer do planeta, ele tem contribuído e muito para o decréscimo de sua qualidade. Dentre as várias atividades antropogênicas, que tem contribuído para a poluição das águas, destaca-se a atividade industrial. A indústria têxtil, por exemplo, libera enormes volumes de dejetos, destacando-se os corantes, além deles prejudicarem a ocorrência de fotossíntese, apresentam elevada toxicidade ao meio marinho. Com isso, este trabalho visa estudar a degradação do corante Alaranjado de Metila via catálise heterogênea. Neste estudo, foram realizadas a preparação e a caracterização de partículas metálicas estabilizadas em sílica, sendo essas partículas com diferentes teores de ferro (50 %wt, 25 %wt e 5 %wt) aderido ao suporte. Após o preparo dos catalisadores realizou-se o estudo de sua eficiência frente a diferentes parâmetros como: quantidade de catalisador, temperatura e pH. Por meio dos testes realizados foi possível observar que a quantidade do catalisador influência a reação de redução do corante Alaranjado de Metila. Porém, quando se atinge o ponto de saturação, mesmo que se adicione mais catalisador não é possível aumentar a degradação. Através da variação da temperatura, observou-se que quanto maior a temperatura maior a degradação do corante. Isso pode ser explicado devido o aumento do número de colisões entre os sítios ativos do catalisador e as moléculas do corante. E por meio da variação de pH, concluiu-se que pHs ácidos permitem que a reação de redução do corante ocorra mais rápido e pHs elevados tornam a reação de degradação do corante mais lenta, porém ainda assim ocorrem de forma satisfatória. O catalisador pôde ser reutilizado por até 3 vezes, sem nenhum tratamento prévio. Os catalisadores a 50 %wt, assim como, a 25 %wt foram capazes de degradar o corante de forma eficiente, porém o catalisador a 5 %wt não se mostrou ser eficaz. Foram realizados testes sob radiação microondas e a reação de redução ocorreu de forma muito eficaz, apresentando 100% de degradação em apenas 2 minutos. Além disso, realizou-se o estudo cinético, onde segundo dados experimentais, as reações foram classificadas como sendo de primeira ordem
Resumo:
Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.
Resumo:
O estabelecimento das Diretrizes Curriculares Nacionais do curso de graduação em Farmácia (DCNF) ocasionou muitas discussões acerca da formação dos farmacêuticos, visto que demandam mudanças significativas nessa formação. Essas mudanças envolvem, entre outros aspectos, o componente humanístico e crítico da profissão, o que significa repensar a formação do farmacêutico e até mesmo sua própria identidade como profissional, que apresenta um perfil eminente técnico. Este trabalho tem por foco o processo de implementação das DCNF no Estado do Rio de Janeiro. Buscou-se verificar com esta vem se desenvolvendo e identificar alguns dos embates, entraves e avanços nesse processo. Para a análise, foram realizadas entrevistas semiestruturadas com os coordenadores de um conjunto de cursos selecionados, além do exame dos currículos e projetos pedagógicos dos mesmos, com base nas DCNF. Os resultados demonstram que a construção das novas propostas de formação dos cursos, ocorreu a partir do currículo anterior. Houve uma baixa participação dos alunos e docentes no processo e também ocorreram conflitos entre departamentos, além da inadequação da estrutura universitária. A diretriz da formação voltada para atenção à saúde com ênfase no SUS estimulou a abertura para discussões acerca do Sistema de Saúde e conduziu a inserção dos alunos no mesmo, também causou questionamentos e preocupação, por se considerar essa formação restritiva em relação ao mercado de trabalho. A implementação das propostas enfrentou dificuldade que envolveram a carga horária docente, dificuldade de inserção dos alunos em estágio em algumas áreas de atuação e a falta de investimentos no setor público, tanto de infraestrutura, como de pessoal, além das dificuldades inerentes ao processo de transição entre os currículos. Nenhum curso promoveu iniciativas sistemáticas de desenvolvimento docente e a diversificação dos cenários ensino-aprendizagem (e parcerias como serviços de saúde) ainda são muito incipientes. Foram apontados pelos próprios coordenadores alguns desafios a serem superados para mudança do perfil do farmacêutico: ruptura da concepção tecnicista na formação; inserção do farmacêutico nas equipes multiprofissionais de saúde (exercendo seu papel de forma eficiente e resolutiva); e a sensibilização dos docentes para melhor compreensão e comprometimento com as mudanças necessárias para se alcançar a formação desejada. Em relação a avaliação do MEC e cobrança da implementação das DC, os entrevistados sugerem que os cursos privados, são mais pressionados pelo Ministério. Paradoxalmente as universidade privadas podem acabar por implementar as DC em seus cursos com mais rapidez do que as universidades públicas, e portanto estarem mais voltadas para atender as demandas do SUS, por serem mais sensíveis a esta pressão. De acordo com os resultados dessa pesquisa, considera-se que já ocorreram, alguns avanços em decorrência do estabelecimento das DCNF, que se refletiram em mudanças nos cursos estudados. Entretanto, faz-se necessário e urgente o desenvolvimento de estratégias que garantam avanços mais sistemáticos nas mudanças na formação do farmacêutico.
Resumo:
A tuberculose (TB) é uma doença que foi declarada pela Organização Mundial de Saúde como emergência mundial em 1993. As ferramentas disponíveis hoje para controle da TB são: o diagnóstico precoce e o tratamento eficiente. Porém, o abandono do tratamento de TB é um problema enfrentado mundialmente em proporções que podem variar entre 3% a 80%. Por isso, a identificação dos fatores que são preditores do abandono do tratamento de TB pode ajudar a desenvolver melhores estratégias para o seu controle. O objetivo deste trabalho é, através de uma metanálise, fazer uma estimativa sumária da medida de associação entre cada um dos fatores (a) relacionados ao serviço de saúde, (b) relacionado ao quadro clínico e à terapia da TB e (c) relacionados aos indivíduos e o abandono do tratamento de TB. A estratégia de busca eletrônica remota para a recuperação de publicações relevantes foi desenvolvida de forma específica para as diferentes bases consideradas relevantes (MEDLINE [Pubmed] e LILCS). Buscas por referências cruzadas, além da consulta à base de revisões sistemáticas COCHRANE, também foram realizadas. Investigações foram incluídas se fossem trabalhos observacionais ou experimentais que estudem fatores de risco ou preditores do desfecho de interesse (abandono do tratamento de tuberculose) através de comparações de dois ou mais grupos e se seus dados pudessem ser extraídos. Dois revisores classificaram os trabalhos e extraíram dados de forma mascarada e as discordâncias resolvidas. Mais de 190 textos completos foram aptos à combinação de dados. Destes, foi possível extrair dados para combinação de 40 exposições. Destas, 19 foram demonstradas nesta investigação. Das 19 demonstradas, 13 exposições estudadas apresentaram associação e poderiam ser considerados preditores (sexo masculino, alcoolismo, infecção pelo HIV/SIDA, uso de drogas ilícitas, nacionalidade estrangeira, analfabetismo, retratamento, baciloscopia positiva, abandono prévio, tratamento de curta duração, acesso fácil à unidade de saúde, treinamento para adesão, tuberculose extrapulmonar) e seis não apresentaram associação (desemprego, efeitos adversos, tuberculose resistente, necessidade de hospitalização, demora para o início do tratamento, espera longa para a consulta). Porém, essas associações devem ser consideradas de forma conservadora devido à elevada heterogeneidade encontrada em todas as exposições. Apenas cinco exposições apresentaram explicação parcial e uma apresentou explicação total para a heterogeneidade. O viés de publicação foi detectado em apenas duas das 19 exposições.
Resumo:
A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.
Resumo:
Nesta pesquisa utilizou-se um equipamento experimental que utiliza o método do eco-impacto produzido no Laboratório de Ensaios Físicos do Instituto Politécnico do Rio de Janeiro (UERJ/IPRJ), para estimar a espessuras de placas de concreto através da propagação de ondas de tensão geradas por um impacto. Para determinação dessa espessura, foram investigados vários mecanismos de estruturação do protótipo do equipamento com objetivo de se obter a melhor leitura possível, por meio das literaturas existentes. Entre parâmetros avaliados no estudo, estava o modelo de sensor a ser utilizado, o tipo de impactor, a precisão relacionada à aquisição de dados e o tratamento do mesmo, a distância entre o ponto de impacto e o transdutor (sensor), e o local de teste. Os resultados experimentais concordam com as previsões teóricas e revelam que este método é eficiente para análise de estrutura de concreto. A análise da espessura e resposta em frequência de um novo protótipo desenvolvido e os testes realizados possibilitou um erro médio de espessura real para amostras sem agregados de 0,39% e para as amostras com agregados com de 0,64%. Esses resultados apontam que o equipamento produzido tem potencial e que o mesmo pode ser utilizado para avaliação de estrutura de concreto.
Resumo:
A incontinência urinária gera implicações negativas nos âmbitos emocional, social e econômico tanto para o indivíduo incontinente, como para seus cuidadores. A terapia comportamental é uma das abordagens não-invasivas para a incontinência urinária. A terapia comportamental é realizada durante as consultas de enfermagem e a atuação do enfermeiro consiste na aplicação de um protocolo de orientações sobre hábitos de vida, medidas de controle da micção, treinamento para realização do diário miccional, treinamento de exercícios perineais e avaliação da resposta da paciente à terapia. O estudo tem como base teórica a Teoria do autocuidado de Dorothea Elisabeth Orem, pois a terapia comportamental visa instrumentalizar o indivíduo a realizar práticas de autocuidado a partir do protocolo de atendimento do ambulatório. O objetivo da pesquisa é avaliar a efetividade da terapia comportamental aplicada pelo enfermeiro para o controle miccional e melhora da qualidade de vida da mulher idosa. Trata-se de um ensaio clínico não-controlado.40 Foram incluídas no estudo mulheres acima de 60 anos que participam do Ambulatório do Núcleo de Atenção ao Idoso com a queixa clínica de perda involuntária de urina encaminhadas para o ambulatório de urogeriatria. A população estudada foi composta por 13 participantes. Os dados da pesquisa foram coletados a partir dos instrumentos de avaliação do ambulatório de urogeriatria que foram arquivados nos prontuários das pacientes: o diário miccional, avaliação de enfermagem na terapia comportamental e o questionário sobre qualidade de vida em mulheres com incontinência urinária chamado de Kings Health Questionnaire. Estes instrumentos foram aplicados antes e depois da terapia comportamental. Foram colhidos dados das pacientes acompanhadas no ambulatório durante o período de abril de 2011 a junho de 2012. Os resultados foram que após a terapia comportamental todas as idosas responderam que ingerem líquidos no período diurno, 92,30% das idosas responderam que estabeleceram um ritmo miccional de 2/2 horas ou de 3/3 horas. Sobre o parâmetro miccional perda de urina ao final da terapia comportamental 75% das idosas apresentaram ausência de perda de urina. Além disso, após a terapia comportamental nenhuma das pacientes teve perda de urina durante a realização dos exercícios e 92,30% apresentaram contração eficiente dos músculos perineais. Deste modo, esta pesquisa demonstrou que as idosas que participaram da terapia comportamental obtiveram melhora do controle urinário e da qualidade de vida. A terapia é um sistema que sofre retroalimentação à medida que o paciente adere às práticas de autocuidado e o enfermeiro reforça as orientações a fim de atingir o objetivo maior que é a sensação de bem estar. A teoria de Dorothea Orem se adequou bem ao estudo, pois a terapia comportamental permitiu aos idosos a assumirem responsabilidade com o seu corpo e se empenharem efetivamente para melhorar a sua condição de saúde e qualidade de vida.
Resumo:
A amônia é considerada uma substância poluente em água. A legislação permite uma concentração máxima de 5,0 mg/L de amônia em efluentes industriais. Como vários processos industriais geram rejeitos com concentrações bem mais elevadas de amônia do que este limite, este trabalho visa estudar a utilização do ácido de caro na degradação da amônia nesses efluentes. O ácido sulfúrico em presença de peróxido de hidrogênio apresenta alto poder oxidativo. Sob determinadas condições, este ácido pode oxidar a amônia a nitrato. O trabalho teve como objetivo principal o estudo das variáveis dessa reação tais como tempo, concentração de reagentes, catalisadores, a fim de aperfeiçoar o processo de degradação. Utilizou-se amostra de efluente sintético contendo amônia na faixa de 20-40 mg/L e no processo de degradação foram variados parâmetros tais como o metal utilizado como catalisador (Cu2+, Fe2+, Co2+ e Mo6+), a concentração desses catalisadores, a temperatura do processo de degradação e razão molar H2SO5:NH3. No trabalho, foi observado que a degradação de amônia com ácido de caro catalisado com cobalto (II) foi a que apresentou melhores resultados. O ácido de caro mostrou ser mais eficiente nas seguintes condições: [Co2+] = 2 mg/L, pH = 9, H2SO5:NH3 = 6,25:1, temperatura = 40 C, o que levou a valores de amônia abaixo de 0,1 mg/L em apenas 60 minutos de um efluente sintético com amônia aproximadamente 25 mg/L. A utilização de cobalto como catalisador diminui a quantidade de ácido de caro necessário no processo oxidativo além de não ter limite para descarte de cobalto em efluentes industriais
Resumo:
Esta dissertação apresenta um novo modelo criado para a previsão do valor da tensão superficial de misturas de hidrocarbonetos. Pode ser utilizado na forma preditiva ou correlativa. Este modelo foi baseado no modelo preditivo para soluções ideais de HildebrandScott (1950) e no modelo correlativo de JouybanAcree (2004). Outras regras de mistura foram avaliadas e comparadas com o modelo proposto, incluindo abordagens clássicas como de Sprow e Prausnitz, parácoro e estados correspondentes. Foram avaliados os desempenhos dos modelos escolhidos na previsão e na correlação da tensão superficial de misturas de hidrocarbonetos em diferentes temperaturas que continham diferentes assimetrias na mistura, tanto em natureza química (e.g., parafínicos, naftênicos e aromáticos) quanto em tamanho de cadeia. No total foram empregados 773 dados experimentais. Dentre os modelos preditivos, o modelo proposto foi o de melhor desempenho. Para sistemas com comportamento próximo da idealidade, esse modelo apresentou desvios em relação aos dados experimentais compatíveis com o erro experimental. Todos os modelos correlativos estudados apresentaram desvios essencialmente da ordem do erro experimental. O modelo proposto é importante, pois é capaz de prever a tensão superficial de misturas binárias aproximadamente ideais de hidrocarbonetos com elevada acurácia, além de permitir a correlação eficiente dos dados de todas as misturas estudadas
Resumo:
O processo de recuperação secundária de petróleo é comumente realizado com a injeção de água ou gás no reservatório a fim de manter a pressão necessária para sua extração. Para que o investimento seja viável, os gastos com a extração precisam ser menores do que o retorno financeiro obtido com a produção de petróleo. Objetivando-se estudar possíveis cenários para o processo de exploração, costuma-se utilizar simulações dos processos de extração. As equações que modelam esse processo de recuperação são de caráter hiperbólico e não lineares, as quais podem ser interpretadas como Leis de Conservação, cujas soluções são complexas por suas naturezas descontínuas. Essas descontinuidades ou saltos são conhecidas como ondas de choque. Neste trabalho foi abordada uma análise matemática para os fenômenos oriundos de leis de conservação, para em seguida utilizá-la no entendimento do referido problema. Foram estudadas soluções fracas que, fisicamente, podem ser interpretadas como ondas de choque ou rarefação, então, para que fossem distinguidas as fisicamente admissíveis, foi considerado o princípio de entropia, nas suas diversas formas. As simulações foram realizadas nos âmbitos dos escoamentos bifásicos e trifásicos, em que os fluidos são imiscíveis e os efeitos gravitacionais e difusivos, devido à pressão capilar, foram desprezados. Inicialmente, foi feito um estudo comparativo de resoluções numéricas na captura de ondas de choque em escoamento bifásico água-óleo. Neste estudo destacam-se o método Composto LWLF-k, o esquema NonStandard e a introdução da nova função de renormalização para o esquema NonStandard, onde obteve resultados satisfatórios, principalmente em regiões onde a viscosidade do óleo é muito maior do que a viscosidade da água. No escoamento bidimensional, um novo método é proposto, partindo de uma generalização do esquema NonStandard unidimensional. Por fim, é feita uma adaptação dos métodos LWLF-4 e NonStandard para a simulação em escoamentos trifásicos em domínios unidimensional. O esquema NonStandard foi considerado mais eficiente nos problemas abordados, uma vez que sua versão bidimensional mostrou-se satisfatória na captura de ondas de choque em escoamentos bifásicos em meios porosos.
Resumo:
A contaminação do solo no município de Santo Amaro (BA) por metais tóxicos provocada pelas atividades da empresa Plumbum Mineração tem gerado impactos sobre a saúde ambiental e humana. O objetivo da presente pesquisa foi avaliar a viabilidade da remediação deste solo contaminado por chumbo e cádmio, utilizando diferentes fontes de fosfatos e fitorremediação com o capim vetiver [Vetiveria zizanioides (L.)]. O estudo foi realizado em colunas de PVC onde amostras de solo foram colocadas com a aplicação de fosfato dihidrogênio de potássio (KH2PO4) (T1); fertilizante fosfato natural reativo (FNR) (T2) e; uma mistura do KH2PO4 e de fertilizante FNR (T3). Amostras de solo contaminado sem tratamento (T0) foram utilizadas como controle. Após 60, 120 e 180 dias, alíquotas do solo foram retiradas das colunas para análises. Ao final de cada período, mudas de capim vetiver [(Vetiveria zizanioides (L.)] foram plantadas em vasos com as amostras de solo: T0, T1, T2 e T3 em triplicata. Para a determinação das concentrações de chumbo e cádmio no solo e tecidos vegetais foi utilizado o ICP-OES. A partir das análises física e química constatou-se que o solo possui textura argilosa e capacidade de troca catiônica (CTC) elevadas. As extrações com solução de ácido dietilenotriaminopentaacético (DTPA) e Toxicity Characteristic Leaching Procedure (TCLP) mostraram que o tratamento T1 seguido do T3 foram os mais eficientes na imobilização de Pb e Cd. Entretanto, todos os tratamentos resultaram em concentrações de metais ainda disponíveis no solo que excediam os limites estabelecidos pela USEPA, sendo o solo, portanto, considerado tóxico mesmo após o tratamento. Com base nas concentrações de metais extraídos através da extração sequencial pelo método BCR após a remediação e a fitorremediação do solo, foi verificado que todos os três tratamentos com fosfatos foram eficientes em imobilizar o Pb e Cd nas formas menos solúveis, porém, o Cd permaneceu mais solúvel e com maior mobilidade do que o Pb. Os ensaios de letalidade utilizando minhoca Eisenia andrei mostraram que a mortalidade observada no solo após 60 dias de tratamento foi significativamente reduzida após 120 e 180 dias de tratamento. A perda de biomassa pelas minhocas também foi reduzida de acordo com o tempo de tratamento. O teste de germinação com alfaces (Lactuca sativa L.) indicou que as amostras de solo tratadas continuam bastante tóxicas, apesar da disponibilidade reduzida do Pb e do Cd como visto nos resultados da extração por TCLP e por BCR. A avaliação de risco ecológico potencial indicou que os tratamentos do solo com fosfatos associado à fitorremediação reduziram a mobilidade do Pb, principalmente nos tratamentos T1 e T3. Para o Cd o risco ecológico potencial aumenta consideravelmente quando comparado com o Pb demonstrando que esse elemento, apesar dos tratamentos com fosfatos mais a fitorremediação continua móvel. O tratamento com KH2PO4 (T1) foi o mais eficiente na redução da mobilidade, disponibilidade e da toxicidade dos metais, seguido pelo T3 e T2 para o Pb e o T3 seguido pelo T1 e T2 para o Cd.
Resumo:
Por serem organismos filtradores, os mexilhões devem ser extraídos para consumo somente de águas com padrões microbiológicos regulamentados pelo Conselho Nacional do Meio Ambiente, uma vez que intoxicações alimentares de origem bacteriana são as consequências mais comuns relacionadas ao consumo destes moluscos. Após a retirada dos costões, estes organismos passam por processos de fervura, lavagem, acondicionamento em sacos plásticos e transporte até a chegada ao mercado onde são comercializados; etapas estas, realizadas sem cuidados assépticos. Objetivando avaliar a qualidade microbiológica de mexilhões Perna perna coletados na praia de Itaipu, Niterói, RJ; após a sua fervura; e comercializados no Mercado São Pedro, foram realizadas contagens de coliformes totais e termotolerantes e pesquisa de Escherichia coli, Salmonella spp. e Vibrio spp. por metodologia convencional e molecular em amostras obtidas destes locais. Pelo teste de disco-difusão foi observado o perfil de resistência das cepas isoladas. Do total de amostras analisadas (27) apenas 3 dos mexilhões que sofreram processo de aferventação, 1 do comercializado e 3 do in natura, se encontravam dentro dos padrões aceitáveis pela legislação. Não houve diferença significativa entre as contagens de coliformes termotolerantes dos diferentes mexilhões analisados, mas sim entre os períodos seco e chuvoso. Somente uma das nove coletas de água mostrou-se própria para o cultivo de mexilhões (até 14 CF/mL). Foram isoladas e caracterizadas fisiológicamente, 77 estirpes da espécie E. coli, sendo confirmadas molecularmente por PCR os sorotipos EPEC, STEC e EAEC; 4 cepas Salmonella spp. sendo apenas uma confirmada por PCR; e das 57 cepas caracterizadas como Vibrio spp., 51 foram confirmadas por PCR, sendo 46 Vibrio spp., 2 V. cholerae, 1 V. vulnificus, 1 V. parahaemolyticus e 1 V. mimicus. Entre as estirpes de E. coli, 13% apresentaram multirresistência e 15,6% apresentaram resistência múltipla. A estirpe de Salmonella spp. se mostrou sensível a todos os antimicrobiados testados. Das estirpes de Vibrio spp. testadas, 68,6% apresentaram multirresistência e 72,5% apresentaram resistência múltipla. A partir da pesquisa de genes direto do caldo de enriquecimento foi possível detectar todos os genes pesquisados, com exceção para os sorotipos de Salmonella e V. cholerae. Baseado nos resultados do presente trabalho pode-se inferir que os mexilhões, amplamente comercializados no município de Itaipú, podem se constituir em risco para a saúde pública dos consumidores no Rio de Janeiro, necessitando dos órgãos competentes uma eficiente fiscalização nos pontos de venda e cultivo destes moluscos.
Resumo:
Processos de produção precisam ser avaliados continuamente para que funcionem de modo mais eficaz e eficiente possível. Um conjunto de ferramentas utilizado para tal finalidade é denominado controle estatístico de processos (CEP). Através de ferramentas do CEP, o monitoramento pode ser realizado periodicamente. A ferramenta mais importante do CEP é o gráfico de controle. Nesta tese, foca-se no monitoramento de uma variável resposta, por meio dos parâmetros ou coeficientes de um modelo de regressão linear simples. Propõe-se gráficos de controle χ2 adaptativos para o monitoramento dos coeficientes do modelo de regressão linear simples. Mais especificamente, são desenvolvidos sete gráficos de controle χ2 adaptativos para o monitoramento de perfis lineares, a saber: gráfico com tamanho de amostra variável; intervalo de amostragem variável; limites de controle e de advertência variáveis; tamanho de amostra e intervalo de amostragem variáveis; tamanho de amostra e limites variáveis; intervalo de amostragem e limites variáveis e por fim, com todos os parâmetros de projeto variáveis. Medidas de desempenho dos gráficos propostos foram obtidas através de propriedades de cadeia de Markov, tanto para a situação zero-state como para a steady-state, verificando-se uma diminuição do tempo médio até um sinal no caso de desvios pequenos a moderados nos coeficientes do modelo de regressão do processo de produção. Os gráficos propostos foram aplicados a um exemplo de um processo de fabricação de semicondutores. Além disso, uma análise de sensibilidade dos mesmos é feita em função de desvios de diferentes magnitudes nos parâmetros do processo, a saber, no intercepto e na inclinação, comparando-se o desempenho entre os gráficos desenvolvidos e também com o gráfico χ2 com parâmetros fixos. Os gráficos propostos nesta tese são adequados para vários tipos de aplicações. Neste trabalho também foi considerado características de qualidade as quais são representadas por um modelo de regressão não-linear. Para o modelo de regressão não-linear considerado, a proposta é utilizar um método que divide o perfil não-linear em partes lineares, mais especificamente, um algoritmo para este fim, proposto na literatura, foi utilizado. Desta forma, foi possível validar a técnica proposta, mostrando que a mesma é robusta no sentido que permite tipos diferentes de perfis não-lineares. Aproxima-se, portanto um perfil não-linear por perfis lineares por partes, o que proporciona o monitoramento de cada perfil linear por gráficos de controle, como os gráficos de controle desenvolvidos nesta tese. Ademais apresenta-se a metodologia de decompor um perfil não-linear em partes lineares de forma detalhada e completa, abrindo espaço para ampla utilização.
Resumo:
O surgimento de novos serviços de telecomunicações tem provocado um enorme aumento no tráfego de dados nas redes de transmissão. Para atender a essa demanda crescente, novas tecnologias foram desenvolvidas e implementadas ao longo dos anos, sendo que um dos principais avanços está na área de transmissão óptica, devido à grande capacidade de transporte de informação da fibra óptica. A tecnologia que melhor explora a capacidade desse meio de transmissão atualmente é a multiplexação por divisão de comprimento de onda ou Wavelength Division Multiplexing (WDM) que permite a transmissão de diversos sinais utilizando apenas uma fibra óptica. Redes ópticas WDM se tornaram muito complexas, com enorme capacidade de transmissão de informação (terabits por segundo), para atender à explosão de necessidade por largura de banda. Nesse contexto, é de extrema importância que os recursos dessas redes sejam utilizados de forma inteligente e otimizada. Um dos maiores desafios em uma rede óptica é a escolha de uma rota e a seleção de um comprimento de onda disponível na rede para atender uma solicitação de conexão utilizando o menor número de recursos possível. Esse problema é bastante complexo e ficou conhecido como problema de roteamento e alocação de comprimento de onda ou, simplesmente, problema RWA (Routing and Wavelentgh Assignment problem). Muitos estudos foram realizados com o objetivo de encontrar uma solução eficiente para esse problema, mas nem sempre é possível aliar bom desempenho com baixo tempo de execução, requisito fundamental em redes de telecomunicações. A técnica de algoritmo genético (AG) tem sido utilizada para encontrar soluções de problemas de otimização, como é o caso do problema RWA, e tem obtido resultados superiores quando comparada com soluções heurísticas tradicionais encontradas na literatura. Esta dissertação apresenta, resumidamente, os conceitos de redes ópticas e de algoritmos genéticos, e descreve uma formulação do problema RWA adequada à solução por algoritmo genético.
Resumo:
Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.