879 resultados para Complexos químicos
Resumo:
Objetivando avaliar o comportamento das emissões de CO2 do solo em áreas mineradas do município de Santo Antônio de Pádua-RJ e sua correlação com a rizosfera, este presente estudo utilizou uma câmara fechada com sensor de infravermelho em três diferentes paisagens, a saber: A-1 (área reflorestada há 10 anos), A-2 (área desmatada) e A-3 (área em processo de recuperação). Em cada área foi instalada três cilindros para efeitos de repetição. O monitoramento foi realizado durante os meses representativos de cada estação do ano de 2013, sendo a análise realizada durante dois dias consecutivos. Concomitantemente as coletas de CO2 foram realizadas coletas de dados de temperatura e umidade do solo, sendo também avaliadas informações pedológicas através das análises de granulometria, porosidade, pH, carbono orgânico e matéria orgânica. Informações meteorológicas e microclimatológicas também foram extraídas através de uma estação meteorológica automática e através de sensores portáteis. Os resultados permitem concluir que existe uma variação sazonal dos fluxos de CO2, havendo uma tendência de máximos de emissão durante o verão e de mínimas durante o inverno, sendo o outono e a primavera marcados por valores medianos. A correlação das áreas entre os dois dias monitoramento indicam que as emissões foram semelhantes ao da análise em dia anterior, apresentando uma correlação significativa a 5% para A-1 e A-2 e de 1% para A-3. A-1 e A-2 apresentaram emissões de CO2 mais homogêneas que A-3, havendo, entretanto, um maior fluxo de CO2 durante o verão para todas as áreas. Os dados de MOS, COS e pH demonstraram não haver uma correlação direta com as emissões de CO2. Os dados de porosidade e densidade, porém, apontam para uma possível correlação com as menores emissões de CO2 em A-3 devido a menor porosidade e maior densidade de seus solos. A temperatura do solo foi a variável que mais se correlacionou com as emissões de CO2, havendo um índice igual a r =0,68 para A-1 e de r =0,74 para A-2, sendo que em A-3 esta correlação não foi significativa. A temperatura do ar demonstrou uma correlação somente na área descampada de A-2. No que se refere à correlação da umidade do solo não houve correlações diretas significativas, sendo que somente houve uma correlação negativa (r=-0,50) significativa a 5% em A-3 com a umidade do ar. O diagnóstico ambiental das áreas de monitoramento revela que estas possuem baixos indicadores de qualidade, sendo afetados também pela escassez hídrica da região durante oito meses do ano. A-1 apresenta os melhores indicadores biológicos, químicos e microclimáticos, seguidos por A-2 e A-3 que apresentam diversas deficiências e problemas em termos de estrutura e atividade biológica dos solos. Neste estudo permite-se concluir que áreas próximas, porém com características distintas podem produzir diferentes padrões de emissão de CO2, dificultando, portanto, estimativas globais de emissão de CO2. Os elementos mais associados às emissões de CO2 parecem estar relacionados à temperatura do solo e do ar, umidade do ar e estrutura do solo, havendo, entretanto, outros fatores que podem estar indiretamente relacionados e que exercem diferentes influências de acordo com o ambiente analisado.
Resumo:
O principal objetivo deste estudo é estimar o alcance dos poluentes emitidos pelo Aterro Controlado do Morro do Céu (ACMC), localizado em Niterói e as possíveis áreas afetadas. Utilizou-se um modelo matemático para o estudo do transporte e difusão dos poluentes que fornece a concentração nas vizinhanças, a partir dos dados de emissões, meteorológicos e topográficos. Foram analisados e tratados os dados meteorológicos e a topografia da região de alcance da pluma. As amostras foram coletadas por uma bomba de ar a uma vazão de 500 mL min-1 por um período de 10 min, em dois dias e horários diferentes. A câmara de fluxo empregada foi de 30 L e de PVC, no formato cilíndrico, cuja boca foi emborcada no solo por 5 cm e a amostragem realizada por uma válvula posicionada no fundo. Foram empregados como meios de amostragem cartuchos de carvão ativo de leito duplo e as análises químicas foram realizadas por cromatografia de fase gasosa com detecção por ionização na chama. Os resultados encontrados indicam que o ACMC pode conter quantidade significativa de vários compostos químicos, principalmente compostos orgânicos voláteis, impactando a vegetação, prejudicando a saúde e a qualidade de vida da população do seu entorno. Foram obtidos valores de compostos orgânicos voláteis acima de 400 g m-3 a menos que 500 m do ACMC. Considerando que o ACMC não será desativado em um tempo próximo, creches, escolas e postos de saúde devem ser deslocados para uma área onde o impacto dos poluentes atmosféricos seja menor, contribuindo para a melhoria da qualidade de vida da população
Resumo:
298 p.
Resumo:
Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura
Resumo:
O reconhecimento de padões é uma área da inteligência computacional que apoia a resolução de problemas utilizando ferramentas computacionais. Dentre esses problemas podem ser citados o reconhecimento de faces, a identificação de impressões digitais e a autenticação de assinaturas. A autenticação de assinaturas de forma automática tem sua relevância pois está ligada ao reconhecimento de indivíduos e suas credenciais em sistemas complexos e a questões financeiras. Neste trabalho é apresentado um estudo dos parâmetros do Dynamic Time Warping, um algoritmo utilizado para alinhar duas assinaturas e medir a similaridade existente entre elas. Variando-se os principais parâmetros desse algoritmo, sobre uma faixa ampla de valores, foram obtidas as médias dos resultados de erros na classificação, e assim, estas médias foram avaliadas. Com base nas primeiras avaliação, foi identificada a necessidade de se calcular um desses parâmetros de forma dinâmica, o gap cost, a fim de ajustá-lo no uso de uma aplicação prática. Uma proposta para a realização deste cálculo é apresentada e também avaliada. É também proposta e avaliada uma maneira alternativa de representação dos atributos da assinatura, de forma a considerar sua curvatura em cada ponto adquirido no processo de aquisição, utilizando os vetores normais como forma de representação. As avaliações realizadas durante as diversas etapas do estudo consideraram o Equal Error Rate (EER) como indicação de qualidade e as técnicas propostas foram comparadas com técnicas já estabelecidas, obtendo uma média percentual de EER de 3,47%.
Resumo:
Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.
Resumo:
Espécies invasoras têm transformado muitos ecossistemas através de mudanças na estrutura das comunidades, cadeia trófica, ciclagem de nutrientes e sedimentação. A competição interespecífica ocorre frequentemente entre espécies nativas e introduzidas, e constitui um processo determinante na eficiência da invasão. Essa competição pode acarretar em alterações no papel das espécies dentro da comunidade e alterar os processos ecossistêmicos. Os corais Tubastraea coccinea e T. tagusensis invadiram o Brasil na década de 80, e são favorecidos pela carência de predadores na biota local, sendo a esponja Desmapsamma anchorata o único organismo identificado como inibidor do crescimento e desenvolvimento desses corais. O presente estudo tem como objetivo: 1) Quantificar e classificar em cinco categorias de interação: sobrecrescimento, contorno, contato periférico, encontro com até cinco cm de distância e encontro de cinco ate dez cm de distância entre as esponjas e Tubastraea spp. na Baía de Ilha Grande, temporalmente; 2) Descrever os mecanismos utilizados na competição entre a esponja D. anchorata e os corais Tubastraea (físicos ou químicos?); 3) Descrever a dinâmica do crescimento da esponja D. anchorata com relação a fatores abióticos. Foram encontradas 37 espécies de esponjas interagindo com Tubastraea spp, sendo que apenas 12 dessas espécies interagiram mais de 10 % no total de interações. O contato periférico e a interação de até 5 cm de distância foram os tipos de interação mais encontrados. D. anchorata foi a esponja que mais teve o contato de sobreposição. Não foi observado efeitos significativos dos extratos de Tubastraea spp. sobre D. anchorata e nem dos extratos de D. anchorata sobre o metabolismo dos corais. A sobreposição foi a principal ferramenta utilizada na defesa contra o competidor, enquanto que os corais Tubastraea spp. utilizaram defesa física e provavelmente química. D. anchorata não apresentou relação entre seu crescimento e os fatores abióticos medidos e mostrou crescimento em taxas diferentes durante os meses analisados, com um pico no mês de setembro diminuindo até a sua morte, no mês de dezembro. No caso da competição entre os invasores Tubastraea spp. e a esponja D. anchorata, a hipótese de controle biótico não pode ser levada em consideração, já que os corais Tubastraea spp. têm demonstrado capacidade de se expandir e colonizar novos locais muito rapidamente. Porém, como observado no presente estudo, e em outros trabalhos, pontualmente a esponja vence na competição com os corais invasores
Resumo:
A injeção da água do mar nos campos marítimos (offshore), processo este conhecido como recuperação secundária de petróleo, gera muitos resíduos e efluentes. Dentre estes, pode-se destacar a água produzida, que consiste de água de formação, água naturalmente presente na formação geológica do reservatório de petróleo, e água de injeção, aquela normalmente injetada no reservatório para aumento de produção. Sete tanques de armazenamento de água/óleo de um terminal foram monitorados quanto à presença de micro-organismos e teores de sulfato, sulfeto, pH e condutividade. Particularmente, as bactérias redutoras de sulfato (BRS), que agem às expensas da atividade de outras espécies, reduzindo sulfato à sulfeto, constituindo-se num problema-chave. Os tanques de óleo codificados como Verde, Ciano, Roxo, Cinza, Vermelho, Amarelo e Azul, apresentaram comportamentos distintos quanto aos parâmetros microbiológicos e físico-químicos. Após este monitoramento, de acordo com valores referência adotados, e levando-se em conta como principais parâmetros classificatórios concentrações de BRS, bactérias anaeróbias totais e sulfeto, os dois tanques considerados mais limpos do monitoramento foram os tanques roxo e ciano. Analogamente, por apresentarem os piores desempenhos frente aos três principais parâmetros, os tanques amarelo e cinza foram considerados os mais sujos de todo o monitoramento. Após esta segregação, esses três principais parâmetros, mais a concentração de sulfato, foram inter-relacionados a fim de se corroborar esta classificação. Foi possível observar que o sulfeto instantâneo não foi o parâmetro mais adequado para se avaliar o potencial metabólico de uma amostra. Por este motivo, foram verificados os perfis metabólicos das BRS presentes nas amostras, confirmando a segregação dos tanques, baseada em parâmetros em batelada
Resumo:
Nos últimos anos, temos nos deparado com a difusão maciça e a popularização crescente de descrições biológicas para aspectos outrora pensados como mentais, sociais, ou relacionais. Visível em diversas arenas leigas e científicas, esta tendência freqüentemente elege o cérebro como o órgão privilegiado da sua atenção. A cada semana é divulgada uma nova localização cerebral correlacionada os mais variados aspectos comportamentais e ou de personalidade. Acompanhando este movimento, é notável o esforço intelectual e financeiro despendido nos últimos anos no campo da saúde mental, no sentido de fazer avançar pesquisas cujo foco central é a descoberta das bases neurobiológicas dos transtornos mentais. Esta tendência apontaria na direção de uma fusão entre a psiquiatria e a neurologia em uma disciplina única, de teor fisicalista, chamada por alguns de cerebrologia. Dentre os acontecimentos que serviram de alicerce para a legitimação e a popularização desta tendência, o desenvolvimento nas últimas décadas de novas técnicas e tecnologias de visualização médica, como a tomografia por emissão de pósitrons (PET scan) e a ressonância magnética funcional (fMRI), foi fundamental. Elas permitiram a construção de imagens das mais diversas categorias nosográficas construídas no campo psiquiátrico, veiculando tacitamente uma série de pressupostos e promessas. Malgrado o imaginário cultural sustentado por estas tecnologias e todo o esforço despendido nas últimas décadas no sentido de se tentar localizar os marcadores biológicos dos transtornos psiquiátricos, não há, até o presente momento, nenhum resultado conclusivo que autorize o diagnóstico por imagem de nosografias como a esquizofrenia, a depressão, e muito menos o jogo patológico. Apesar de todo o alarde midiático e dos montantes milionários direcionados para pesquisas nesta área, os resultados concretos obtidos até agora não estão livres das mais ferozes controvérsias. Entretanto, ainda que estejamos muito longe da construção de mapas precisos para as perturbações mentais é espantoso o poder de convencimento que as neuro-imagens comportam na atualidade. Os scans são exibidos como verdades visuais, ou fatos acerca das pessoas e do mundo, numa proporção muito superior aos dados que apresentam. Alguns críticos chamam este aspecto de neurorealismo, ou de retórica da auto-evidência. A intenção deste trabalho é problematizar o poder persuasivo que as neuro-imagens detém na contemporaneidade, especialmente quando utilizadas com a finalidade diagnóstica no campo da saúde mental. Se estas imagens transmitem uma ideia de neutralidade, transparência imediata e auto-evidência, este trabalho almeja inseri-las num contexto sócio-histórico, a partir do qual puderam adquirir sentido, familiaridade e valor de verdade. O ponto de partida é o de que elas estão localizadas no cruzamento de dois movimentos históricos distintos: o das ilustrações médicas, em sua relação com a produção de conhecimento objetivo; e o das pesquisas acerca da localização no córtex cerebral de comportamentos complexos e traços de personalidade. Além de estabelecer algumas condições históricas de possibilidade para a emergência de um neo-localizacionismo cerebral, mediado pelas novas tecnologias de imageamento, pretende-se enfatizar algumas descontinuidades com projetos anteriores e marcar a influência do contexto cultural da atualidade para o sucesso e poder persuasivo deste tipo de tecnologia.
Resumo:
O advento das tecnologias digitais permitiu alterações significativas na maneira de produzir, divulgar e consumir música. As grandes gravadoras deixaram de ser os principais agentes articuladores da indústria da música, que está cada vez mais organizada em rede. A produção musical cresce de forma exponencial e está atomizada e espalhada por uma miríade de artistas de todos os níveis. Entretanto, só alguns se destacam em meio a essa galáxia de produtores de conteúdo e conseguem atingir algum grau de sustentabilidade. Estes são aqueles que conhecem as regras de funcionamento dessa rede, ainda que não saibam explicitá-las. O objetivo do presente trabalho é contribuir para a construção do enunciado dessas regras. Para tanto, consultou-se literatura sobre música e comunicação produzida por pesquisadores ligados aos Estudos Culturais, na qual se pôde identificar o grande número de variáveis envolvidas na questão, e por isso buscou-se uma articulação com a noção de sistemas complexos. Em função do tipo de objeto e da abordagem propostos, foi realizado um estudo de caso sobre a banda de rock Forfun, que possibilitou, a partir da comparação com outros casos de sustentabilidade, identificar linhas gerais de conduta e oportunidade que acabam por revelar certas regras
Resumo:
A indústria têxtil tem como característica a geração de grandes volumes de resíduos, principalmente corantes oriundos do tingimento de fios e tecidos. Os tratamentos convencionais de efluentes têxteis são ineficazes na degradação da maioria dos corantes. A fotocatálise heterogênea vem surgindo como alternativa promissora no tratamento desses poluentes. Neste trabalho, estudou-se a degradação fotocatalítica de duas soluções, simuladas em laboratório, compostas pelos corantes ácidos Blue 74, Red 51 e Yellow 3 (efluente I) e pelos reativos Black 5, Red 239 e Yellow 17 (efluente II), além de outros produtos químicos. Testes preliminares foram realizados para otimizar o pH e a massa de catalisador (TiO2) utilizados. Além da fotocatálise, experimentos de fotólise e adsorção também foram realizados. Através de espectrofotometria UV-VIS, verificou-se um descoramento por fotocatálise de 96% em 240 min e 97% em 30 min dos efluentes I e II, respectivamente. A mineralização do efluente I foi baixa (37%) e a do efluente II desprezível, nos tempos utilizados. No banho com corantes ácidos, foram realizadas ainda análises de toxicidade com sementes de alface (Lactuca sativa). A CE50 inicial estimada foi igual a 19,28 %, sendo a toxicidade totalmente removida após 63 min de processo fotocatalítico. A fotólise não obteve a mesma eficiência da fotocatálise, mostrando a importância do catalisador na degradação. A adsorção não foi significativa para os efluentes estudados. As cinéticas de degradação fotocatalítica de todos os corantes seguiram um modelo de pseudo-primeira ordem
Resumo:
A validação dos métodos de análises em situações fora da rotina, em P&D pesquisa e desenvolvimento, pode tornar-se um processo de difícil solução, em oposição àquelas de rotina, onde as concentrações são conhecidas. Nesta última situação, o método analítico é validado e aprovado com simplicidade. Apesar dos elementos de qualidade básicos para análises em P&D serem os mesmos adotados nas análises de rotina, fatores como o comportamento imprevisível da amostra, a composição desconhecida da matriz e interdependência com o analito, mesmo a incerteza a respeito da escolha do método instrumental, requer uma atenção renovada nos elementos de qualidade existentes. A razão pode ser atribuída à imprevisibilidade do procedimento analítico e a extensão do esforço adicional dos elementos de qualidade. As incertezas das análises em P&D requerem uma cuidadosa consideração do problema, assim como a disponibilidade de técnicas analíticas. Ao mesmo tempo, devem-se observar o planejamento e organização do trabalho, a supervisão do desenvolvimento analítico e a adequação dos aspectos técnico e organizacional - no trabalho de P&D, a definição de responsabilidades e a competência do corpo técnico. A garantia da qualidade nas indústrias farmacêuticas é estabelecida pelo desenvolvimento de especificações apropriadas para matérias-primas, produtos intermediários e produtos finais. A importância de especificações adequadas foi estabelecida e exemplos foram dados no desenvolvimento de especificação típica para produtos farmacêuticos, tais como a vacina e matéria prima. Isto incluiu uma discussão dos tipos de parâmetros que precisam ser controlados e uma indicação dos valores numéricos ou faixas esperadas para muitos materiais utilizados. A metrologia analítica que necessita ser aplicada para demonstrar a observância com as especificações foi discutida, com as implicações de desempenho do método para diferenciar variações na qualidade do produto e a simples variabilidade analítica. Esse trabalho foi escrito para laboratórios, com a finalidade de dar um suporte na implementação da validação de métodos analíticos e introduzir o conceito de incerteza da medida nas análises de rotina. O objetivo foi fornecer de uma maneira compreensível e prática a metodologia dos cálculos das medidas de incerteza baseados principalmente em dados de controle de qualidade e de validação já existentes. Exemplos práticos retirados diretamente do Laboratório de Metrologia e Validação, FIOCRUZ / Bio-Manguinhos, foram apresentados. Entretanto, o tratamento usado neste trabalho é genérico e pode ser aplicável a outros laboratórios químicos
Resumo:
As correntes pesadas do refino de petróleo podem ser utilizadas para a produção de óleos combustíveis para uso industrial ou marítimo, sendo esse último conhecido como óleo bunker. Para tal, é necessária a diluição dessas correntes pesadas com frações de refino mais leves para ajuste da viscosidade. Enquanto o uso industrial do óleo combustível vem sendo significativamente reduzido em função de restrições ambientais, o mercado de óleo bunker apresenta crescimento importante face a expansão do comércio marítimo mundial. No Brasil, há um aumento da produção de petróleos pesados, extrapesados e asfálticos, que exigem complexos esquemas de refino para a sua conversão em frações mais leves. Dessa forma, ocorre uma redução da quantidade de correntes disponíveis para a produção de bunker, além da variação da qualidade das correntes usadas na sua formulação. Esta dissertação avalia a utilização de petróleos pesados e asfálticos na produção de bunker, sem a necessidade do processamento tradicional em refinarias de petróleo. A comparação da qualidade de ignição e de combustão da nova formulação deste produto com o combustível marítimo preparado a partir de correntes residuais é realizada por duas metodologias diferentes. Após a realização de um pré-tratamento, a mistura formulada a partir dos cortes dos petróleos apresenta melhor desempenho que os combustíveis formulados com as correntes residuais. Além disso, este trabalho compara o efeito de diferentes diluentes e a contribuição da corrente pesada utilizada na qualidade de ignição e de combustão do produto
Resumo:
Os nudibrânquios gastrópodes são carnívoros e muitas espécies têm dietas especializadas, consumindo uma única ou poucas espécies de esponjas marinhas. No Brasil não existe, até o momento, nenhum estudo específico sobre a ecologia das espécies de nudibrânquios abordando qualquer interação com outros grupos de animais marinhos. Também não existem estudos sobre ensaios biológicos que avaliem o comportamento alimentar e a mediação química existente entre os nudibrânquios e suas presas. Os objetivos deste trabalho foram: a) registrar in situ a predação de nudibrânquios doridáceos sobre esponjas marinhas no litoral do Estado do Rio de Janeiro, identificar as espécies envolvidas, e comparar com os padrões de alimentação observados em outras regiões do mundo e b) avaliar o comportamento de quimiotaxia positiva de nudibrânquios em relação às suas presas. Observações sobre a dieta dos nudibrânquios foram realizadas através de mergulhos livres ou autônomos e o comportamento destes em relação às esponjas foi registrado. Um total de 139 observações foram realizadas em 15 espécies de nudibrânquios doridáceos: Felimida binza; Felimida paulomarcioi; Felimare lajensis; Tyrinna evelinae; Cadlina rumia; Diaulula greeleyi; Discodoris evelinae; Geitodoris pusae; Jorunna spazzola; Jorunna spongiosa; Rostanga byga; Taringa telopia; Doris kyolis; Dendrodoris krebsii e Tayuva hummelincki. A predação foi confirmada em 89 (64%) das 139 observações e em 12 (80%) das 15 espécies de nudibrânquios. A principal interação ecológica existente entre os nudibrânquios e as esponjas no Estado do Rio de Janeiro é a de consumo (predação). Em laboratório, o comportamento alimentar das espécies Cadlina rumia e Tyrinna evelinae foi avaliado em ensaios de preferência com dupla escolha oferecendo esponjas frescas. Experimentos de oferta de esponjas vivas, pó de esponjas liofilizadas e extratos brutos orgânicos das esponjas foram utilizados para investigar se a percepção dos moluscos às suas presas é modulada por sinais químicos. O nudibrânquio Cadlina rumia não consumiu nenhuma das esponjas oferecidas, mas detectou o sinal químico das esponjas vivas, e não detectou o sinal químico da esponja Dysidea etheria, liofilizada em pó, incorporada em alimentos artificiais. Tyrinna evelinae detectou o sinal químico da esponja D. etheria oferecida de duas maneiras diferentes: viva e liofilizada em pó. Foi confirmada em laboratório, a predação in situ da esponja D. etheria pelo nudibrânquio T. evelinae, constituindo o primeiro registro de predação observado in situ e in vitro para o gênero Tyrinna. De uma maneira geral, os resultados das observações de campo corroboram os padrões de alimentação observados em outras regiões do mundo e as esponjas da Classe Demospongiae são recursos fundamentais para a dieta dos nudibrânquios doridáceos no Rio de Janeiro. A sinalização química e a taxia positiva foi evidente para o nudibrânquio que possui dieta mais especializada, Tyrinna evelinae, e não para aquele que se alimenta de várias esponjas, Cadlina rumia.
Resumo:
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.