939 resultados para Continuously Stirred Bioreactor
Resumo:
O Partido da Social Democracia Brasileira (PSDB) surgiu em 1987, como uma opção de centro-esquerda, e, de acordo com seus fundadores a agremiação nasceu alinhada com a ideologia social-democrata. Contudo, desde sua origem o partido apresenta duas diferenças fundamentais em relação aos partidos social-democratas europeus: não tem vínculos com movimentos trabalhistas e defende o liberalismo de mercado. No decorrer de sua história, o partido muda da centro-esquerda para a centro-direita demonstrando mais claramente sua verdadeira inclinação ideológica, fato que pode ser observado no posicionamento de sua bancada, no auto-posicionamento e nas políticas que foram implementadas nos anos em que esteve à frente do executivo federal. A análise dos documentos do PSDB nos revela que a mudança do partido não foi de algo pragmático, na verdade o partido já apresentava simpatia às políticas pró-mercado em seus manifestos desde sua fundação.
Resumo:
O presente estudo tem como objetivo analisar os efeitos do programa de educação não formal Jovem Aprendiz, desenvolvido na Costa do Sol do Estado do Rio deJaneiro, a partir da perspectiva dos jovens egressos e dos educadores. A investigação contempla a análise do Programa Jovem Aprendiz mediante a contextualização da Lei de Aprendizagem n 10.097/00 e uma discussão teórico-conceitual acerca da educação não formal, de acordo com Gohn (2003, 2005a, 2005b, 2006, 2009, 2010) e Trilla (1993; 2008), autores que contribuem com a caracterização desse tipo de educação. No que tange à abordagem das políticas públicas para a juventude, Sposito e Carrano (2003) e Corrochano (2002; 2008a; 2008b) fundamentaram a análise do objeto da pesquisa e, com base nos estudos de Sennett (2006; 2009), são analisadas as características e a heterogeneidade do mercado de trabalho na atualidade. Os resultados revelam que os jovens egressos possuem sentimento de saudosismo e uma ampliação da visão pessoal de si e agradecimento pela passagem no Programa. Os impactos do Programa foram em torno das aprendizagens para a formação humana, dentre as quais destacamos a social (GOHN, 2010), englobando valores, ética, escolhas, o aprender a ser que envolveu postura comportamental, aprender a trabalhar em grupo, saber conviver, ouvir, comunicar-se, sugerir (liberdade), proatividade; incentivou os participantes a ter objetivos, comprometimento e amadurecimento. Os educadores pontuaram as aprendizagens teórica, cultural (GOHN, 2010) e o impacto por trabalhar com a(s) juventude(s) como descobrindo na prática do dia a dia a ser educador, aprendendo a lidar com as incertezas, o processo de humanização, socialização e a singularização, o processo de escuta e acolhimento, o aprofundamento na legislação que embasa o Programa, a importância do treinamento adequado e de ter um pedagogo gerindo a equipe multidisciplinar, o aprender a otimizar o tempo. Dessa forma, a pesquisa vai ao encontro das abordagens sobre a educação não formal que a contemplam como um processo sociopolítico, cultural e pedagógico de formação para a cidadania.
Resumo:
A proposta do trabalho é analisar como a morte é entendida pela visão da hipermodernidade e pela visão do Budismo. Na contemporaneidade cuja lógica capitalista é embasada na lógica do mercado onde o consumo assume o papel principal, a morte se tornou um tabu, onde ela é evitada, esvaziada de sentido e descaracterizada. A dor e o sofrimento são depreciados e é exigido do homem uma inabalável postura performática e um desempenho cada vez melhor. Há ainda a crença de que o discurso tecnocientífico trará todas as soluções para as mazelas humanas. A felicidade é, portanto, um imperativo da sociedade hipermoderna e sua busca é exteriorizada isentando os indivíduos de um olhar crítico. Assim, a morte e o luto perdem seu lugar para a busca incessante de satisfação e bem-estar. O Budismo tem uma lógica que segue na contramão. Ensina que a existência humana no Samsara é constituída por principalmente quatro sofrimentos básicos: nascimento, envelhecimento, doença e morte. O Budismo ensina que a morte, assim como a vida, é um fenômeno comum a todos os seres vivos e que o exercício budista possibilita compreender o real significado da vida e da morte. A meditação sobre a impermanência, uma das práticas budistas, visa familiarizar o adepto budista a três pensamentos: certamente vou morrer; a hora da minha morte é totalmente incerta e na hora da minha morte e, depois dela, só a prática do Dharma vai me ajudar. Postula que para alcançar a verdadeira felicidade o homem deve provocar uma mudança interior, exercitar a compaixão e se desapegar da crença de que os fenômenos são permanentes e imutáveis. Tais considerações foram possíveis a partir da pesquisa sobre o Budismo da Nova Tradição Kadampa a partir de uma metodologia etnográfica que incluíram visitas ao campo de estudo, a confecção de um diário de campo e a realização de entrevistas com os praticantes budistas da Nova Tradição Kadampa.
Resumo:
A matriz energética mundial é baseada em fontes fósseis e renováveis. No Brasil, o bioetanol é gerado principalmente a partir da cana-de-açúcar. Resíduos agroindustriais (fontes celulósicas ou amiláceas) despontam como biomassas alternativas à cana-de-açúcar, para aumentar a competitividade deste combustível renovável frente aos de origem fóssil e também favorecer a sustentabilidade e a segurança alimentar e energética, pois são ricos em polissacarídeos não diretamente fermentescíveis, abundantes (problema ambiental) e apresentam baixo valor comercial. O farelo de mandioca é um exemplo de resíduo sólido gerado na produção de fécula (amido) e farinha de mandioca que ainda contém, em média, 75% de amido. Consequentemente, deve ser previamente hidrolisado e posteriormente fermentado por leveduras do gênero Saccharomyces para gerar etanol. O objetivo deste estudo foi produzir bioetanol a partir de hidrolisados enzimáticos de farelo de mandioca, usando levedura álcool resistente (AR). Primeiramente, a concentração de açúcares obtida a partir da hidrólise enzimática foi verificada através de um planejamento fatorial completo (24), com triplicata no ponto central, a fim de investigar a influência dos seguintes fatores na hidrólise: concentração de α-amilase (Termamyl 2X), tempo de liquefação, concentração de glucoamilase (AMG 300L) e o tempo sacarificação. A condição de hidrólise mais favorável foi a do ensaio com 0,517 mL de AMG/g amido, 0,270 mL de Termamyl/g amido, 1h de tempo de liquefação e 2h de tempo de sacarificação. O caldo resultante da condição escolhida alcançou altas concentrações de glicose (160 g/L). Os ensaios de fermentação alcoólica foram realizados em duplicata em biorreator de 3L, em regime de batelada, a 30C, 100 rpm e pH 5,5. Cerca de 3 g/L (massa seca) de uma linhagem de levedura álcool tolerante, Saccharomyces cerevisiae Hansen BY4741, crescida por 12h em meio YEDP (2% de glicose) foram usados como inóculo. O mosto consistiu de um litro de hidrolisado (160 g/L de glicose) fortificado com extrato de levedura (1%) e peptona de carne (1%), além da adição de um antiespumante (Tween 80) na concentração de 0,05% (m/v). Em 30 horas de fermentação, a média da concentração de etanol obtida foi de 65 g/L. A eficiência foi de 87,6% e o rendimento e a produtividade foram 0,448 e 2,16 g/L.h, respectivamente. Os resultados indicaram a aplicabilidade do farelo de mandioca como matéria-prima para a produção de bioetanol
Resumo:
O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.
Resumo:
The 1997 International Year of the Reef sees the release of ReefBase 2.0: a global database on coral reefs and their resources. It provides the most comprehensive and accessible repository of information to date. Containing information on over 7000 coral reefs in more than 123 countries, ReefBase 2.0 offers an extensive range of time-related data pertaining to coastal tourism, benthic environment ecology, fish population statistics, oceanography, socioeconomics, mariculture, and harvest activities. It also outlines the stresses causing reef degradation as well as management initiatives. Complemented by hundreds of digitized maps provided by the World Conservation Monitoring Centre (WCMC) and over 500 high quality photographs, ReefBase 2.0 is not only an essential tool for coral reef management but also an comprehensive guide for tourists, scuba divers and snorkelers alike. ReefBase has contributed substantially to the success of the International Coral Reef Institute (ICRI) and serves as the official database of the Global Coral Reef Monitoring Network (GCRMN), bringing together an increasing volume of data on coral reef health, management and significance to humanity, and making it widely available. Over the next five years, the information contained within ReefBase will be utilized as an instrument for developing coral reef health assessment criteria, sustainable management criteria, and providing continuously updated summaries of threats endangering coral reefs around the globe. This will be a strong basis for focused corrective action in an attempt to conserve coral reefs and properly manage their resources for future generations.
Resumo:
Este trabalho tem por objetivo propor um modelo de pensamento projetual que oriente o designer de experiências interativas no formato de websites. Baseia-se em um corpo teórico e diretrizes adequadas para estimular a manutenção da atividade do usuário e o prolongamento da experiência interativa no tempo, aumentando a probabilidade da ocorrência de momentos memoráveis e emocionalmente positivos ao interator, sem prejuízo à usabilidade do sistema. Esta abordagem se afasta do paradigma de projeto voltado para o cumprimento de objetivos e tarefas, no qual procura-se reduzir o tempo de interação aumentando a produtividade do interator. Ao contrário, aqui se propõe um olhar voltado para o engajamento em uma atividade, sendo esta o fim em si.
Resumo:
Técnicas de limpeza química ou mecânica são comumente empregadas para evitar a formação de biofilmes e problemas associados com a colonização de superfícies por micro-organismos. Neste trabalho, amostras de aço inox 304L foram submetidas a ensaios acelerados de crescimento de biofilme, o qual foi posteriormente removido por tratamentos de limpeza e desinfecção (choque térmico com água a 70C por 1h, limpeza com ácido fosfórico 20 % v/v por 30min e desinfecção com peróxido de hidrogênio 0,17 % v/v por 1h). Com o objetivo de verificar a influência destes tratamentos na remoção do biofilme, este foi caracterizado (por quantificação microbiana e análises de espectroscopia de impedância eletroquímica - EIE), antes e após a aplicação dos tratamentos. Dois casos foram estudados. No primeiro caso, simularam-se condições presentes em tubulações de ambientes hospitalares e sistemas de distribuição de água quente. O micro-organismo utilizado foi a bactéria Serratia marcences. O processo de formação de biofilme e posterior limpeza e desinfecção foi realizado de modo contínuo durante 15 semanas. Os resultados de quantificação microbiana e de EIE mostraram que desde a primeira semana de exposição e ao longo dos ensaios, formou-se um biofilme aderente à superfície do aço e que o emprego dos tratamentos de limpeza e desinfecção não foi eficaz na remoção do biofilme. Em um segundo caso, simularam-se condições presentes em tubulações da indústria de água mineral, empregando-se a bactéria Pseudomonas aeruginosa. Neste caso, as técnicas de limpeza e desinfecção foram aplicadas individualmente e em conjunto. A aplicação de choque térmico, assim como da limpeza ácida, sobre um biofilme com 72 h de formação foi capaz de eliminar as bactérias viáveis, presentes na superfície do aço. Entretanto, a desinfecção com peróxido de hidrogênio não foi capaz de eliminá-las. Nas duas condições, porém, as análises de EIE do sistema aço/biofilme mostraram que o mesmo não foi completamente removido da superfície do metal. Correlacionando os dois casos, pode-se inferir que a superfície do aço inox 304L é rapidamente colonizada pelas duas espécies microbianas e que as técnicas de limpeza e desinfecção são capazes de reduzir e até eliminar as células viáveis, embora não removam completamente o biofilme da superfície. Por outro lado, é importante ressaltar que fatores como a arquitetura, espessura e porosidade do biofilme, e propriedades intrínsecas da superfície, são fatores que afetam os valores de impedância medidos, sendo necessário considerá-los na análise, tanto da formação do biofilme, quanto dos efeitos dos procedimentos de limpeza e desinfecção
Resumo:
The northern quahog, Mercenaria mercenaria, ranges along the Atlantic Coast of North America from the Canadian Maritimes to Florida, while the southern quahog, M. campechiensis, ranges mostly from Florida to southern Mexico. The northern quahog was fished by native North Americans during prehistoric periods. They used the meats as food and the shells as scrapers and as utensils. The European colonists copied the Indians treading method, and they also used short rakes for harvesting quahogs. The Indians of southern New England and Long Island, N.Y., made wampum from quahog shells, used it for ornaments and sold it to the colonists, who, in turn, traded it to other Indians for furs. During the late 1600’s, 1700’s, and 1800’s, wampum was made in small factories for eventual trading with Indians farther west for furs. The quahoging industry has provided people in many coastal communities with a means of earning a livelihood and has given consumers a tasty, wholesome food whether eaten raw, steamed, cooked in chowders, or as stuffed quahogs. More than a dozen methods and types of gear have been used in the last two centuries for harvesting quahogs. They include treading and using various types of rakes and dredges, both of which have undergone continuous improvements in design. Modern dredges are equipped with hydraulic jets and one type has an escalator to bring the quahogs continuously to the boats. In the early 1900’s, most provinces and states established regulations to conserve and maximize yields of their quahog stocks. They include a minimum size, now almost universally a 38-mm shell width, and can include gear limitations and daily quotas. The United States produces far more quahogs than either Canada or Mexico. The leading producer in Canada is Prince Edward Island. In the United States, New York, New Jersey, and Rhode Island lead in quahog production in the north, while Virginia and North Carolina lead in the south. Connecticut and Florida were large producers in the 1990’s. The State of Tabasco leads in Mexican production. In the northeastern United States, the bays with large openings, and thus large exchanges of bay waters with ocean waters, have much larger stocks of quahogs and fisheries than bays with small openings and water exchanges. Quahog stocks in certified beds have been enhanced by transplanting stocks to them from stocks in uncertified waters and by planting seed grown in hatcheries, which grew in number from Massachusetts to Florida in the 1980’s and 1990’s.
Resumo:
The northern quahog, Mercenaria mercenaria, ranges along the Atlantic Coast of North America from the Canadian Maritimes to Florida, while the southern quahog, M. campechiensis, ranges mostly from Florida to southern Mexico. The northern quahog was fished by native North Americans during prehistoric periods. They used the meats as food and the shells as scrapers and as utensils. The European colonists copied the Indians treading method, and they also used short rakes for harvesting quahogs. The Indians of southern New England made wampum from quahog shells, used it for ornaments and sold it to the colonists, who, in turn, traded it to other Indians for furs. During the late 1600’s, 1700’s, and 1800’s, wampum was made in small factories for eventual trading with Indians farther west for furs. The quahoging industry has provided people in many coastal communities with a means of earning a livelihood and has provided consumers with a tasty, wholesome food whether eaten raw, steamed, cooked in chowders, or as stuffed quahogs. More than a dozen methods and types of gear have been used in the last two centuries for harvesting quahogs. They include treading and using various types of rakes and dredges, both of which have undergone continuous improvements in design. Modern dredges are equipped with hydraulic jets and one type has an escalator to bring the quahogs continuously to the boats. In the early 1900’s, most provinces and states established regulations to conserve and maximize yields of their quahog stocks. They include a minimum size, now almost universally a 38-mm shell width, and can include gear limitations and daily quotas. The United States produces far more quahogs than either Canada or Mexico. The leading producer in Canada is Prince Edward Island. In the United States, New York, New Jersey, and Rhode Island lead in quahog production in the north, while Virginia and North Carolina lead in the south. Connecticut and Florida were large producers in the 1990’s. The State of Campeche leads in Mexican production. In the northeastern United States, the bays with large openings, and thus large exchanges of bay waters with ocean waters, have much larger stocks of quahogs and fisheries than bays with small openings and water exchanges. Quahog stocks in certifi ed beds have been enhanced by transplanting stocks to them from stocks in uncertified waters and by planting seed grown in hatcheries, which grew in number from Massachusetts to Florida in the 1980’s and 1990’s.
Resumo:
A pesquisa objetivou traçar um perfil de alunos da educação de jovens e adultos (EJA) em duas escolas públicas municipais do Rio de Janeiro, de oferta diurna, na mesma região geográfica e administrativa, identificando e caracterizando os sujeitos e o significado do ensino diurno para o seguimento da escolarização. Os alunos, em maioria jovens, encontravam-se matriculados no Programa de Educação de Jovens e Adultos (PEJA). A natureza do objeto conduziu-me metodologicamente para um estudo de caso e, para desenvolvê-la, fiz uso de aplicação de questionário e, posteriormente, realizei entrevista semiestruturada com 25 alunos. Meu locus de pesquisa conectou-se a contextos mais amplos com os quais o campo da EJA dialoga, como acordos e documentos resultantes de Conferências Internacionais de Educação de Adultos (CONFINTEAs) e bases legais do direito à educação para todos no Brasil. A matriz teórica da pesquisa viabilizou um olhar investigativo sustentado pelo método de pensamento adotado, inspirado na teoria da complexidade. Meus resultados levaram-me a compreender que pensar a EJA diurna como mais uma oferta no sistema pode anunciar possibilidades de adequação às características dos sujeitos, mas pode, na prática, constituir novas exclusões intrassistemas e interdições a sujeitos julgados, continuadamente, como incapazes de aprender
Resumo:
A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.
Resumo:
A história dos Censos no Brasil mostra que a preocupação com a componente territorial em levantamentos estatísticos, surgiu no recenseamento de 1940, quando, pela primeira vez, o IBGE procurou retratar aspectos da realidade geográfica, de interesse para a operação de coleta, em bases cartográficas, uma tarefa complexa devido à grande extensão do território brasileiro e principalmente no que se refere à qualidade do material cartográfico disponível à época. Atualmente crescem as demandas em nosso país, por informações cada vez mais detalhadas e geograficamente posicionadas. Governadores e prefeitos, órgãos de planejamento municipais e estaduais, investidos de maior autonomia e de novas responsabilidades após a Constituição de 1988, dependem hoje como nunca dos censos para definirem suas políticas públicas, com base em informações atualizadas sobre a população sob suas jurisdições. Entretanto, as demandas por informações agregadas à posição também vêm de outras esferas, que vão do setor não-governamental e privado ao governo federal, fazendo com que muito aumentasse a relevância dos censos e por conseqüência os resultados das pesquisas. Para atender a grande demanda, o IBGE vem continuamente aperfeiçoando o que denominamos de Base Territorial, que é um sistema integrado de informações de natureza geográfica e alfanumérica e se constitui no principal requisito para a garantia da adequada cobertura das operações de levantamento censitário. Face a este novo cenário, o IBGE iniciou a elaboração de mapas da base territorial em meio digital, durante as ações preparatórias para o Censo 2000, se deparando com as dificuldades de integração das áreas urbanas e rurais e a baixa qualidade dos insumos de mapeamento em escala cadastral, disponível nas áreas menos desenvolvidas, pois a Instituição não é produtora de mapeamento em escala cadastral. A metodologia proposta visa melhorar a qualidade dos Mapas de Setores Urbanos MSU, com a utilização de imagens Google Earth, a partir software MicroStation 95, periféricos e aplicativos de conversão disponíveis no IBGE, com o estabelecimento de uma nova rotina de trabalho para produção e substituição dos mapas de setores urbanos, de forma a garantir uma maior representatividade territorial dos dados estatísticos para divulgação.
Resumo:
Apesar da importância das estações de tratamento de efluentes industriais (ETEIs) na conservação dos ecossistemas, estas podem ser geradoras de gases com maus odores contendo compostos orgânicos voláteis - COVs. Os maus odores têm sido motivos de protestos e reclamações por parte da população circunvizinha às fontes emissoras. Em virtude da conscientização ambiental, e dos impactos sobre a saúde do homem, o objetivo geral deste trabalho é avaliar a eficiência de um biorreator aeróbio piloto no controle de gases odoríferos emitidos em estação de tratamento de efluentes de indústrias de alimentos. Foi desenvolvido um sistema de difusão de ar odorífero em um reator aeróbio de lodo ativado, hermeticamente fechado, operado no regime de batelada sequencial, durante os dias 14, 21, 23, e 30 do mês de julho.Foram realizadas análises dos parâmetros físico-químicos do lodo ativado utilizado no reator aeróbio piloto, como determinação dos sólidos, DBO5, DQO, OD, pH, temperatura e IVL. A atividade da biomassa do lodo ativado foi avaliada por meio do teste de Respirometria. A eficiência do reator quanto à redução da DQO dos gases foi analisada por meio da absorção dos gases em solução de dicromato de potássio. Para avaliação da mensuração dos odores utilizou-se o método de cromatografia gasosa e espectrometria de massa, quantificando amostras de gases odorantes adsorvidas em tubos de carvão ativado, na entrada e na saída dobiorreator. Os resultados obtidos confirmaram o potencial do sistema de difusão em lodos ativados para o tratamento de gases odoríferos em ETEI, com eficiência de remoção dos COV`s variando de 97,3% a 98,9%.
Resumo:
The goal of this work is to examine the properties of recording mechanisms which are common to continuously recording high-resolution natural systems in which climatic signals are imprinted and preserved as proxy records. These systems produce seasonal structures as an indirect response to climatic variability over the annual cycle. We compare the proxy records from four different high-resolution systems: the Quelccaya ice cap of the Peruvian Andes; composite tree ring growth from southern California and the southwestern United States; and the marine varve sedimentation systems in the Santa Barbara basin (off California, United States) and in the Gulf of California, Mexico. An important focus of this work is to indicate how the interannual climatic signal is recorded in a variety of different natural systems with vastly different recording mechanisms and widely separated in space. These high-resolution records are the products of natural processes which should be comparable, to some degree, to human-engineered systems developed to transmit and record physical quantities. We therefore present a simple analogy of a data recording system as a heuristic model to provide some unifying concepts with which we may better understand the formation of the records. This analogy assumes special significance when we consider that natural proxy records are the principal means to extend our knowledge of climatic variability into the past, beyond the limits of instrumentally recorded data.