139 resultados para Fronteira eficiente


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A questão do Acre, entre 1899 e 1901, mobilizou a política externa brasileira da Primeira República. Pelo Tratado de Ayacucho, assinado em 1867, o território do Acre foi entregue à Bolívia. Apesar disso, desde o último quartel do século XIX, a área foi gradativamente colonizada por Brasileiros. Com o Boom da borracha, os bolivianos desejaram utilizar os seus direitos para explorar a região. O governo brasileiro, firmado no Tratado de 1867, consentiu. Em 1899 a legação boliviana chegou ao Acre para estabelecer a soberania da república vizinha. A população acreana, esmagadoramente brasileira, não aceitou a presença boliviana. Fez diversos levantes entre 1899 e 1902, atrapalhando os planos do governo da Bolívia. Diante disso, o governo boliviano considerou a possibilidade de uma exploração indireta, por meio do arrendamento da região. Durante parte desse período, Rui Barbosa atuou através do jornal A Imprensa (1899-1901), em favor dos direitos do Brasil sobre o Acre. Defendeu que da insistência do governo de Campos Sales em afirmar a ascendência boliviana naquela região, decorria a ameaça à soberania e a integridade territorial brasileira, em função do estabelecimento de forças imperialista na fronteira amazônica. Rui formulou, a partir da ambigüidade da redação do Tratado de Ayacucho, a tese da fronteira angular, de acordo com a qual território do Acre era incorporado ao Brasileiro. Em sua reflexão e ação, Rui Barbosa expressou uma expectativa, existente na sociedade brasileira, a respeito de como deveria se processar a política externa do país: resguardando o interesse nacional, que englobava, prioritariamente, a salvaguarda da soberania e do elemento gerador de maior identidade no nacionalismo brasileiro, o caráter monumental de seu território. À solução dada por Rio Branco á questão do Acre, em 1903, através do Tratado de Petrópolis, portanto, antecedeu um amplo debate público sobre um tema de política externa, a questão do Acre, que o Barão teve que considerar no processo de decisão política.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A contaminação do solo no município de Santo Amaro (BA) por metais tóxicos provocada pelas atividades da empresa Plumbum Mineração tem gerado impactos sobre a saúde ambiental e humana. O objetivo da presente pesquisa foi avaliar a viabilidade da remediação deste solo contaminado por chumbo e cádmio, utilizando diferentes fontes de fosfatos e fitorremediação com o capim vetiver [Vetiveria zizanioides (L.)]. O estudo foi realizado em colunas de PVC onde amostras de solo foram colocadas com a aplicação de fosfato dihidrogênio de potássio (KH2PO4) (T1); fertilizante fosfato natural reativo (FNR) (T2) e; uma mistura do KH2PO4 e de fertilizante FNR (T3). Amostras de solo contaminado sem tratamento (T0) foram utilizadas como controle. Após 60, 120 e 180 dias, alíquotas do solo foram retiradas das colunas para análises. Ao final de cada período, mudas de capim vetiver [(Vetiveria zizanioides (L.)] foram plantadas em vasos com as amostras de solo: T0, T1, T2 e T3 em triplicata. Para a determinação das concentrações de chumbo e cádmio no solo e tecidos vegetais foi utilizado o ICP-OES. A partir das análises física e química constatou-se que o solo possui textura argilosa e capacidade de troca catiônica (CTC) elevadas. As extrações com solução de ácido dietilenotriaminopentaacético (DTPA) e Toxicity Characteristic Leaching Procedure (TCLP) mostraram que o tratamento T1 seguido do T3 foram os mais eficientes na imobilização de Pb e Cd. Entretanto, todos os tratamentos resultaram em concentrações de metais ainda disponíveis no solo que excediam os limites estabelecidos pela USEPA, sendo o solo, portanto, considerado tóxico mesmo após o tratamento. Com base nas concentrações de metais extraídos através da extração sequencial pelo método BCR após a remediação e a fitorremediação do solo, foi verificado que todos os três tratamentos com fosfatos foram eficientes em imobilizar o Pb e Cd nas formas menos solúveis, porém, o Cd permaneceu mais solúvel e com maior mobilidade do que o Pb. Os ensaios de letalidade utilizando minhoca Eisenia andrei mostraram que a mortalidade observada no solo após 60 dias de tratamento foi significativamente reduzida após 120 e 180 dias de tratamento. A perda de biomassa pelas minhocas também foi reduzida de acordo com o tempo de tratamento. O teste de germinação com alfaces (Lactuca sativa L.) indicou que as amostras de solo tratadas continuam bastante tóxicas, apesar da disponibilidade reduzida do Pb e do Cd como visto nos resultados da extração por TCLP e por BCR. A avaliação de risco ecológico potencial indicou que os tratamentos do solo com fosfatos associado à fitorremediação reduziram a mobilidade do Pb, principalmente nos tratamentos T1 e T3. Para o Cd o risco ecológico potencial aumenta consideravelmente quando comparado com o Pb demonstrando que esse elemento, apesar dos tratamentos com fosfatos mais a fitorremediação continua móvel. O tratamento com KH2PO4 (T1) foi o mais eficiente na redução da mobilidade, disponibilidade e da toxicidade dos metais, seguido pelo T3 e T2 para o Pb e o T3 seguido pelo T1 e T2 para o Cd.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo busca descrever e analisar a experiência de Ouvidoria da Educação construída na Secretaria Municipal de Educação de Nova Iguaçu durante a gestão iniciada em outubro de 2008 e encerrada em maio de 2010. Nele, é contextualizado o processo de construção da experiência das Ouvidorias no Brasil, as características urbanas, econômicas, políticas e sociais da cidade utilizada como recorte empírico da pesquisa, assim como o Programa Bairro Escola. Esta foi a denominação da política central de desenvolvimento de gestão pública do, então, prefeito Lindberg Farias. O tema se expressa no campo da Educação e o subtema é a Gestão Democrática, apresentando como questão central as condições e os limites de viabilização de um projeto de Ouvidoria na rede pública municipal comprometida com essa referência de gestão. Para efetivação da análise investigativa, a dissertação foi desenvolvida como um caso particular do possível um estudo de caso com a pesquisadora na condição de sujeito/objeto do estudo frente à ação real e utópica de humanização e sustentabilidade do projeto educativo. As interlocuções teóricas adotadas visaram uma abordagem microssociológica com: Pierre Bourdieu na apreensão da prática através do habitus, campo, interesse e espaço social; Foucault, desvelando as relações de poder; Gramsci com a identificação da hegemonia e ideologia; e Boaventura Santos na concepção do contra hegemônico e na fronteira das linhas abissais. A hipótese de trabalho é que a implantação da Ouvidoria da Educação, em um quadro global de um projeto de Educação Integral, tinha como base uma ação inovadora de democracia da gestão e na busca de construir uma governança da polis com um presente e futuro sustentável. Nesse âmbito, a Ouvidoria da Educação atuava como um possível canal de comunicação e instrumento estimulador da mobilização social dos sujeitos-cidadãos da Rede Municipal da Educação da cidade de Nova Iguaçu e disseminador de práticas sustentadas nos Direitos Humanos. Como conclusão, evidencia-se que uma política pública de Educação Integral só se efetiva concretamente no campo educacional quando, substancialmente, se desenvolve uma gestão democrática e propositiva de uma agenda da garantia dos direitos sociais aos diferentes atores escolares, de forma a ressignificar as relações de poder estabelecidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Por serem organismos filtradores, os mexilhões devem ser extraídos para consumo somente de águas com padrões microbiológicos regulamentados pelo Conselho Nacional do Meio Ambiente, uma vez que intoxicações alimentares de origem bacteriana são as consequências mais comuns relacionadas ao consumo destes moluscos. Após a retirada dos costões, estes organismos passam por processos de fervura, lavagem, acondicionamento em sacos plásticos e transporte até a chegada ao mercado onde são comercializados; etapas estas, realizadas sem cuidados assépticos. Objetivando avaliar a qualidade microbiológica de mexilhões Perna perna coletados na praia de Itaipu, Niterói, RJ; após a sua fervura; e comercializados no Mercado São Pedro, foram realizadas contagens de coliformes totais e termotolerantes e pesquisa de Escherichia coli, Salmonella spp. e Vibrio spp. por metodologia convencional e molecular em amostras obtidas destes locais. Pelo teste de disco-difusão foi observado o perfil de resistência das cepas isoladas. Do total de amostras analisadas (27) apenas 3 dos mexilhões que sofreram processo de aferventação, 1 do comercializado e 3 do in natura, se encontravam dentro dos padrões aceitáveis pela legislação. Não houve diferença significativa entre as contagens de coliformes termotolerantes dos diferentes mexilhões analisados, mas sim entre os períodos seco e chuvoso. Somente uma das nove coletas de água mostrou-se própria para o cultivo de mexilhões (até 14 CF/mL). Foram isoladas e caracterizadas fisiológicamente, 77 estirpes da espécie E. coli, sendo confirmadas molecularmente por PCR os sorotipos EPEC, STEC e EAEC; 4 cepas Salmonella spp. sendo apenas uma confirmada por PCR; e das 57 cepas caracterizadas como Vibrio spp., 51 foram confirmadas por PCR, sendo 46 Vibrio spp., 2 V. cholerae, 1 V. vulnificus, 1 V. parahaemolyticus e 1 V. mimicus. Entre as estirpes de E. coli, 13% apresentaram multirresistência e 15,6% apresentaram resistência múltipla. A estirpe de Salmonella spp. se mostrou sensível a todos os antimicrobiados testados. Das estirpes de Vibrio spp. testadas, 68,6% apresentaram multirresistência e 72,5% apresentaram resistência múltipla. A partir da pesquisa de genes direto do caldo de enriquecimento foi possível detectar todos os genes pesquisados, com exceção para os sorotipos de Salmonella e V. cholerae. Baseado nos resultados do presente trabalho pode-se inferir que os mexilhões, amplamente comercializados no município de Itaipú, podem se constituir em risco para a saúde pública dos consumidores no Rio de Janeiro, necessitando dos órgãos competentes uma eficiente fiscalização nos pontos de venda e cultivo destes moluscos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Processos de produção precisam ser avaliados continuamente para que funcionem de modo mais eficaz e eficiente possível. Um conjunto de ferramentas utilizado para tal finalidade é denominado controle estatístico de processos (CEP). Através de ferramentas do CEP, o monitoramento pode ser realizado periodicamente. A ferramenta mais importante do CEP é o gráfico de controle. Nesta tese, foca-se no monitoramento de uma variável resposta, por meio dos parâmetros ou coeficientes de um modelo de regressão linear simples. Propõe-se gráficos de controle χ2 adaptativos para o monitoramento dos coeficientes do modelo de regressão linear simples. Mais especificamente, são desenvolvidos sete gráficos de controle χ2 adaptativos para o monitoramento de perfis lineares, a saber: gráfico com tamanho de amostra variável; intervalo de amostragem variável; limites de controle e de advertência variáveis; tamanho de amostra e intervalo de amostragem variáveis; tamanho de amostra e limites variáveis; intervalo de amostragem e limites variáveis e por fim, com todos os parâmetros de projeto variáveis. Medidas de desempenho dos gráficos propostos foram obtidas através de propriedades de cadeia de Markov, tanto para a situação zero-state como para a steady-state, verificando-se uma diminuição do tempo médio até um sinal no caso de desvios pequenos a moderados nos coeficientes do modelo de regressão do processo de produção. Os gráficos propostos foram aplicados a um exemplo de um processo de fabricação de semicondutores. Além disso, uma análise de sensibilidade dos mesmos é feita em função de desvios de diferentes magnitudes nos parâmetros do processo, a saber, no intercepto e na inclinação, comparando-se o desempenho entre os gráficos desenvolvidos e também com o gráfico χ2 com parâmetros fixos. Os gráficos propostos nesta tese são adequados para vários tipos de aplicações. Neste trabalho também foi considerado características de qualidade as quais são representadas por um modelo de regressão não-linear. Para o modelo de regressão não-linear considerado, a proposta é utilizar um método que divide o perfil não-linear em partes lineares, mais especificamente, um algoritmo para este fim, proposto na literatura, foi utilizado. Desta forma, foi possível validar a técnica proposta, mostrando que a mesma é robusta no sentido que permite tipos diferentes de perfis não-lineares. Aproxima-se, portanto um perfil não-linear por perfis lineares por partes, o que proporciona o monitoramento de cada perfil linear por gráficos de controle, como os gráficos de controle desenvolvidos nesta tese. Ademais apresenta-se a metodologia de decompor um perfil não-linear em partes lineares de forma detalhada e completa, abrindo espaço para ampla utilização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O surgimento de novos serviços de telecomunicações tem provocado um enorme aumento no tráfego de dados nas redes de transmissão. Para atender a essa demanda crescente, novas tecnologias foram desenvolvidas e implementadas ao longo dos anos, sendo que um dos principais avanços está na área de transmissão óptica, devido à grande capacidade de transporte de informação da fibra óptica. A tecnologia que melhor explora a capacidade desse meio de transmissão atualmente é a multiplexação por divisão de comprimento de onda ou Wavelength Division Multiplexing (WDM) que permite a transmissão de diversos sinais utilizando apenas uma fibra óptica. Redes ópticas WDM se tornaram muito complexas, com enorme capacidade de transmissão de informação (terabits por segundo), para atender à explosão de necessidade por largura de banda. Nesse contexto, é de extrema importância que os recursos dessas redes sejam utilizados de forma inteligente e otimizada. Um dos maiores desafios em uma rede óptica é a escolha de uma rota e a seleção de um comprimento de onda disponível na rede para atender uma solicitação de conexão utilizando o menor número de recursos possível. Esse problema é bastante complexo e ficou conhecido como problema de roteamento e alocação de comprimento de onda ou, simplesmente, problema RWA (Routing and Wavelentgh Assignment problem). Muitos estudos foram realizados com o objetivo de encontrar uma solução eficiente para esse problema, mas nem sempre é possível aliar bom desempenho com baixo tempo de execução, requisito fundamental em redes de telecomunicações. A técnica de algoritmo genético (AG) tem sido utilizada para encontrar soluções de problemas de otimização, como é o caso do problema RWA, e tem obtido resultados superiores quando comparada com soluções heurísticas tradicionais encontradas na literatura. Esta dissertação apresenta, resumidamente, os conceitos de redes ópticas e de algoritmos genéticos, e descreve uma formulação do problema RWA adequada à solução por algoritmo genético.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Controle de processos é uma das muitas aplicações que aproveitam as vantagens do uso da teoria de conjuntos nebulosos. Nesse tipo de aplicação, o controlador é, geralmente, embutido no dispositivo controlado. Esta dissertação propõe uma arquitetura reconfigurável eficiente para controladores nebulosos embutidos. A arquitetura é parametrizável, de tal forma, que permite a configuração do controlador para que este possa ser usado na implementação de qualquer aplicação ou modelo nebuloso. Os parâmetros de configuração são: o número de variáveis de entrada (N); o número de variáveis de saída (M); o número de termos linguísticos (Q); e o número total de regras (P). A arquitetura proposta proporciona também a configuração das características que definem as regras e as funções de pertinência de cada variável de entrada e saída, permitindo a escalabilidade do projeto. A composição das premissas e consequentes das regras são configuráveis, de acordo com o controlador nebuloso objetivado. A arquitetura suporta funções de pertinência triangulares, mas pode ser estendida para aceitar outras formas, do tipo trapezoidal, sem grandes modificações. As características das funções de pertinência de cada termo linguístico, podem ser ajustadas de acordo com a definição do controlador nebuloso, permitindo o uso de triângulos. Virtualmente, não há limites máximos do número de regras ou de termos linguísticos empregados no modelo, bem como no número de variáveis de entrada e de saída. A macro-arquitetura do controlador proposto é composta por N blocos de fuzzificação, 1 bloco de inferência, M blocos de defuzzificação e N blocos referentes às características das funções de pertinência. Este último opera apenas durante a configuração do controlador. A função dos blocos de fuzzificação das variáveis de entrada é executada em paralelo, assim como, os cálculos realizados pelos blocos de defuzzificação das variáveis de saída. A paralelização das unidades de fuzzificação e defuzzificação permite acelerar o processo de obtenção da resposta final do controlador. Foram realizadas várias simulações para verificar o correto funcionamento do controlador, especificado em VHDL. Em um segundo momento, para avaliar o desempenho da arquitetura, o controlador foi sintetizado em FPGA e testado em seis aplicações para verificar sua reconfigurabilidade e escalabilidade. Os resultados obtidos foram comparados com os do MATLAB em cada aplicação implementada, para comprovar precisão do controlador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho são analisados os quatro modos de plasmon, ligados simétrico (Sb) e assimétrico (ab), fuga pelo núcleo (ln) e fuga pela cobertura (lc), que se propagam em uma fibra óptica fracamente guiada envolta por um filme metálico. No filme metálico é depositada uma camada dielétrica extra e acima desta, uma outra denominada cobertura. A análise será desenvolvida para filmes metálicos de prata, paládio e ouro. Esta estrutura é muito útil na confecção de sensores ópticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho investiga um método de detecção de anomalias baseado em sistemas imunológicos artificiais, especificamente em uma técnica de reconhecimento próprio/não-próprio chamada algoritmo de seleção negativa (NSA). Foi utilizado um esquema de representação baseado em hiperesferas com centros e raios variáveis e um modelo capaz de gerar detectores, com esta representação, de forma eficiente. Tal modelo utiliza algoritmos genéticos onde cada gene do cromossomo contém um índice para um ponto de uma distribuição quasi-aleatória que servirá como centro do detector e uma função decodificadora responsável por determinar os raios apropriados. A aptidão do cromossomo é dada por uma estimativa do volume coberto através uma integral de Monte Carlo. Este algoritmo teve seu desempenho verificado em diferentes dimensões e suas limitações levantadas. Com isso, pode-se focar as melhorias no algoritmo, feitas através da implementação de operadores genéticos mais adequados para a representação utilizada, de técnicas de redução do número de pontos do conjunto próprio e de um método de pré-processamento baseado em bitmaps de séries temporais. Avaliações com dados sintéticos e experimentos com dados reais demonstram o bom desempenho do algoritmo proposto e a diminuição do tempo de execução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A inflação consegue dar conta de uma série de problemas do Modelo padrão da Cosmologia, preservando ainda o sucesso do modelo do Big Bang. Na sua versão mais simples, a inflação é controlada por um campo escalar, o ínflaton, que faz com que o universo se expanda exponencialmente. Após, o ínflaton decai e ocorre o reaquecimento do universo. Contudo, alguns autores apontam a existência de uma fase intermediária, chamada de pré-aquecimento. O decaimento do ínflaton possui uma rica dinâmica não-linear. No primeiro estágio, a ressonância paramétrica promove o crescimento exponencial de alguns modos do ínflaton. Isto altera a dinâmica do modo homogêneo do ínflaton, promovendo uma reestruturação das cartas de ressonâncias da equação de movimento dos modos perturbativos. Desta forma, ocorre a transferência de energia para estes modos, até que o universo termaliza. Esta transferência de energia é típica de um sistema turbulento. Por se tratar de uma evolução não-linear, torna-se conveniente a implementação computacional de métodos numéricos. Neste contexto, os métodos espectrais têm se mostrado uma excelente ferramenta para estudar este tipo de sistema. Esta dissertação apresenta os resultados do esquema numérico desenvolvido para o modelo com potencial quártico, que será a base para os demais estudos a serem desenvolvidos. Como mostrado, este esquema é extremamente preciso e eficiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A grande quantidade de resíduos sólidos gerados nas cidades é um desafio para o saneamento ambiental no Brasil. A fim de se reduzir os impactos gerados ao meio ambiente e à saúde pública, é necessário que haja um gerenciamento adequado, desde a coleta até a disposição final, desses resíduos sólidos urbanos. Os aterros sanitários permitem um maior controle ambiental, desde que sejam bem projetados e operados. A decomposição da matéria orgânica presente nesses resíduos, somada às águas das chuvas gera o lixiviado, líquido com alto potencial poluidor. Várias formas de tratamento são propostas com a finalidade de tornar o lixiviado menos poluente ao meio ambiente. Wetlands construídos tem se mostrado uma alternativa eficiente para a remoção de poluentes em lixiviados, além dos baixos custos operacionais e de implantação. O presente estudo investigou o uso de wetlands subsuperficiais em escala-piloto para o tratamento de um lixiviado prétratado. Os wetlands foram monitorados com a finalidade de se obter remoções de matéria orgânica e nitrogênio amoniacal. As maiores reduções percentuais de concentração de nitrogênio amoniacal, DQO e COD foram, 91%, 42% e 35%, respectivamente. As maiores reduções percentuais em carga de nitrogênio amoniacal e DQO foram, 67% e 50%, respectivamente. Os resultados dos ensaios de toxicidade realizados com os organismos Vibrio fischeri e Danio rerio revelaram que, a toxicidade do lixiviado foi reduzida ao ser tratado pelo wetland.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os estudos para a realização da presente dissertação estão contextualizados no campo epistemológico do currículo e pretenderam abordar questões relativas ao gênero, no contexto da prática. Para tanto, foi considerada a perspectiva de Elizabeth Macedo, que entende o currículo como espaço-tempo de fronteira e enunciação de sentidos. A pesquisa buscou destacar que sentidos de sexo, gênero e identidades são atribuídos e se mostram na prática curricular de profissionais que trabalham no segundo segmento do Ensino Fundamental (8 e 9 anos) em uma escola privada de ensino regular localizada no município do Rio de Janeiro, que anuncia um posicionamento não sexista no seu projeto político-pedagógico. A análise se propôs a mostrar caminhos de construção e desconstrução de concepções que tentam fixar identidades de gênero, acreditando na fragilidade dessas fixações, por considerar que as identidades estão em constante processo de fluidez. Para aprofundar a reflexão, além da interlocução com a teórica com o campo do currículo, o trabalho contou com os estudos queer para tratar sobre questões de gênero e processos de identificação, principalmente com Judith Butler e Guacira Lopes Louro. O corpus empírico da pesquisa é constituído por entrevistas semi-estruturadas realizadas com profissionais da escola (professores e gestores). As falas dos entrevistados apontaram para a dificuldade de se trabalhar as questões de gênero, mas, ao mesmo tempo, indicaram movimentos de desnaturalização das identidades de gênero, destacando a heteronormatividade e considerando diferentes maneiras de viver as sexualidades. O estudo pretendeu abrir caminhos para que as diferenças de gênero não sejam limitadas a esquemas binários que pretendem operar a partir de oposições dicotômicas fixas, mas, sim, que se movimentam de acordo com os deslocamentos dos inúmeros processos contingentes de diferenciação, produzindo identificações provisórias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, será considerado um problema de controle ótimo quadrático para a equação do calor em domínios retangulares com condição de fronteira do tipo Dirichlet é nos quais, a função de controle (dependente apenas no tempo) constitui um termo de fonte. Uma caracterização da solução ótima é obtida na forma de uma equação linear em um espaço de funções reais definidas no intervalo de tempo considerado. Em seguida, utiliza-se uma sequência de projeções em subespaços de dimensão finita para obter aproximações para o controle ótimo, o cada uma das quais pode ser gerada por um sistema linear de dimensão finita. A sequência de soluções aproximadas assim obtidas converge para a solução ótima do problema original. Finalmente, são apresentados resultados numéricos para domínios espaciais de dimensão 1.