20 resultados para auxiliary
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
Os diários de escrita íntima constituem tipo de texto do domínio confessional. Apresentam narrativas pessoais com características específicas ao gênero, como datação, marcas de subjetividade, escrita informal e coloquialidade. Durante muitos anos, eram escritos em cadernos e guardados a sete chaves por seus autores para que não fossem lidos por outras pessoas. Por volta dos anos 80, surgiram as agendas de adolescentes. Aproveitando o modelo pré-definido industrialmente, as agendas eram preenchidas dia a dia, como um diário, mas com a novidade do acréscimo de elementos semióticos, como fotos, papéis de bala, recortes de revistas, entre outros. Além disso, traziam como diferencial a presença de um leitor participativo: os textos eram compartilhados com amigos, e bilhetes e comentários eram escritos nas páginas das agendas. Com o advento da Internet, o diário e a agenda se fundem no blog que aproveita os recursos do suporte virtual para tornar o gênero interativo, hipertextual e multimídia, acentuando o processo de leitura e de escrita nos jovens produtores de blogs. Paralelamente, a escrita se torna grande ferramenta de comunicação no ambiente virtual, adquirindo características peculiares em função da rapidez na comunicação e da economia de digitação. A partir da teoria de Bakthin sobre gêneros do discurso e do conceito de gêneros digitais de Marcuschi, a pesquisa apresenta como objeto perceber e elencar categorias pertinentes aos gêneros diário e blog para analisá-las e compará-las, na intenção de mapear um possível percurso dos diários aos blogs de adolescentes, discutindo o contraste público-privado na escrita íntima, bem como suas principais marcas linguísticas, percebendo vantagens e desvantagens de sua utilização como ferramenta auxiliar no processo de aprendizagem da escrita e da leitura de Língua Portuguesa. A pesquisa foi motivada pela discussão de que a escrita digital pode prejudicar o desenvolvimento da produção textual de jovens em formação, o que não se confirmou, visto que a estrutura sintática da língua se mantém, e que a variação acontece apenas no nível vocabular, não interferindo na comunicação. Os resultados apontam para a utilização de blogs na educação como complementação do material pedagógico e como incentivo à leitura, à escrita, à construção da argumentação e do posicionamento crítico, aproximando a escola da vida cotidiana dos estudantes
Resumo:
Um método numérico nodal livre de erros de truncamento espacial é desenvolvido para problemas adjuntos de transporte de partículas neutras monoenergéticas em geometria unidimensional com fonte fixa na formulação de ordenadas discretas (SN). As incógnitas no método são os fluxos angulares adjuntos médios nos nodos e os fluxos angulares adjuntos nas fronteiras dos nodos, e os valores numéricos gerados para essas quantidades são os obtidos a partir da solução analítica das equações SN adjuntas. O método é fundamentado no uso da convencional equação adjunta SN discretizada de balanço espacial, que é válida para cada nodo de discretização espacial e para cada direção discreta da quadratura angular, e de uma equação auxiliar adjunta não convencional, que contém uma função de Green para os fluxos angulares adjuntos médios nos nodos em termos dos fluxos angulares adjuntos emergentes das fronteiras dos nodos e da fonte adjunta interior. Resultados numéricos são fornecidos para ilustrarem a precisão do método proposto.
Resumo:
O tema do presente estudo é o gerenciamento de resíduos químicos em ambientes hospitalares. Os resíduos químicos são gerados nas atividades auxiliares dos estabelecimentos prestadores de serviços de saúde, tais como hospitais, laboratórios, serviços de diagnóstico e tratamento, centros de saúde, clínicas, institutos de medicina legal e outros. Dentre todos, os hospitais, por suas características de atendimento, são, sem dúvida, os maiores geradores deste tipo de resíduo. Controlar e diminuir os riscos inerentes a este tipo de resíduos, além de ser uma exigência legal, passa a ser uma necessidade ambiental e um desafio a ser enfrentado pelos administradores de estabelecimentos assistenciais à saúde. O objetivo geral desta pesquisa passa então por avaliar o gerenciamento dos resíduos químicos gerados nos hospitais públicos da região metropolitana do Estado do Rio de Janeiro, abordando às necessidades e dificuldades enfrentadas por estes geradores que incluí aspectos políticos, administrativos, econômicos e em alguns casos físico-estruturais. Para atingir tal objetivo o método empregado foi dividido em duas etapas: I) Pesquisa Aplicada, onde foram visitados alguns hospitais públicos do Estado e utilizou-se um questionário para avaliar as questões relacionadas com o gerenciamento de resíduos químicos e II) Estudo de Caso, onde se considerou, através de observações e entrevistas, o gerenciamento de resíduos químicos de um hospital universitário de grande porte de maneira efetiva. Foram utilizadas como fontes secundárias informações obtidas em seminários relacionados ao tema, reportagens de jornais e entrevistas publicadas em fontes especializadas. Os resultados obtidos mostram que as dificuldades enfrentadas no gerenciamento de RSS, inclusos neste grupo os resíduos químicos, é uma realidade para a maioria dos hospitais da rede pública. Conclusão: o maior problema a ser enfrentado por estas instituições está diretamente ligado à conscientização, ou melhor, a falta de conscientização, de funcionários, médicos e gerência dos hospitais, quanto à importância da correta segregação, armazenagem e manuseio destes resíduos. Além disso, a falta de recursos financeiros e, em alguns casos, até de espaço físico também dificulta o efetivo gerenciamento deste tipo de resíduos. Problemas secundários relacionam-se com a falta de fiscalização dos órgãos sanitário-ambientais competentes e o descaso da própria população que não atenta para os problemas ambientais e de saúde e segurança, decorrentes de um incorreto gerenciamento não só dos resíduos químicos, mas de todos os resíduos de serviço de saúde. Como recomendação, pode-se dizer que se faz necessária uma maior mobilização por parte dos estabelecimentos hospitalares para a discussão e atendimento das legislações aplicáveis e também, o desenvolvimento de uma estrutura gerencial com responsabilidades definidas e ações planejadas, compatíveis com a realidade do serviço público, e que possam levar a alcançar os objetivos e metas de um gerenciamento dos resíduos de serviço de saúde.
Resumo:
A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.
Resumo:
Os aspectos quânticos de teorias de campo formuladas no espaço-tempo não comutativo têm sido amplamente estudados ao longo dos anos. Um dos principais aspectos é o que na literatura ficou conhecido como mixing IR/UV. Trata-se de uma mistura das divergências, que foi vista pela primeira vez no trabalho de Minwalla et al [28], onde num estudo do campo escalar não comutativo com interação quártica vemos já a 1 loop que o tadpole tem uma divergência UV associada a sua parte planar e, junto com ela, temos uma divergência IR associada com um gráfico não planar. Essa mistura torna a teoria não renormalizável. Dado tal problema, houve então uma busca por mecanismos que separassem essas divergências a fim de termos teorias renormalizáveis. Um mecanismo proposto foi a adição de um termo não local na ação U*(1) para que esta seja estável.Neste trabalho, estudamos através da renormalização algébrica a estabilidade deste modelo. Para tal, precisamos localizar o operador não local através de campos auxiliares e seus respectivos ghosts (metodo de Zwanziger) na intenção de retirar os graus de liberdade indesejados que surgem. Usamos o approachda quebra soft de BRST para analisar o termo que quebra BRST, que consiste em reescrevermos tal termo com o auxílio de fontes externas que num determinado limite físico voltam ao termo original.Como resultado, vimos que a teoria com a adição deste termo na ação só é renormalizável se tivermos que introduzir novos termos, sendo alguns deles quárticos. Porém, estes termos mudam a forma do propagador, que não desacopla as divergências. Um outro aspecto que podemos salientar é que, dependendo da escolha de alguns parâmetros, o propagador dá indícios de termos um fótonconfinante, seguindo o critério de Wilson e o critério da perda da positividade do propagador.
Resumo:
A presente pesquisa de mestrado tem como objeto de estudo o currículo do Programa de formação inicial para professores em exercício na educação infantil (PROINFANTIL/MEC). Tem o objetivo de investigar e analisar a produção curricular e docente do referido programa no município de Mesquita - RJ, entre os anos de 2009 a 2011. Este programa de formação tem seu texto curricular desenvolvido pelo Ministério da Educação, esfera federal, é desenvolvido em parceria entre estados e municípios, com a participação de múltiplos sujeitos ativos no trabalho com a Educação Infantil: educadores de creches comunitárias, auxiliares de creches e pré-escolas concursados das redes municipais de ensino, professores formadores, professores tutores, professores das universidades, representantes das esferas federal, estadual e municipal, entre outros atores. O foco de análise está no portfólio ? instrumento de avaliação e registro escrito do currículo do curso - construído pelas professoras cursistas participantes, entendendo-o como espaço de produção dinâmica do currículo da educação infantil, tecido em meio a uma rede de relações no processo de formação docente, criando diferentes sentidos e significados para as questões curriculares. A base teórica para dialogar com esta pesquisa está nos estudos de Ball (2006), Bhabha (2007), Macedo e Frangella (2007), que trazem discussões fundamentais sobre a produção cíclica de políticas curriculares, tecidas em meio a processos de hibridizações culturais e negociações constantes. A formação docente e o currículo aqui são entendidos como construções ininterruptas entre/nas negociações dos diferentes sujeitos envolvidos, em meio a diversos contextos da educação infantil.
Resumo:
Este trabalho estima, utilizando dados trimestrais de 1999 a 2011, o impacto dinâmico de um estímulo fiscal no Brasil sobre as principais variáveis macroeconômicas Brasileiras. Na estimativa dos impactos permitiu-se que as expectativas dos agentes econômicas fossem afetadas pela existência e probabilidade de alternância de regimes (foram detectados dois regimes) na política monetária do país. Os parâmetros da regra da política monetária, nos dois regimes detectados, foram estimados através de um modelo - composto apenas pela equação da regra da política monetária - que permite uma mudança de regime Markoviana. Os parâmetros do único regime encontrado para a política fiscal foram estimados por um modelo Vetorial de Correção de Erros (Vector Error Correction Model - VEC), composto apenas pelas variáveis pertencentes à regra da política fiscal. Os parâmetros estimados, para os diversos regimes das políticas monetária e fiscal, foram utilizados como auxiliares na calibragem de um modelo de equilíbrio geral estocástico dinâmico (MEGED), com mudanças de regime, com rigidez nominal de preços e concorrência monopolística (como em Davig e Leeper (2011)). Após a calibragem do MEGED os impactos dinâmicos de um estímulo fiscal foram obtidos através de uma rotina numérica (desenvolvida por Davig e Leeper (2006)) que permite obter o equilíbrio dinâmico do modelo resolvendo um sistema de equações de diferenças de primeira ordem expectacionais dinâmicas não lineares. Obtivemos que a política fiscal foi passiva durante todo o período analisado e que a política monetária foi sempre ativa, porém sendo em determinados momentos menos ativa. Em geral, em ambas as combinações de regimes, um choque não antecipado dos gastos do governo leva ao aumento do hiato do produto, aumento dos juros reais, redução do consumo privado e (em contradição com o resultado convencional) redução da taxa de inflação.
Resumo:
O objetivo do trabalho foi identificar ferramentas e indicadores adequados ao monitoramento e à otimização de processos de biorremediação, incluindo parâmetros físicos, químicos e microbiológicos definidos em estudos de tratabilidade de solos contaminados por óleo cru em escala de laboratório e comparar estratégias de biorremediação, tais como bioestímulo e bioaumento conduzidas em simulações de biopilhas dinâmicas ou estáticas. Quando três métodos de extração de hidrocarbonetos de petróleo de solo arenoso e franco-argiloso para análise cromatográfica (Soxhlet-SOX, microondas-MARS e extração acelerada por solvente-ASE) foram comparados entre si, concluiu-se que a técnica que promove a melhor recuperação depende da fração de interesse (n-alcanos, HRP, MCNR, HPA), das características texturais do solo (teores de areia, silte e argila) e da idade da contaminação. Dentre os indicadores de densidade populacional microbiana (microrganismos heterotróficos totais-PHT, população de fungos-PF e população microbiana degradadora de óleo (PDO) passíveis de utilização para indicar a taxa de degradação de compostos orgânicos presentes no solo tais como os hidrocarbonetos de petróleo, o PDO mostrou-se o mais adequado em conjunto com a produção de CO2 aferida pelo método respirométrico. Quando a estratégia de biorremediação de solo franco-argiloso contaminado com óleo cru a 3% (m m-1) utilizando bioestímulo (ajuste de pH, umidade e taxa C:N:P) foi comparada ao bioaumento (bioestímulo e adição de inóculo de microrganismos extraídos, enriquecidos e aclimatizados ao óleo cru como fonte de carbono), em sistemas de bancada simulando biopilha dinâmica (microcosmo M) e biopilha estática com aeração forçada (reator B), o tratamento que apresentou melhor remoção (32%) de HTP após 121 dias foi o bioaumento em biopilha estática. Para HPA, o tratamento que alcançou a melhor remoção (33%) foi com bioestímulo também em biopilha estática. A avaliação da taxa de mortalidade (%) de Eisenia andrei exposta tanto a solos recém-contaminados por óleo cru e preparados para bioestímulo (BIOS) e bioaumento (BIOA) a serem tratados em biopilhas dinâmicas e estáticas em escala de laboratório mostrou que após 56 dias de exposição da E. andrei, todos os solos produziram letalidade de 100%, quer fossem os solos recém-contaminados e preparados para os diferentes tratamentos (BIOS M, BIOS B, BIOA M, BIOA B) ou após 121 dias de tratamento. Tal resultado confirma que a biorremediação foi incipiente também do ponto de vista de remoção da ecotoxicidade. Em linhas gerais, a biorremediação de solo franco-argiloso contaminado por óleo cru, contendo tanto contaminação antiga quanto recente, reúne os maiores desafios à biorremediação, tanto do ponto de vista da composição textural do solo quanto da natureza do contaminante. Os processos são aparentemente lentos e requerem ferramentas auxiliares para aceleração dos mesmos. Recomenda-se no futuro, condução de experimentos com o uso de diferentes surfactantes, com ênfase em biosurfactantes
Resumo:
O retardo mental (RM) representa um problema de saúde pública mundial ainda negligenciado no Brasil e, em especial nas regiões mais pobres como o Nordeste. A síndrome do X frágil (SXF) é uma das formas mais estudadas de RM hereditário em seres humanos. Esta doença monogênica, de herança ligada ao X dominante, é decorrente de uma mutação no exon 1 do gene FMR1, localizado na região Xq27.3. A mutação no FMR1 se caracteriza pelo aumento de repetições de trinucleotídios CGG em tandem na região 5 UTR desse gene, sendo a expansão dessas trincas o principal evento mutacional responsável pela SXF. De maneira geral, os fenótipos cognitivos de indivíduos do sexo masculino com a síndrome incluem deficiência intelectual de moderada à grave. No presente trabalho, realizamos um estudo transversal da SXF em indivíduos portadores de retardo mental de causa desconhecida, engajados em Programas de Educação Especial e em instituições psiquiátricas de São Luís-MA, rastreando amplificações de sequências trinucleotídicas no gene FMR1. A amostra foi composta por 238 indivíduos do sexo masculino, não aparentados, na faixa etária de 4 a 60 anos (média = 21 9 anos). O DNA dos participantes foi obtido a partir de 5 mL de sangue coletados em tubos com anti-coagulante EDTA e a análise molecular da região gênica de interesse foi realizada através da reação em cadeia da polimerase, utilizando-se três primers. Dentre os indivíduos triados quanto à presença de mutações no gene FMR1, apenas um apresentou um resultado inconclusivo e 2 (0,84%) foram positivos para a SXF, sendo que um deles (3503) apresentou mais de 200 repetições CGG no locus FRAXA e o outro indivíduo (3660) apresentou uma deleção de ~197 pb envolvendo parte das repetições CGG e uma região proximal às repetições CGG. Ambos possuíam história familiar de RM ligado ao X. No indivíduo 3503 observamos as seguintes características clínicas: temperamento dócil, orelhas grandes, mandíbula proeminente e flacidez ligamentar. O indivíduo 3660 apresentava hiperatividade, contato pobre com os olhos, orelhas grandes, mandíbula proeminente, pectus excavatum, macroorquidismo e pouca comunicação. O esclarecimento sobre a doença oferecido às famílias de ambos contribuiu sobremaneira para o entendimento da condição, do prognóstico e dos riscos de recorrência. A prevalência da SXF em nossa amostra, 0,84%, embora relativamente baixa, encontra-se na faixa de incidência de casos diagnosticados em outras populações que, em sua maioria, relatam incidências variando de 0 a 3%. Em parte, atribuímos o percentual encontrado aos critérios de inclusão utilizados em nosso estudo. Concluímos que o protocolo de triagem molecular utilizado em nosso estudo se mostrou eficiente e adequado para a realidade do Maranhão, podendo constituir uma ferramenta auxiliar a ser aplicada na avaliação de rotina dos portadores de RM, com grandes benefícios para o Estado.
Resumo:
Este estudo foi realizado em uma turma do 2 ano do ensino fundamental, em uma escola pública do município de Duque de Caxias. O trabalho buscou pistas e indícios dos possíveis efeitos e implicações da Provinha Brasil no cotidiano escolar, procurando compreender como elas são ressignificadas pelos sujeitos ordinários, praticantes do cotidiano escolar. Buscou, também, identificar práticas diferenciadas no espaçotempo dos processos de ensinaraprender da sala de aula, além de discutir outras práticas de avaliação utilizadas na alfabetização e suas contribuições para a aprendizagem dos/as alunos/as. No campo teórico-metodológico, Morin (2012); Ginzburg (1989); Certeau (2012);Alves (2001) e Esteban (2001, 2006,2009) proporcionaram as âncoras para investir no desafio da pesquisa do cotidiano.Foram utilizadas a observação participante, as conversas/entrevistas, análise de documentos e fotografias. O acesso às informações forneceu material necessário para tecer os (des) afios da pesquisa. Como indício reativo e, também, de resistência, tanto a escola como a professora da turma 201, demonstraram indiferença, quanto ao uso da Provinha Brasil como diagnóstico e ajuda no planejamento pedagógico, o que implica desusos. Nas conversas, foi perceptível o quanto as políticas de avaliação afetam diretamente a subjetividade dos/as professores/as, que se mostraram ressentidos diante da desconsideração de seus saberes, de sua profissionalidade e da perda de sua autonomia. As práticas investigadas na turma 201,transbordaram as barreiras da avaliação e revelaram a complexidade e multiplicidade dos fios que tecem o cotidiano escolar. Quanto aos processos avaliativos desenvolvidos pela docente na turma e que também foram objetos de análise nesse trabalho, podemos considerar que, tanto as avaliações diagnósticas, como os relatórios descritivos, demonstraram serem insuficientes para servirem como auxiliadores do processo de ensino e aprendizagem, visto que a avaliação no sentido em que é realizada fica dissociada do processo de ensino e aprendizagem. E, na contramão da lógica que valoriza e procura empurrar os sujeitos para a competição individual, foram encontradas ações coletivas e compartilhadas dos/as alunos/as, que astuciosamente se aproveitam de cada brecha, que a rotina escolar lhes oferecem, inventando outras formas de aprenderensinar, num processo de auto-organização, a fim de conquistar a tão sonhada alfabetização.
Resumo:
A presente pesquisa tem por objetivo investigar os significados e os sentidos de criança construídos no trabalho final do programa PROINFANTIL - os Projetos de Estudos. O PROINFANTIL é um Projeto do Ministério da Educação em parceria com a Secretaria de Educação Básica e a Secretaria de Educação a Distância. No Rio de Janeiro, foi operacionalizado pela Universidade Federal do Rio de Janeiro e a Secretaria de Educação do Município (biênio 2010-2011). Este programa objetiva capacitar e qualificar os Agentes Auxiliares de Creche sem habilitação em magistério, atuantes nas creches da cidade do Rio de Janeiro. Esta pesquisa analisou a concepção de criança presente em 60 Projetos de Estudos dos 165 Agentes Auxiliares de Creche da AGF 13 concluintes do curso. A escolha se deu a partir do maior número possível de Projetos que tivessem diferentes agrupamentos pesquisados (berçário I, berçário II, Maternal I e Maternal II). Foram escolhidos 60 projetos com 15 exemplares de cada agrupamento. Na primeira parte, o estudo apresenta a implantação do PROINFANTIL como uma política pública e sua contribuição para a prática. Delinea os estágios que percorreu, no Rio de Janeiro, até chegar ao alvo principal o cursista. Apoiada na abordagem do Ciclo de Políticas formulada por Stephen Ball e colaboradores, a pesquisa buscou investigar os embates e lutas presentes nos contextos de influência, produção de textos e prática. Na segunda parte, ao privilegiar Lev Vygotsky como interlocutor teórico para o delineamento metodológico desta pesquisa, foi necessário olhar o conhecimento como possibilidades, a partir das categorias sentido e significado e optar por uma metodologia na qual a própria pesquisa fosse um momento de arriscar novos olhares e novas vivências. A análise se deu nas concepções de criança encontradas nos Projetos de Estudos como narrativas escritas. Os dados foram analisados a partir da construção de seis Núcleos de Significação de Criança: formatada, em desenvolvimento; que brinca, cidadã de direitos, singular, ser social e histórico.
Resumo:
A pesquisa busca compreender a atuação no Twitter das campanhas às prefeituras de São Paulo e Rio de Janeiro em 2012, de modo a entender se houve de fato uma estratégia de ação que usou as possibilidades destes sites de redes sociais para a construção de uma forma inovadora de se fazer campanha eleitoral. A partir de uma revisão de literatura que abrange desde a importância da circulação da informação política nos diferentes regimes informacionais e a midiatização das campanhas eleitorais, procurou-se discutir a emergência das campanhas online, suas principais estratégias e conceitos chave tais como a informação política não mediada, a interatividade e a mobilização bem como a discussão de casos importantes sob o ponto de vista da aplicação de técnicas de marketing à comunicação política. A parte empírica do trabalho, considerando os aspectos levantados pela perspectiva de inovação, avalia a atuação dos candidatos a prefeito de São Paulo e Rio de Janeiro nos seus perfis oficiais dos candidatos no Twitter, além das atualizações dos perfis auxiliares criados por algumas campanhas. O objetivo foi chegar a um melhor entendimento de como se deu a utilização dos sites de redes sociais por parte dos candidatos, e até que ponto tais atuações estão relacionadas à forma tradicional de se fazer campanhas eleitorais, sendo que para isso foi realizada uma análise quantitativa e de conteúdo das publicações. Os resultados apontam para assimetrias com relação à utilização do Twitter pelas campanhas com maior e menor volume de recursos, existente no ambiente tradicional das campanhas políticas. Além disso, verificaram-se diferenças na atuação dos principais candidatos envolvidos no pleito, tendo os candidatos em maior vantagem junto ao eleitorado adotado posturas mais conservadoras. Na maioria dos candidatos, constatou-se o baixo índice de mensagens destinadas à mobilização dos internautas. São ressaltadas as estratégias mais inovadoras, em especial aquelas adotadas pelo candidato Marcelo Freixo, bem sucedidas em termos de mobilização de eleitores.
Resumo:
A indústria têxtil tem como característica a geração de grandes volumes de resíduos, principalmente corantes oriundos do tingimento de fios e tecidos. Os tratamentos convencionais de efluentes têxteis são ineficazes na degradação da maioria dos corantes. A fotocatálise heterogênea vem surgindo como alternativa promissora no tratamento desses poluentes. Neste trabalho, estudou-se a degradação fotocatalítica de duas soluções, simuladas em laboratório, compostas pelos corantes ácidos Blue 74, Red 51 e Yellow 3 (efluente I) e pelos reativos Black 5, Red 239 e Yellow 17 (efluente II), além de outros produtos químicos. Testes preliminares foram realizados para otimizar o pH e a massa de catalisador (TiO2) utilizados. Além da fotocatálise, experimentos de fotólise e adsorção também foram realizados. Através de espectrofotometria UV-VIS, verificou-se um descoramento por fotocatálise de 96% em 240 min e 97% em 30 min dos efluentes I e II, respectivamente. A mineralização do efluente I foi baixa (37%) e a do efluente II desprezível, nos tempos utilizados. No banho com corantes ácidos, foram realizadas ainda análises de toxicidade com sementes de alface (Lactuca sativa). A CE50 inicial estimada foi igual a 19,28 %, sendo a toxicidade totalmente removida após 63 min de processo fotocatalítico. A fotólise não obteve a mesma eficiência da fotocatálise, mostrando a importância do catalisador na degradação. A adsorção não foi significativa para os efluentes estudados. As cinéticas de degradação fotocatalítica de todos os corantes seguiram um modelo de pseudo-primeira ordem
Resumo:
A aplicabilidade de um método selecionado de medição indireta de vitelogenina (Vtg) em plasma sanguíneo de peixe, baseado na quantificação de fosfato álcali-lábil (alkali-labile phosphate-ALP) para acessar estrogenicidade em água, foi investigada na presente tese. O método foi originalmente desenvolvido para a espécie de peixe Carassius carassius (Carpa cruciana) e aplicado pela primeira vez na espécie Oreochromis niloticus (Tilápia do Nilo) no presente estudo. Com o objetivo de acessar a sensibilidade do método, em uma primeira etapa da investigação foram realizados estudos laboratoriais com soluções estoques de 17-ethinylestradiol (EE2), 17-estradiol (E2), e estrona (E1). Os efeitos destes hormônios foram investigados com base tanto na concentração quanto na carga, utilizando-se para tanto, unidades experimentais com volumes distintos (2 L e 130 L). Após a validação do método de ALP, a estrogenicidade foi avaliada nas seguintes águas contaminadas: (i) afluente e efluente de uma grande estação de tratamento de esgotos convencional (ETE) e de uma estação descentralizada de tratamento de esgoto de pequeno porte (Ecossistema Engenheirado-DEE); (ii) água superficial (SW) e água subterrânea (GW) coletadas em uma área de brejo contaminada com gasolina; (iii) água de uma lagoa urbana (LRF) da cidade do Rio de Janeiro, com alta densidade populacional e descarte clandestino de esgoto. Na segunda etapa foram analisados em microalgas os efeitos (outros que não disrupção endócrina) causados pelos hormônios EE2, E2 e E1. Os hormônios foram testados individualmente e em misturas, em culturas individuais e combinada (S+) das espécies de microalgas unicelulares P. subcapitata e D. subspicatus. Com base nos níveis de ALP para a espécie de peixe e no EC50 para as espécies de algas, os resultados mostraram que o EE2 e o E2 causaram disrupção endócrina superior e foram mais tóxicos do que o E1 para peixes e microalgas respectivamente. Quando em misturas (E+) de concentrações equivalentes (EE2:E2:E1), os estrogênios resultaram em efeito aditivo para as espécies O. niloticus e P. subcapitata, e menos que aditivo para D. subspicatus e cultivo misto de algas (S+). Culturas contendo ambas as espécies de algas (S+) por um longo período de exposição (96 h) resultaram na atenuação dos efeitos tóxicos causados pela exposição, tanto individual (EE2, E2 ou E1), quanto na mistura (E+) dos estrogênios, medidos em termos de EC50 (T0h 0,07; 0,09; 0,18; e 0,06 g mL-1; e T96h 1,29; 1,87; 5,58; e 4,61 g mL-1, respectivamente). O DEE apresentou uma maior eficiência na remoção dos disrutores endócrinos do que a ETE convencional. Foi detectada estrogenicidade em amostras da LRF, e de água SW e GW em área brejosa contaminada com gasolina. Os resultados dos ensaios sugerem que as interações (efeitos aditivos ou menos que aditivo) causadas pela mistura dos estrogênios assim como, as interações entre as espécies de algas afetaram o resultado final dos ensaios ecotoxicológicos. Um fator raramente abordado em estudos ecotoxicológicos que foi destacado na presente tese refere-se à importância de considerar não somente a concentração e a dosagem, mas também a carga aplicada e o volume das unidades experimentais. Devido à boa sensibilidade do O. niloticus quando exposto às concentrações relativamente baixas dos estrogênios, a combinação do método de ALP com os biomarcadores auxiliares (particularmente MN) pode ser um protocolo adequado para a detecção de estogenicidade e genotoxicidade respectivamente em diferentes ambiente aquáticos contaminados, como parte de um programa de monitoramento ambiental
Resumo:
Azeotropia é um fenômeno termodinâmico onde um líquido em ebulição produz um vapor com composição idêntica. Esta situação é um desafio para a Engenharia de Separação, já que os processos de destilação exploram as diferenças entre as volatilidades relativas e, portanto, um azeótropo pode ser uma barreira para a separação. Em misturas binárias, o cálculo da azeotropia é caracterizado por um sistema não-linear do tipo 2 × 2. Um interessante e raro caso é o denominado azeotropia dupla, que pode ser verificado quando este sistema não-linear tem duas soluções, correspondendo a dois azeótropos distintos. Diferentes métodos tem sido utilizados na resolução de problemas desta natureza, como métodos estocásticos de otimização e as técnicas intervalares (do tipo Newton intervalar/bisseção generalizada). Nesta tese apresentamos a formulação do problema de azeotropia dupla e uma nova e robusta abordagem para a resolução dos sistemas não-lineares do tipo 2 × 2, que é a inversão de funções do plano no plano (MALTA; SALDANHA; TOMEI, 1996). No método proposto, as soluções são obtidas através de um conjunto de ações: obtenção de curvas críticas e de pré-imagens de pontos arbritários, inversão da função e por fim, as soluções esperadas para o problema de azeotropia. Esta metodologia foi desenvolvida para resolver sistemas não-lineares do tipo 2 × 2, tendo como objetivo dar uma visão global da função que modela o fenômeno em questão, além, é claro, de gerar as soluções esperadas. Serão apresentados resultados numéricos para o cálculo dos azeótropos no sistema benzeno + hexafluorobenzeno a baixas pressões por este método de inversão. Como ferramentas auxiliares, serão também apresentados aspectos numéricos usando aproximações clássicas, tais como métodos de Newton com técnicas de globalização e o algorítmo de otimização não-linear C-GRASP, para efeito de comparação.