158 resultados para Edir Macedo
Resumo:
Entre 06/08/11 e 25/02/12 foram obtidas séries temporais contínuas de intensidade e direção das correntes e intensidade do eco ao longo de toda a coluna dágua, e medições, de temperatura e pressão, próximas ao fundo, na região adjacente ao canal de acesso à baía de Sepetiba (230'16.5"S e 4359'29.4"W, profundidade local de aproximadamente 25 m) através da utilização de um perfilador acústico ADCP (Acoustic Doppler Current Profiler), modelo WorkHorse BroadBand Sentinel (600 kHz, Teledyne-RDI). A partir dos dados adquiridos, observou-se a existência de correntes intensas próximo ao fundo (até 1,02 m/s), principalmente durante os períodos de enchente sob condições de sizígia, que são fortemente influenciadas pela orientação do canal de navegação. A análise das séries temporais das componentes da velocidade mostraram, em conformidade ao relatado por alguns autores, que esta é uma baía cuja circulação é fortemente influenciada pela dinâmica da maré sendo M2, M4, M6 e M8 as principais componentes harmônicas que atuam no sistema. Além disso, observou-se significativa assimetria da maré, sendo os períodos de enchente consideravelmente mais curtos e associados às correntes mais intensas, o que permite concluir que no setor investigado da baía de Sepetiba há dominância de enchente. Outra característica interessante da área de estudo relaciona-se à observação de que ventos intensos de S-SO são responsáveis pelo empilhamento de água no interior da baía, sendo que altura do nível da superfície da água apresenta relação direta com as variações da pressão atmosférica local. Em diversos períodos, quando há atuação de ventos de E-NE é possível encontrar Água Central do Atlântico Sul (ACAS) no interior da baía de Sepetiba, desde a sua entrada principal até as adjacências da ilha Guaíba. Além disso, foram identificadas diversas oscilações de baixa frequência que puderam ser associadas à variação da pressão atmosférica. Oscilações de alta frequência foram associadas à dinâmica da maré, a co-oscilações da maré e ao vento. Em relação à concentração de Material Particulado em Suspensão (MPS), durante os períodos de sizígia foram registradas as maiores concentrações material particulado na coluna dágua. Durante os períodos de sizígia, o fluxo de MPS é mais pronunciado do que durante as quadraturas, sendo que, independente do período da maré, o fluxo cumulativo de material particulado em suspensão é dirigido para o interior da baía de Sepetiba. Considerando o alinhamento dos vetores de velocidade em conformidade a direção preferencial do canal de navegação, tem-se que o fluxo cumulativo de MPS varia entre dirigido para SE na região próxima ao fundo, a dirigido para NE próximo ao topo da coluna dágua, o que sugere a deflexão do movimento das correntes em consequência do atrito. Ao longo de um dia, o fluxo do material particulado é mais pronunciado durante as enchentes, quando há aumento das tensões cisalhantes que atuam sobre o leito da baía redisponibilizando para a coluna dágua o material que estava depositado no fundo.
Resumo:
Fundamentos: A primeira escolha para o tratamento da esporotricose cutânea é o itraconazol oral, contudo o aumento de casos ocorridos numa epidemia de transmissão zoonótica fez com que se buscassem alternativas efetivas e seguras de tratamento. Objetivo: Avaliar uma nova posologia do iodeto de potássio (KI) como alternativa para o tratamento das formas cutâneas limitadas da esporotricose. Métodos: Foram incluídos 102 pacientes com esporotricose, diagnosticados através do isolamento do Sporothrix sp. e divididos em dois grupos que receberam doses diferentes de KI: grupo A recebeu a dose anterior (média 4,83g/dia) e grupo B, a dose reduzida (média 2,52g/dia). Os critérios de cura se basearam em dados clínicos e sorológicos. Resultados: Setenta e nove pacientes (77,4%) obtiveram cura clínica, 70,6 e 84,3% respectivamente nos grupos A e B. Dezesseis pacientes (15,6%) perderam o seguimento e sete trocaram de medicamento: cinco no grupo A e dois no grupo B. A incidência de eventos adversos foi a mesma nos dois grupos (64,7%) com predomínio do gosto metálico (44%), seguido por intolerância gastrointestinal leve e erupção acneiforme (10,7% cada). Nenhum evento adverso grave ocorreu e não houve recidivas. A análise dos desfechos não demonstrou diferença estatisticamente significativa entre os grupos (p=0,9255). A melhora dos títulos sorológicos foi significativa em ambos grupos. Conclusões: O iodeto de potássio, sob a forma de solução saturada, administrado em dose e frequência reduzidas, pode ser usado como alternativa efetiva e segura para o tratamento da esporotricose cutânea. Através de análises estatísticas, a posologia habitual não demonstrou ser superior à proposta por este estudo. A sorologia para esporotricose pode ser utilizada como ferramenta valiosa para acompanhamento clínico destes pacientes.
Resumo:
Nas últimas décadas a preocupação com as questões ambientais tem se tornado mais presentes em diversos contextos sociais. As transformações de origem antrópica operadas no ambiente se intensificaram com os adventos tecnológicos característicos da modernidade que, em função da conjuntura política, econômica e social do capitalismo, consolidou uma lógica de dominação que, ao contrário do que enunciava, aprofundou e tornou mais complexo formas excludentes, discriminatórias e destrutivas de se relacionar com o outro e com o externo. Frente a isso, como movimento para diminuir ou sanar tais questões referentes a relação violenta do homem com o ambiente, a educação ambiental emerge apoiada em diferentes campos do conhecimento, manifestando-se de diversas formas. O presente estudo visa abordar essa temática analisando aspectos curriculares do curso de Licenciatura em Geografia com Ênfase em Meio Ambiente da Faculdade de Educação da Baixada Fluminense que se constitui propondo-se a formar de docentes de geografia que sejam também educadores ambientais. O ementário do curso foi analisado de modo a observar de que maneira as questões ambientais manifestam-se nos textos. Para isso, nos pautamos, sobretudo, na teoria do discurso, de Ernesto Laclau, e nas discussões e concepções sobre políticas curriculares construídas por Stephen Ball, Elizabeth Macedo e Alice Lopes. Buscamos compreender de que forma as significações ou associações presentes nas ementas contribuem para a formação de educadores ambientais, e sob qual perspectiva de educação ambiental isso ocorre. Analisamos o documento indicado cumprindo uma exigência de delimitação, uma vez que estamos cientes (e esse é um princípio importante da nossa abordagem) que a construção discursiva não se limita ao que é dito/escrito, mas se dá na interação social, arrolada pelas/nas disputas hegemônicas por significação e enunciação.
Resumo:
Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.
Resumo:
Multi-Processor System-on-Chip (MPSoC) possui vários processadores, em um único chip. Várias aplicações podem ser executadas de maneira paralela ou uma aplicação paralelizável pode ser particionada e alocada em cada processador, a fim de acelerar a sua execução. Um problema em MPSoCs é a comunicação entre os processadores, necessária para a execução destas aplicações. Neste trabalho, propomos uma arquitetura de rede de interconexão baseada na topologia crossbar, com memória compartilhada. Esta arquitetura é parametrizável, possuindo N processadores e N módulos de memórias. A troca de informação entre os processadores é feita via memória compartilhada. Neste tipo de implementação cada processador executa a sua aplicação em seu próprio módulo de memória. Através da rede, todos os processadores têm completo acesso a seus módulos de memória simultaneamente, permitindo que cada aplicação seja executada concorrentemente. Além disso, um processador pode acessar outros módulos de memória, sempre que necessite obter dados gerados por outro processador. A arquitetura proposta é modelada em VHDL e seu desempenho é analisado através da execução paralela de uma aplicação, em comparação à sua respectiva execução sequencial. A aplicação escolhida consiste na otimização de funções objetivo através do método de Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). Neste método, um enxame de partículas é distribuído igualmente entre os processadores da rede e, ao final de cada interação, um processador acessa o módulo de memória de outro processador, a fim de obter a melhor posição encontrada pelo enxame alocado neste. A comunicação entre processadores é baseada em três estratégias: anel, vizinhança e broadcast. Essa aplicação foi escolhida por ser computacionalmente intensiva e, dessa forma, uma forte candidata a paralelização.
Resumo:
Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
Controle de processos é uma das muitas aplicações que aproveitam as vantagens do uso da teoria de conjuntos nebulosos. Nesse tipo de aplicação, o controlador é, geralmente, embutido no dispositivo controlado. Esta dissertação propõe uma arquitetura reconfigurável eficiente para controladores nebulosos embutidos. A arquitetura é parametrizável, de tal forma, que permite a configuração do controlador para que este possa ser usado na implementação de qualquer aplicação ou modelo nebuloso. Os parâmetros de configuração são: o número de variáveis de entrada (N); o número de variáveis de saída (M); o número de termos linguísticos (Q); e o número total de regras (P). A arquitetura proposta proporciona também a configuração das características que definem as regras e as funções de pertinência de cada variável de entrada e saída, permitindo a escalabilidade do projeto. A composição das premissas e consequentes das regras são configuráveis, de acordo com o controlador nebuloso objetivado. A arquitetura suporta funções de pertinência triangulares, mas pode ser estendida para aceitar outras formas, do tipo trapezoidal, sem grandes modificações. As características das funções de pertinência de cada termo linguístico, podem ser ajustadas de acordo com a definição do controlador nebuloso, permitindo o uso de triângulos. Virtualmente, não há limites máximos do número de regras ou de termos linguísticos empregados no modelo, bem como no número de variáveis de entrada e de saída. A macro-arquitetura do controlador proposto é composta por N blocos de fuzzificação, 1 bloco de inferência, M blocos de defuzzificação e N blocos referentes às características das funções de pertinência. Este último opera apenas durante a configuração do controlador. A função dos blocos de fuzzificação das variáveis de entrada é executada em paralelo, assim como, os cálculos realizados pelos blocos de defuzzificação das variáveis de saída. A paralelização das unidades de fuzzificação e defuzzificação permite acelerar o processo de obtenção da resposta final do controlador. Foram realizadas várias simulações para verificar o correto funcionamento do controlador, especificado em VHDL. Em um segundo momento, para avaliar o desempenho da arquitetura, o controlador foi sintetizado em FPGA e testado em seis aplicações para verificar sua reconfigurabilidade e escalabilidade. Os resultados obtidos foram comparados com os do MATLAB em cada aplicação implementada, para comprovar precisão do controlador.
Resumo:
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.
Resumo:
Este trabalho teve como objetivo principal implementar um algoritmo empírico para o monitoramento do processo de eutrofização da Baía de Guanabara (BG), Rio de Janeiro (RJ), utilizando dados de clorofila-a coletados in situ e imagens de satélite coletadas pelo sensor MERIS, a bordo do satélite ENVISAT, da Agência Espacial Européia (ESA). Para a elaboração do algoritmo foi utilizada uma série histórica de clorofila-a (Out/2002 a Jan/2012) fornecida pelo Laboratório de Biologia Marinha da UFRJ, que, acoplada aos dados radiométricos coletados pelo sensor MERIS em datas concomitantes com as coletas in situ de clorofila-a, permitiu a determinação das curvas de regressão que deram origem aos algorítmos. Diversas combinações de bandas foram utilizadas, com ênfase nos comprimentos de onda do verde, vermelho e infra-vermelho próximo. O algoritmo escolhido (R = 0,66 e MRE = 77,5%) fez uso dos comprimentos de onda entre o verde e o vermelho (665, 680, 560 e 620 nm) e apresentou resultado satisfatório, apesar das limitações devido à complexidade da área de estudo e problemas no algoritmo de correção atmosférica . Algorítmos típicos de água do Caso I (OC3 e OC4) também foram testados, assim como os algoritmos FLH e MCI, aconselhados para águas com concentrações elevadas de Chl-a, todos com resultados insatisfatório. Como observado por estudos pretéritos, a Baia de Guanabara possui alta variabilidade espacial e temporal de concentrações de clorofila-a, com as maiores concentrações no período úmido (meses: 01, 02, 03, 10, 11 12) e nas porções marginais (~ 100 mg.m-3), particularmente na borda Oeste da baia, e menores concentrações no período seco e no canal principal de circulação (~ 20 mg.m-3). O presente trabalho é pioneiro na construção e aplicação de algoritmos bio-óptico para a região da BG utilizando imagens MERIS. Apesar dos bons resultados, o presente algorítmo não deve ser considerado definitivo, e recomenda-se para trabalhos futuros testar os diferentes modelos de correção atmosférico para as imagens MERIS.
Resumo:
Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura.
Resumo:
Esta dissertaçãoo investiga a utilização de Particle Swarm Optimization (PSO) para a obtenção automática de sistemas fuzzy do tipo Mamdani, tendo como insumo apenas as definições das variáveis do problema, seus domínios e a função objetivo. Neste trabalho utilizam-se algumas técnicas conhecidas na tentativa de minimizar a obtenção de sistemas fuzzy que não sejam coerentes. As principais técnicas usadas são o método de Wang e Mendell, chamado de WM, para auxiliar na obtenção de regras, e os conceitos de clusterização para obtenção das funções de pertinência. Na função de avaliação proposta, considera-se não somente a acurácia do sistema fuzzy, através da medida do erro, mas também a sua interpretabilidade, através da medida da compacidade, que consiste da quantidade de regras e funções membro, da distinguibilidade, que permite evitar que as funções membro não se confundam, e da completude, que permite avaliar que as funções membro abranjam o máximo do domínio. O propósito deste trabalho consiste no desenvolvimento de um algoritmo baseado em PSO, cuja função de avaliação congregue todos esses objetivos. Com parâmetros bem definidos, o algoritmo pode ser utilizado em diversos tipos de problemas sem qualquer alteração, tornando totalmente automática a obtenção de sistemas fuzzy. Com este intuito, o algoritmo proposto é testado utilizando alguns problemas pré-selecionados, que foram classificados em dois grupos, com base no tipo de função: contínua ou discreta. Nos testes com funções contínuas, são utilizados sistemas tridimensionais, com duas variáveis de entrada e uma de saída, enquanto nos testes com funções discretas são utilizados problemas de classificação, sendo um com quatro variáveis e outro com seis variáveis de entrada. Os resultados gerados pelo algoritmo proposto são comparados com aqueles obtidos em outros trabalhos.
Resumo:
A distribuição espacial dos indivíduos é decorrente da presença e ausência de microhábitats adequados, sendo aqueles que se estabelecem nas melhores manchas favorecidos pela seleção natural. A aquisição de um território permite a manutenção do indivíduo e o sucesso reprodutivo. A reprodução é considerada de alto custo energético, pois há deslocamento dos recursos para a manutenção de uma prole em vez de serem incorporados no crescimento individual. Investir em uma prole não significa alcançar o sucesso reprodutivo. O sucesso reprodutivo pode ser afetado, por exemplo, por eventos de predação, disponibilidade de alimento e cuidado parental. Este último pode ser realizado por ambos os membros do par reprodutor ou por apenas um deles. A deserção do cuidado parental por um dos sexos pode ser uma resposta à cópulas extra-par. Formicivora littoralis tem distribuição muito restrita. É a única espécie de ave considerada endêmica de restinga e se encontra ameaçada de extinção, embora seja localmente abundante. O presente estudo teve como objetivos: 1) estimar os tamanhos de territórios e compara-los entre estação reprodutiva e não reprodutiva; 2) testar a influência do tamanho dos indivíduos e quantidade de vizinhos no tamanho do território; 3) descrever ninhos, ovos, filhotes e determinar o sucesso reprodutivo; 4) quantificar o cuidado parental; 5) desenvolver marcadores moleculares de microssatélites para determinar paternidade. Para os indivíduos capturados e marcados individualmente, foram obtidas amostras de sangue e medidas morfométricas (tarso, asa, cauda, comprimento total), além do peso. Os tamanhos dos territórios foram estimados pelo método do mínimo polígono convexo (unindo pontos onde machos foram registrados vocalizando). A densidade foi estimada com base no tamanho dos territórios. Aspectos da reprodução foram acessados por meio de busca mensal por ninhos e acompanhamento destes por dois dias consecutivos. Foram obtidas as taxas de predação e a quantificação do cuidado parental. Para a paternidade foram utilizados sete marcadores de microssatélites, desenvolvidos para este fim. Formicivora littoralis possui território pequeno (0,008 a 0,32ha), que varia de acordo com a estação (menor na estação reprodutiva). O tamanho do território não foi relacionado com o tamanho do indivíduo, mas apresentou resultado significativo quando comparado com a quantidade de territórios vizinhos, mostrando ser menor quanto maior o número de vizinhos. A espécie apresentou elevada densidade (0,53 a 1,15 indivíduos/km2). Com relação à reprodução, ninhos tem o formato de cesto aberto onde foram postos no máximo dois ovos. Os filhotes nasceram sem penas. A razão sexual no ninho foi igual em ambos os sexos. A taxa de predação foi elevada na fase de incubação quando comparada à fase no ninho após a eclosão. O cuidado parental (durante a incubação e com os filhotes) foi realizado pelos dois sexos, sem diferenças na proporção do investimento realizado. Dos nove ninhos analisados, todos contiveram pelo menos um ninhego proveniente de fertilização extra-par. Um total de 81,2% dos ninhegos (13 em 16) não foram prole biológica do macho do par reprodutor que realizava o cuidado parental e que se encontrava pareado socialmente com a fêmea. Essa taxa foi a mais elevada entre os estudos já realizados nos neotrópicos
Resumo:
Os riscos de poluição ao meio ambiente envolvendo petróleo envolvem, não só o seu transporte, como também seu refino. O prejuízo causado por um derramamento de petróleo vai além de danos à fauna e flora, pois envolvem também questões sociais. A emissão de óxidos de enxofre, denominadas SOx, durante o refino de petróleo através do craqueamento catalítico em leito fluidizado (FCC) também é uma das preocupações ambientais, já que esses óxidos estão relacionados com o a formação de chuva ácida e problemas respiratórios. Os hidrocarbonetos provenientes de um derramamento podem ser degradados em produtos menos agressivos ao meio ambiente, por oxidação química, por exemplo. Já as emissões de enxofre na unidade de FCC podem ser minimizadas por diversos processos, como por exemplo, o uso de aditivos nas unidades de FCC. Nesse trabalho óxidos de manganês dos tipos OMS-1 e OMS-2 foram sintetizados em presença e ausência de biomassa e óxidos OMS-2 foram dopados com os metais cobre, vanádio e ferro. Possíveis alterações em suas propriedades, suas atividades catalíticas em oxidação de hidrocarbonetos e em testes de captura de enxofre em condições de temperatura similares à unidade de FCC foram investigadas. Constatou-se uma diminuição na área superficial, tamanho e volume de poros nos óxidos sintetizados em presença de biomassa, através de uma análise de adsorção e dessorção de N2 (ASAP), porém seus difratogramas em uma análise de difração de raio X de pó (DRX) revelaram a obtenção de estruturas do criptomelano em todos os OMS-2. Os óxidos OMS-2 testados na oxidação do cicloexano, não sofreram modificações em sua estrutura após seu uso como catalisador, mas a presença da biomassa na síntese não aumentou sua atividade catalítica. Nos testes DeSOx, o óxido dopado com ferro apresentou o melhor desempenho e testes em ciclos mostraram ser possível sua reutilização
Resumo:
Esta pesquisa busca contribuir para a compreensão e as investigações das políticas curriculares de formação de professores como ciência social, apropriando-se das teorias pós-estruturalistas. Repensa algumas temáticas como a hegemonia, o poder, a constituição das identidades docentes nas políticas curriculares, a produção do discurso pedagógico e do discurso curricular na formação de professores. Nas pesquisas sobre políticas de currículo, percebe-se que o foco na formação de professores marca o protagonismo docente, na medida em que esse agente é significado como a peça-chave nas mudanças políticas curriculares. O professor é identificado como quem ressignifica o conhecimento, dissemina e transforma o discurso político-pedagógico nas várias instâncias educacionais. Esse espaço ora é significado pela omissão de sua atuação ou formação, remetendo a um discurso de culpabilização docente, ora marcado por um espaço de endeusamento e que significa o professor como parceiro nas mudanças e projetos curriculares propostos pelos órgãos nacionais e internacionais. Esse movimento de contínua produção de significados é um movimento de endereçamento de sentidos. Os discursos produzidos nos contextos FHC e Lula convivem com diferentes discursos sociais e culturais que são reinterpretados ao mesmo tempo em que recriam novos discursos. Nessa contínua produção de sentidos, a formação de professores é marcada por uma tendência a naturalizar certos sentidos para o currículo estabelecendo uma interface entre discurso pedagógico e discurso de política curricular de formação de professores. A pesquisa apresenta um estudo na temática da identidade docente, no campo das políticas curriculares, no período dos governos Fernando Henrique Cardoso (FHC) e Lula da Silva (Lula), a partir da discussão sobre a formação docente como projeto curricular que busca endereçar uma dada identidade, relacionando discurso pedagógico e discurso curricular. A análise dos documentos é feita por meio da ferramenta tecnológica do programa WordSmith Tools, versão 5, investigando os endereçamentos de sentidos para a constituição da identidade docente, bem como o/s sentido/s defendido/s em cada contexto para a formação de professores. A fundamentação teórica tem por base o Ciclo de Políticas de Stephen Ball, processos de hibridização e identidade com Stuart Hall, S. Ball e Rita Frangella, Política Curricular com Alice C. Lopes, Elizabeth Macedo, Teoria do Discurso com Ernesto Laclau e Chantal Mouffe e formação de professores com Helena de Freitas, Carlinda Leite e Rosanne Dias. Defende-se que o endereçamento de sentidos e a busca por hegemonizar determinados discursos fazem parte de uma luta de poder, de articulações que constituem sujeitos e contextos e, por isso, produzem processos provisórios e contingentes de constituição de identidades docentes. Entende-se, nessa perspectiva, que não existe uma identidade fixa e universal que possa dar conta de representar o social. A tese apresentada é de antagonismo entre os projetos políticos, aqui denominados como FHC e Lula, pois engendram discursos de formação de identidade docente que defendem, ao mesmo tempo em que justificam, a necessidade de mudanças nas políticas curriculares de formação de professores e na significação do discurso pedagógico mais adequado para cada contexto. Contudo, apesar de defenderem diferentes discursos e concepções de identidade docente, acabam por assemelharem-se nas propostas finais por meio dos mecanismos de aferição da qualidade docente pautados em índices nacionais e internacionais através de avaliações, minimizando dessa forma o antagonismo entre as duas propostas. Conclui-se que há antagonismo entre as duas cadeias discursivas e, ainda que em alguns momentos enfraquecidos por força de demandas à margem do projeto político social mais amplo, permanecem antagônicas mesmo que por sutis diferenças