781 resultados para ferramenta de autoria


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diante da recorrência da criação de personagens-escritores nas obras brasileiras de ficção publicadas a partir dos anos 1990, foi escolhida a produção de Daniel Galera como estudo de caso. O personagem-escritor foi observado como estratégia para discutir questões relativas à cena literária contemporânea. Foi delimitado como corpus dessa pesquisa o blog criado durante a estada de Daniel Galera em Buenos Aires, ao participar do projeto Amores Expressos, e o romance Cordilheira (2008), escrito como fruto dessa experiência. Tendo em vista a trajetória de sua carreira em constante relação com a internet, foi analisada a construção do escritor-personagem no blog hospedado no site do projeto, em contraponto à figura do personagem-escritor no romance. Para tanto, foram utilizados textos sobre a autoficção, a performance e a autoria. Na comparação dos textos de ambos os suportes, foram evidenciadas semelhanças e diferenças nas problematizações a respeito da formação do autor. Foi investigada a inserção de trechos do blog no romance como estratégia que oferece complexidade nos espelhamentos das imagens e enriquece os efeitos de leitura do romance

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Exploracionistas tem grande interesse em sistemas turbidíticos, pois em geral estes compõem prolíficos plays exploratórios. No entanto, estes potenciais reservatórios se encontram muitas vezes perto ou abaixo de resolução sísmica. Dessa forma, no processo de inversão, é importante integrar os dados sísmicos com qualidade de resolução obtida a partir do seu pré-condicionamento, para que o resultado final possua características detalhadas das camadas. O pré-condicionamento possibilita melhora na resolução dos dados sísmicos, através da atenuação dos ruídos aleatórios. Como objetivo final, foi realizada a inversão acústica em dados sísmicos post stack, migrados em tempo, a um sistema de turbiditos na Bacia de Campos. O principal objetivo da inversão sísmica é transformar o dado de reflexão em propriedades petrofísicas quantitativas. A inversão para impedância acústica é comumente utilizada para predição de porosidade. O fluxo de trabalho proposto foi dividido em cinco estágios principais: pré-condicionamento sísmico do dado 3D, correlação poço-sísmica, construção do modelo de baixa frequência, inversão do dado, e estimativa da porosidade. Os resultados mostraram que o cubo de impedância acústica invertido possui resolução muito superior quando comparado com o dado em amplitude sísmica, possibilitando melhor visualização das feições geológicas do Campo de Marlim. Além de suas limitações, como desconsiderando os efeitos das variações de fluido e variações litológicas complexas sobre a relação porosidade/impedância, o método fornece uma ferramenta confiável para exploração sísmica. Detalhes mais precisos das propriedades petrofísicas podem ser obtidos através de métodos de inversão mais sofisticados, a partir de dados pre stack.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação trata das relações bilaterais sino-russa e sino-brasileira a partir do conceito de parceria estratégica, tal como este aparece na formulação teórica dos chineses. Neste sentido, a análise recai sobre o pensamento político chinês e como este articula uma concepção própria sobre as relações internacionais, na qual é dada uma ênfase às relações bilaterais da China com países aos quais confere peso estratégico no rol de suas relações bilaterais. O conceito de parceria estratégica, neste trabalho, refere-se a relações bilaterais constituídas com um grau de institucionalização de meios de consulta e organismos permanentes entre os Estados, sem com isso em traduzir-se em alianças entre os dois países ou voltadas contra um terceiro Estado. Oficialmente, o termo parceria estratégica aparece na diplomacia chinesa para caracterizar as relações bilaterais da China com o Brasil e a Rússia, por exemplo, entendidas como o tipo de relacionamento mais harmonioso do país asiático com outros Estados, uma vez que a República Popular não constitui mais alianças ou relações de muita proximidade com qualquer membro do sistema internacional. Levando em conta a validade deste conceito de parceria estratégica, são analisadas as relações bilaterais sino-russa e sino-brasileira, para compreender até que ponto é válido o conceito como ferramenta explicativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tecnologia sem fio (wireless) vem tomando conta do mundo. A cada dia mais pessoas estão trocando seus equipamentos com fio por equipamentos com a tecnologia wireless. Isso vem crescendo, devido as suas vantagens, tais como: facilidade de instalação e manutenção, redução de tempo de instalação de dispositivos, inexistência de estrutura de cabeamento, economia no custo de projetos, economia em infraestrutura, flexibilidade de configuração de dispositivos, economia no custo de montagem, flexibilidade na alteração de arquiteturas existentes e outros. Por essas facilidades supracitadas a área de automação industrial está também aumentando o seu interesse nessa tecnologia wireless. Nessa área, a segurança, confiabilidade e robustez dos dados são de suma importância. Então, para minimizar os efeitos das interferências geradas nesse meio são usadas técnicas de espalhamento em frequência e topologia em malha ou árvore para transmissão dos dados enviados pelos sensores aos nós roteadores até chegar ao gateway. Sendo assim, o posicionamento dos nós roteadores na rede em malha garantirá a menor influência dessas interferências. Esse trabalho propõe uma ferramenta de posicionamento de nós roteadores intermediários, chamado POSIMNET (Positioning Immune Network Rede Imunológica de Posicionamento), que auxilia o projetista da rede de automação industrial a encontrar a melhor configuração da rede sem fio. O POSIMNET é baseado nas redes imunológicas artificiais, que propõe criar n caminhos quaisquer ou disjuntos para as informações enviadas pelos nós sensores chegarem ao gateway, através da supressão, clonagem e reconfiguração de nós roteadores intermediários. Além disso, o algoritmo também é capaz de atender os critérios de baixo grau de falha e baixo número de retransmissão pelos roteadores. Esses critérios podem ser habilitados individualmente ou combinados com pesos iguais ou diferentes para cada um, a critério do usuário. A ferramenta POSIMNET é formada por dois módulos: (i) Rede Imunológica agrega elementos de dois modelos de redes imunológicas (SSAIS e AiNet); (ii) Campos Potenciais - posiciona os nós roteadores pelos campos potenciais, onde os sensores críticos os atraem enquanto que os obstáculos e outros roteadores os repelem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ensaio não destrutivo é uma ferramenta essencial quando um equipamento, dispositivo ou componente não pode ser submetido a procedimentos destrutivos ou invasivos devido a razões de segurança, alto custo ou outras restrições físicas ou logísticas. Dentro deste quadro radiografias por transmissão com raios gama e nêutrons térmicos são técnicas singulares para inspecionar um objeto e desvendar sua estrutura interna devido à capacidade de atravessar uma vasta gama de materiais utilizados na indústria. Grosso modo, raios gama são mais atenuados por materiais pesados enquanto nêutrons térmicos são mais atenuados por materiais mais leves, tornando-as ferramentas complementares. Este trabalho apresenta os resultados obtidos na inspeção de vários componentes mecânicos, através da radiografia por transmissão com nêutrons térmicos e raios gama. O fluxo de nêutrons térmicos de 4,46x105 n.cm-2.s-1 disponível no canal principal do reator de pesquisa Argonauta do Instituto de Engenharia Nuclear foi usado como fonte para as imagens radiográficas com nêutrons. Raios dekeV emitidos pelo 198Au, também produzido no reator, foram usados como fonte de radiação para radiografias . Imaging Plates, especificamente produzidos para operar com nêutrons térmicos ou com raios X, foram empregados como detectores e dispositivos de armazenamento e captação de imagens para cada uma dessas radiações. Esses dispositivos exibem varias vantagens quando comparados ao filme radiográfico convencional. Com efeito, além de maior sensibilidade e serem reutilizáveis não são necessários câmaras escuras e processamento químico para a revelação. Em vez disso, ele é lido por um feixe de laser que libera elétrons armadilhados na rede cristalina durante a exposição à radiação, fornecendo uma imagem final digital. O desempenho de ambos os sistemas de aquisição de imagens, assim constituído, foi avaliado com respeito à sensibilidade, resolução espacial, linearidade e range dinâmico, incluído uma comparação com sistemas radiográficos com nêutrons empregando filmes e folhas de gadolínio como conversor de nêutrons em partículas carregadas. Além desta caracterização, diversos equipamentos e componentes foram radiografados com ambos os sistemas visando-se avaliar suas capacidades de desvendar a estrutura interna desses objetos e detectar estruturas e estados anormais. Dentro desta abordagem, uma neutrongrafia detectou a presença de material cerâmico remanescente empregado como molde no processo de fabricação nos canais de refrigeração de uma aleta do estator de uma turbina tipo turbo-fan, que deveria estar livre desse material. O reostato danificado de um sensor de pressão automotivo, foi identificado por neutrongrafia, embora nesse caso a radiografia também conseguiu realizar essa tarefa com melhor resolução, corroborando assim as curvas de resolução espacial obtidas na caracterização dos dois sistemas. A homogeneidade da distribuição do material encapsulado em uma gaxeta explosiva de chumbo utilizada na indústria aeroespacial foi igualmente verificada por neutrongrafia porque esse metal é relativamente transparente para nêutrons, mas suficientemente opaco para o explosivo rico em hidrogênio. Diversos outros instrumentos e componentes tais como variômetro, altímetro, bússola aeronáutica, injetor automotivo de combustível, foto-camera, disco rígido de computador, motor de passo, conectores eletrônicos e projéteis foram radiografados com ambos os sistemas visando avaliar suas habilidades em desvendar diferentes peculiaridades em função do agente interrogador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O gerenciamento do tempo nos projetos de construção civil usualmente utiliza algoritmos determinísticos para o cálculo dos prazos de finalização e algoritmos PERT para avaliação da probabilidade de o mesmo terminar até uma determinada data. Os resultados calculados pelos algoritmos tradicionais possuem defasagens nos prazos se comparados aos encontrados na realidade o que vem fazendo com que a simulação venha se tornando uma ferramenta cada vez mais utilizada no gerenciamento de projetos. O objetivo da dissertação é estudar o problema dos prazos de finalização dos projetos desenvolvendo novas técnicas de cálculo que reflitam melhor os prazos encontrados na vida real. A partir disso é criada uma ferramenta prática de gerenciamento do tempo de atividades de projetos de construção enxuta baseada em planilha eletrônica onde serão utilizadas técnicas de simulação a eventos discretos, com base em distribuições de probabilidade como, por exemplo, a distribuição beta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação ora apresentada traz em foco um homem da cultura musical nordestina de grande valor. Referimo-nos a João do Vale, O poeta do povo. Suas produções musicais refletem a cultura de uma parcela significativa do povo brasileiro, o nordestino. Canto do poeta do povo: um estudo nas letras de João do Vale analisa as letras das canções do primeiro disco deste compositor, por entendê-las no contexto em que foram produzidas e examina-as no seu processo de atuação dos anos 60 em que, sem cortar vínculos com o sertão nordestino, ligou-se às questões políticas, social e cultural de todo o país. Abordam-se as canções populares como ferramenta eficaz para atrair a atenção dos educandos, para o estudo dos fatos da língua portuguesa nos diferentes contextos em que ela se apresenta, por meio de temas instigantes, tal como a ditadura e a cultura popular do homem do sertão. Entre as várias possibilidades de estudo da língua, privilegiou-se estudar a estilística como ciência da expressividade, dando ênfase à estilística poética, pela força da poeticidade de João do Vale mostrada quando externa à poesia simples e aos ensinamentos sábios do povo. Ao apontar caminhos para o estudo da língua portuguesa através das produções musicais populares, em especial as letras de João do Vale divulga-se seu trabalho e torna-se conhecida a trajetória e a produção deste cancioneiro maranhense que, na leveza de sua expressividade, no anseio de ser compreendido e ver valorizada a história de seu povo, registrou-a com musicalidade

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A inflação consegue dar conta de uma série de problemas do Modelo padrão da Cosmologia, preservando ainda o sucesso do modelo do Big Bang. Na sua versão mais simples, a inflação é controlada por um campo escalar, o ínflaton, que faz com que o universo se expanda exponencialmente. Após, o ínflaton decai e ocorre o reaquecimento do universo. Contudo, alguns autores apontam a existência de uma fase intermediária, chamada de pré-aquecimento. O decaimento do ínflaton possui uma rica dinâmica não-linear. No primeiro estágio, a ressonância paramétrica promove o crescimento exponencial de alguns modos do ínflaton. Isto altera a dinâmica do modo homogêneo do ínflaton, promovendo uma reestruturação das cartas de ressonâncias da equação de movimento dos modos perturbativos. Desta forma, ocorre a transferência de energia para estes modos, até que o universo termaliza. Esta transferência de energia é típica de um sistema turbulento. Por se tratar de uma evolução não-linear, torna-se conveniente a implementação computacional de métodos numéricos. Neste contexto, os métodos espectrais têm se mostrado uma excelente ferramenta para estudar este tipo de sistema. Esta dissertação apresenta os resultados do esquema numérico desenvolvido para o modelo com potencial quártico, que será a base para os demais estudos a serem desenvolvidos. Como mostrado, este esquema é extremamente preciso e eficiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A estabilidade de taludes naturais é um tema de grande interesse ao engenheiro geotécnico, face às significativas perdas econômicas, e até mesmo humanas, resultantes da ruptura de taludes. Estima-se que a deflagração de escorregamentos já provocou milhares de mortes, e dezenas de bilhões de dólares em prejuízos anuais em todo o mundo. Os fenômenos de instabilização de encostas são condicionados por muitos fatores, como o clima, a litologia e as estruturas das rochas, a morfologia, a ação antrópica e outros. A análise dos condicionantes geológicos e geotécnicos de escorregamentos proporciona a apreciação de cada um dos fatores envolvidos nos processos de instabilização de encostas, permitindo a obtenção de resultados de interesse, no que diz respeito ao modo de atuação destes fatores. O presente trabalho tem como objetivo a utilização da Lógica Nebulosa (Fuzzy) para criação de um Modelo que, de forma qualitativa, forneça uma previsão do risco de escorregamento de taludes em solos residuais. Para o cumprimento deste objetivo, foram estudados os fatores envolvidos nos processos de instabilização de encostas, e a forma como estes fatores se interrelacionam. Como experiência do especialista para a elaboração do modelo, foi analisado um extenso banco de dados de escorregamentos na cidade do Rio de Janeiro, disponibilizado pela Fundação Geo-Rio. Apresenta-se, neste trabalho, um caso histórico bem documentado para a validação do Modelo Fuzzy e análises paramétricas, realizadas com o objetivo verificar a coerência do modelo e a influência de cada um dos fatores adotados na previsão do risco de escorregamento. Dentre as principais conclusões, destaca-se a potencialidade da lógica nebulosa na previsão de risco de escorregamentos de taludes em solo residual, aparecendo como uma ferramenta capaz de auxiliar na detecção de áreas de risco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O projeto de Estações de Tratamento de Efluentes Industriais (ETEIs) deve objetivar um desempenho médio, o qual não pode ser ultrapassado certo número de vezes durante seu tempo operacional. Este trabalho propõe a aplicação da metodologia conhecida como Coeficiente de Confiabilidade (CDC) para quantificação da confiabilidade das etapas de tratamento físico (Separação Águaóleo SAO e flotação) e biológico (lodos ativados com aeração prolongada), considerando efluente oleoso proveniente de refino de petróleo. Tal metodologia, entretanto, não possibilita a identificação das prováveis causas do baixo desempenho na tratabilidade. Por isso também é proposta a aplicação da ferramenta de gestão riscos conhecida como FMECA (Failure Modes, Effects and Criticality Analysis), que permite a quantificação das observações qualitativas de campo, tornando os valores comparáveis para definir a hierarquização dos riscos e criticidade das etapas de tratamento estudadas. A etapa biológica para o parâmetro NH3 apresentou a maior confiabilidade, ainda que a análise de risco tenha apontado esta etapa como mais crítica. Ou seja, um sistema confiável não necessariamente apresenta menor criticidade, pois uma má gestão implicará em possíveis infrações às metas pré-fixadas ou à própria legislação ambiental.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partículas nanoestruturadas têm sido amplamente utilizadas como carga de reforço em matrizes elastoméricas, sendo substitutos eficazes das cargas convencionais, já consagradas, como o negro de fumo, mica, sílica. Em especial, as argilas têm mostrado grande potencial ao que se refere a melhor dispersão na matriz polimérica, em função de sua elevada razão de aspecto. Dentro do vasto universo de argilominerais, as argilas aniônicas, também conhecidas hidróxido duplo lamelar (HDL), apresentam como vantagem a possibilidade de ser projetada estruturalmente para as mais diversas finalidades, ao se modificar os ânions ou os cátions, ou até mesmo combiná-los na estrutura lamelar. E dentre os métodos existentes para se preparar compósitos a base de elastômero/argila, a co-coagulação do látex, é uma forma bastante eficaz e economicamente viável, uma vez que a borracha obtida após processo de coagulação já contém a carga incorporada. Este trabalho se dedicou a avaliar o processo de co-coagulação do látex de NBR e HDL, visando a obtenção de nanocompósitos. Para tanto HDL de composição Mg/Al-CO3 foi modificado com ânions DS, DBS e ST e foram preparadas suspensões aquosas, utilizando como ferramentas de dispersão ultraturrax e ultrassom de ponteira. As variáveis de processo avaliadas foram tipo e teor de HDL, tempo de mistura látex/suspensão aquosa de HDL, quantidade de coagulante e velocidade de agitação. Por fim, os coágulos obtidos foram formulados para avaliar a influência dos HDL na cinética de vulcanização e também para determinação das propriedades mecânicas convencionais. Os resultados obtidos comprovaram que a metodologia de dispersão de hidrotalcita ao látex nitrílico de modo prévio ao processo de coagulação é uma alternativa viável para a obtenção de nanocompósitos. O uso do ultrassom de ponteira como ferramenta na dispersão aquosa de HDL contribuiu para maior estabilidade da suspensão e o ajuste nos parâmetros do sistema de coagulação, levaram a obtenção de grumos uniformes do ponto de vista macroscópico e microscópico. As micrografias dos coágulos não vulcanizados obtidas por MEV-FEG confirmaram as informações apuradas a partir dos difratogramas de raios-X que apontou a formação de um sistema parcialmente esfoliado, em função da ausência dos picos característicos da hidrotalcita, além de indicarem a coexistência de partículas em dimensões micrométrica a nanométricas em uma mesma estrutura. A composição química do HDL, com a presença de átomos de magnésio e alumínio combinados com grupos hidroxila favoreceu a redução tanto o tempo de indução como de pré-cura. As propriedades mecânicas que se mostraram mais sensíveis ao grau de dispersão da carga foram a dureza, a deformação permanente à compressão (DPC) e o módulo de tração a 300% de deformação (E300), em especial para os compósitos contendo 10% m/m de HDL natural e modificado com estearato. A resistência à chama dos nanocompósitos de NBR-HDL vulcanizados apresentou um ligeiro aumento quando comparados à NBR pura, visto que esta é uma característica própria da hidrotalcita, decorrente da sua composição química

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa busca contribuir para a compreensão e as investigações das políticas curriculares de formação de professores como ciência social, apropriando-se das teorias pós-estruturalistas. Repensa algumas temáticas como a hegemonia, o poder, a constituição das identidades docentes nas políticas curriculares, a produção do discurso pedagógico e do discurso curricular na formação de professores. Nas pesquisas sobre políticas de currículo, percebe-se que o foco na formação de professores marca o protagonismo docente, na medida em que esse agente é significado como a peça-chave nas mudanças políticas curriculares. O professor é identificado como quem ressignifica o conhecimento, dissemina e transforma o discurso político-pedagógico nas várias instâncias educacionais. Esse espaço ora é significado pela omissão de sua atuação ou formação, remetendo a um discurso de culpabilização docente, ora marcado por um espaço de endeusamento e que significa o professor como parceiro nas mudanças e projetos curriculares propostos pelos órgãos nacionais e internacionais. Esse movimento de contínua produção de significados é um movimento de endereçamento de sentidos. Os discursos produzidos nos contextos FHC e Lula convivem com diferentes discursos sociais e culturais que são reinterpretados ao mesmo tempo em que recriam novos discursos. Nessa contínua produção de sentidos, a formação de professores é marcada por uma tendência a naturalizar certos sentidos para o currículo estabelecendo uma interface entre discurso pedagógico e discurso de política curricular de formação de professores. A pesquisa apresenta um estudo na temática da identidade docente, no campo das políticas curriculares, no período dos governos Fernando Henrique Cardoso (FHC) e Lula da Silva (Lula), a partir da discussão sobre a formação docente como projeto curricular que busca endereçar uma dada identidade, relacionando discurso pedagógico e discurso curricular. A análise dos documentos é feita por meio da ferramenta tecnológica do programa WordSmith Tools, versão 5, investigando os endereçamentos de sentidos para a constituição da identidade docente, bem como o/s sentido/s defendido/s em cada contexto para a formação de professores. A fundamentação teórica tem por base o Ciclo de Políticas de Stephen Ball, processos de hibridização e identidade com Stuart Hall, S. Ball e Rita Frangella, Política Curricular com Alice C. Lopes, Elizabeth Macedo, Teoria do Discurso com Ernesto Laclau e Chantal Mouffe e formação de professores com Helena de Freitas, Carlinda Leite e Rosanne Dias. Defende-se que o endereçamento de sentidos e a busca por hegemonizar determinados discursos fazem parte de uma luta de poder, de articulações que constituem sujeitos e contextos e, por isso, produzem processos provisórios e contingentes de constituição de identidades docentes. Entende-se, nessa perspectiva, que não existe uma identidade fixa e universal que possa dar conta de representar o social. A tese apresentada é de antagonismo entre os projetos políticos, aqui denominados como FHC e Lula, pois engendram discursos de formação de identidade docente que defendem, ao mesmo tempo em que justificam, a necessidade de mudanças nas políticas curriculares de formação de professores e na significação do discurso pedagógico mais adequado para cada contexto. Contudo, apesar de defenderem diferentes discursos e concepções de identidade docente, acabam por assemelharem-se nas propostas finais por meio dos mecanismos de aferição da qualidade docente pautados em índices nacionais e internacionais através de avaliações, minimizando dessa forma o antagonismo entre as duas propostas. Conclui-se que há antagonismo entre as duas cadeias discursivas e, ainda que em alguns momentos enfraquecidos por força de demandas à margem do projeto político social mais amplo, permanecem antagônicas mesmo que por sutis diferenças

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Instituições de Ensino Superior (IES) que realizam atividades de ensino e pesquisa em Química, em geral são potenciais áreas de risco de acidentes, uma vez que utilizam substâncias químicas perigosas em seus processos de ensino e pesquisa. Esta pesquisa se justifica em face da existência de substâncias de natureza química e biológica as quais possuem riscos à saúde e ao meio ambiente e de alguns acidentes já ocorridos em diversas IES no Brasil e exterior. O objetivo da pesquisa foi elaborar diretrizes para a gestão de emergências em acidentes químicos que possam ser aplicadas nos laboratórios de um Instituto de Química de uma Universidade Pública do Estado do Rio de Janeiro. Trata-se de um estudo exploratório e descritivo, aplicado a um caso estudado, de uma emergência. Realizou-se de revisão em literatura especializada, visitas aos laboratórios, registros fotográficos e entrevistas dirigidas a funcionários, técnicos e professores do IQ. A metodologia de avaliação de vulnerabilidade baseou-se no método dos cinco passos da Federal Emergency Management Agency. O estudo de caso mostrou que o Instituto de Química não possui uma Gestão de Emergências Químicas, com ausência de brigada de incêndio e o não cumprimento de normas técnicas e regulamentares. Apesar disso, existem laboratórios que possuem um perfil satisfatório quanto à segurança e saúde. O estudo mostrou também que a metodologia de Análise de Vulnerabilidade é uma boa ferramenta para elaboração de diretrizes voltadas para um Plano de Emergência, quando conduzida por equipe especializada.