50 resultados para PROCESSAMENTO DE INFORMAÇÃO

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

70.00% 70.00%

Publicador:

Resumo:

Esta é uma tese centrada nas estratégias empregadas pelos eleitores para o processamento das informações sobre a política, no contexto da campanha presidencial brasileira de 2006. Propusemos, neste trabalho, um modelo estatístico para o processamento da informação sobre a política, construído a partir da contribuição de estudos realizados nos campos de conhecimento das ciências sociais, da economia, da psicologia cognitiva e da comunicação, e, sobretudo, a partir das evidências extraídas de nosso desenho de pesquisa. Este combinou métodos qualitativo, quantitativo e a análise das estratégias retóricas empregadas por candidatos e partidos políticos no Horário Gratuito de Propaganda Eleitoral (HGPE), elemento dinâmico de nosso estudo, por sintetizar os fluxos de informação no ambiente das campanhas políticas. Esse conjunto de abordagens metodológicas, foi empregado para o estudo de caso do eleitor belo-horizontino, inserido no complexo ambiente informacional das campanhas presidenciais. Com informações incompletas, o eleitor precisou escolher em quem acreditar, lidando com a incerteza dos resultados do pleito e com a incerteza em relação ao comportamento futuro dos atores, cioso de que as retóricas da campanha estavam orientadas para a persuasão. O nosso trabalho procurou mapear as estratégias empregadas pelos eleitores na seleção de temas do debate para a atenção e para o processamento das novas informações sobre a política, adquiridas em interações múltiplas ao longo da campanha. Essa complexa tarefa foi destinada à escolha de por quem ser persuadido. Procuramos responder, neste trabalho, a partir das evidências empíricas, várias preocupações deste campo de conhecimento, entre elas: 1) Em meio a tantos temas abordados na disputa entre partidos e candidatos, quais deles e por que o indivíduo escolhe para prestar atenção e acreditar? 2) Que variáveis intermedeiam e qual o seu peso nesse processo de interação com as novas informações para explicar a tomada de decisão? 3) As prioridades da agenda política do eleitor se alteram ao longo da campanha? 4) Os eleitores ampliam o repertório mais geral de informação sobre a política? 5) As percepções sobre avaliação de governo e em relação aos temas prioritários da agenda do eleitor se alteram ao longo da campanha?

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Evidências sugerem que a lateralização cerebral é uma característica fundamental dos vertebrados. Nos seres humanos, tem sido sugerido que o hemisfério direito é especializado no processamento de informação emocional negativa e o hemisfério esquerdo no controle da função motora. Em roedores, evidências de lateralização hemisférica são escassas. Diante disso, utilizamos a hemisferectomia para avaliar a importância relativa de cada hemisfério no controle emocional e na atividade motora espontânea em camundongos. Machos adultos foram submetidos à hemisferectomia direita (HD), hemisferectomia esquerda (HE) ou a simulação da cirurgia (SHAM). Para ajudar na interpretação dos resultados, uma amostra adicional de camundongos foi submetida à aspiração unilateral da área frontoparietal esquerda (FPE), da área frontoparietal direito (FPD) ou a simulação da cirurgia (CONT). Quinze dias após a cirurgia, a reatividade emocional e a ambulação foram avaliadas no teste de campo aberto durante 10 minutos (dividido em intervalos de 1 min). A arena de campo aberto consistiu em uma caixa de polipropileno, cujo fundo foi dividido em 16 retângulos do mesmo tamanho. O número total de retângulos cruzados pelo animal foi utilizado como a medida da atividade locomotora espontânea. Considerando-se que os camundongos evitam áreas abertas, a locomoção no centro e o tempo despendido nos retângulos centrais foram utilizados para avaliar a reatividade emocional. Em relação à atividade locomotora as duas técnicas cirúrgicas revelaram assimetrias na direção oposta. A atividade locomotora do grupo HE aumentou ao longo do período de teste e foi maior do que a dos grupos HD e SHAM. Em contraste, a atividade locomotora do grupo FPD diminuiu ao longo do período de teste e foi superior a ambos os grupos, FPE e CONT. Em relação à reatividade emocional, o grupo HE passou menos tempo na área central que os grupos HD e CONT. Não foram observadas diferenças entre FPD, FPE e o grupo CONT. Os nossos resultados sugerem que os dois hemisférios contribuem de forma assimétrica para controlar de reatividade emocional e para controlar de atividade motora em camundongos. De forma semelhante ao que é observado em humanos, o hemisfério direito dos camundongos foi mais associado com o processamento de informação emocional negativa. Em relação aos dados de hiperatividade, as diferenças observadas entre os animais hemisferectomizados e com lesão frontoparietal sugerem que mais de um circuito (ou sistema) lateralizado pode mediar a atividade locomotora espontânea.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação é um estudo de caso com caráter exploratório (Rampazo, 2005; Babie, 2008). Na parte teórica, propomos a categorização triádica das imagens no ciberespaço, que é uma das contribuições deste trabalho para a área de estudos sobre leitura no ciberespaço. A investigação apresenta como objetivos acompanhar e analisar o processo leitor de um professor de espanhol como língua estrangeira no ciberespaço, tendo como foco a multimodalidade. Tais objetivos têm a função de nortear a resolução dos problemas de pesquisa, a saber: (a) como um professor de ELE lê no ciberespaço tendo em vista as imagens como aspectos da multimodalidade; (b) como esse professor transpõe sua própria atividade leitora e os materiais da internet para uma atividade de aula. Os instrumentos de coleta utilizados foram: entrevista, questionário, protocolos e gravações do GTK. O cruzamento entre 12 critérios de análise permitiu, dentre outros detalhes, observar que nosso sujeito lê textos verbais no ciberespaço movimentando o cursor do mouse como se fosse seus dedos sobre uma folha de papel a percorrer linha a linha da esquerda para a direita. Também percebemos que a experiência de leitura no ciberespaço (conhecimentos prévios) pode ser o fator que contribui para que o sujeito despreze as imagens de categorias mescladas (B e C) e prefira utilizar as imagens de categoria B, no caso, por exemplo, de acessar uma reportagem a partir de sua manchete em jornal eletrônico. Quanto à transposição de materiais para as aulas, percebemos que a formação acadêmica de nosso sujeito ao não direcionar discussões teóricas e metodológicas sobre as TICs e seu uso em sala de aula e sua realidade de trabalho podem ter contribuído para o modo como o sujeito transpõe os materiais da internet para as aulas. As adaptações e afastamentos desses materiais não são trabalhados em sala de aula. As imagens e links são retirados e o texto utilizado na atividade docente é uma mistura de vários materiais provenientes de diferentes países, mas sem a fonte especificada na aula. O papel que a formação tem para a vida profissional e para a práxis do professor não pode ser descartado. Defendemos que uma formação que seja direcionada às TICs deve fazer parte do currículo acadêmico

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O emprego das técnicas de posicionamento de alta-precisão e de precisão, com recurso ao Sistema de Posicionamento Global, têm se consolidado como solução definitiva para a obtenção das coordenadas de pontos sobre a superfície terrestre, nas mais diversas aplicações, em particular aquelas envolvidas na realização do cadastro em áreas urbanas e construção da base de dados associada aos Sistemas de Informação Geográfica utilizados na gestão territorial. Os receptores GPS armazenam as informações dos satélites inicialmente em formato próprio, porém a maioria dos usuários não usa esse formato para trabalho, e sim o formato RINEX. Sendo este um formato importante ao trabalhar com GPS, os softwares proprietários que geralmente acompanham os receptores e fazem a transformação de seu formato próprio para o RINEX, processam as observáveis de forma exclusiva e fechada, não permitindo alteração de seu código-fonte (o que configura uma caixa preta). Este trabalho visa elaborar e implementar um programa com código-fonte aberto para leitura e manipulação de arquivos de efemérides transmitidas e precisas do Sistema de Posicionamento Global GPS e aplicá-lo ao posicionamento de satélites artificiais, e ainda realizar um estudo do comportamento do mesmo no posicionamento geodésico de pontos na superfície terrestre. Considerando-se que a posição terrestre dos satélites influencia diretamente no cálculo da posição de pontos sobre a superfície, esse estudo verifica que é possível obter coordenadas dos satélites a partir das efemérides transmitidas de forma coerente, e isto é feito utilizando-se o processamento que o programa faz ao manipular corretamente os arquivos RINEX. O programa implementado é capaz de lidar com os arquivos de formato RINEX e SP3, lendo, extraindo e utilizando informações para uma aplicação de posicionamento terrestre de satélites artificiais GPS, podendo ainda realizar outras aplicações como o posicionamento geodésico de pontos adaptando seu código-fonte para outros modelos. Esse programa poderá ser utilizado em benefício dos profissionais que atuam em diversas aplicações que envolvam o posicionamento geodésico por satélites, proporcionando flexibilidade de trabalho, pois o programa terá código-fonte aberto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo tem por objetivo contribuir para a compreensão da política nacional de informação em saúde no Brasil, analisando-a a luz do referencial teórico da própria evolução da informação como objeto de conhecimento científico. Procura-se mostrar em que medida as distintas fases do desenvolvimento científico no campo da informação repercutiram no grau de compreensão, assimilação e gestão da informação como recurso estratégico para a ação política e social. O estudo identifica dois grandes blocos idênticos da Ciência da Informação, o primeiro privilegia os aspectos técnicos e tecnológicos da gestão da informação e o segundo evidencia o contexto político. Sem desconsiderar os aspectos técnicos, adota-se como referencial a corrente que considera tal recurso como eminentemente político, para analisar a trajetória da política de gestão da informação desde a criação do Ministério da Saúde, em 1953. Acompanha-se a evolução dessa política, identificando-se os elementos políticos, institucionais e sociais envolvidos nesse processo, procurando-se destacar a forma como a informação foi percebida ou conceituada; os modelos de gestão adotados; os principais projetos e ações, e o grau de inserção dos distintos atores envolvidos. Com o intuito de identificar as distintas fases e fatores envolvidos na implantação de iniciativas na área foi utilizado, como estudo de caso, o processo de formulação e implementação da Rede Nacional de Informações em Saúde (RNIS, iniciado em 1996 e ainda em curso). A RNIS era a iniciativa mais recente no campo da informação em saúde com abrangência nacional contemplando as três esferas de governo. Além disso, por estar em fase inicial, foi possível o acompanhamento e a análise de todo o processo que envolveu sua elaboração e implantação. As conclusões destacam as principais características da política de informação em saúde e de sua evolução, considerando-se o desenvolvimento do conhecimento científico alcançado na área. Observou-se que a incorporação desse conhecimento esteve fortemente condicionada pelos distintos contextos políticos e institucionais nos quais se desenvolveu a política nacional de informação em saúde, que se mantém como essencialmente federal, com participação recente e pontual de estados e municípios, em sua formulação. No plano operacional, tem prevalecido a adoção de referenciais técnicos e tecnológicos, embora, em anos mais recentes, tenha sido incorporado no plano discursivo, um enfoque mais politizado. O quadro referencial adotado apóia a análise das tendências e perspectivas para a gestão da informação em saúde no Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um Atlas Digital é um atlas que foi concebido através de técnicas computacionais e que, consequentemente, pode ser acessado através de um computador. Estruturado em um ambiente gráfico, além dos mapas, pode-se contar também com textos, fotografias, dados estatísticos, gráficos e tabelas. Por estar em meio digital existe a possibilidade de utilização de uma expressiva gama de temas, formatos e escalas. Nesta dissertação apresenta-se um protótipo de Atlas Digital como uma colaboração ao Sistema de Informação Municipal SIM, para o município de São João de Meriti, RJ. O referido SIM, que tem como meta os serviços municipais, visa atender ao próprio município, ao cidadão e a outros interessados na cidade, sendo as suas informações fundamentais para a melhoria da gestão das prefeituras. A pesquisa foi direcionada para o tema da habitabilidade, que consiste num conjunto de condições voltadas para a construção de habitat saudável, abrangendo temas físicos, psicológicos, sociais, culturais e ambientais. Dentro do tema habitabilidade, foram trabalhados os subtemas relativos a infraestrutura de abastecimento de água, esgoto, coleta de lixo, saúde e educação, esses subtemas foram confrontados entre si para uma comparação entre os bairros do município. O SIM e a habitabilidade são contemplados no plano diretor da cidade e representa uma grande parte da sustentação teórica da dissertação. A modelagem e implementação do protótipo do Atlas Digital foram feitas com auxílio de softwares gratuitos, sendo possível acessar mapas temáticos e outras informações sobre São João de Meriti

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Copolímeros casca-núcleo de poli(acrilato de butila) (núcleo) e poliestireno (casca) foram sintetizados por meio de polimerização em emulsão, conduzida em duas etapas. A adição de ácido itacônico como monômero funcional na polimerização do núcleo foi realizada para verificar seu efeito sobre suas propriedades mecânicas e de processamento. Os copolímeros foram caracterizados por espalhamento dinâmico de luz (DLS), microscopia eletrônica de transmissão (MET), cromatografia de exclusão por tamanho (SEC), espectrometria na região do infravermelho (FTIR) e calorimetria diferencial por varredura (DSC). A incorporação do monômero funcional foi confirmada por DSC e quantificada por titulação. A proporção de poli(acrilato de butila) e poliestireno influenciou diretamente o processamento e as propriedades mecânicas do polímero. Os copolímeros com teores de poliestireno acima de 50% foram processados por compressão e extrusão a temperatura ambiente, apresentando comportamento baroplástico. A presença do monômero funcional não alterou o processamento do polímero e melhorou significativamente sua resistência à tração, aumentando sua tenacidade

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste estudo é demonstrar que as informações fornecidas pela Lei Orçamentária Anual de 2010 da Prefeitura da Cidade do Rio de Janeiro e pelos seus respectivos relatórios de execução orçamentária, referentes aos investimentos em obras e instalações da Secretaria Municipal de Educação não permitem ao cidadão avaliar a eficácia e a eficiência dos seus representantes; também é objetivo deste estudo demonstrar que as alterações realizadas na Lei Orçamentária Anual de 2010 da Prefeitura da Cidade do Rio de Janeiro, referentes aos investimentos em obras e instalações da Secretaria Municipal de Educação, podem prejudicar uma possível avaliação da eficácia e eficiência do gestor representante e, finalmente, este estudo também objetiva sugerir possíveis sugestões e recomendações para que a Lei Orçamentária Anual da Prefeitura da Cidade do Rio de Janeiro e os seus respectivos relatórios de execução orçamentária passem a fornecer as informações necessárias para o cidadão avaliar a eficácia e a eficiência dos seus representantes. Para alcançar tais objetivos, serão abordados conceitos como: a) estado democrático, para demonstrar o contexto onde acontece a relação entre os cidadãos e os seus representantes eleitos; b) orçamento público, para discutir a sua função como instrumento de controle entre os cidadãos e os seus representantes eleitos; c) avaliação de desempenho, para demonstrar a importância desta para o gestor e para o controle dos cidadãos; e d) teoria da agência, para discutir o conflito decorrente entre os cidadãos e os seus representantes eleitos, de forma a permitir uma nova perspectiva desta relação. Para desenvolver este estudo será utilizado o método de estudo de caso, por ser o mais indicado para esse tipo de pesquisa. O caso escolhido foi a parte da Lei Orçamentária Anual de 2010 da Prefeitura da Cidade do Rio de Janeiro e seus respectivos relatórios de execução orçamentária, referente aos investimentos em obras e instalações da Secretaria Municipal de Educação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sedimentos em suspensão representam um dos principais fatores que afetam a qualidade dos sistemas aquáticos no mundo; influenciam os processos geomórficos de construção da paisagem e podem indicar problemas de erosão e perda de solo na bacia hidrográfica contribuinte. O seu monitoramento espacial e temporal é fundamental nas atividades de gestão ambiental de áreas costeiras. Nesse sentido, a hipótese básica desta pesquisa é que o padrão espacial e temporal de plumas de sedimentos costeiras associado ao regime hidrológico do rio pode ser caracterizado a partir de imagens orbitais de média resolução espacial. Para comprová-la, elegeu-se a foz do rio Paraíba do Sul como área de estudo para definição e teste metodológico, e formulou-se como principal objetivo mapear qualitativamente a pluma costeira deste rio a partir de imagens Landsat 5 e CBERS-2, ao longo do período compreendido entre 1985 e 2007. As datas avaliadas foram criteriosamente definidas através de três estratégias de análise, totalizando cinqüenta imagens. Pesquisa bibliográfica e avaliação da resposta espectral da feição de interesse nas imagens selecionadas consistiram nas etapas principais da definição da metodologia. As plumas foram então identificadas, mapeadas e extraídas; posteriormente, suas características espaciais e temporais foram analisadas por intermédio de sistemas de informação geográfica e avaliadas em conjunto com dados históricos de vazão. Os resultados indicam que a banda do vermelho forneceu uma melhor discriminação interna da pluma, sendo, portanto, utilizada como base para as análises realizadas neste trabalho. Com exceção do procedimento de correção atmosférica, a metodologia proposta consiste na utilização de técnicas simples de processamento digital de imagens, baseadas na integração de técnicas semi-automáticas e de análise visual. A avaliação do padrão dos sedimentos e dos mapas temáticos qualitativos de concentração de sedimentos em suspensão indica a forte diferenciação existente entre cenários representativos de épocas de cheia e seca do rio. Análises espaciais do comportamento da pluma contribuem ainda para um maior conhecimento do espaço geográfico, fornecendo subsídios aos mais variados setores do planejamento e gestão ambiental.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal desse trabalho foi utilizar métodos não destrutivos (END), como a microtomografia com Raio X e técnicas de obtenção e processamento de imagens, para obtenção da porosidade do concreto. Foram utilizados dois métodos. Em um método as imagens foram obtidas por meio de microtomografia por Raio X e no outro foi utilizado um escâner comercial para obtenção das imagens. Essas imagens foram processadas por meio de técnicas de processamento de pixel e morfologia matemática. Os resultados obtidos para a porosidade foram comparados com resultado obtido por meio do método proposto pela NBR 9778 (2005) (Absorção de água, índice de vazios e massa específica em argamassa e concreto endurecido). As imagens microtomográficas das amostras de concreto foram obtidas num sistema Skyscan 1172 com 256 tons de cinza, ajustadas em contraste, binarizadas e filtradas. No outro método foi utilizado um Escâner Comercial com resolução de 2400 dpi para adquirir as imagens, sendo também utilizadas técnicas de processamento de pixel e morfologia matemática para processá-las. Os resultados dos valores da porosidade mostraram compatibilidade entre os dois métodos apresentados e o método proposto pela NBR 9778 (2005). Observou-se que os resultados obtidos por microtomografia foram mais confiáveis, mas o método utilizando o escâner comercial se apresentou como um método aceitável por seus resultados e principalmente por seu baixo custo e facilidade de operação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos numéricos convencionais, baseados em malhas, têm sido amplamente aplicados na resolução de problemas da Dinâmica dos Fluidos Computacional. Entretanto, em problemas de escoamento de fluidos que envolvem superfícies livres, grandes explosões, grandes deformações, descontinuidades, ondas de choque etc., estes métodos podem apresentar algumas dificuldades práticas quando da resolução destes problemas. Como uma alternativa viável, existem os métodos de partículas livre de malhas. Neste trabalho é feita uma introdução ao método Lagrangeano de partículas, livre de malhas, Smoothed Particle Hydrodynamics (SPH) voltado para a simulação numérica de escoamentos de fluidos newtonianos compressíveis e quase-incompressíveis. Dois códigos numéricos foram desenvolvidos, uma versão serial e outra em paralelo, empregando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA), que possibilita o processamento em paralelo empregando os núcleos das Graphics Processing Units (GPUs) das placas dedeo da NVIDIA Corporation. Os resultados numéricos foram validados e a eficiência computacional avaliada considerandose a resolução dos problemas unidimensionais Shock Tube e Blast Wave e bidimensional da Cavidade (Shear Driven Cavity Problem).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho aborda a elaboração de requisitos dos usuários como parte da adequação do sistema de informação-SISTEMA DE INFORMAÇÃO DE GESTÃO ACADÊMICA-Administrativo- SIGA-Adm, proposto para o Hospital Universitário da Universidade Federal de Juiz de Fora. SIGA-Adm está em utilização, desde 2007, na Universidade Federal de Juiz de Fora. No entanto, para a efetiva aplicabilidade no âmbito do Hospital Universitário, torna-se necessário uma investigação acerca dos processos de trabalho, dentro do HU e uma ação de melhoria desses processos, a fim de evitar a incorporação de um sistema de informação que não corresponda a realidade apresentada. A elaboração dos requisitos dos usuários para a adequação visa a ser um instrumento de intermediação para discussão acerca da elaboração do SIGA-Adm para o HU/UFJF. Os requisitos apresentados originaram-se no processo de gerenciamento de materiais, como resultado da utilização da Metodologia de Análise e Melhoria de Processos-MAMP, aplicada na cadeia de suprimentos do Hospital Universitário, no período de 2004 a 2005. O acompanhamento do gerenciamento de materiais é uma estratégia utilizada pela Rede Sentinela para o desenvolvimento de ações de pós-comercialização de produtos para a saúde tais como: investigação de uso, registro de produtos, retirada de produto do mercado e etc... O Hospital Universitário da UFJF é integrante da Rede Brasileira de Hospitais Sentinela, implementada pela Agência Nacional de Vigilância Sanitária, desde 2001. As ações Pós-Comercialização de Produtos para a Saúde, em Tecnovigilância, são compartilhadas pela ANVISA e pelos integrantes da Rede Sentinela, através de informações relativas a queixas técnicas e/ou eventos adversos que possam causar algum dano à população. A pesquisa indica a possibilidade do SIGA-Adm armazenar informações sobre os produtos que permitam o rastreamento em condições normais e/ou anormais de uso pela instituição, contribuindo para o exercício em Tecnovigilância. Além disso, espera-se que construção do SIGA-Adm/HU-UFJF permita integrar os sistemas existentes no HU.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento dedeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O aço inoxidável é amplamente utilizado em sistemas para processamento e obtenção de derivados de folhelhos pirobetuminosos. Em função dos problemas de corrosão, originários da composição química dos folhelhos e do processamento em si, são gastos anualmente valores expressivos em manutenção e paradas programadas para reparos nestes sistemas. O presente trabalho busca estudar o processo de corrosão do aço inoxidável AISI 304L em meio simulado de retortagem de folhelhos, em condições de alta temperatura e em presença de elevados teores de enxofre, orgânico e inorgânico, empregando técnicas microscópicas e eletroquímicas. Os resultados mostraram que a temperatura influencia diretamente no processo de corrosão do aço, causando modificação na camada externa de óxidos. Este processo é agravado com a presença de sulfetos no meio, havendo formação, principalmente, de sulfetos de ferro sobre a superfície do aço inoxidável AISI 304L e consequente aumento do processo de corrosão. Foi observado que o enxofre de origem orgânica promove maior destruição da camada de óxido protetor do aço e aumento na formação do filme de sulfeto aderido à superfície deste material. Verificou-se ainda que o processo corrosivo é predominantemente químico, sendo o filme formado considerado protetor, do ponto de vista eletroquímico, no meio eletrolítico estudado

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).