922 resultados para Processamento.


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Consultoria Legislativa - Área VII - Sistema Financeiro, Direito Comercial, Econômico e Defesa do Consumidor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coleção de editais de concursos públicos reunidos pela Coordenação de Relacionamento Pesquisa e Informação do Centro de Documentação da Câmara dos Deputados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Copolímeros casca-núcleo de poli(acrilato de butila) (núcleo) e poliestireno (casca) foram sintetizados por meio de polimerização em emulsão, conduzida em duas etapas. A adição de ácido itacônico como monômero funcional na polimerização do núcleo foi realizada para verificar seu efeito sobre suas propriedades mecânicas e de processamento. Os copolímeros foram caracterizados por espalhamento dinâmico de luz (DLS), microscopia eletrônica de transmissão (MET), cromatografia de exclusão por tamanho (SEC), espectrometria na região do infravermelho (FTIR) e calorimetria diferencial por varredura (DSC). A incorporação do monômero funcional foi confirmada por DSC e quantificada por titulação. A proporção de poli(acrilato de butila) e poliestireno influenciou diretamente o processamento e as propriedades mecânicas do polímero. Os copolímeros com teores de poliestireno acima de 50% foram processados por compressão e extrusão a temperatura ambiente, apresentando comportamento baroplástico. A presença do monômero funcional não alterou o processamento do polímero e melhorou significativamente sua resistência à tração, aumentando sua tenacidade

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal desse trabalho foi utilizar métodos não destrutivos (END), como a microtomografia com Raio X e técnicas de obtenção e processamento de imagens, para obtenção da porosidade do concreto. Foram utilizados dois métodos. Em um método as imagens foram obtidas por meio de microtomografia por Raio X e no outro foi utilizado um escâner comercial para obtenção das imagens. Essas imagens foram processadas por meio de técnicas de processamento de pixel e morfologia matemática. Os resultados obtidos para a porosidade foram comparados com resultado obtido por meio do método proposto pela NBR 9778 (2005) (Absorção de água, índice de vazios e massa específica em argamassa e concreto endurecido). As imagens microtomográficas das amostras de concreto foram obtidas num sistema Skyscan 1172 com 256 tons de cinza, ajustadas em contraste, binarizadas e filtradas. No outro método foi utilizado um Escâner Comercial com resolução de 2400 dpi para adquirir as imagens, sendo também utilizadas técnicas de processamento de pixel e morfologia matemática para processá-las. Os resultados dos valores da porosidade mostraram compatibilidade entre os dois métodos apresentados e o método proposto pela NBR 9778 (2005). Observou-se que os resultados obtidos por microtomografia foram mais confiáveis, mas o método utilizando o escâner comercial se apresentou como um método aceitável por seus resultados e principalmente por seu baixo custo e facilidade de operação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos numéricos convencionais, baseados em malhas, têm sido amplamente aplicados na resolução de problemas da Dinâmica dos Fluidos Computacional. Entretanto, em problemas de escoamento de fluidos que envolvem superfícies livres, grandes explosões, grandes deformações, descontinuidades, ondas de choque etc., estes métodos podem apresentar algumas dificuldades práticas quando da resolução destes problemas. Como uma alternativa viável, existem os métodos de partículas livre de malhas. Neste trabalho é feita uma introdução ao método Lagrangeano de partículas, livre de malhas, Smoothed Particle Hydrodynamics (SPH) voltado para a simulação numérica de escoamentos de fluidos newtonianos compressíveis e quase-incompressíveis. Dois códigos numéricos foram desenvolvidos, uma versão serial e outra em paralelo, empregando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA), que possibilita o processamento em paralelo empregando os núcleos das Graphics Processing Units (GPUs) das placas de vídeo da NVIDIA Corporation. Os resultados numéricos foram validados e a eficiência computacional avaliada considerandose a resolução dos problemas unidimensionais Shock Tube e Blast Wave e bidimensional da Cavidade (Shear Driven Cavity Problem).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação é um estudo de caso com caráter exploratório (Rampazo, 2005; Babie, 2008). Na parte teórica, propomos a categorização triádica das imagens no ciberespaço, que é uma das contribuições deste trabalho para a área de estudos sobre leitura no ciberespaço. A investigação apresenta como objetivos acompanhar e analisar o processo leitor de um professor de espanhol como língua estrangeira no ciberespaço, tendo como foco a multimodalidade. Tais objetivos têm a função de nortear a resolução dos problemas de pesquisa, a saber: (a) como um professor de ELE lê no ciberespaço tendo em vista as imagens como aspectos da multimodalidade; (b) como esse professor transpõe sua própria atividade leitora e os materiais da internet para uma atividade de aula. Os instrumentos de coleta utilizados foram: entrevista, questionário, protocolos e gravações do GTK. O cruzamento entre 12 critérios de análise permitiu, dentre outros detalhes, observar que nosso sujeito lê textos verbais no ciberespaço movimentando o cursor do mouse como se fosse seus dedos sobre uma folha de papel a percorrer linha a linha da esquerda para a direita. Também percebemos que a experiência de leitura no ciberespaço (conhecimentos prévios) pode ser o fator que contribui para que o sujeito despreze as imagens de categorias mescladas (B e C) e prefira utilizar as imagens de categoria B, no caso, por exemplo, de acessar uma reportagem a partir de sua manchete em jornal eletrônico. Quanto à transposição de materiais para as aulas, percebemos que a formação acadêmica de nosso sujeito ao não direcionar discussões teóricas e metodológicas sobre as TICs e seu uso em sala de aula e sua realidade de trabalho podem ter contribuído para o modo como o sujeito transpõe os materiais da internet para as aulas. As adaptações e afastamentos desses materiais não são trabalhados em sala de aula. As imagens e links são retirados e o texto utilizado na atividade docente é uma mistura de vários materiais provenientes de diferentes países, mas sem a fonte especificada na aula. O papel que a formação tem para a vida profissional e para a práxis do professor não pode ser descartado. Defendemos que uma formação que seja direcionada às TICs deve fazer parte do currículo acadêmico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento de vídeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O aço inoxidável é amplamente utilizado em sistemas para processamento e obtenção de derivados de folhelhos pirobetuminosos. Em função dos problemas de corrosão, originários da composição química dos folhelhos e do processamento em si, são gastos anualmente valores expressivos em manutenção e paradas programadas para reparos nestes sistemas. O presente trabalho busca estudar o processo de corrosão do aço inoxidável AISI 304L em meio simulado de retortagem de folhelhos, em condições de alta temperatura e em presença de elevados teores de enxofre, orgânico e inorgânico, empregando técnicas microscópicas e eletroquímicas. Os resultados mostraram que a temperatura influencia diretamente no processo de corrosão do aço, causando modificação na camada externa de óxidos. Este processo é agravado com a presença de sulfetos no meio, havendo formação, principalmente, de sulfetos de ferro sobre a superfície do aço inoxidável AISI 304L e consequente aumento do processo de corrosão. Foi observado que o enxofre de origem orgânica promove maior destruição da camada de óxido protetor do aço e aumento na formação do filme de sulfeto aderido à superfície deste material. Verificou-se ainda que o processo corrosivo é predominantemente químico, sendo o filme formado considerado protetor, do ponto de vista eletroquímico, no meio eletrolítico estudado

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O emprego das técnicas de posicionamento de alta-precisão e de precisão, com recurso ao Sistema de Posicionamento Global, têm se consolidado como solução definitiva para a obtenção das coordenadas de pontos sobre a superfície terrestre, nas mais diversas aplicações, em particular aquelas envolvidas na realização do cadastro em áreas urbanas e construção da base de dados associada aos Sistemas de Informação Geográfica utilizados na gestão territorial. Os receptores GPS armazenam as informações dos satélites inicialmente em formato próprio, porém a maioria dos usuários não usa esse formato para trabalho, e sim o formato RINEX. Sendo este um formato importante ao trabalhar com GPS, os softwares proprietários que geralmente acompanham os receptores e fazem a transformação de seu formato próprio para o RINEX, processam as observáveis de forma exclusiva e fechada, não permitindo alteração de seu código-fonte (o que configura uma caixa preta). Este trabalho visa elaborar e implementar um programa com código-fonte aberto para leitura e manipulação de arquivos de efemérides transmitidas e precisas do Sistema de Posicionamento Global GPS e aplicá-lo ao posicionamento de satélites artificiais, e ainda realizar um estudo do comportamento do mesmo no posicionamento geodésico de pontos na superfície terrestre. Considerando-se que a posição terrestre dos satélites influencia diretamente no cálculo da posição de pontos sobre a superfície, esse estudo verifica que é possível obter coordenadas dos satélites a partir das efemérides transmitidas de forma coerente, e isto é feito utilizando-se o processamento que o programa faz ao manipular corretamente os arquivos RINEX. O programa implementado é capaz de lidar com os arquivos de formato RINEX e SP3, lendo, extraindo e utilizando informações para uma aplicação de posicionamento terrestre de satélites artificiais GPS, podendo ainda realizar outras aplicações como o posicionamento geodésico de pontos adaptando seu código-fonte para outros modelos. Esse programa poderá ser utilizado em benefício dos profissionais que atuam em diversas aplicações que envolvam o posicionamento geodésico por satélites, proporcionando flexibilidade de trabalho, pois o programa terá código-fonte aberto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Muitos trabalhos têm buscado compreender como se dá o processamento da concordância entre sujeito e verbo e investigar fatores que possam influenciar a produção correta da concordância, gerando os chamados erros de concordância verbal. Franck et al (2010) realizaram pesquisa na língua francesa e encontraram interferência devido a elemento movido sintaticamente na produção da concordância verbal. Se faz necessário investigar se o fenômeno envolvendo movimento é o mesmo em sentenças do português brasileiro. Sendo assim, nosso objetivo foi investigar uma possível interferência de cópia de número plural entre sujeito e verbo (em relação de concordância) de elemento movido sintaticamente em construção de árvore sintática do PB, observando a origem do erro e tentando mostrar se há autonomia do formulador sintático. Ao propormos o diálogo entre Teoria Linguística e Psicolinguística utilizando o Programa Minimalista, versão mais atual do Gerativismo de Chomsky, a fim de observar a derivação sintática e o processamento das sentenças, acreditamos que o estudo de formulação sintática e um olhar por meio de um modelo de processamento, que abarquem tanto a formulação como a produção, esclareceriam a nós pontos importantes sobre o funcionamento da concordância verbal. A nossa hipótese é a de que um erro de concordância verbal não ocorra devido ao formulador sintático em estruturas de PB, buscaremos respostas para isso no modelo MIMC (Modelo Integrado Misto da Computação On-Line) (Corrêa & Augusto, 2007). No entanto, por outro lado, se um erro de concordância ocorre, tentaremos encontrar uma outra explicação que não proveniente da sintaxe, tal como, por exemplo, devido a aspecto de ordem morfofonológica e devido a tamanho da sentença, como colocado pelo modelo PMP (Modelo de Processamento Monitorado por parser (Rodrigues, 2006). À medida que realizamos dois experimentos com sentenças declarativa e interrogativa com o movimento do elemento DP e QU, os resultados mostram que o tamanho da sentença e fatores morfofonológicos podem produzir interferência devido ao tipo de elemento movido. Os resultados cedem terreno para assumir um formulador sintático autônomo e abre caminho para próximas investigações sobre o processamento da concordância verbal e possíveis interferências durante a sua produção

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The artisanal processing of fish from artisanal, semi-industrial or industrial fisheries is described and the production costs of fishery products processing in significant artisanal fishing zones of Mozambique were studied.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta é uma tese centrada nas estratégias empregadas pelos eleitores para o processamento das informações sobre a política, no contexto da campanha presidencial brasileira de 2006. Propusemos, neste trabalho, um modelo estatístico para o processamento da informação sobre a política, construído a partir da contribuição de estudos realizados nos campos de conhecimento das ciências sociais, da economia, da psicologia cognitiva e da comunicação, e, sobretudo, a partir das evidências extraídas de nosso desenho de pesquisa. Este combinou métodos qualitativo, quantitativo e a análise das estratégias retóricas empregadas por candidatos e partidos políticos no Horário Gratuito de Propaganda Eleitoral (HGPE), elemento dinâmico de nosso estudo, por sintetizar os fluxos de informação no ambiente das campanhas políticas. Esse conjunto de abordagens metodológicas, foi empregado para o estudo de caso do eleitor belo-horizontino, inserido no complexo ambiente informacional das campanhas presidenciais. Com informações incompletas, o eleitor precisou escolher em quem acreditar, lidando com a incerteza dos resultados do pleito e com a incerteza em relação ao comportamento futuro dos atores, cioso de que as retóricas da campanha estavam orientadas para a persuasão. O nosso trabalho procurou mapear as estratégias empregadas pelos eleitores na seleção de temas do debate para a atenção e para o processamento das novas informações sobre a política, adquiridas em interações múltiplas ao longo da campanha. Essa complexa tarefa foi destinada à escolha de por quem ser persuadido. Procuramos responder, neste trabalho, a partir das evidências empíricas, várias preocupações deste campo de conhecimento, entre elas: 1) Em meio a tantos temas abordados na disputa entre partidos e candidatos, quais deles e por que o indivíduo escolhe para prestar atenção e acreditar? 2) Que variáveis intermedeiam e qual o seu peso nesse processo de interação com as novas informações para explicar a tomada de decisão? 3) As prioridades da agenda política do eleitor se alteram ao longo da campanha? 4) Os eleitores ampliam o repertório mais geral de informação sobre a política? 5) As percepções sobre avaliação de governo e em relação aos temas prioritários da agenda do eleitor se alteram ao longo da campanha?

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Restauração de Imagens é uma técnica que possui aplicações em várias áreas, por exemplo, medicina, biologia, eletrônica, e outras, onde um dos objetivos da restauração de imagens é melhorar o aspecto final de imagens de amostras que por algum motivo apresentam imperfeições ou borramentos. As imagens obtidas pelo Microscópio de Força Atômica apresentam borramentos causados pela interação de forças entre a ponteira do microscópio e a amostra em estudo. Além disso apresentam ruídos aditivos causados pelo ambiente. Neste trabalho é proposta uma forma de paralelização em GPU de um algoritmo de natureza serial que tem por fim a Restauração de Imagens de Microscopia de Força Atômica baseado na Regularização de Tikhonov.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este texto verificou o tema de monitoramento de processos de produção de petróleo em plataformas no mar de forma a propor indicadores globais para monitoramento da funcionalidade dos equipamentos que envolvem estes processos, permitindo a antecipação da tomada de decisão sobre suas eminentes quedas de disponibilidade. Para tal, buscando conhecer as áreas envolvidas na gestão de uma plataforma de petróleo no mar, foram identificados os principais sistemas relacionados ao processo de produção de petróleo e optou-se pelo Sistema de Separação e Tratamento de Óleo para desenvolvimento e validação dos indicadores propostos. O Indicador Global de Funcionalidade Operacional (IGFO) foi desenvolvido a partir dos dados disponíveis para monitoramento dos processos de produção de petróleo, focado nas visões das principais áreas envolvidas na gestão da plataforma. Este indicador foi elaborado com objetivo de simplificar a análise dos processos, permitindo assim aferir o desempenho das ações de monitoramento de processos em plataformas de petróleo, de modo a atuar de forma antecipativa, contribuindo com a identificação e a disseminação das melhores práticas de manutenção preditiva. Neste aspecto, os indicadores na forma de normalização utilizada permitem comparações em diversos níveis, tanto em relação as plataformas dentro de uma empresa, como plataformas de empresas diferentes. Os indicadores globais propostos obtiveram resultados que permitiram avaliar a queda de funcionalidade dos equipamentos do Sistema de Separação e Tratamento de Óleo durante o período avaliado, servindo de base para identificação das causas das falhas destes equipamentos. Assim sendo, pôde-se perceber que a utilização dos indicadores globais identificados pode responder com sucesso às necessidades propostas