997 resultados para processamento mínimo


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O emprego das técnicas de posicionamento de alta-precisão e de precisão, com recurso ao Sistema de Posicionamento Global, têm se consolidado como solução definitiva para a obtenção das coordenadas de pontos sobre a superfície terrestre, nas mais diversas aplicações, em particular aquelas envolvidas na realização do cadastro em áreas urbanas e construção da base de dados associada aos Sistemas de Informação Geográfica utilizados na gestão territorial. Os receptores GPS armazenam as informações dos satélites inicialmente em formato próprio, porém a maioria dos usuários não usa esse formato para trabalho, e sim o formato RINEX. Sendo este um formato importante ao trabalhar com GPS, os softwares proprietários que geralmente acompanham os receptores e fazem a transformação de seu formato próprio para o RINEX, processam as observáveis de forma exclusiva e fechada, não permitindo alteração de seu código-fonte (o que configura uma caixa preta). Este trabalho visa elaborar e implementar um programa com código-fonte aberto para leitura e manipulação de arquivos de efemérides transmitidas e precisas do Sistema de Posicionamento Global GPS e aplicá-lo ao posicionamento de satélites artificiais, e ainda realizar um estudo do comportamento do mesmo no posicionamento geodésico de pontos na superfície terrestre. Considerando-se que a posição terrestre dos satélites influencia diretamente no cálculo da posição de pontos sobre a superfície, esse estudo verifica que é possível obter coordenadas dos satélites a partir das efemérides transmitidas de forma coerente, e isto é feito utilizando-se o processamento que o programa faz ao manipular corretamente os arquivos RINEX. O programa implementado é capaz de lidar com os arquivos de formato RINEX e SP3, lendo, extraindo e utilizando informações para uma aplicação de posicionamento terrestre de satélites artificiais GPS, podendo ainda realizar outras aplicações como o posicionamento geodésico de pontos adaptando seu código-fonte para outros modelos. Esse programa poderá ser utilizado em benefício dos profissionais que atuam em diversas aplicações que envolvam o posicionamento geodésico por satélites, proporcionando flexibilidade de trabalho, pois o programa terá código-fonte aberto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Muitos trabalhos têm buscado compreender como se dá o processamento da concordância entre sujeito e verbo e investigar fatores que possam influenciar a produção correta da concordância, gerando os chamados erros de concordância verbal. Franck et al (2010) realizaram pesquisa na língua francesa e encontraram interferência devido a elemento movido sintaticamente na produção da concordância verbal. Se faz necessário investigar se o fenômeno envolvendo movimento é o mesmo em sentenças do português brasileiro. Sendo assim, nosso objetivo foi investigar uma possível interferência de cópia de número plural entre sujeito e verbo (em relação de concordância) de elemento movido sintaticamente em construção de árvore sintática do PB, observando a origem do erro e tentando mostrar se há autonomia do formulador sintático. Ao propormos o diálogo entre Teoria Linguística e Psicolinguística utilizando o Programa Minimalista, versão mais atual do Gerativismo de Chomsky, a fim de observar a derivação sintática e o processamento das sentenças, acreditamos que o estudo de formulação sintática e um olhar por meio de um modelo de processamento, que abarquem tanto a formulação como a produção, esclareceriam a nós pontos importantes sobre o funcionamento da concordância verbal. A nossa hipótese é a de que um erro de concordância verbal não ocorra devido ao formulador sintático em estruturas de PB, buscaremos respostas para isso no modelo MIMC (Modelo Integrado Misto da Computação On-Line) (Corrêa & Augusto, 2007). No entanto, por outro lado, se um erro de concordância ocorre, tentaremos encontrar uma outra explicação que não proveniente da sintaxe, tal como, por exemplo, devido a aspecto de ordem morfofonológica e devido a tamanho da sentença, como colocado pelo modelo PMP (Modelo de Processamento Monitorado por parser (Rodrigues, 2006). À medida que realizamos dois experimentos com sentenças declarativa e interrogativa com o movimento do elemento DP e QU, os resultados mostram que o tamanho da sentença e fatores morfofonológicos podem produzir interferência devido ao tipo de elemento movido. Os resultados cedem terreno para assumir um formulador sintático autônomo e abre caminho para próximas investigações sobre o processamento da concordância verbal e possíveis interferências durante a sua produção

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The artisanal processing of fish from artisanal, semi-industrial or industrial fisheries is described and the production costs of fishery products processing in significant artisanal fishing zones of Mozambique were studied.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta é uma tese centrada nas estratégias empregadas pelos eleitores para o processamento das informações sobre a política, no contexto da campanha presidencial brasileira de 2006. Propusemos, neste trabalho, um modelo estatístico para o processamento da informação sobre a política, construído a partir da contribuição de estudos realizados nos campos de conhecimento das ciências sociais, da economia, da psicologia cognitiva e da comunicação, e, sobretudo, a partir das evidências extraídas de nosso desenho de pesquisa. Este combinou métodos qualitativo, quantitativo e a análise das estratégias retóricas empregadas por candidatos e partidos políticos no Horário Gratuito de Propaganda Eleitoral (HGPE), elemento dinâmico de nosso estudo, por sintetizar os fluxos de informação no ambiente das campanhas políticas. Esse conjunto de abordagens metodológicas, foi empregado para o estudo de caso do eleitor belo-horizontino, inserido no complexo ambiente informacional das campanhas presidenciais. Com informações incompletas, o eleitor precisou escolher em quem acreditar, lidando com a incerteza dos resultados do pleito e com a incerteza em relação ao comportamento futuro dos atores, cioso de que as retóricas da campanha estavam orientadas para a persuasão. O nosso trabalho procurou mapear as estratégias empregadas pelos eleitores na seleção de temas do debate para a atenção e para o processamento das novas informações sobre a política, adquiridas em interações múltiplas ao longo da campanha. Essa complexa tarefa foi destinada à escolha de por quem ser persuadido. Procuramos responder, neste trabalho, a partir das evidências empíricas, várias preocupações deste campo de conhecimento, entre elas: 1) Em meio a tantos temas abordados na disputa entre partidos e candidatos, quais deles e por que o indivíduo escolhe para prestar atenção e acreditar? 2) Que variáveis intermedeiam e qual o seu peso nesse processo de interação com as novas informações para explicar a tomada de decisão? 3) As prioridades da agenda política do eleitor se alteram ao longo da campanha? 4) Os eleitores ampliam o repertório mais geral de informação sobre a política? 5) As percepções sobre avaliação de governo e em relação aos temas prioritários da agenda do eleitor se alteram ao longo da campanha?

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Restauração de Imagens é uma técnica que possui aplicações em várias áreas, por exemplo, medicina, biologia, eletrônica, e outras, onde um dos objetivos da restauração de imagens é melhorar o aspecto final de imagens de amostras que por algum motivo apresentam imperfeições ou borramentos. As imagens obtidas pelo Microscópio de Força Atômica apresentam borramentos causados pela interação de forças entre a ponteira do microscópio e a amostra em estudo. Além disso apresentam ruídos aditivos causados pelo ambiente. Neste trabalho é proposta uma forma de paralelização em GPU de um algoritmo de natureza serial que tem por fim a Restauração de Imagens de Microscopia de Força Atômica baseado na Regularização de Tikhonov.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem o objetivo de desenvolver uma teoria dos direitos sociais, com base na Filosofia e na Economia. São analisadas as teses de autores como Cass Sunstein, Robert Nozick, John Stuart Mill, Michael Sandel, Michael Walzer, John Rawls, Bruce Ackerman e Jürgen Habermas, construindo-se um modelo pautado pela ação comunicativa e pela participação democrática, onde o mínimo existencial ocupa lugar de destaque. São estruturadas pautas interpretativas que podem auxiliar o intérprete no seu mister, indo-se de encontro às teses expansivas que focam na exaustão orçamentária. Deve-se entender que as prestações sociais encartam-se nas complexas relações receita-despesa, o que, no Estado contemporâneo, significa que um conjunto de pessoas contribuirá, involuntariamente, para que o Poder Público aja no sentido de melhorar a situação de outras, independentemente dos motivos que levaram àquele quadro de desigualdade. O ponto é complexo, não podendo ser construído sem considerações de justiça e, particularmente, sem que todos os argumentos sejam acessíveis ao cidadão, base da construção do próprio processo democrático, que move a sociedade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este texto verificou o tema de monitoramento de processos de produção de petróleo em plataformas no mar de forma a propor indicadores globais para monitoramento da funcionalidade dos equipamentos que envolvem estes processos, permitindo a antecipação da tomada de decisão sobre suas eminentes quedas de disponibilidade. Para tal, buscando conhecer as áreas envolvidas na gestão de uma plataforma de petróleo no mar, foram identificados os principais sistemas relacionados ao processo de produção de petróleo e optou-se pelo Sistema de Separação e Tratamento de Óleo para desenvolvimento e validação dos indicadores propostos. O Indicador Global de Funcionalidade Operacional (IGFO) foi desenvolvido a partir dos dados disponíveis para monitoramento dos processos de produção de petróleo, focado nas visões das principais áreas envolvidas na gestão da plataforma. Este indicador foi elaborado com objetivo de simplificar a análise dos processos, permitindo assim aferir o desempenho das ações de monitoramento de processos em plataformas de petróleo, de modo a atuar de forma antecipativa, contribuindo com a identificação e a disseminação das melhores práticas de manutenção preditiva. Neste aspecto, os indicadores na forma de normalização utilizada permitem comparações em diversos níveis, tanto em relação as plataformas dentro de uma empresa, como plataformas de empresas diferentes. Os indicadores globais propostos obtiveram resultados que permitiram avaliar a queda de funcionalidade dos equipamentos do Sistema de Separação e Tratamento de Óleo durante o período avaliado, servindo de base para identificação das causas das falhas destes equipamentos. Assim sendo, pôde-se perceber que a utilização dos indicadores globais identificados pode responder com sucesso às necessidades propostas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem por objetivo propor algoritmos para conservação de energia de uma rede de sensores sem fio (RSSF) aplicada ao monitoramento de um processo suave f(x , y, t), que depende das coordenadas x e y dos nós sensores, e do tempo t, de forma a aumentar a autonomia da rede. Os algoritmos rodam na camada de aplicação de cada nó, e visam a economia de energia dos nós através do gerenciamento da necessidade de transmissões. Após a primeira amostra transmitida, apenas amostras com uma variação percentual maior do que um dado limiar são transmitidas. Além disso, cada nó pode permanecer inativo (economizando energia) entre essas transmissões. Em RSSfs de salto único, são propostos dois algoritmos: um baseado na fonte, onde cada nó é responsável por todo o processamento e tomada de decisões, e outro baseado no sorvedouro, onde todo o processamento e a tomada de decisões são realizadas pelo sorvedouro. Além disso, uma extensão de algoritmo baseado na fonte é proposta, para RSSFs de múltiplos saltos. Através dos resultados obtidos, observa-se que os algoritmos conseguiram uma redução significativa da quantidade de transmissões, o que leva a um aumento do tempo de vida e o erro na reconstrução do processo é apresentada. Desta forma, pode-se conjugar a relação entre tempo de vida máximo e erro de reconstrução mínimo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta de um middleware, chamado DistributedCL, que torna transparente o processamento paralelo em GPUs distribuídas. Com o suporte do middleware DistributedCL uma aplicação, preparada para utilizar a API OpenCL, pode executar de forma distribuída, utilizando GPUs remotas, de forma transparente e sem necessidade de alteração ou nova compilação do seu código. A arquitetura proposta para o middleware DistributedCL é modular, com camadas bem definidas e um protótipo foi construído de acordo com a arquitetura, onde foram empregados vários pontos de otimização, incluindo o envio de dados em lotes, comunicação assíncrona via rede e chamada assíncrona da API OpenCL. O protótipo do middleware DistributedCL foi avaliado com o uso de benchmarks disponíveis e também foi desenvolvido o benchmark CLBench, para avaliação de acordo com a quantidade dos dados. O desempenho do protótipo se mostrou bom, superior às propostas semelhantes, tendo alguns resultados próximos do ideal, sendo o tamanho dos dados para transmissão através da rede o maior fator limitante.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho foi estudado o tratamento simultâneo por biofiltração de emissões de compostos orgânicos voláteis, COV e gás sulfídrico, H2S, em estações de tratamento de despejos industriais, de refinaria de petróleo, ETDI. A biofiltração dos gases emanados da EDTI mostrou ser uma técnica de alta eficiência, atingindo valores de 95 a 99 % para tratamento simultâneo de COV e H2S em concentrações de 1000 e 100 ppmv, respectivamente. Foram realizados testes em 95 dias consecutivos de operação, em uma planta piloto instalada na Superintendência da Industrialização do Xisto, SIX, em São Mateus do Sul, Paraná, de março a agosto de 2006. O biofiltro foi do tipo fluxo ascendente, com 3,77 m3 de leito orgânico, composto de turfa, carvão ativado, lascas de madeira, serragem brita fina além de outros componentes menores. Foi realizada inoculação biológica com lodo filtrado de estação de tratamento de esgoto sanitário. As vazões de gás aplicadas variaram de 85 a 407 m3/h, resultando em taxas de carga de massa de 11,86 a 193,03 g de COV/h.m3 de leito e tempos de residência de 24 segundos a 6,5 minutos, com tempo ótimo de 1,6 minutos. A capacidade máxima de remoção do sistema encontrada, nas condições testadas, foi de 15 g de COV/h. m3, compatível com os valores encontrados na literatura para depuração biológica de COV na escala praticada. Também foi verificada a redução de componentes específicos de BTX, demonstrando boa degradabilidade dos compostos orgânicos. Finalmente o biofiltro demonstrou boa robustez biológica diante dos desvios operacionais intencionalmente provocados, tais como falta de umidade do leito, baixa temperatura, alta vazão, falta de carga de COV e baixo pH do leito. Depois de retomada a condição de operação estável, a biofiltração rapidamente atingiu o estado de equilíbrio, assegurando o uso eficiente e confiável da técnica no tratamento de gases de EDTI na indústria do hidrocarbonetos ou em refinarias de petróleo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Através do processamento de imagens digitais, mais especificamente as etapas de segmentação e classificação, foi possível analisar o processo de ocupação humana da bacia hidrográfica do rio Bonfim, localizada no município de Petrópolis, no estado do Rio de Janeiro. Este processo possibilitou a geração de mapas de uso da terra e cobertura vegetal e configurou-se numa importante etapa para avaliação ambiental capaz de auxiliar e dar fomento à execução de atividades de gestão e monitoramento do meio ambiente e de análise histórica dos remanescentes florestais ao longo dos últimos anos. Nesta pesquisa foram adotadas classes temáticas com o propósito de permitir a classificação das imagens digitais na escala 1/40.000. As classes adotadas foram: afloramento rochoso e vegetação rupestre; obras e edificações; áreas agrícolas e vegetação. Estudos foram feitos no sentido de indicar o melhor método de classificação. Primeiramente, efetuou-se a classificação no sistema SPRING, testando-se os melhores parâmetros de similaridade e área na detecção de fragmentos, somente da classe vegetação. Houve tentativa de classificar as demais classes de uso diretamente pelo sistema SPRING, mas esta classificação não foi viável por apresentar conflitos em relação às classes, desta forma, neste sistema foi feita somente a classificação e quantificação da classe vegetação. Visando dar continuidade a pesquisa, optou-se por executar uma interpretação visual, através do sistema ArcGis, para todas as classes de uso do solo, possibilitando o mapeamento da dinâmica de evolução humana, diante da floresta de mata atlântica na área de estudos e análise histórica de seus remanescentes entre os anos dos anos 1965, 1975, 1994 e 2006.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Perante diversas situações da engenharia são utilizadas formulações empíricas de dimensionamento baseadas em dados de campo e experiência profissional que definem muito o caráter subjetivo da metodologia padrão de projeto. O presente trabalho de pesquisa aborda os diversos métodos de obtenção dos esforços gerados em dutos enterrados submetidos a cargas dinâmicas e estáticas e sua posterior reavaliação através de modelagem numérica com o programa Plaxis 3D. Os métodos analíticos não convencionais foram comparados com o método padrão de cálculo sendo que o mesmo demonstrou ter uma boa precisão mesmo sem considerar outros fatores importantes como a parcela de resistência devida à coesão do solo e sua deformabilidade. A modelagem numérica demonstrou o conservadorismo do método de Marston e o subdmensionamento do espraiamento em prisma devido aos efeitos locais ocasionados pela adoção do recobrimento mínimo e sobrecarga dinâmica elevada. Também se observou, através da modelagem 3D, que a utilização dos dois métodos clássicos favorecem a obtenção de resultados dentro da razoabilidade.Verificou-se também, como resultado desta pesquisa, que a proposta de um método clássico modificado permite uma melhor aproximação da carga que atinge o duto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esforços constantes de pesquisa têm sido conduzidos na seleção de materiais, combinando propriedades de interesse (mecânicas, químicas, elétricas ou térmicas), versatilidade de uso, tempo de vida útil elevado e baixo custo de produção. A busca por materiais de elevado desempenho mecânico despertou grande interesse na pesquisa e desenvolvimento dos cerâmicos avançados com aplicações estruturais e funcionais, como o carbeto de silício. Entretanto, a porosidade ainda é vista como fator limitador do alto desempenho destes materiais visto que, acima de determinada porcentagem, reduz largamente sua resistência mecânica. Seu controle atualmente é realizado através de técnicas de alto custo, com a utilização de tomógrafos. Este trabalho buscou validar uma nova técnica, onde a porosidade foi avaliada através de processamento digital de imagens de microscopia ótica do material previamente lixado e polido em diversas profundidades, com controle dos parâmetros de lixamento e polimento. Esta nova metodologia mostrou-se apropriada e menos dispendiosa para a quantificação da porosidade do carbeto de silício, tendo sido validada para o estudo deste material.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A reação álcali-agregado - RAA é uma patologia de ação lenta que tem sido observada em construções de concreto capaz de comprometer suas estruturas. Sabe-se que a reação álcali-agregado é um fenômeno bastante complexo em virtude da grande variedade de rochas na natureza que são empregadas como agregados no preparo do concreto, podendo cada mineral utilizado afetar de forma distinta a reação ocorrida. Em função dos tipos de estrutura, das suas condições de exposição e dos materiais empregados, a RAA não se comporta sempre da mesma forma, em virtude disto a pesquisa constante neste tema é necessária para o meio técnico e a sociedade. Pesquisas laboratoriais, empíricas e experimentais tem sido rotina em muitos dos estudos da RAA dada ainda à carência de certas definições mais precisas a respeito dos métodos de ensaio, mas também em função da necessidade do melhor conhecimento dos materiais de uso em concretos como os agregados, cimentos, adições, aditivos entre outros e do comportamento da estrutura. Embora técnicas de prevenção possam reduzir significativamente a incidência da RAA, muitas estruturas foram construídas antes que tais medidas fossem conhecidas, havendo no Brasil vários casos de estruturas afetadas, sendo custosos os reparos dessas estruturas. Em estudos recentes sobre o tamanho das partículas de álcali-agregado e sua distribuição foi concluído que o tamanho do agregado está relacionado com o potencial danoso da RAA. Existem ainda indícios de que o tamanho e a distribuição dos poros do concreto também sejam capazes de influenciar o potencial reativo do concreto. Neste trabalho desenvolvemos um Sistema de Visão Artificial (SVA) que, com o uso de técnicas de Processamento de Imagens, é capaz de identificar em imagens de concreto, agregado e poros que atendam em sua forma, às especificações do usuário, possibilitando o cálculo da porosidade e produzindo imagens segmentadas à partir das quais será possível extrair dados relativos à geometria desses elementos. Serão feitas duas abordagens para a obtenção das imagens, uma por Escâner Comercial, que possui vantagens relacionadas à facilidade de aquisição do equipamento, e outra por micro tomógrafo. Uma vez obtidas informações sobre as amostras de concreto, estas podem ser utilizadas para pesquisar a RAA, comparar estruturas de risco com estruturas antigas de forma a melhorar a previsão de risco de ocorrência, bem como serem aplicadas a outras no estudo de outras patologias do concreto menos comuns no nosso país, como o efeito gelo/degelo.