113 resultados para Ensilagem - Processamento
Resumo:
Este trabalho apresenta uma proposta para permitir o uso compartilhado dos recursos computacionais utilizados em um cluster de forma a atender simultaneamente aos quatro experimentos do CERN. A abordagem adotada utiliza o conceito de contratos, onde os requisitos e restrições de cada experimento são descritos em perfis, e uma política de alocação de recursos é definida para manter a utilização dos recursos de forma a atender aos perfis. Propomos um modelo de arquitetura para gerenciar o uso compartilhado de um cluster pelas quatro Organizações Virtuais do LHC. Este modelo de arquitetura é composto de elementos comuns a um cluster típico da Tier-2, acrescidos de funcionalidades para controlar a admissão de novos jobs de todas as Organizações Virtuais do LHC. Este modelo monitora a utilização de recursos do cluster por cada OV, aloca recursos para cada job de acordo com uma política estabelecida para o cluster de forma a procurar respeitar os requisitos de cada uma delas. Definimos um algoritmo para o escalonamento de jobs, que utiliza mecanismos de preempção para controlar a alocação de nós do cluster dependendo o uso corrente e acumulado de recursos por cada OV. Este algoritmo é executado em um dos elementos da arquitetura batizado de broker, dado que o mesmo intermedeia a chegada de novos jobs e a alocação dos nós do cluster, e tem com objetivo manter o controle dos contratos de cada OV. A simulação da arquitetura proposta foi feita no simulador de grades GridSim e os resultados obtidos foram avaliados.
Resumo:
Esta tese propôs uma metodologia para detecção de áreas susceptíveis a deslizamentos de terra a partir de imagens aéreas, culminando no desenvolvimento de uma ferramenta computacional, denominada SASD/T, para testar a metodologia. Para justificar esta pesquisa, um levantamento sobre os desastres naturais da história brasileira relacionada a deslizamentos de terra e as metodologias utilizadas para a detecção e análise de áreas susceptíveis a deslizamentos de terra foi realizado. Estudos preliminares de visualização 3D e conceitos relacionados ao mapeamento 3D foram realizados. Estereoscopia foi implementada para visualizar tridimensionalmente a região selecionada. As altitudes foram encontradas através de paralaxe, a partir dos pontos homólogos encontrados pelo algoritmo SIFT. Os experimentos foram realizados com imagens da cidade de Nova Friburgo. O experimento inicial mostrou que o resultado obtido utilizando SIFT em conjunto com o filtro proposto, foi bastante significativo ao ser comparado com os resultados de Fernandes (2008) e Carmo (2010), devido ao número de pontos homólogos encontrados e da superfície gerada. Para detectar os locais susceptíveis a deslizamentos, informações como altitude, declividade, orientação e curvatura foram extraídas dos pares estéreos e, em conjunto com as variáveis inseridas pelo usuário, forneceram uma análise de quão uma determinada área é susceptível a deslizamentos. A metodologia proposta pode ser estendida para a avaliação e previsão de riscos de deslizamento de terra de qualquer outra região, uma vez que permite a interação com o usuário, de modo que este especifique as características, os itens e as ponderações necessárias à análise em questão.
Resumo:
No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.
Resumo:
A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.
Resumo:
Esta dissertação aborda a questão da transferência entre línguas na aquisição de segunda língua/língua estrangeira (L2/FL), mais especificamente, a influência do Português Brasileiro (PB) como língua materna (L1) na aquisição de inglês como L2/FL no que diz respeito ao preenchimento da posição de sujeito pronominal. Esse fenômeno é investigado à luz da teoria linguística gerativista nos moldes do Programa Minimalista (CHOMSKY, 1995) e da psicolinguística, no âmbito das questões de aquisição de L2/FL, ciência responsável por fornecer modelos procedimentais de como a produção e a compreensão de sentenças podem ser entendidas. A discussão sobre o modo como se dá a aquisição de L2 tem se mostrado complexa na literatura. O PB e o inglês diferem em relação à satisfação do traço EPP, responsável pelo preenchimento da posição de sujeito sintático nas línguas naturais. O PB tem se aproximado do inglês quanto ao preenchimento de sujeitos referenciais, mas não no que concerne aos sujeitos expletivos, apresentando ainda construções de tópico-sujeito, características que podem interferir na aquisição do valor paramétrico negativo para sujeitos nulos no inglês. A fim de investigar as mudanças que vêm afetando o PB nesse âmbito e observar o quanto aprendizes de inglês como FL falantes de PB se mostram sensíveis à agramaticalidade de sentenças com sujeito nulo no inglês em diferentes contextos, foram realizados dois experimentos, ambos com uma tarefa de julgamento de gramaticalidade. O experimento piloto foi realizado com aprendizes dos níveis básico e avançado e apresentava dois tipos distintos de sentenças (Tipo 1: sujeito nulo e Tipo 2: tópico + sujeito nulo); e um experimento final com aprendizes dos níveis básico, intermediário e avançado, com três tipos de sentenças (Tipo 1: sujeito nulo, Tipo 2: tópico + sujeito nulo e Tipo 3: conjunção + sujeito nulo). Dada a complexidade da gramática do PB, nossa hipótese de trabalho é de que não se observe uma transferência total, mas o surgimento de uma interlíngua que ora se aproxima, ora se afasta da gramática-alvo, refletindo a sobrecarga de processamento que lidar com as duas gramáticas impõe. Os resultados sustentam a hipótese ao indicar que (i) o valor do parâmetro do sujeito nulo parece ser transferido da L1 para a L2, uma vez que foi encontrado um alto número de respostas incorretas; (ii) a interferência se dá mais fortemente no âmbito dos sujeitos expletivos; (iii) há interferência de restrições gerais da gramática da L1 (restrições a V1) na L2; e (iv) a interferência diminui em função do aumento da proficiência em L2. Além disso, nas sentenças do tipo 2, parece haver uma possível interferência do PB que acaba por mascarar a omissão do expletivo, o que indica uma dificuldade de integração de informações provenientes das limitações decorrentes da necessidade de processar duas línguas em momentos específicos de modo a evitar a interferência da língua indesejada, no caso a L1, que por ainda ser dominante exige mais recursos para ser inibida (SORACE, 1999, 2011).
Resumo:
Introdução: A preocupação em torno do uso irracional de psicofármacos tem sido observada em diversos países, constituindo-se uma questão importante para a saúde pública mundial. No Brasil, a promoção do uso racional de psicofármacos é um desafio para a atenção primária, sendo importante caracterizar sua dimensão psicossocial. Objetivos. O artigo 1, com características descritivas, tem como objetivo caracterizar o uso de psicofármacos em unidades de saúde da família segundo a presença de transtornos mentais comuns (TMC) e segundo as principais características socioeconômicas e demográficas. O artigo 2, com um caráter analítico, tem como objetivo avaliar o papel da rede social no uso de cada um destes psicofármacos segundo a presença de TMC. Métodos O estudo utiliza um delineamento seccional e abarca a primeira fase de coleta de dados de dois estudos em saúde mental na atenção primária. Esta se deu em 2006/2007 para o estudo 1 (Petrópolis, n= 2.104) e em 2009/2010 para o estudo2 (São Paulo, n =410, Rio de Janeiro, n= 703, Fortaleza , n=149 e Porto Alegre, n= 163 participantes). Ambos os estudos possuem o mesmo formato no que se refere à coleta de dados, seu processamento e revisão, resultando em uma amostra de 3.293 mulheres atendidas em unidades de saúde da família de cinco diferentes cidades do país. Um questionário objetivo com perguntas fechadas foi utilizado para a coleta de informações socioeconômicas e demográficas. O uso de psicofármacos foi avaliado através de uma pergunta aberta baseada no auto-relato do uso de medicamentos. A presença de TMC foi investigada através do General Health Questionnaire, em sua versão reduzida (GHQ-12). O nível de integração social foi aferido através do índice de rede social (IRS), calculado a partir de perguntas sobre rede social acrescentado ao questionário geral. No estudo descritivo (artigo 1), a frequência do uso de antidepressivos e o uso de benzodiazepínicos na população de estudo foram calculadas para cada cidade, tal como a frequência do uso destes psicofármacos entre as pacientes com transtornos mentais comuns. A distribuição do uso de cada um destes psicofármacos segundo as principais características socioeconômicas, demográficas e segundo transtornos mentais comuns foi avaliada através do teste de qui-quadrado de Pearson. No estudo analítico (artigo 2), a associação entre o nível de integração social e o uso exclusivo de cada um dos psicofármacos foi analisada através da regressão logística multivariada, com estratificação segundo a presença de TMC. Resultados: A frequência do uso de psicofármacos foi bastante heterogênea entre as cidades, destacando-se, porém, a importância do uso de benzodiazepínicos frente ao uso de antidepressivos em sua maioria. A proporção do uso de psicofármacos, sobretudo antidepressivos, foi predominantemente baixa entre as pacientes com TMC. Entre elas, o uso de antidepressivos mostrou-se positivamente associado ao isolamento social, enquanto o uso de benzodiazepínicos associou-se negativamente a este. Conclusão: Os resultados colaboram para a caracterização do uso de psicofármacos em unidades de saúde da família e para a discussão acerca de sua racionalidade. Destaca-se a importância de avaliar a dimensão psicossocial que envolve o uso destas substâncias com vistas ao desenvolvimento de estratégias de cuidado mais efetivas
Resumo:
A discriminação de fases que são praticamente indistinguíveis ao microscópio ótico de luz refletida ou ao microscópio eletrônico de varredura (MEV) é um dos problemas clássicos da microscopia de minérios. Com o objetivo de resolver este problema vem sendo recentemente empregada a técnica de microscopia colocalizada, que consiste na junção de duas modalidades de microscopia, microscopia ótica e microscopia eletrônica de varredura. O objetivo da técnica é fornecer uma imagem de microscopia multimodal, tornando possível a identificação, em amostras de minerais, de fases que não seriam distinguíveis com o uso de uma única modalidade, superando assim as limitações individuais dos dois sistemas. O método de registro até então disponível na literatura para a fusão das imagens de microscopia ótica e de microscopia eletrônica de varredura é um procedimento trabalhoso e extremamente dependente da interação do operador, uma vez que envolve a calibração do sistema com uma malha padrão a cada rotina de aquisição de imagens. Por esse motivo a técnica existente não é prática. Este trabalho propõe uma metodologia para automatizar o processo de registro de imagens de microscopia ótica e de microscopia eletrônica de varredura de maneira a aperfeiçoar e simplificar o uso da técnica de microscopia colocalizada. O método proposto pode ser subdividido em dois procedimentos: obtenção da transformação e registro das imagens com uso desta transformação. A obtenção da transformação envolve, primeiramente, o pré-processamento dos pares de forma a executar um registro grosseiro entre as imagens de cada par. Em seguida, são obtidos pontos homólogos, nas imagens óticas e de MEV. Para tal, foram utilizados dois métodos, o primeiro desenvolvido com base no algoritmo SIFT e o segundo definido a partir da varredura pelo máximo valor do coeficiente de correlação. Na etapa seguinte é calculada a transformação. Foram empregadas duas abordagens distintas: a média ponderada local (LWM) e os mínimos quadrados ponderados com polinômios ortogonais (MQPPO). O LWM recebe como entradas os chamados pseudo-homólogos, pontos que são forçadamente distribuídos de forma regular na imagem de referência, e que revelam, na imagem a ser registrada, os deslocamentos locais relativos entre as imagens. Tais pseudo-homólogos podem ser obtidos tanto pelo SIFT como pelo método do coeficiente de correlação. Por outro lado, o MQPPO recebe um conjunto de pontos com a distribuição natural. A análise dos registro de imagens obtidos empregou como métrica o valor da correlação entre as imagens obtidas. Observou-se que com o uso das variantes propostas SIFT-LWM e SIFT-Correlação foram obtidos resultados ligeiramente superiores aos do método com a malha padrão e LWM. Assim, a proposta, além de reduzir drasticamente a intervenção do operador, ainda possibilitou resultados mais precisos. Por outro lado, o método baseado na transformação fornecida pelos mínimos quadrados ponderados com polinômios ortogonais mostrou resultados inferiores aos produzidos pelo método que faz uso da malha padrão.
Resumo:
A afasiologia linguística, enquanto ramo da Linguística, contribui para a verificação dos pressupostos da Teoria Gerativa e para a classificação e descrição das particularidades linguísticas características dos diferentes tipos de afasias. Neste contexto, os problemas com a produção de estruturas complexas, como é o caso das interrogativas, têm sido tema de muitos estudos em diversas línguas. Entretanto, os benefícios que tais pesquisas podem oferecer no sentido de melhorar o cotidiano dos sujeitos de pesquisa raramente são abordados. Com o intuito de atuar sobre esta lacuna, a presente dissertação tem como objetivo geral fornecer um roteiro de pesquisa com sugestões de intervenção de base linguística no tratamento fonoaudiológico de um indivíduo afásico, proporcionando, desta forma, melhora do cotidiano do afásico em seu ambiente familiar. A hipótese que orienta este trabalho é a de que a aplicação de um roteiro de pesquisa linguística descentralizado e desverticalizado sobre o tratamento da afasia pode proporcionar melhorias no cotidiano familiar do paciente acometido pelo déficit. Para desenvolver o roteiro em questão, foram escolhidas as interrogativas-QU como tópico linguístico. O roteiro, todavia, foi desenvolvido para que qualquer outro tópico linguístico, identificado como problemático e passível de tratamento específico, seja aplicável ao esquema. Como objetivo subsidiário, pretende-se desenvolver um modelo de pesquisa que busque contribuir para a aplicação do princípio da indissociabilidade entre ensino, pesquisa e extensão. A metodologia consiste na utilização de um estudo de caso com testes avaliativos, treinamento de sentenças e entrevistas. O sujeito selecionado para o estudo é um afásico agramático. Há, ainda, a colaboração de membros de sua família e da equipe de fonoaudiologia do Centro de Recuperação do Paciente Afásico (CRPA) da Universidade Veiga de Almeida (UVA). Os resultados coletados nos testes e nas entrevistas apontam para melhora no processamento linguístico de interrogativas-QU, tanto no que se refere à organização dos sintagmas nas sentenças, quanto à seleção de itens lexicais adequados (elementos-QU). Resultados também apontam para melhoras no cotidiano do afásico no que se refere à redução da ansiedade perante erros, presença de mais opções comunicativas e aumento da capacidade de comunicação independente. Através dos resultados, constata-se a viabilidade de aplicação do roteiro proposto para futura aplicação por profissionais envolvidos com o tratamento e o estudo das afasias
Resumo:
A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.
Resumo:
O biodiesel tem sido amplamente utilizado como uma fonte de energia renovável, que contribui para a diminuição de demanda por diesel mineral. Portanto, existem várias propriedades que devem ser monitoradas, a fim de produzir e distribuir biodiesel com a qualidade exigida. Neste trabalho, as propriedades físicas do biodiesel, tais como massa específica, índice de refração e ponto de entupimento de filtro a frio foram medidas e associadas a espectrometria no infravermelho próximo (NIR) e espectrometria no infravermelho médio (Mid-IR) utilizando ferramentas quimiométricas. Os métodos de regressão por mínimos quadrados parciais (PLS), regressão de mínimos quadrados parciais por intervalos (iPLS), e regressão por máquinas de vetor de suporte (SVM) com seleção de variáveis por Algoritmo Genético (GA) foram utilizadas para modelar as propriedades mencionadas. As amostras de biodiesel foram sintetizadas a partir de diferentes fontes, tais como canola, girassol, milho e soja. Amostras adicionais de biodiesel foram adquiridas de um fornecedor da região sul do Brasil. Em primeiro lugar, o pré-processamento de correção de linha de base foi usado para normalizar os dados espectrais de NIR, seguidos de outros tipos de pré-processamentos que foram aplicados, tais como centralização dos dados na média, 1 derivada e variação de padrão normal. O melhor resultado para a previsão do ponto de entupimento de filtro a frio foi utilizando os espectros de Mid-IR e o método de regressão GA-SVM, com alto coeficiente de determinação da previsão, R2Pred=0,96 e baixo valor da Raiz Quadrada do Erro Médio Quadrático da previsão, RMSEP (C)= 0,6. Para o modelo de previsão da massa específica, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com R2Pred=0,98 e RMSEP (g/cm3)= 0,0002. Quanto ao modelo de previsão para o índice de refração, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com excelente R2Pred=0,98 e RMSEP= 0,0001. Para esses conjuntos de dados, o PLS e o SVM demonstraram sua robustez, apresentando-se como ferramentas úteis para a previsão das propriedades do biodiesel estudadas
Escolhas lexicais e iconicidade textual: uma análise do insólito no romance Sombras de Reis Barbudos
Resumo:
Esta tese dedicou-se a descrever e interpretar a tessitura textual dos fenômenos insólitos no romance Sombras de Reis Barbudos, de José J. Veiga, com base na associação entre a Teoria da Iconicidade Verbal e a Linguística de Córpus . Centrou-se, especificamente, nas marcas linguísticas que representam ideias ou conduzem o intérprete à percepção de que o insólito é construído no texto por meio itens léxicos que constituem pistas icônicas. Merecem especial interesse, sobretudo, os substantivos, que, por serem palavras com alta iconicidade, participam da construção/representação de fenômenos insólitos e criam, por meio da trilha léxica, o itinerário de leitura para o texto-córpus. Para que os resultados fossem significativos, análise apoiou-se nos recursos digitais da Linguística de Córpus (SARDINHA, 2004; 2009), que possibilitaram realizar uma pesquisa baseada em um córpus. A utilização da Linguística de Córpus como metodologia permitiu levantar, quantificar e tabular os signos que corroboram com a compreensão da incongruência e da iconicidade lexical dos fenômenos insólitos em um texto literário, identificando os substantivos-nódulos e seus colocados, para avaliá-los quanto à incompatibilidade das escolhas lexicais realizadas por José J. Veiga em relação às estruturas lexicogramaticais da Língua Portuguesa. Fundamentou-se a discussão no insólito como categoria essencial do fantástico modal (BESSIÈRE, 2009; COVIZZI, 1978, FURTADO, s.d.; PRADA OROPREZA, 2006); na Semiótica de extração peirceana, com enfoque na Teoria da Iconicidade Verbal (SIMÕES, 2007,2009) e na colocação lexical (BÉNJOINT, 1994; SINCLAIR, 1987, 1991, 2004; TAGNIN, 1989). A tese demonstra que a incongruência e a iconicidade lexical são identificadas a partir da seleção vocabular obtida pelo processamento digital e pelo confronto com o Córpus do Português. A análise comprova que os substantivos, como categorias linguísticas caracterizáveis semanticamente, têm a função designatória ou de nomeação na arquitetura de um texto em que se manifesta o insólito. Revela também que a incongruência lexical constitui-se em uma chave para a construção do ilógico, mágico, fantástico, misterioso, sobrenatural, irreal e suprarreal no texto-córpus
Resumo:
As correntes pesadas do refino de petróleo podem ser utilizadas para a produção de óleos combustíveis para uso industrial ou marítimo, sendo esse último conhecido como óleo bunker. Para tal, é necessária a diluição dessas correntes pesadas com frações de refino mais leves para ajuste da viscosidade. Enquanto o uso industrial do óleo combustível vem sendo significativamente reduzido em função de restrições ambientais, o mercado de óleo bunker apresenta crescimento importante face a expansão do comércio marítimo mundial. No Brasil, há um aumento da produção de petróleos pesados, extrapesados e asfálticos, que exigem complexos esquemas de refino para a sua conversão em frações mais leves. Dessa forma, ocorre uma redução da quantidade de correntes disponíveis para a produção de bunker, além da variação da qualidade das correntes usadas na sua formulação. Esta dissertação avalia a utilização de petróleos pesados e asfálticos na produção de bunker, sem a necessidade do processamento tradicional em refinarias de petróleo. A comparação da qualidade de ignição e de combustão da nova formulação deste produto com o combustível marítimo preparado a partir de correntes residuais é realizada por duas metodologias diferentes. Após a realização de um pré-tratamento, a mistura formulada a partir dos cortes dos petróleos apresenta melhor desempenho que os combustíveis formulados com as correntes residuais. Além disso, este trabalho compara o efeito de diferentes diluentes e a contribuição da corrente pesada utilizada na qualidade de ignição e de combustão do produto
Resumo:
Este trabalho apresenta o desenvolvimento de sistemas inteligentes aplicados ao monitoramento de estruturas aeronáuticas abordando dois modelos distintos: o primeiro é a análise e classificação de imagens de ultrassom de estruturas aeronáuticas com objetivo de apoiar decisões em reparo de estruturas aeronáuticas. Foi definido como escopo do trabalho uma seção transversal da asa da aeronave modelo Boeing 707. Após a remoção de material superficial em áreas comprometidas por corrosão, é realizada a medição da espessura ao longo da área da peça. Com base nestas medições, a Engenharia realiza a análise estrutural, observando os limites determinados pelo manual de manutenção e determina a necessidade ou não de reparo. O segundo modelo compreende o método de impedância eletromecânica. É proposto o desenvolvimento de um sistema de monitoramento de baixo custo aplicado em uma barra de alumínio aeronáutico com 10 posições de fixação de porcas e parafusos. O objetivo do sistema é avaliar, a partir das curvas de impedância extraídas do transdutor PZT fixado na barra, sua capacidade de classificar a existência ou não de um dano na estrutura e, em caso de existência do dano, indicar sua localização e seu grau de severidade. Foram utilizados os seguintes classificadores neste trabalho: máquina de vetor de suporte, redes neurais artificiais e K vizinhos mais próximos.
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
Ensaio não destrutivo é uma ferramenta essencial quando um equipamento, dispositivo ou componente não pode ser submetido a procedimentos destrutivos ou invasivos devido a razões de segurança, alto custo ou outras restrições físicas ou logísticas. Dentro deste quadro radiografias por transmissão com raios gama e nêutrons térmicos são técnicas singulares para inspecionar um objeto e desvendar sua estrutura interna devido à capacidade de atravessar uma vasta gama de materiais utilizados na indústria. Grosso modo, raios gama são mais atenuados por materiais pesados enquanto nêutrons térmicos são mais atenuados por materiais mais leves, tornando-as ferramentas complementares. Este trabalho apresenta os resultados obtidos na inspeção de vários componentes mecânicos, através da radiografia por transmissão com nêutrons térmicos e raios gama. O fluxo de nêutrons térmicos de 4,46x105 n.cm-2.s-1 disponível no canal principal do reator de pesquisa Argonauta do Instituto de Engenharia Nuclear foi usado como fonte para as imagens radiográficas com nêutrons. Raios dekeV emitidos pelo 198Au, também produzido no reator, foram usados como fonte de radiação para radiografias . Imaging Plates, especificamente produzidos para operar com nêutrons térmicos ou com raios X, foram empregados como detectores e dispositivos de armazenamento e captação de imagens para cada uma dessas radiações. Esses dispositivos exibem varias vantagens quando comparados ao filme radiográfico convencional. Com efeito, além de maior sensibilidade e serem reutilizáveis não são necessários câmaras escuras e processamento químico para a revelação. Em vez disso, ele é lido por um feixe de laser que libera elétrons armadilhados na rede cristalina durante a exposição à radiação, fornecendo uma imagem final digital. O desempenho de ambos os sistemas de aquisição de imagens, assim constituído, foi avaliado com respeito à sensibilidade, resolução espacial, linearidade e range dinâmico, incluído uma comparação com sistemas radiográficos com nêutrons empregando filmes e folhas de gadolínio como conversor de nêutrons em partículas carregadas. Além desta caracterização, diversos equipamentos e componentes foram radiografados com ambos os sistemas visando-se avaliar suas capacidades de desvendar a estrutura interna desses objetos e detectar estruturas e estados anormais. Dentro desta abordagem, uma neutrongrafia detectou a presença de material cerâmico remanescente empregado como molde no processo de fabricação nos canais de refrigeração de uma aleta do estator de uma turbina tipo turbo-fan, que deveria estar livre desse material. O reostato danificado de um sensor de pressão automotivo, foi identificado por neutrongrafia, embora nesse caso a radiografia também conseguiu realizar essa tarefa com melhor resolução, corroborando assim as curvas de resolução espacial obtidas na caracterização dos dois sistemas. A homogeneidade da distribuição do material encapsulado em uma gaxeta explosiva de chumbo utilizada na indústria aeroespacial foi igualmente verificada por neutrongrafia porque esse metal é relativamente transparente para nêutrons, mas suficientemente opaco para o explosivo rico em hidrogênio. Diversos outros instrumentos e componentes tais como variômetro, altímetro, bússola aeronáutica, injetor automotivo de combustível, foto-camera, disco rígido de computador, motor de passo, conectores eletrônicos e projéteis foram radiografados com ambos os sistemas visando avaliar suas habilidades em desvendar diferentes peculiaridades em função do agente interrogador.