999 resultados para Pós-processamento


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Tese de doutoramento em Engenharia Sanitária

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Informática

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores - Ramo de Sistemas Autónomos

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Os métodos utilizados pela Medicina moderna no âmbito da Imagem Molecular e na sua capacidade de diagnosticar a partir da “Função do Orgão” em vez da “Morfologia do Orgão”, vieram trazer á componente fundamental desta modalidade da Imagiologia Médica – A Medicina Nuclear – uma importância acrescida, que se tem traduzido num aumento significativo no recurso á sua utilização nas diferentes formas das suas aplicações clínicas. Para além dos aspectos meramente clínicos, que só por si seriam suficientes para ocupar várias dissertações como a presente; a própria natureza desta técnica de imagem, com a sua inerente baixa resolução e tempos longos de aquisição, vieram trazer preocupações acrescidas quanto ás questões relacionadas com a produtividade (nº de estudos a realizar por unidade de tempo); com a qualidade (aumento da resolução da imagem obtida) e, com os níveis de actividade radioactiva injectada nos pacientes (dose de radiação efectiva sobre as populações). Conhecidas que são então as limitações tecnológicas associadas ao desenho dos equipamentos destinados á aquisição de dados em Medicina Nuclear, que apesar dos avanços introduzidos, mantêm mais ou menos inalteráveis os conceitos base de funcionamento de uma Câmara Gama, imaginou-se a alteração significativa dos parâmetros de aquisição (tempo, resolução, actividade), actuando não ao nível das condições técnico-mecânicas dessa aquisição, mas essencialmente ao nível do pós-processamento dos dados adquiridos segundo os métodos tradicionais e que ainda constituem o estado da arte desta modalidade. Este trabalho tem então como objectivo explicar por um lado, com algum pormenor, as bases tecnológicas que desde sempre têm suportado o funcionamento dos sistemas destinados á realização de exames de Medicina Nuclear, mas sobretudo, apresentar as diferenças com os inovadores métodos, que aplicando essencialmente conhecimento (software), permitiram responder ás questões acima levantadas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A presente tese tem como principal objetivo a comparação entre dois software de CFD (Computer Fluid Dynamics) na simulação de escoamentos atmosféricos com vista à sua aplicação ao estudo e caracterização de parques eólicos. O software em causa são o OpenFOAM (Open Field Operation and Manipulation) - freeware open source genérico - e o Windie, ferramenta especializada no estudo de parques eólicos. Para este estudo foi usada a topografia circundante a um parque eólico situado na Grécia, do qual dispúnhamos de resultados de uma campanha de medições efetuada previamente. Para este _m foram usados procedimentos e ferramentas complementares ao Open-FOAM, desenvolvidas por da Silva Azevedo (2013) adequados para a realização do pré-processamento, extração de dados e pós-processamento, aplicados na simulação do caso pratico. As condições de cálculo usadas neste trabalho limitaram-se às usadas na simulação de escoamentos previamente simulados pelo software Windie: condições de escoamento turbulento, estacionário, incompressível e em regime não estratificado, com o recurso ao modelo de turbulência RaNS (Reynolds-averaged Navier-Stokes ) k - E atmosférico. Os resultados de ambas as simulações - OpenFOAM e Windie - foram comparados com resultados de uma campanha de medições, através dos valores de speed-up e intensidade turbulenta nas posições dos anemómetros.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dissertação de mestrado integrado em Engenharia Biomédica (área de especialização em Eletrónica Médica)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Pretende-se, utilizando o Modelo da Elasticidade Linear em freeFEM++, determinar os esforços e deslocamentos de um edifício alto submetido apenas à acção do peso próprio da estrutura e, efectuar estudos comparativos dos resultados obtidos com o SAP2000. O trabalho inicia-se com a introdução da teoria da elasticidade linear, onde são feitas as deduções das Equações de Compatibilidade, Equilíbrio e as Leis Constitutivas, de modo a resolver numericamente o problema de Elasticidade Linear mencionado. O método de elementos finitos será implementado em freeFEM++ com auxílio do GMSH que é uma poderosa ferramenta com capacidade de gerar automaticamente malhas tridimensionais de elementos finitos e com relativa facilidade de pré e pós-processamento.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

OBJETIVO: Este artigo apresenta um modelo de integração de algoritmos de diagnóstico auxiliado por computador dentro do fluxo de trabalho dos sistemas de gerenciamento de imagens, desenvolvido com base em um conjunto de ferramentas computacionais de código aberto e uso livre chamado dcm4che2. MATERIAIS E MÉTODOS: O modelo de integração é composto por um servidor de processamento de imagens e por serviços de comunicação. O gerenciamento de dados segue o fluxo de trabalho definido pelo perfil de pós-processamento (PWF) do Integrating the Healthcare Enterprise (IHE) e utiliza a funcionalidade de captura secundária do DICOM. Uma aplicação para lesões difusas de pulmão foi utilizada para prova de conceito. RESULTADOS: O algoritmo de classificação de padrões apresentou acurácia de 78%, com base em um método de teste de validação cruzada. A integração possibilita a visualização das imagens processadas como uma nova série dentro do estudo original. CONCLUSÃO: O modelo de integração proposto baseiase em perfis do IHE e permite o estabelecimento de procedimentos padronizados. Os princípios utilizados para integração do fluxo de trabalho são aplicáveis para qualquer tarefa não interativa de pós-processamento de imagens.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Rede neural artificial consiste em um conjunto de unidades que contêm funções matemáticas, unidas por pesos. As redes são capazes de aprender, mediante modificação dos pesos sinápticos, e generalizar o aprendizado para outros arquivos desconhecidos. O projeto de redes neurais é composto por três etapas: pré-processamento, processamento e, por fim, pós-processamento dos dados. Um dos problemas clássicos que podem ser abordados por redes é a aproximação de funções. Nesse grupo, pode-se incluir a estimação do volume de árvores. Foram utilizados quatro arquiteturas diferentes, cinco pré-processamentos e duas funções de ativação. As redes que se apresentaram estatisticamente iguais aos dados observados também foram analisadas quanto ao resíduo e à distribuição dos volumes e comparadas com a estimação de volume pelo modelo de Schumacher e Hall. As redes neurais formadas por neurônios, cuja função de ativação era exponencial, apresentaram estimativas estatisticamente iguais aos dados observados. As redes treinadas com os dados normalizados pelo método da interpolação linear e equalizados tiveram melhor desempenho na estimação.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Desde o início do ano 2000, o uso de receptores de navegação aumentou consideravelmente. Muito se deve à desativação da disponibilidade seletiva ocorrida em maio de 2000. Entretanto, esses receptores não registram as observáveis, somente estimam e armazenam as coordenadas, o que impede o pós-processamento dos dados. Baseados nesse aspecto, alguns softwares foram desenvolvidos e estão disponíveis gratuitamente. Eles permitem a gravação das observáveis GPS do receptor, pseudodistâncias (código C/A) e das medidas da fase da onda da portadora. Esses programas são capazes de ler de e registrar em arquivos binários as informações referentes às observáveis GPS e realizar a conversão de formato binário para o formato RINEX. Este trabalho visa a avaliar o receptor de navegação Garmin 12 XL a partir do uso dos programas livres. Dois experimentos foram realizados na região de Presidente Prudente-SP, empregando o levantamento relativo estático. O processamento foi realizado com intervalos de tempo de 30; 15; 10 e 5 minutos. Os resultados foram comparados com as coordenadas advindas de um receptor geodésico e mostram que, para 98,9% dos pontos, os valores em relação à acurácia planimétrica foram melhores que 0,50 m. A única linha de base cujo valor foi maior ou igual a 0,50 m é o vértice M0001 (linha de base menor que 2 km), referente ao primeiro experimento. Em termos de precisão, os valores não ultrapassaram 0,30 m.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A análise da iteração solo-estrutura em fundações é um importante campo de pesquisa que ainda tem um grande progresso a ser feito. No presente trabalho foi desenvolvido um programa computacional para a análise da interação solo-estrutura de fundações de concreto armado. Este tema abrange duas áreas da engenharia civil: estruturas e geotecnia. O método dos elementos finitos foi usado no trabalho na seqüência para resolver o problema considerando estado plano de defonnação e comportamento elastoplásti.co dos materiais estudados (solo, concreto e aço). A linguagem de programação MATLAB foi usada em toda esta pesquisa como alternativa ao FORTRAN. O MATLAB foi escolhido uma vez que é uma linguagem de programação que permite facilmente construir uma interfàce de pré e pósprocessamento amigável. Os passos para a solução completa do problema foram os seguintes: Primeiramente um programa foi desenvolvido considerando o comportamento elastoplástico com critérios de plastificação e ruptura específicos para o concreto e solo. Soluções analíticas fechadas foram usadas para checar a precisão do programa. O segundo passo foi a introdução do reforço de aço no concreto por meio de um modelo para armaduras. Logo após, um modelo de fissuras para o concreto 1racionado foi in1roduzido no programa. Na seqüência o programa de pré e pós-processamento foi desenvolvido para gerar a malha de elementos finitos (pré-processamento), distribuição tensões e deformações, mapa de fissuras, etc (pósprocessamento). Finalmente, os parâme1ros constitutivos do solo, concreto e aço foram calibrados e várias situações reais de interação do solo-concreto de fundações de concreto armado foram simuladas. Nesta dissertação são encontrados resultados para as pressões de contato sapata-solo. Diferentes diagramas de tensões de interfàce foram obtidos em função rigidez relativa do elemento estrutural de concreto armado-solo. Na análise mnnérica, rigidez relativa desempenhou uma relevante função no comportamento mecânico do elemento estrutural de concreto armado (sapata) e da base de assentamento (solo), uma vez ruptura em ambos os casos esteve diretamente relacionada a esta grandeza. São encon1rados, em função da rigidez relativa, resultados indicativos dos modos de falha da fundação, excessiva plastificação do solo em fundações com rigidez relativa alta, e a plastificação armaduras, esmagamento do concreto, formação de fissuras, bielas e confinamento concreto para fundações de rigidez relativa baixa. Na análise numérica, obteve-se resultados importantes com relação ao projeto de fundações. Estes resultados foram cOnITontadoscom normas, destacando-se as discordâncias com relação às recomendações da nonna brasileira Projeto e Execução de Fundações" NBR-6122 (1996) para os diagramas de tensões interface sapata-solo usados no dimensionamento de fundações de concreto armado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A qualidade SAE 1141 alia boas conformabilidade e usinabilidade em um mesmo aço – esta qualidade possui adição de teores de enxofre da ordem de 0,08 – 0,13% em peso. É largamente empregada no segmento de forjarias na confecção de componentes com relativa complexidade e exigência mecânica, tais como garfos e ponteiras para a indústria automotiva. Devido a esse fato, é imprescindível que a matéria-prima para a conformação destes componentes atenda às exigências impostas pelos esforços aplicados aos mesmos e, dado às solicitações que sofrem, apresente um desempenho satisfatório em sua forma final, principalmente no tocante à sanidade interna, visto que defeitos dessa natureza são extremamente deletérios à performance dos componentes conformados. Em função disso, o principal objetivo desta investigação é avaliar as causas potencialmente geradoras de defeitos denominados trincas internas centrais, as quais afetam fortemente a sanidade interna da matéria-prima, além de reduzir a sua incidência em barras de aço da qualidade SAE 1141. Para tanto, são apresentadas considerações sobre a avaliação destes defeitos, analisando-se as possíveis causas geradoras das trincas, as quais são caracterizadas sob o enfoque de bibliografia adequada. Através da realização de ensaios no lingotamento contínuo (LC) envolvendo a utilização do agitador eletromagnético final (FEMS), elaboração de curvas de ductilidade pelo emprego do simulador físico Gleeble para os materiais nas condições tarugo e barra laminada, experiências na laminação envolvendo análises de amostras após cada diferente grau de redução ou passe conferido ao material pelo processo e variação das taxas de resfriamento pós-processamento, busca-se reduzir as ocorrências destes defeitos, diminuindo conseqüentemente sucateamento e custos e melhorando o desempenho do material frente às expectativas dos componentes em serviço. A metodologia empregada para a detecção dos defeitos nas barras laminadas foi a submissão das mesmas ao ultra-som. Várias amostras tiveram os seus defeitos detectados através desse ensaio, os quais foram analisados e caracterizados previamente ao início da investigação das causas geradoras, balizando assim a tomada de decisão em relação aos experimentos a serem realizados. Os dados práticos foram obtidos na Gerdau Aços Especiais Piratini, onde a análise de defeitos internos gerados a partir do processo produtivo é um procedimento rotineiro. A interpretação dos resultados, bem como testes laboratoriais adicionais foram realizados na própria usina e no IAS – Instituto Argentino de Siderurgia. Em paralelo, realizou-se uma revisão na literatura aberta dos principais fundamentos e conceitos metalúrgicos referentes a trincas internas e causas de geração das mesmas, tais como, influência do FEMS na solidificação e na condição de segregação nos tarugos de LC, elementos de liga com caráter fragilizante e/ou deletério (por exemplo, hidrogênio, carbono, enxofre e manganês), influência das transformações de fase – velocidade de resfriamento pós-processamento e influência dos elementos de liga – na formação dos defeitos, entre outros. Os resultados obtidos permitiram concluir que a principal causa da geração das trincas internas do tipo centrais em barras laminadas está associada a uma combinação de variáveis. As transformações de fase, somadas a presença de altos teores de hidrogênio no aço – fato este de grande importância na geração dos defeitos detectado somente ao longo da realização do trabalho – fragilizam localmente o núcleo das barras, gerando trincas. Estas, por sua vez, têm a sua propagação facilitada através de cadeias ou redes de sulfeto de manganês, por vezes devido à alta incidência das mesmas nos aços da qualidade SAE 1141. Além disso, pode-se constatar que a geração dos defeitos é potencializada para barras de diâmetros superiores a 75,00 mm. Em barras de diâmetros menores, as falhas estão igualmente presentes e apresentam morfologia similar aos defeitos encontrados nas barras de maior diâmetro, porém, em escala não significativa, não sendo assim abordadas neste trabalho. Pode-se constatar ainda, que a redução da incidência dos defeitos do tipo trincas internas centrais em barras laminadas de diâmetros superiores a 75,00 mm – e conseqüente sucateamento – foi da ordem de mais de 95% desde o início do trabalho, reduzindo-se assim o sucateamento desta qualidade para níveis da ordem de, aproximadamente, 1,0%.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nesta tese são abordadas as tipologias e metodologias de monitorização e observação de infraestruturas em engenharia civil, nomeadamente através de aplicação de vários métodos de medição, de ensaios e também com implementação de sensores. Esta tese pretende abordar de uma forma mais concreta a utilização de plataformas UAV (Unmanned Aerial Vehicle) que apresentam vantagens consideráveis para ser utilizado na monitorização de infraestruturas devido à rapidez de aquisição de dados, mobilidade, segurança e ao baixo custo de aquisição e exploração. A monitorização com UAV consiste no aproveitamento de uma plataforma que pode transportar variadíssimos equipamentos para registo de dados, como câmaras e sensores de várias ordens, de uma forma rápida, económica e segura. Os UAV’s possibilitam o tratamento rápido da informação por eles recolhida, em tempo real ou em pós-processamento. Os dados recolhidos, dependendo do tipo de infraestruturas e objetivos, podem ser analisados com diversas aplicações que tratam os dados de acordo com as necessidades, tais como, modelação em 3D, modelos de elevação, cálculo de áreas, termografia, fotogrametria, etc. Nesta tese são apresentados alguns casos práticos onde se evidencia a vantagem da utilização do UAV na monitorização de infraestruturas, onde se verifica a rapidez, eficiência e qualidade na recolha de informação com o reduzido custo de exploração.