189 resultados para Algoritmo de Colisão de Partículas
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia do Ambiente – Perfil Engenharia Sanitária
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia do Ambiente, perfil de Ordenamento do Território e Impactes Ambientais
Resumo:
Os desenvolvimentos dos sistemas de comunicação sem fios apontam para transmissões de alta velocidade e alta qualidade de serviço com um uso eficiente de energia. Eficiência espectral pode ser obtida por modulações multinível, enquanto que melhorias na eficiência de potência podem ser proporcionadas pelo uso de códigos corretores de erros. Os códigos Low-Density Parity-Check (LDPC), devido ao seu desempenho próximo do limite de Shannon e baixa complexidade na implementação e descodificação são apropriados para futuros sistemas de comunicações sem fios. Por outro lado, o uso de modulações multinível acarreta limitações na amplificação. Contudo, uma amplificação eficiente pode ser assegurada por estruturas de transmissão onde as modulações multinível são decompostas em submodulações com envolvente constante que podem ser amplificadas por amplificadores não lineares a operar na zona de saturação. Neste tipo de estruturas surgem desvios de fase e ganho, produzindo distorções na constelação resultante da soma de todos os sinais amplificados. O trabalho foca-se no uso dos códigos LDPC em esquemas multiportadora e monoportadora, com especial ênfase na performance de uma equalização iterativa implementada no domínio da frequência por um Iterative Block-Decision Feedback Equalizer (IB-DFE). São analisados aspectos como o impacto do número de iterações no processo de descodificação dentro das iterações do processo de equalização. Os códigos LDPC também serão utilizados para compensar os desvios de fase em recetores iterativos para sistemas baseados em transmissores com vários ramos de amplificação. É feito um estudo sobre o modo como estes códigos podem aumentar a tolerância a erros de fase que incluí uma análise da complexidade e um algoritmo para estimação dos desequilíbrios de fase.
Resumo:
A deterioração da qualidade do meio hídrico e a afectação de ecossistemas pela influência de estradas deve-se ao transporte da poluição acumulada no pavimento pelas águas pluviais,designando-se como águas de escorrência de estradas. Entre os poluentes mais comuns e preocupantes encontram-se os metais pesados (zinco, cobre, chumbo, cádmio, crómio),hidrocarbonetos, partículas (sólidos suspensos totais), óleos e gorduras. Onde não é possível evitar a descarga das águas de escorrência e tratando-se de zonas sensíveis (como recursos hídricos que não garantam a diluição dos poluentes rodoviários, estuários, captações públicas ou privadas de água superficial e subterrânea, canais e valas de distribuição de água para rega, campos agrícolas e infraestruturas hidráulicas), devem estabelecer-se sistemas de tratamento, promovendo a diminuição da poluição para níveis aceitáveis antes da descarga. Deste modo, mostra-se pertinente a análise de sistemas de tratamento de águas de escorrência de estradas, incluindo a determinação de critérios para o efeito e a sua optimização. A presente dissertação tem por objectivo contribuir para o avanço de conhecimentos no domínio dos sistemas de tratamento de águas de escorrência de estradas, nomeadamente a avaliação em função de vários critérios, incluindo a monitorização, visando o contributo para proposta de regionalização da solução mais eficiente/sustentável para sistemas de tratamento de águas de escorrência de estradas, numa perceção holística e, com a focalização na avaliação de impactes ambientais, na proteção dos recursos hídricos e na correta gestão das atividades inerentes ao projecto, construção, exploração, manutenção e monitorização dos sistemas de tratamento. A análise de resultados incidiu essencialmente sobre as melhores estratégias de gestão (a nível nacional e internacional). Procedeu-se à comparação das condições hidrológicas e região, do caudal a tratar, do tráfego médio diário das vias rodoviárias em estudo, da eficiência de remoção dos poluentes face aos sistemas de tratamento implantados e custos associados (investimento e manutenção).
Resumo:
O desenvolvimento das tecnologias associadas à Detecção Remota e aos Sistemas de Informação Geográfica encontram-se cada vez mais na ordem do dia. E, graças a este desenvolvimento de métodos para acelerar a produção de informação geográfica, assiste-se a um crescente aumento da resolução geométrica, espectral e radiométrica das imagens, e simultaneamente, ao aparecimento de novas aplicações com o intuito de facilitar o processamento e a análise de imagens através da melhoria de algoritmos para extracção de informação. Resultado disso são as imagens de alta resolução, provenientes do satélite WorldView 2 e o mais recente software Envi 5.0, utilizados neste estudo. O presente trabalho tem como principal objectivo desenvolver um projecto de cartografia de uso do solo para a cidade de Maputo, com recurso ao tratamento e à exploração de uma imagem de alta resolução, comparando as potencialidades e limitações dos resultados extraídos através da classificação “pixel a pixel”, através do algoritmo Máxima Verossimilhança, face às potencialidades e eventuais limitações da classificação orientada por objecto, através dos algoritmos K Nearest Neighbor (KNN) e Support Vector Machine (SVM), na extracção do mesmo número e tipo de classes de ocupação/uso do solo. Na classificação “pixel a pixel”, com a aplicação do algoritmo classificação Máxima Verosimilhança, foram ensaiados dois tipos de amostra: uma primeira constituída por 20 classes de ocupação/uso do solo, e uma segunda por 18 classes. Após a fase de experimentação, os resultados obtidos com a primeira amostra ficaram aquém das espectativas, pois observavam-se muitos erros de classificação. A segunda amostra formulada com base nestes erros de classificação e com o objectivo de os minimizar, permitiu obter um resultado próximo das espectativas idealizadas inicialmente, onde as classes de interesse coincidem com a realidade geográfica da cidade de Maputo. Na classificação orientada por objecto foram 4 as etapas metodológicas utilizadas: a atribuição do valor 5 para a segmentação e 90 para a fusão de segmentos; a selecção de 15 exemplos sobre os segmentos gerados para cada classe de interesse; bandas diferentemente distribuídas para o cálculo dos atributos espectrais e de textura; os atributos de forma Elongation e Form Factor e a aplicação dos algoritmos KNN e SVM. Confrontando as imagens resultantes das duas abordagens aplicadas, verificou-se que a qualidade do mapa produzido pela classificação “pixel a pixel” apresenta um nível de detalhe superior aos mapas resultantes da classificação orientada por objecto. Esta diferença de nível de detalhe é justificada pela unidade mínima do processamento de cada classificador: enquanto que na primeira abordagem a unidade mínima é o pixel, traduzinho uma maior detalhe, a segunda abordagem utiliza um conjunto de pixels, objecto, como unidade mínima despoletando situações de generalização. De um modo geral, a extracção da forma dos elementos e a distribuição das classes de interesse correspondem à realidade geográfica em si e, os resultados são bons face ao que é frequente em processamento semiautomático.
Resumo:
Em 2008, foram estimados no mundo, cerca de 12.7 milhões de novos casos de cancro e 7,6 milhões de mortes por cancro, sendo que 56% dos casos e 64% das mortes ocorreram nos países em desenvolvimento. Estes números indicam que é necessário se encontrar novos meios de combater este flagelo. Uma das possibilidades é encontrar moléculas intercalantes do ácido desoxirribonucleico (DNA) que se degradem na presença de radiação ou partículas carregadas de baixa energia que criem condições de induzir lesões no DNA, inibidoras da replicação e que portanto contribuam para a não proliferação de células cancerígenas. Assim, nesta dissertação analisou-se a influência do agente intercalante 2,2'-Bipyridyl do DNA em presença de radiação UV, 254 nm, na degradação do DNA. Os danos criados no DNA foram analisados pelas técnicas de espectroscopia de ultravioleta-visível e de infravermelho. Os resultados obtidos permitiram inferir que a cinética de degradação do DNA é mais eficiente na presença do composto 2,2'-Bipyridyl e que o ataque pelos produtos da decomposição do 2,2'-Bipyridyl é feito a todas as bases, embora com constantes características diferentes, sendo a ataque à guanina com uma constante de tempo maior. Estes resultados permitem concluir que este composto pode ser um possível candidato a indutor de lesões no DNA.
Classificação da ocupação do solo através da segmentação de uma imagem de satélite de alta resolução
Resumo:
Este caso de estudo tem como objetivo demonstrar a utilidade da utilização de imagens de satélite de alta resolução para a produção de cartografia temática em áreas urbanas, bem como, experimentar a extracção de elementos de uma imagem de alta resolução a partir de protocolos de segmentação, aplicando uma abordagem orientada por regiões, e recorrendo a dados de uma cena do satélite WorldView2 com as suas novas 4 bandas adicionais. Definiu-se uma nomenclatura de ocupação de solo com base na fotointerpretação da imagem, criou-se uma legenda hierarquizada por 3 níveis de desagregação. No primeiro nível incluiu-se sete classes, no segundo nível as classes foram classificadas pelo nome dos objetos identificados na fotointerpretação, e o terceiro nível foram classificados pelas características dos objetos definidos no nível anterior. Foram criados segmentos de treino através do algoritmo da segmentação, que tem como função criar segmentos vetoriais com base na similaridade espectral e no valor espectral dos conjuntos dos pixéis vizinhos, testou-se varios parâmetros de segmentação de modo a obter o nível de segmentação que visivelmente na imagem se aproximasse mais aos objetos reconhecidos, para assim se gerar as assinaturas espectrais dos objetos representados pela segmentação, procedendo-se à classificação de ocupação de solo baseada nos segmentos.
Resumo:
Sendo a malária uma doença infecciosa que põe em risco uma elevada percentagem da população mundial, a presente dissertação apresenta o desenvolvimento de um teste de diagnóstico rápido (RDT) para a detecção da infecção. Para a detecção dos antigénios de Plasmodium falciparum (Pf), parasita da malária, foram estudadas nanopartículas de ouro (AuNPs) com dois diâmetros médios diferentes, 17nm e 48nm, funcionalizadas e conjugadas com anticorpos específicos, formando os bionanoconjugados. Este trabalho abrange dois focos de investigação, interligados, de forma a atingir-se o objectivo prosposto: i) Caracterização físico-quimica das AuNPs e dos bionanoconjugados em solução, usando a espectrocopia de UV-Visível, variando a força iónica e o pH do meio. A compreensão do comportamento e estabilidade das partículas consoante o seu diâmetro e revestimento tem em vista o melhoramento do RDT, tanto em sensibilidade como em custo; ii) Desenvolvimento do RDT usando um método que envolve uma ligação competitiva entre o antigénio e o anticorpo específico imobilizado à superfície das AuNPs. Os antigénios correspondem a biomarcadores da presença de Pf: Heat Shock Protein 70 (PfHsp70) e Histidine Rich Protein II (PfHRPII). Como superfícies para o desenvolvimento do RDT foram usados a nitrocelulose e o papel de filtro. Quanto maior é o diâmetro das AuNPs, maior é a estabilidade apresentada em solução quando aumentada a força iónica. Quando é variado o valor de pH do meio, as partículas adoptam um comportamento dependente do seu revestimento, independente do diâmetro. Os bionanoconjugados formados com AuNPs de ambos os diâmetros revelaram-se muito estáveis em solução, numa gama de forças iónicas de 0 a 0,5M de cloreto de sódio, e de pH de 2 a 7. Uma vez que a proteína Hsp70 é produzida constitutivamente em diversas células humanas, é necessário trabalhar com proteínas específicas da infecção, que nesta dissertação foi a PfHRPII. Foram efectuados testes no suporte de nitrocelulose que provaram o reconhecimento da PfHRPII pelos bionanoconjugados AuNPs-MUA-anti-PfHRPII. Estes ensaios necessitam ainda de algumas optimizações. Ensaios de Western-Blot permitiram a identificação da presença da PfHRPII em culturas infectadas, bem como a confirmação da sua ligação ao anticorpo específico, anti-PfHRPII. Um novo método de revelação é introduzido nesta técnica, efectuado através do uso dos bionanoconjugados. Este método mostrou-se promissor na medida em que é rápido, específico e de baixo custo. O principal contributo do trabalho consistiu no desenvolvimento, com sucesso, de um RDT para diagnóstico de malária, usando o antigénio PfHsp70, tendo como base a detecção colorimétrica com AuNPs de 17nm de diâmetro. Usando uma tira de nitrocelulose foi estabelecido um limite de detecção correspondente a 1600parasitas/μL, valor este considerado válido pela OMS para um correcto diagnóstico de malária. O limite de detecção obtido para as AuNPs de 48nm foi superior, não tendo trazido melhorias para o teste desenvolvido com AuNPs de menor diâmetro.
Resumo:
A dactilografia profissional causa problemas a nível das articulações dos dedos, mãos, pulsos, braços e até mesmo ombros, a quem a exerce. Um deles, o Síndrome do Túnel Cárpico, considera-se ser a maior doença ocupacional nos Estados Unidos, responsável por avultados gastos médicos ano após ano. Até à data, o estudo de causas e consequências apresentou-se difícil, não havendo uma forma prática e fiável de registar os movimentos do(a) dactilógrafo(a). O presente trabalho pretendeu desenvolver uma solução para a detecção e cálculo de estatísticas referentes às taxas de utilização de dedos em dactilografia profissional, com vista a estudos de terapias adequadas. Optou-se pela captação de imagens através de uma câmara USB, usando iluminação dedicada para garantir uma intensidade de luz constante e uniforme. Usando esta configuração, são capturadas imagens do teclado no instante em que uma tecla é premida. Após a captura, efectua-se o processamento da imagem para detecção dos dedos. Nos dedos do(a) dactilógrafo(a) colocaram-se autocolantes de várias cores para identificação. Para a identificação do dedo usou-se um algoritmo de lógica difusa para, através dos canais R, G e B da imagem, avaliar qual a cor observada na zona de interesse (tecla premida). Conseguiu-se assim uma eficácia de 91% em modo automático, podendo este valor chegar aos 100% no modo avançado, que permite a confirmação do utilizador. Existe ainda margem para evolução com a introdução de uma segunda câmara com um diferente posicionamento para obter outra perspectiva da zona de interesse, aumentando assim as hipóteses de correcta identificação.
Resumo:
Uma das dificuldades no que concerne à utilização e produção do biodiesel e que ainda persiste, diz respeito ao recurso a bases fortes como catalisadores num processo homogéneo. Para além destes serem nocivos para o ambiente, possuem o inconveniente de produzirem sabões, os quais dificultam a separação do biodiesel formado. Assim sendo, neste trabalho foi estudada a transesterificação de triglicéridos com metanol, recorrendo a um processo catalítico heterogéneo. Os catalisadores que foram testados são sustentáveis do ponto de vista ambiental e económico, pois foram preparados a partir de casca de ovo. Os catalisadores preparados podem ser agrupados em três diferentes grupos: ESC1: grupo de amostras catalíticas calcinadas uma vez ESC2: grupo de amostras catalíticas sujeitas a tratamentos com água durante diferentes tempos ESCUS: grupo de amostras catalíticas sujeitas ao tratamento em ultrassons durante diferentes tempos Durante o trabalho efectuado, foram realizados testes catalíticos com todos os catalisadores preparados, a fim de perceber a influência das diferentes condições de preparação na actividade catalítica demonstrada para a reacção estudada. Todos os catalisadores preparados e testados laboratorialmente revelaram ser activos na reacção de transesterificação do óleo de soja. No grupo ESC2 foi efectivamente criada porosidade e no grupo ESCUS foram fragmentadas as partículas do catalisador. A fim de perceber a influência da actividade catalítica com as modificações estruturais dos catalisadores, algumas das amostras pertencentes aos diferentes grupos foram caracterizadas mediante difracção de Raio-X (XRD), microscopia electrónica de transmissão (TEM) e caracterização textural através da obtenção das isotérmicas de adsorção e dessorção de azoto. Palavras-chave: Transesterificação; Biodiesel; Actividade Catalítica; Calcinação; Tratamento com água; Tratamento no ultrassons.
Resumo:
RESUMO: O cancro de mama e o mais frequente diagnoticado a indiv duos do sexo feminino. O conhecimento cientifico e a tecnologia tem permitido a cria ção de muitas e diferentes estrat egias para tratar esta patologia. A Radioterapia (RT) est a entre as diretrizes atuais para a maioria dos tratamentos de cancro de mama. No entanto, a radia ção e como uma arma de dois canos: apesar de tratar, pode ser indutora de neoplasias secund arias. A mama contralateral (CLB) e um orgão susceptivel de absorver doses com o tratamento da outra mama, potenciando o risco de desenvolver um tumor secund ario. Nos departamentos de radioterapia tem sido implementadas novas tecnicas relacionadas com a radia ção, com complexas estrat egias de administra ção da dose e resultados promissores. No entanto, algumas questões precisam de ser devidamente colocadas, tais como: E seguro avançar para tecnicas complexas para obter melhores indices de conformidade nos volumes alvo, em radioterapia de mama? O que acontece aos volumes alvo e aos tecidos saudaveis adjacentes? Quão exata e a administração de dose? Quais são as limitações e vantagens das técnicas e algoritmos atualmente usados? A resposta a estas questões e conseguida recorrendo a m etodos de Monte Carlo para modelar com precisão os diferentes componentes do equipamento produtor de radia ção(alvos, ltros, colimadores, etc), a m de obter uma descri cão apropriada dos campos de radia cão usados, bem como uma representa ção geometrica detalhada e a composição dos materiais que constituem os orgãos e os tecidos envolvidos. Este trabalho visa investigar o impacto de tratar cancro de mama esquerda usando diferentes tecnicas de radioterapia f-IMRT (intensidade modulada por planeamento direto), IMRT por planeamento inverso (IMRT2, usando 2 feixes; IMRT5, com 5 feixes) e DCART (arco conformacional dinamico) e os seus impactos em irradia ção da mama e na irradia ção indesejada dos tecidos saud aveis adjacentes. Dois algoritmos do sistema de planeamento iPlan da BrainLAB foram usados: Pencil Beam Convolution (PBC) e Monte Carlo comercial iMC. Foi ainda usado um modelo de Monte Carlo criado para o acelerador usado (Trilogy da VARIAN Medical Systems), no c odigo EGSnrc MC, para determinar as doses depositadas na mama contralateral. Para atingir este objetivo foi necess ario modelar o novo colimador multi-laminas High- De nition que nunca antes havia sido simulado. O modelo desenvolvido est a agora disponí vel no pacote do c odigo EGSnrc MC do National Research Council Canada (NRC). O acelerador simulado foi validado com medidas realizadas em agua e posteriormente com c alculos realizados no sistema de planeamento (TPS).As distribui ções de dose no volume alvo (PTV) e a dose nos orgãos de risco (OAR) foram comparadas atrav es da an alise de histogramas de dose-volume; an alise estati stica complementar foi realizadas usando o software IBM SPSS v20. Para o algoritmo PBC, todas as tecnicas proporcionaram uma cobertura adequada do PTV. No entanto, foram encontradas diferen cas estatisticamente significativas entre as t ecnicas, no PTV, nos OAR e ainda no padrão da distribui ção de dose pelos tecidos sãos. IMRT5 e DCART contribuem para maior dispersão de doses baixas pelos tecidos normais, mama direita, pulmão direito, cora cão e at e pelo pulmão esquerdo, quando comparados com as tecnicas tangenciais (f-IMRT e IMRT2). No entanto, os planos de IMRT5 melhoram a distribuição de dose no PTV apresentando melhor conformidade e homogeneidade no volume alvo e percentagens de dose mais baixas nos orgãos do mesmo lado. A t ecnica de DCART não apresenta vantagens comparativamente com as restantes t ecnicas investigadas. Foram tamb em identi cadas diferen cas entre os algoritmos de c alculos: em geral, o PBC estimou doses mais elevadas para o PTV, pulmão esquerdo e cora ção, do que os algoritmos de MC. Os algoritmos de MC, entre si, apresentaram resultados semelhantes (com dferen cas at e 2%). Considera-se que o PBC não e preciso na determina ção de dose em meios homog eneos e na região de build-up. Nesse sentido, atualmente na cl nica, a equipa da F sica realiza medi ções para adquirir dados para outro algoritmo de c alculo. Apesar de melhor homogeneidade e conformidade no PTV considera-se que h a um aumento de risco de cancro na mama contralateral quando se utilizam t ecnicas não-tangenciais. Os resultados globais dos estudos apresentados confirmam o excelente poder de previsão com precisão na determinação e c alculo das distribui ções de dose nos orgãos e tecidos das tecnicas de simulação de Monte Carlo usados.---------ABSTRACT:Breast cancer is the most frequent in women. Scienti c knowledge and technology have created many and di erent strategies to treat this pathology. Radiotherapy (RT) is in the actual standard guidelines for most of breast cancer treatments. However, radiation is a two-sword weapon: although it may heal cancer, it may also induce secondary cancer. The contralateral breast (CLB) is a susceptible organ to absorb doses with the treatment of the other breast, being at signi cant risk to develop a secondary tumor. New radiation related techniques, with more complex delivery strategies and promising results are being implemented and used in radiotherapy departments. However some questions have to be properly addressed, such as: Is it safe to move to complex techniques to achieve better conformation in the target volumes, in breast radiotherapy? What happens to the target volumes and surrounding healthy tissues? How accurate is dose delivery? What are the shortcomings and limitations of currently used treatment planning systems (TPS)? The answers to these questions largely rely in the use of Monte Carlo (MC) simulations using state-of-the-art computer programs to accurately model the di erent components of the equipment (target, lters, collimators, etc.) and obtain an adequate description of the radiation elds used, as well as the detailed geometric representation and material composition of organs and tissues. This work aims at investigating the impact of treating left breast cancer using di erent radiation therapy (RT) techniques f-IMRT (forwardly-planned intensity-modulated), inversely-planned IMRT (IMRT2, using 2 beams; IMRT5, using 5 beams) and dynamic conformal arc (DCART) RT and their e ects on the whole-breast irradiation and in the undesirable irradiation of the surrounding healthy tissues. Two algorithms of iPlan BrainLAB TPS were used: Pencil Beam Convolution (PBC)and commercial Monte Carlo (iMC). Furthermore, an accurate Monte Carlo (MC) model of the linear accelerator used (a Trilogy R VARIANR) was done with the EGSnrc MC code, to accurately determine the doses that reach the CLB. For this purpose it was necessary to model the new High De nition multileaf collimator that had never before been simulated. The model developed was then included on the EGSnrc MC package of National Research Council Canada (NRC). The linac was benchmarked with water measurements and later on validated against the TPS calculations. The dose distributions in the planning target volume (PTV) and the dose to the organs at risk (OAR) were compared analyzing dose-volume histograms; further statistical analysis was performed using IBM SPSS v20 software. For PBC, all the techniques provided adequate coverage of the PTV. However, statistically significant dose di erences were observed between the techniques, in the PTV, OAR and also in the pattern of dose distribution spreading into normal tissues. IMRT5 and DCART spread low doses into greater volumes of normal tissue, right breast, right lung, heart and even the left lung than tangential techniques (f-IMRT and IMRT2). However,IMRT5 plans improved distributions for the PTV, exhibiting better conformity and homogeneity in target and reduced high dose percentages in ipsilateral OAR. DCART did not present advantages over any of the techniques investigated. Di erences were also found comparing the calculation algorithms: PBC estimated higher doses for the PTV, ipsilateral lung and heart than the MC algorithms predicted. The MC algorithms presented similar results (within 2% di erences). The PBC algorithm was considered not accurate in determining the dose in heterogeneous media and in build-up regions. Therefore, a major e ort is being done at the clinic to acquire data to move from PBC to another calculation algorithm. Despite better PTV homogeneity and conformity there is an increased risk of CLB cancer development, when using non-tangential techniques. The overall results of the studies performed con rm the outstanding predictive power and accuracy in the assessment and calculation of dose distributions in organs and tissues rendered possible by the utilization and implementation of MC simulation techniques in RT TPS.
Resumo:
As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.
Resumo:
A optimização com constrangimentos de fiabilidade (RBDO) procura obter sistemas estruturais seguros e optimizados, considerando a variabilidade dos parâmetros relacionados com propriedades do material, cargas aplicadas e geometria. A optimização robusta (RDO) tenta encontrar esses sistemas que, para além disso, apresentam menor variabilidade da resposta estrutural. O objectivo desta dissertação é estudar problemas de RBDO e de RDO, aplicando novas formulações para estes últimos. Também se pretende criar uma plataforma básica para ser usada e desenvolvida por estudantes de engenharia estrutural e por investigadores, a fim de promover a aplicação destas técnicas de optimização. Esta plataforma é constituída por um conjunto de programas, escritos em MATLAB, capazes de resolver estes dois tipos de problemas. É composta por, um programa de análise estrutural capaz de calcular sensibilidades utilizando o método contínuo, um programa de análise de fiabilidade que utiliza o método FORM e um algoritmo de optimização (SQP) que está implementado na optimtool do MATLAB. A eficiência do sistema proposto é demonstrada através da resolução de problemas RBDO e RDO; para isso são apresentados quatro exemplos onde são utilizadas todas as funcionalidades dos programas desenvolvidos
Resumo:
A fraude nos seguros de saúde é uma realidade que causa perdas bastante significativas às empresas do setor. A presente dissertação tem como objetivo fornecer uma perspectiva das técnicas já utilizadas para detetar fraude e apresentar as potenciais vantagens da utilização de redes para a deteção e consequente prevenção deste tipo de comportamentos. A metodologia de investigação baseia-se na revisão da bibliografia bem como no estudo e aplicação prática de um algoritmo de redes aos dados de uma seguradora da área da saúde. A escolha da área da saúde teve por base o facto desta ser uma área onde a fraude tem um impacto bastante elevado e onde os esquemas fraudulentos se desenvolveram muito nos últimos anos. Com base nos requisitos identificados foi possível avaliar as vantagens da utilização de redes para deteção de fraude bem como descrever o processo de como as redes podem responder às necessidades atuais e futuras das empresas seguradoras no que respeita ao combate à fraude.
Resumo:
Neste trabalho apresenta-se uma metodologia destinada a simular a morfologia e a porosidade de canais de areia em reservatórios fluviais. Como informação de partida utilizam-se um ou vários canais de areia de treino, em estrutura vectorial, que sejam representativos do reservatório, e leis de distribuição das dimensões largura e profundidade dos canais. Para a simulação da morfologia dos canais de areia, são calculados os ângulos azimutais de todos os segmentos de recta das linhas poligonais que constituem os canais de treino, a que se segue a codificação em classes de azimute e a determinação de estatísticas multiponto destas classes. Seguidamente, faz-se a simulação estocástica dos novos canais no volume do reservatório, ou seja, são geradas novas linhas poligonais condicionadas às estatísticas multiponto, a que se associam as dimensões largura e profundidade. Este algoritmo multiponto é muito eficiente, porque é a 1D, e contorna a problemática da variável azimute ser do tipo circular. A avaliação da porosidade é feita em simultâneo na conversão do modelo vectorial da morfologia dos canais de areia para o modelo matricial da malha de blocos do reservatório. Para cada bloco reservatório é contabilizada a proporção de não canal / canal e das fácies conforme um modelo conceptual de zonamento na secção do canal. A estimativa da porosidade média de cada bloco do reservatório é obtida pela soma do produto da proporção de cada fácies pela respectiva porosidade de referência. Para ilustrar as potencialidades da metodologia proposta apresenta-se um caso de estudo com dados sintéticos. De acordo com critérios geológicos e estratigráficos, consideraram-se quatro fácies na secção do canal que são discriminadas lateralmente e em profundidade por valores de referência de porosidade. O algoritmo de simulação morfológica capturou adequadamente a morfologia das imagens de treino e gerou várias imagens equiprováveis que depois foram convertidas em porosidade.