995 resultados para Algoritmo genetico MPI colorazione grafi parallelo bluegene
Resumo:
Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.
Resumo:
Raman imaging spectroscopy is a highly useful analytical tool that provides spatial and spectral information on a sample. However, CCD detectors used in dispersive instruments present the drawback of being sensitive to cosmic rays, giving rise to spikes in Raman spectra. Spikes influence variance structures and must be removed prior to the use of multivariate techniques. A new algorithm for correction of spikes in Raman imaging was developed using an approach based on comparison of nearest neighbor pixels. The algorithm showed characteristics including simplicity, rapidity, selectivity and high quality in spike removal from hyperspectral images.
Resumo:
OBJETIVO: Desenvolver simulação computadorizada de ablação para produzir lentes de contato personalizadas a fim de corrigir aberrações de alta ordem. MÉTODOS: Usando dados reais de um paciente com ceratocone, mensurados em um aberrômetro ("wavefront") com sensor Hartmann-Shack, foram determinados as espessuras de lentes de contato que compensam essas aberrações assim como os números de pulsos necessários para fazer ablação as lentes especificamente para este paciente. RESULTADOS: Os mapas de correção são apresentados e os números dos pulsos foram calculados, usando feixes com a largura de 0,5 mm e profundidade de ablação de 0,3 µm. CONCLUSÕES: Os resultados simulados foram promissores, mas ainda precisam ser aprimorados para que o sistema de ablação "real" possa alcançar a precisão desejada.
Resumo:
Esta dissertação propõe um algoritmo do Controlador Preditivo Generalizado (GPC) com horizonte de controle igual a um para ser aplicado em plantas industriais com modelos variantes no tempo, simples o su ficiente para ser implementado em Controlador Lógico Programável (PLC). A solução explícita do controlador é obtida em função dos parâmetros do modelo e dos parâmetros de sintonia do GPC (horizonte nal de predição hp e o fator de supressão do sinal de controle ), além das entradas e saídas presentes e passadas. A sintonia do fator de supressão e do horizonte de previsão GPC é feita através do lugar das raízes da equação característica do sistema em malha fechada, sempre que os parâmetros do modelo da planta industrial (estável ou instável em malha aberta) forem modificados.
Resumo:
Utilizar robôs autônomos capazes de planejar o seu caminho é um desafio que atrai vários pesquisadores na área de navegação de robôs. Neste contexto, este trabalho tem como objetivo implementar um algoritmo PSO híbrido para o planejamento de caminhos em ambientes estáticos para veículos holonômicos e não holonômicos. O algoritmo proposto possui duas fases: a primeira utiliza o algoritmo A* para encontrar uma trajetória inicial viável que o algoritmo PSO otimiza na segunda fase. Por fim, uma fase de pós planejamento pode ser aplicada no caminho a fim de adaptá-lo às restrições cinemáticas do veículo não holonômico. O modelo Ackerman foi considerado para os experimentos. O ambiente de simulação de robótica CARMEN (Carnegie Mellon Robot Navigation Toolkit) foi utilizado para realização de todos os experimentos computacionais considerando cinco instâncias de mapas geradas artificialmente com obstáculos. O desempenho do algoritmo desenvolvido, A*PSO, foi comparado com os algoritmos A*, PSO convencional e A* Estado Híbrido. A análise dos resultados indicou que o algoritmo A*PSO híbrido desenvolvido superou em qualidade de solução o PSO convencional. Apesar de ter encontrado melhores soluções em 40% das instâncias quando comparado com o A*, o A*PSO apresentou trajetórias com menos pontos de guinada. Investigando os resultados obtidos para o modelo não holonômico, o A*PSO obteve caminhos maiores entretanto mais suaves e seguros.
Resumo:
O problema do cálculo de valores próprios, vectores próprios e subespaços invariantes está presente em áreas tão diversas como Engenharia, Física, Ciências de Computação e Matemática. Considerando a importância deste problema em tantas aplicações práticas, não é de surpreender que tenha sido e continue a ser objecto de intensa investigação, dando corpo a uma literatura muito vasta. Desenvolvemos um novo algoritmo de Lanczos na variedade de Grassmann. Este trabalho surgiu na sequência de um artigo de A. Edelman, T. A. Arias and S. T. Smith, The geometry of algorithms with orthogonality constraints, onde apresentam um novo algoritmo do gradiente conjugado na variedade de Grassmann. Desenvolveram um enquadramento geométrico o que ofereceu uma nova aproximação aos algoritmos numéricos envolvendo restrições de ortogonalidade. Ora, estando o método de Lanczos e o método dos gradientes conjugados intimamente relacionados, e sendo um dos principais problemas do método de Lanczos a perda de ortogonalidade, surgiu a ideia de tentar verificar se algum dos algoritmos de Lanczos seria uma iteração na variedade de Grassmann.
Resumo:
A utilização de equipamentos de climatização é cada vez mais frequente, e surgem novas tecnologias para aumentar a eficiência do processo, e neste caso, a opção da instalação de um sistema de Unidade de Tratamento de Ar com Economizador é a fundamental temática deste trabalho de dissertação. O “Free-Cooling” baseia-se na utilização total ou parcial do ar exterior para proceder à climatização de um espaço, quando se verificam as condições ótimas para o processo, e quando o sistema apresenta um controlador que permita gerir a abertura dos registos face à temperatura exterior e interior medida. A análise das condições exteriores e interiores é fundamental para dimensionar um Economizador. É necessário determinar o tipo de clima do local para fazer a seleção do tipo de controlo do processo, e recolher também, o perfil de temperaturas exterior para justificar a utilização de “Free-Cooling” no local. A determinação das condições interiores como a quantificação da utilização da iluminação, ocupação e equipamentos, é necessária para determinar a potência das baterias de arrefecimento ou aquecimento, e no caso de ser utilizado “Free-Cooling”, determinar o caudal de ar exterior a insuflar. O balanço térmico das instalações explicita todas as cargas influentes no edifício, e permite quantificar a potência necessária para climatização. Depois, adicionando o Economizador no sistema e comparando os dois sistemas, verifica-se a redução dos custos de utilização da bateria de arrefecimento. O desenvolvimento de um algoritmo de controlo é fundamental para garantir a eficiência do Economizador, onde o controlo dos registos de admissão e retorno de ar é obrigatoriamente relacionado com a leitura dos sensores de temperatura exterior e interior. A quantidade de ar novo insuflado no espaço depende, por fim, da relação entre a carga sensível do local e a diferença de temperatura lida entre os dois sensores.
Resumo:
Mestrado em Radioterapia.
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
(...) Recentemente, em 2004, H. Michael Damm provou na sua tese de doutoramento a existência de quase-grupos totalmente anti-simétricos para ordens diferentes de 2 e 6. A tabela da imagem define um quase-grupo totalmente anti-simétrico de ordem 10, adaptado de um exemplo apresentado por Damm na sua tese. Esta tabela é o que se designa por quadrado latino: em cada linha e em cada coluna, cada um dos símbolos utilizados devem figurar uma e uma só vez. Os quadrados latinos surgiram pelas mãos de um grande matemático, talvez o maior matemático de todos os tempos: Leonhard Euler (1707-1783). Este tipo de tabelas não é totalmente estranho ao leitor. Se olhar com atenção, encontrará apenas duas diferenças em relação aos tradicionais desafios de Sudoku: não existem as chamadas "regiões" e utiliza-se o 0, para além dos algarismos 1-9. A descoberta de Damm impulsionou o desenvolvimento de um novo algoritmo com o seu nome, que tem a vantagem de apenas utilizar os algarismos tradicionais, do 0 ao 9, e de detetar 100% dos erros singulares e 100% das transposições de algarismos adjacentes. Em relação ao algoritmo de Verhoeff, tem uma implementação mais simples e deteta 100% dos erros fonéticos (por exemplo, quando se escreve 15 em vez de 50, devido à pronúncia semelhante destes números em inglês: "fifteen" e "fifty"). Na imagem, ilustra-se um exemplo de aplicação deste algoritmo para determinar o algarismo de controlo do número 201436571? (o ponto de interrogação representa o algarismo de controlo, por enquanto, desconhecido). (...)
Resumo:
Em tempos que já lá vão, aprendemos um algoritmo para multiplicar números. Talvez o nosso professor não o designasse “algoritmo” para não nos assustar, mas, independentemente da formalidade do nome, aprendemos um conjunto bem definido de regras para executar a operação da multiplicação. Este artigo descreve este algoritmo e o algoritmo inventado pelo matemático russo Anatoly Alexeevitch Karatsuba (1937–2008).
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de Energia
Resumo:
The acquisition of a Myocardial Perfusion image (MPI) is of great importance for the diagnosis of the coronary artery disease, since it allows to evaluate which areas of the heart aren’t being properly perfused, in rest and stress situations. This exam is greatly influenced by photon attenuation which creates image artifacts and affects quantification. The acquisition of a Computerized Tomography (CT) image makes it possible to get an atomic images which can be used to perform high-quality attenuation corrections of the radiopharmaceutical distribution, in the MPI image. Studies show that by using hybrid imaging to perform diagnosis of the coronary artery disease, there is an increase on the specificity when evaluating the perfusion of the right coronary artery (RCA). Using an iterative algorithm with a resolution recovery software for the reconstruction, which balances the image quality, the administered activity and the scanning time, we aim to evaluate the influence of attenuation correction on the MPI image and the outcome in perfusion quantification and imaging quality.