1000 resultados para algoritmo calcolo taglie pazienti traiettorie Scout validazione
O problema de alocação de berços: um estudo das heurísticas simulated annealing e algoritmo genético
Resumo:
Este trabalho apresenta um estudo de caso das heurísticas Simulated Annealing e Algoritmo Genético para um problema de grande relevância encontrado no sistema portuário, o Problema de Alocação em Berços. Esse problema aborda a programação e a alocação de navios às áreas de atracação ao longo de um cais. A modelagem utilizada nesta pesquisa é apresentada por Mauri (2008) [28] que trata do problema como uma Problema de Roteamento de Veículos com Múltiplas Garagens e sem Janelas de Tempo. Foi desenvolvido um ambiente apropriado para testes de simulação, onde o cenário de análise foi constituido a partir de situações reais encontradas na programação de navios de um terminal de contêineres. Os testes computacionais realizados mostram a performance das heurísticas em relação a função objetivo e o tempo computacional, a m de avaliar qual das técnicas apresenta melhores resultados.
Resumo:
Quando si parla di shelf life di un prodotto alimentare si fa riferimento al periodo di tempo durante il quale un prodotto mantiene le sue caratteristiche qualitative nelle normali condizioni di conservazione/utilizzo e di conseguenza può essere consumato in totale sicurezza. Gli alimenti, infatti, sono prodotti facilmente deperibili che subiscono modifiche a carico della loro composizione a causa dell’innesco di una serie di reazioni sia di tipo microbiologico che chimico-fisico, con i conseguenti rischi per la sicurezza igienico sanitaria del prodotto. Nei prodotti ittici la degradazione biologica risulta essere una delle prime cause di deterioramento dell’alimento ciò perché essi stessi sono caratterizzati dalla presenza di microrganismi provenienti principalmente dalle materie prime impiegate e dal processo di produzione/preparazione utilizzato. Durante la conservazione e lo stoccaggio del prodotto ittico, in particolare sono tre i meccanismi che determinano il deterioramento e quindi la riduzione della shelf life, ovvero: l’autolisi enzimatica (post mortem e che modifica la consistenza del tessuto muscolare favorendo inoltre la crescita microbica ed il rilascio di ammine biogene); l’ossidazione (che riduce le qualità organolettiche del prodotto alterando gli acidi grassi poliinsaturi); la crescita microbica (con produzione di metaboliti come ammine biogene, acidi organici, solfiti, alcool, aldeidi e chetoni che causano i cattivi odori) (Jiang et al. 1990, Koohmaraie M., 1996, Koutsoumanis& Nychas, 1999, Aoki et al., 1997; Bremner, 1992). Risulta quindi strategico, il poter determinare la conservabilità di un alimento verificando dal punto di vista quantitativo, come tutti i fattori che contribuiscono all’alterazione della qualità del prodotto e all’incremento del processo degradativo (popolazione microbica, attività enzimatiche, variazioni chimiche) varino nel tempo.
Resumo:
Este artículo presenta el análisis de un Algoritmo de Inferencia Semántica utilizado en un Sistema de Recomendación de Contenidos Audiovisuales en el contexto de la Televisión Digital. Los resultados obtenidos muestran que la inclusión de diferentes propiedades semánticas y sus combinaciones, influye directamente en la reducción del error absoluto promedio obtenido en la predicción de la calificación otorgada por un usuario a un ítem determinado. Además se ha determinado que la propiedad Actor tiene un impacto mayor con respecto a otras propiedades analizadas.
Resumo:
O esclarecimento do órgão de origem, ou principalmente da natureza benigna ou maligna de um tumor anexial ecograficamente indeterminado surge com frequência na prática clínica e obriga a uma investigação complementar da sua natureza de modo a evitar cirurgias inúteis, sem deixar de diagnosticar precocemente a patologia maligna. Neste trabalho apresentamos um algoritmo de diagnóstico por Ressonância Magnética (RM), que recentemente foi proposto pela European Society of Urogenital Radiology (ESUR), o qual permite um diagnóstico preciso dos casos indeterminados à ecografia e uma intervenção responsável na abordagem clínica destas doentes.
Resumo:
El objetivo de este trabajo es presentar unas bases de conocimiento sobre el denominado General Game Playing (GGP) analizando los conceptos relacionados con esta área que ha surgido recientemente, de forma que nuestro trabajo pueda ser usado como base en futuras investigaciones y tesis relacionadas con la materia. Para ello, se hará un estudio de los enfoques que se han empleado para abordar el problema y se profundizará en otras técnicas algorítmicas, tales como por ejemplo la de Montecarlo Tree Search y los algoritmos bio-inspirados que no se han empleado (o se han empleado poco) en este contexto. Adicionalmente, se realiza una propuesta de un agente autónomo (es decir, un resolutor del problema), implementando un algoritmo bio-inspirado mixto, dentro de la plataforma para la General Video Game Artificial Intelligence Competition (GVGAI), analizando sus resultados y extrayendo conclusiones.
Resumo:
Dissertação (mestrado)–Universidade de Brasília, Universidade UnB de Planaltina, Programa de Pós-Graduação em Ciência de Materiais, 2015.
Resumo:
La clasificación es una de las herramientas necesarias para llevar a cabo un buen reconocimiento de patrones,las redes de neuronas artificiales (RNA), como una sección del área de Inteligencia Artificial (IA), dispone del perceptrón que es un método simple y eficiente para aprender a través de ejemplos a realizar clasificaciones lineales.
Resumo:
With the growth of energy consumption worldwide, conventional reservoirs, the reservoirs called "easy exploration and production" are not meeting the global energy demand. This has led many researchers to develop projects that will address these needs, companies in the oil sector has invested in techniques that helping in locating and drilling wells. One of the techniques employed in oil exploration process is the reverse time migration (RTM), in English, Reverse Time Migration, which is a method of seismic imaging that produces excellent image of the subsurface. It is algorithm based in calculation on the wave equation. RTM is considered one of the most advanced seismic imaging techniques. The economic value of the oil reserves that require RTM to be localized is very high, this means that the development of these algorithms becomes a competitive differentiator for companies seismic processing. But, it requires great computational power, that it still somehow harms its practical success. The objective of this work is to explore the implementation of this algorithm in unconventional architectures, specifically GPUs using the CUDA by making an analysis of the difficulties in developing the same, as well as the performance of the algorithm in the sequential and parallel version
Resumo:
Sono stati analizzati i circuiti neurali addetti all'elaborazione matematica, a partire da quelli di start-up neurocognitivo per l'apprendimento del numero e del calcolo, capacità innate e già presenti alla nascita. I protagonisti sono il sistema della stima approssimativa del numero e quello di individuazione degli oggetti multipli e, spesso, le difficoltà che si incontrano durante un compito matematico (o la lentezza per portarlo a termine) sono date dalla difficile interazione tra questi e le loro sottocomponenti, continuamente riprogrammate dall'esecutivo centrale per poter supervisionare i processi di problem solving. Per la costruzione e lo sviluppo del calcolo più elevato, occorrono alcune capacità di base come il concetto di corrispondenza biunivoca, quello di ordinamento di un insieme, di maggioranza, di raddoppio e di dimezzamento, per mezzo delle quali ogni procedura si può ridurre ad una serie di operazioni più semplici. Queste funzioni vengono controllate e coordinate dal Sistema Attentivo Esecutivo che presiede tutte le attività di problem solving. I ragazzi che presentano deficit altamente specifici in una o più abilità matematiche di base vengono definiti discalculici e tra i loro tratti caratteristici vi sono l'incapacità di comprendere le numerosità, i principi delle operazioni e di elaborare strategie risolutive adatte ad ogni esercizio. Non tutti i ragazzi che presentano difficoltà in matematica sono discalculici: a tal proposito ho svolto una sperimentazione didattica in 10 classi di un I.T.I.S. , per cercare di capire se i concetti reputati consolidati alla scuola secondaria di 1° grado, lo sono realmente in quella di 2° e per mostrare le diverse tipologie di errori compiuti dai ragazzi clinici e non. I risultati sono stati largamente al di sotto delle aspettative, anche negli esercizi in cui è stato permesso l'uso della calcolatrice, lasciandomi presagire che gli errori commessi siano perlopiù di concetto piuttosto che di calcolo.
Resumo:
In questa tesi è descritto il lavoro svolto presso un'azienda informatica locale, allo scopo di ricerca ed implementazione di un algoritmo per individuare ed offuscare i volti presenti all'interno di video di e-learning in ambito industriale, al fine di garantire la privacy degli operai presenti. Tale algoritmo sarebbe stato poi da includere in un modulo software da inserire all'interno di un applicazione web già esistente per la gestione di questi video. Si è ricercata una soluzione ad hoc considerando le caratteristiche particolare del problema in questione, studiando le principali tecniche della Computer Vision per comprendere meglio quale strada percorrere. Si è deciso quindi di implementare un algoritmo di Blob Tracking basato sul colore.
Resumo:
La tesi di carattere sperimentale parla del calcolo, tramite diversi software, delle coordinate tridimensionali di alcune stazioni GNSS antartiche al fine di valutarne ripetibilità e accuratezza. Inoltre si descrive nel dettaglio il progetto nazionale di ricerca in Antartide (PNRA) e l'osservatorio geodetico italiano. Tutto questo anticipato da un ampio capitolo dove si descrive il sistema di posizionamento globale (GPS).
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Lo scopo di questo lavoro è quello di analizzare i dati raccolti dal Large Area Telescope a bordo del satellite Fermi con l'obiettivo di ricavare il flusso di raggi-γ, di energia compresa tra 100 MeV e 300 GeV, prodotti dal Blazar PKS B1424-418 in un periodo compreso tra l'1 Gennaio 2012 e il 4 Settembre 2016. Secondo alcuni modelli questo blazar potrebbe essere infatti la prima sorgente di Ultra High Energy Cosmic Ray associata sperimentalmente all'emissione di neutrini. L'analisi dei dati è effettuata tramite il pacchetto di software Fermi Science Tools.