965 resultados para Algoritmo Boosting
Resumo:
La clasificación es una de las herramientas necesarias para llevar a cabo un buen reconocimiento de patrones,las redes de neuronas artificiales (RNA), como una sección del área de Inteligencia Artificial (IA), dispone del perceptrón que es un método simple y eficiente para aprender a través de ejemplos a realizar clasificaciones lineales.
Resumo:
With the growth of energy consumption worldwide, conventional reservoirs, the reservoirs called "easy exploration and production" are not meeting the global energy demand. This has led many researchers to develop projects that will address these needs, companies in the oil sector has invested in techniques that helping in locating and drilling wells. One of the techniques employed in oil exploration process is the reverse time migration (RTM), in English, Reverse Time Migration, which is a method of seismic imaging that produces excellent image of the subsurface. It is algorithm based in calculation on the wave equation. RTM is considered one of the most advanced seismic imaging techniques. The economic value of the oil reserves that require RTM to be localized is very high, this means that the development of these algorithms becomes a competitive differentiator for companies seismic processing. But, it requires great computational power, that it still somehow harms its practical success. The objective of this work is to explore the implementation of this algorithm in unconventional architectures, specifically GPUs using the CUDA by making an analysis of the difficulties in developing the same, as well as the performance of the algorithm in the sequential and parallel version
Resumo:
In questa tesi è descritto il lavoro svolto presso un'azienda informatica locale, allo scopo di ricerca ed implementazione di un algoritmo per individuare ed offuscare i volti presenti all'interno di video di e-learning in ambito industriale, al fine di garantire la privacy degli operai presenti. Tale algoritmo sarebbe stato poi da includere in un modulo software da inserire all'interno di un applicazione web già esistente per la gestione di questi video. Si è ricercata una soluzione ad hoc considerando le caratteristiche particolare del problema in questione, studiando le principali tecniche della Computer Vision per comprendere meglio quale strada percorrere. Si è deciso quindi di implementare un algoritmo di Blob Tracking basato sul colore.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Áreas de produção agropecuária podem ser mapeadas com o uso de receptores GPS, pela medida da posição geográfica de pontos. A coleta de pontos a campo geralmente não segue uma ordem que permita o traçado direto das áreas. O trabalho descreve um algoritmo desenvolvido para ordenar os pontos medidos, usando apenas a identificação da área e setor a qual cada ponto pertence, permitindo criar um mapa das áreas de produção e suas subdivisões (setores de produção contíguos). O algoritmo foi implementado na forma de um programa em linguagem C, sendo testado e validado em mais de 600 propriedades vitícolas.
Resumo:
Apresentamos uma versão inicial da solução em desenvolvimento para estimação dos efeitos desejados através do modelo animal univariado, utilizando duas abordagens distintas para a obtenção do melhor estimador linear não viesado (BLUP) dos parâmetros do modelo.
Resumo:
The genetic algorithm is a very efficient tool to solve optimization problems. On the other hand, the classroom assignation in any education center, particularly those that does not have enough quantity of classrooms for the courseʼs demand converts it in an optimization problem. In the Department of Computer Science (Universidad de Costa Rica) this work is carried out manually every six months. Besides, at least two persons of the department are dedicated full time to this labor for one week or more. The present article describes an automatic solution that not only reduces the response time to seconds but it also finds an optimal solution in the majority of the cases. In addition gives flexibility in using the program when the information involved with classroom assignation has to be updated. The interface is simple an easy to use.
Resumo:
L’obiettivo di questa tesi è lo studio dell’applicazione del filtro di Kalman Duale per la stima dei principali parametri di batteria. Si è realizzato un algoritmo che consente la stima del SoC e dei parametri basandosi su riferimenti di tensione provenienti da modelli matematici e da prove di laboratorio. La scelta del Kalman duale consente uno studio più completo dei parametri di batteria visto che permette di operare su circuiti equivalenti più complessi con maggiori informazioni sull’evoluzione della batteria nel tempo. I risultati dimostrano l’efficacia del DEKF nello stimare la tensione e lo stato di carica con errori minori rispetto a precedenti test effettuati con altri filtri di Kalman. Si ha però una difficoltà alla convergenza su alcuni parametri a causa dell’elevato carico computazionale che porta ad un aumento del rumore. Perciò, per studi futuri si dovrà aumentare la precisione con cui la stima duale opera sulla matrice dei parametri del circuito equivalente. Questo porterà a migliori prestazioni anche su circuiti più complessi.
Resumo:
Per determinare lo stato di un satellite ad ogni istante è necessario un propagatore orbitale, cioè un algoritmo che, partendo da condizioni iniziali note, calcola la traiettoria di un corpo in un intervallo di tempo arbitrario. L’orbita ottenuta è tuttavia soggetta ad errori numerici (errori di propagazione) ed incertezze. Queste ultime derivano da condizioni iniziali non precise, in quanto ricavate da osservazioni, soggette ad errori di misurazione, o ipotesi sui parametri dell’orbita e del corpo. Per questo motivo è importante utilizzare il propagatore anche per verificare l’evoluzione di tali incertezze nel tempo tramite un processo noto come analisi della covarianza. Questo processo permette di valutare l’entità dell’incertezza calcolandone la variazione rispetto allo stato iniziale a cui è generata e la rispondenza ai requisiti di missione. Lo scopo della tesi è l’incremento di precisione del propagatore orbitale esistente e lo sviluppo di strumenti per il supporto della missione LICIACube (Light Italian Cubesat for Imaging of Asteroids). In particolare, saranno implementati effetti secondari nel modello di propagazione ed uno strumento per la propagazione e conversione della rappresentazione di incertezze delle effemeridi. Questo permetterà la valutazione della precisione dell’orbita di Didymos e di LICIACube, dal suo rilascio fino al flyby. Per l’esportazione della traiettoria calcolata viene presentata una funzione che, tramite interpolazione, rappresenti l’orbita generata utilizzando un limitato spazio di memoria.
Resumo:
Microbial Fuel Cells (MFC) technology finds space as a promising technology as a green alternative power-generating device, by the possibility to convert organic matter directly into electricity by microbially catalysed reactions, especially for the potential of the simultaneous treatment of wastewaters. Despite the studies that were carried out over the decades, MFCs still provide insufficient power and current densities in order to be commercially attractive in the energy market. Scientific community today pursues two main strategies in order to increase the overall performance output of the MFC. The first is to support the cells with an external supercapacitor (SC), which is able to accept and deliver charge much faster than normal capacitors, thanks to the use of an electrostatic double-layer capacitance, in combination with pseudocapacitance. The second is to implement directly the SC into the MFC, by using carbon electrodes with high surface area, similar to the SC. Both strategies are eventually supported by the use of charge boosters, respect to the application of the MFC. Galvanostatic measures for the MFC and SCs are performed at different currents, alone and by integration of both devices. The SCs used have a capacitance respectively of 1F, 3F and 6F. Subsequently, a stack of MFCs is assembled and paired to a 3F SC, in order to power an ambient diffuser, able to spray at intervals with a can and a controller. In conclusion, the use of a SC in parallel to the MFCs increases the overall performance of the system. The SC remove the discharge current limit of the MFC and increases the energy and power delivered by the system, allowing it to power for a certain time the ambient diffuser successfully. The key factor highlighted by the final experiment was the insufficient charging time of the SC, resulting finally in a voltage that is inadequate to power the device. Further studies are therefore necessary to improve the performance of the MFCs.
Resumo:
L’elaborato descrive le fasi di progettazione, programmazione e validazione di un programma sviluppato in ambiente Java per il Vehicle Routing Problem. L’algoritmo implementato è di tipo euristico costruttivo primal e presenta funzionalità specifiche per la gestione di un elevato numero di vincoli e l’applicazione a casistiche reali. La validazione è stata effettuata su una base dati reale e in confronto a dataset di cui è nota la soluzione ottima. Il programma è stato progettato per risultare flessibile alle richieste dell’utente e utilizzabile per valutazioni economiche in ambito consulenziale.
Resumo:
I raggi cosmici sono una fonte naturale di particelle ad alta energia di origine galattica e extragalattica. I prodotti della loro interazione con l’atmosfera terrestre giungono fino alla superficie terrestre, dove vengono rilevati dagli esperimenti di fisica delle particelle. Si vuole quindi identificare e rimuovere questo segnale. Gli apparati sperimentali usati in fisica delle particelle prevedono dei sistemi di selezione dei segnali in ingresso (detti trigger) per rigettare segnali sotto una certa soglia di energia. Il progredire delle prestazioni dei calcolatori permette oggi di sostituire l’elettronica dei sistemi di trigger con implementazioni software (triggerless) in grado di selezionare i dati secondo criteri più complessi. TriDAS (Triggerless Data Acquisition System) è un sistema di acquisizione triggerless sviluppato per l’esperimento KM3NeT e utilizzato recentemente per gestire l’acquisizione di esperimenti di collisione di fascio ai Jefferson Lab (Newport News, VA). Il presente lavoro ha come scopo la definizione di un algoritmo di selezione di eventi generati da raggi cosmici e la sua implementazione come trigger software all’interno di TriDAS. Quindi si mostrano alcuni strumenti software sviluppati per costruire un ambiente di test del suddetto algoritmo e analizzare i dati prodotti da TriDAS.
Resumo:
L’elaborato di tesi è frutto di un percorso di tirocinio svolto in Gruppo Montenegro S.r.l., il cui obiettivo risiede nello sviluppo di un algoritmo per la pallettizzazione e la saturazione del mezzo di trasporto per la Divisione Food. Nello specifico viene proposto un algoritmo euristico elaborato nel linguaggio di programmazione Python. La divisione Food è costituita da tre categorie: Cannamela, Cuore e Vitalia.Queste comprendono prodotti molto eterogenei. Attraverso il coinvolgimento delle funzioni aziendali di Packaging e Qualità, sono stati stabiliti i vincoli da rispettare per la pallettizzazione dei prodotti. L’algoritmo proposto viene descritto suddividendo il processo in tre macro-step. La prima parte affronta il problema del 3D Bin Packing Problem, utilizzando e modificando un programma già presente in letteratura per soddisfare le esigenze della categoria Cannamela. Quest’ultima a differenza delle altre categorie, viene allestita in groupage preallestito poiché gli ordini Cannamela possono contenere quantità non-multiple rispetto alle quantità contenute nell’imballo secondario. La seconda parte dell’algoritmo si occupa della creazione dei pallet per le categorie Cuore e Vitalia. Attraverso l’utilizzo dell’algoritmo di clustering K-means sono state create famiglie di codici che permettessero l’allestimento di pallet con prodotti considerati simili. Di conseguenza, l’algoritmo per la pallettizzazione delle due categorie viene sviluppato ex-novo basandosi sulla percentuale di occupazione del prodotto nel pallet. L’ultima parte dell’algoritmo studia la possibilità di sovrapporre i pallet precedentemente creati. Infine, viene effettuata un’analisi di un periodo strategico confrontando i risultatidell’algoritmo Python con quelli dell’algoritmo presente nel gestionale aziendale. I risultati vengono poi analizzati in relazione a due impatti importanti per l’azienda:economici e ambientali.