71 resultados para python django bootstrap


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi si è voluta creare una metodologia solida per la generazione di geome-trie banchi di flussaggio stazionario, sia per Tumble che per Swirl, a varie alzate valvole (in questo caso solo aspirazione, ma estendibile anche a quelle di scarico), avvalendosi del soft-ware SALOME; seguite da creazione griglia di calcolo e infine simulazione in ambiente Open-FOAM. Per prima cosa si è importata la geometria creata in un CAD esterno e importata in SALOME in formato STEP. A seguito si sono posizionate le valvole all’alzata da simulare, insieme alla creazione del falso cilindro, diversificato tra il caso Tumble e Swirl. Si è importato il file del banco di flussaggio, in formato STL, in snappyHexMesh e generata la griglia; questa è stata utilizzata per la simulazione in ambiente OpenFOAM, utilizzando l’utility rhoPorousSimpleFoam. Infine, si sono estratti i dati per il calcolo di grandezze utili, coppia di Tumble/Swirl e portata in massa, oltre alla creazione di immagini di visualizzazione campi di moto, utilizzando il post processore ParaView. In parallelo si è sviluppata l’automatizzazione delle varie fasi servendosi sia di script scritti in python che in bash.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto descritto in questo elaborato di tesi è stato svolto presso Il Centro Protesi INAIL (Vigorso di Budrio, BO). Il lavoro è stato realizzato a supporto di un progetto di ricerca, finanziato dal Dipartimento della Difesa USA, in collaborazione con la Northwestern University di Chicago e il Minneapolis Veteran Affairs Health Care Sytem. La ricerca ha lo scopo di determinare l’efficacia comparativa di metodi alternativi per realizzare il calco del moncone dell’amputato di arto inferiore e la successiva invasatura su misura. Il progetto di tesi nasce dall’assenza di un software commerciale in grado di analizzare come evolve la forma del moncone, dal calco all'invasatura finita, basandosi sulla digitalizzazione tridimensionale delle superfici. La libreria sviluppata è implementata in Python e utilizza algoritmi e strumenti di geometria computazionale al fine di supportare i processi di elaborazione dati. Il flusso di lavoro si sviluppa nelle seguenti fasi: • Acquisizione e pre-processing del dato; • Identificazione digitale dei punti di repere; • Allineamento dei modelli per orientarli in un sistema di riferimento globale secondo una logica comune; • Registrazione di due modelli per allinearli l’uno all’altro; • Generazione di outcome e parametri dimensionali, derivanti da mappe distanza, sezioni, cammini geodetici e regioni di interesse; • Estrazione di indicatori statistici riassuntivi delle differenze, correlate ad un insieme di scansioni tramite la PCA. Le funzionalità sono state validate tramite appositi test su dati clinici rilevati dallo studio o dati sintetici con caratteristiche note a priori. La libreria fornisce un insieme di interfacce che permette l’accesso anche a utenti non esperti ed è caratterizzata da modularità, semplicità di installazione ed estensibilità delle funzionalità. Tra gli sviluppi futuri si prevede l’identificazione di possibili ottimizzazioni individuate da un utilizzo degli strumenti esteso a più casi d’uso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo principale della tesi, è quello di mettere a confronto soluzioni basate su tecnologie diverse e individuare la soluzione migliore che permetta di stabilire se le persone inquadrate in un’immagine indossano correttamente o meno la mascherina protettiva come previsto dalle norme anti-covid. Per raggiungere l’obiettivo verranno confrontate diverse architetture costruite per lo stesso scopo e che si basano sui principi di Machine Learning e Deep Learning, e verranno messe in funzione su insieme di dataset individuati, che sono stati creati per propositi affini.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Intelligenza Artificiale è un campo dell’informatica che da tempo si afferma come valido strumento alternativo per la risoluzione di problemi tipicamente riservati esclusivamente all’intelletto umano. Se in principio gli algoritmi sfruttati nel campo dell’Intelligenza Artificiale erano basati su insiemi di regole codificate da esperti del dominio di applicazione dell’algoritmo, con l’arrivo del secondo millennio questo approccio è stato superato in favore di algoritmi che sfruttano grandi quantità di dati ed elevata potenza di calcolo per fare scelte ottimali. Un esempio di questo approccio può essere Deep Blue, che nel 1996, anche grazie ad un database di 4mila aperture e un’architettura che permetteva 11 GFLOPS fu la prima macchina a vincere una partita a scacchi contro un grande maestro. Col passare degli anni, l’aumentare degli investimenti e della ricerca, questo approccio ha portato alla strutturazione del campo dell’Apprendimento Automatico (Machine Learning, in inglese) dal quale sono scaturiti numerosi avanzamenti che hanno influenzato una moltitudine di ambiti: dall’agricoltura di precisione alla traduzione automatica, dal riconoscimento di frodi con carte di credito alla farmaceutica, dal marketing alla visione artificiale e molti altri, inclusa la medicina. Questo lavoro si concentra su proprio questioni relative al campo della medicina. In particolare si occupa di provare a riconoscere se le stenosi coronariche di un paziente sono gravi o meno attraverso l’uso di angiografie coronariche invasive e tomografie coronariche angiografiche; in maniera da diminuire delle angiografie coronariche invasive effettuate su pazienti che non ne hanno davvero bisogno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi vengono discusse le principali tecniche di machine learning riguardanti l'inferenza di tipo nei linguaggi tipati dinamicamente come Python. In aggiunta è stato creato un dataset di progetti Python per l'addestramento di modelli capaci di analizzare il codice

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'image captioning è un task di machine learning che consiste nella generazione di una didascalia, o caption, che descriva le caratteristiche di un'immagine data in input. Questo può essere applicato, ad esempio, per descrivere in dettaglio i prodotti in vendita su un sito di e-commerce, migliorando l'accessibilità del sito web e permettendo un acquisto più consapevole ai clienti con difficoltà visive. La generazione di descrizioni accurate per gli articoli di moda online è importante non solo per migliorare le esperienze di acquisto dei clienti, ma anche per aumentare le vendite online. Oltre alla necessità di presentare correttamente gli attributi degli articoli, infatti, descrivere i propri prodotti con il giusto linguaggio può contribuire a catturare l'attenzione dei clienti. In questa tesi, ci poniamo l'obiettivo di sviluppare un sistema in grado di generare una caption che descriva in modo dettagliato l'immagine di un prodotto dell'industria della moda dato in input, sia esso un capo di vestiario o un qualche tipo di accessorio. A questo proposito, negli ultimi anni molti studi hanno proposto soluzioni basate su reti convoluzionali e LSTM. In questo progetto proponiamo invece un'architettura encoder-decoder, che utilizza il modello Vision Transformer per la codifica delle immagini e GPT-2 per la generazione dei testi. Studiamo inoltre come tecniche di deep metric learning applicate in end-to-end durante l'addestramento influenzino le metriche e la qualità delle caption generate dal nostro modello.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Much of the real-world dataset, including textual data, can be represented using graph structures. The use of graphs to represent textual data has many advantages, mainly related to maintaining a more significant amount of information, such as the relationships between words and their types. In recent years, many neural network architectures have been proposed to deal with tasks on graphs. Many of them consider only node features, ignoring or not giving the proper relevance to relationships between them. However, in many node classification tasks, they play a fundamental role. This thesis aims to analyze the main GNNs, evaluate their advantages and disadvantages, propose an innovative solution considered as an extension of GAT, and apply them to a case study in the biomedical field. We propose the reference GNNs, implemented with methodologies later analyzed, and then applied to a question answering system in the biomedical field as a replacement for the pre-existing GNN. We attempt to obtain better results by using models that can accept as input both node and edge features. As shown later, our proposed models can beat the original solution and define the state-of-the-art for the task under analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il riconoscimento delle condizioni del manto stradale partendo esclusivamente dai dati raccolti dallo smartphone di un ciclista a bordo del suo mezzo è un ambito di ricerca finora poco esplorato. Per lo sviluppo di questa tesi è stata sviluppata un'apposita applicazione, che combinata a script Python permette di riconoscere differenti tipologie di asfalto. L’applicazione raccoglie i dati rilevati dai sensori di movimento integrati nello smartphone, che registra i movimenti mentre il ciclista è alla guida del suo mezzo. Lo smartphone è fissato in un apposito holder fissato sul manubrio della bicicletta e registra i dati provenienti da giroscopio, accelerometro e magnetometro. I dati sono memorizzati su file CSV, che sono elaborati fino ad ottenere un unico DataSet contenente tutti i dati raccolti con le features estratte mediante appositi script Python. A ogni record sarà assegnato un cluster deciso in base ai risultati prodotti da K-means, risultati utilizzati in seguito per allenare algoritmi Supervised. Lo scopo degli algoritmi è riconoscere la tipologia di manto stradale partendo da questi dati. Per l’allenamento, il DataSet è stato diviso in due parti: il training set dal quale gli algoritmi imparano a classificare i dati e il test set sul quale gli algoritmi applicano ciò che hanno imparato per dare in output la classificazione che ritengono idonea. Confrontando le previsioni degli algoritmi con quello che i dati effettivamente rappresentano si ottiene la misura dell’accuratezza dell’algoritmo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This Thesis work concerns the complementary study of the abundance of galaxy clusters and cosmic voids identified in cosmological simulations, at different redshifts. In particular, we focus our analyses on the combination of the cosmological constraints derived from these probes, which can be considered statistically independent, given the different aspects of Universe density field they map. Indeed, we aim at showing the orthogonality of the derived cosmological constraints and the resulting impressive power of the combination of these probes. To perform this combination we apply three newly implemented algorithms that allow us to combine independent probes. These algorithms represent a flexible and user-friendly tool to perform different techniques for probe combination and are implemented within the environment provided by the large set of free software C++/Python CosmoBolognaLib. All the new implemented codes provide simple and flexible tools that will be soon applied to the data coming from currently available and next-generation wide-field surveys to perform powerful combined cosmological analyses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La malattia COVID-19 associata alla sindrome respiratoria acuta grave da coronavirus 2 (SARS-CoV-2) ha rappresentato una grave minaccia per la salute pubblica e l’economia globale sin dalla sua scoperta in Cina, nel dicembre del 2019. Gli studiosi hanno effettuato numerosi studi ed in particolar modo l’applicazione di modelli epidemiologici costruiti a partire dai dati raccolti, ha permesso la previsione di diversi scenari sullo sviluppo della malattia, nel breve-medio termine. Gli obiettivi di questa tesi ruotano attorno a tre aspetti: i dati disponibili sulla malattia COVID-19, i modelli matematici compartimentali, con particolare riguardo al modello SEIJDHR che include le vaccinazioni, e l’utilizzo di reti neurali ”physics-informed” (PINNs), un nuovo approccio basato sul deep learning che mette insieme i primi due aspetti. I tre aspetti sono stati dapprima approfonditi singolarmente nei primi tre capitoli di questo lavoro e si sono poi applicate le PINNs al modello SEIJDHR. Infine, nel quarto capitolo vengono riportati frammenti rilevanti dei codici Python utilizzati e i risultati numerici ottenuti. In particolare vengono mostrati i grafici sulle previsioni nel breve-medio termine, ottenuti dando in input dati sul numero di positivi, ospedalizzati e deceduti giornalieri prima riguardanti la città di New York e poi l’Italia. Inoltre, nell’indagine della parte predittiva riguardante i dati italiani, si è individuato un punto critico legato alla funzione che modella la percentuale di ricoveri; sono stati quindi eseguiti numerosi esperimenti per il controllo di tali previsioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'analisi di codice compilato è un'attività sempre più richiesta e necessaria, critica per la sicurezza e stabilità delle infrastrutture informatiche utilizzate in tutto il mondo. Le tipologie di file binari da analizzare sono numerose e in costante evoluzione, si può passare da applicativi desktop o mobile a firmware di router o baseband. Scopo della tesi è progettare e realizzare Dragonlifter, un convertitore da codice compilato a C che sia estendibile e in grado di supportare un numero elevato di architetture, sistemi operativi e formati file. Questo rende possibile eseguire programmi compilati per altre architetture, tracciare la loro esecuzione e modificarli per mitigare vulnerabilità o cambiarne il comportamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Turbulent plasmas inside tokamaks are modeled and studied using guiding center theory, applied to charged test particles, in a Hamiltonian framework. The equations of motion for the guiding center dynamics, under the conditions of a constant and uniform magnetic field and turbulent electrostatic field are derived by averaging over the fast gyroangle, for the first and second order in the guiding center potential, using invertible changes of coordinates such as Lie transforms. The equations of motion are then made dimensionless, exploiting temporal and spatial periodicities of the model chosen for the electrostatic potential. They are implemented numerically in Python. Fast Fourier Transform and its inverse are used. Improvements to the original Python scripts are made, notably the introduction of a power-law curve fitting to account for anomalous diffusion, the possibility to integrate the equations in two steps to save computational time by removing trapped trajectories, and the implementation of multicolored stroboscopic plots to distinguish between trapped and untrapped guiding centers. The post-processing of the results is made in MATLAB. The values and ranges of the parameters chosen for the simulations are selected based on numerous simulations used as feedback tools. In particular, a recurring value for the threshold to detect trapped trajectories is evidenced. Effects of the Larmor radius, the amplitude of the guiding center potential and the intensity of its second order term are studied by analyzing their diffusive regimes, their stroboscopic plots and the shape of guiding center potentials. The main result is the identification of cases anomalous diffusion depending on the values of the parameters (mostly the Larmor radius). The transitions between diffusive regimes are identified. The presence of highways for the super-diffusive trajectories are unveiled. The influence of the charge on these transitions from diffusive to ballistic behaviors is analyzed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

TARO (Tons of Articles Ready to Outline) è un progetto che ha come scopo quello di realizzare un sistema per la raccolta, l'analisi e il confronto di articoli di giornali online. Sono state scelte come fonti testate giornalistiche internazionali e i loro canali di pubblicazione, come ad esempio i Feed RSS e le Homepage. Gli articoli vengono quindi analizzati attraverso NER e Sentiment Analysis per poi individuare quali argomenti siano trattati da più testate e quali invece risultino esclusivi di una sola, sfruttando algoritmi di similarità. Il progetto è sviluppato in Python e sono utilizzate diverse librerie, tra cui Scrapy, per la raccolta di articoli, Argos, per la traduzione delle notizie al fine di allinearle linguisticamente, SpaCy, per le analisi semantiche, e Pandas per la visualizzazione dei risultati ottenuti. Uno degli obiettivi è sfruttare questa pipeline al fine di effettuare analisi socio-culturali interessanti utilizzando le informazioni date dagli articoli giornalistici stessi, oltre che osservare le potenzialità delle analisi semantiche fatte su notiziari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Many sonification systems face a number of common design challenges. These are addressed in every project with different, specific-purpose solutions. We present Panson – an interactive sonification framework implemented in Python that can ease the development of sonification systems. Panson allows the user to implement sonifications using the sc3nb library as interface to the SuperCollider sound synthesis engine. The framework provides support for both offline and online (real-time) sonification through a set of composable classes; these classes are designed to natively support interaction in Jupyter Notebooks. Using Panson, we will show an example of its application by implementing a facial expression sonification Jupyter Notebook based on OpenFace 2.0.