71 resultados para python django bootstrap
Resumo:
Dyanote é un programma di note taking dove gli appunti sono gestiti in un ipertesto. E' stato sviluppando usando Django ed AngularJS.
Analisi e progettazione di un'architettura per il monitoraggio a basso costo di catastrofi naturali.
Resumo:
Il monitoraggio ravvicinato di scenari protagonisti di fenomeni ambientali catastrofici, come improvvisi terremoti o violente eruzioni vulcaniche, è reso complicato dalla pericolosità intrinseca di tali ambienti per l'incolumità di operatori e attrezzature. L'obiettivo di questa tesi è di capire se è possibile realizzare un'alternativa alle attuali stazioni monitoranti, caratterizzata da una facile installazione e da un costo contenuto. Sarà fondamentale che la stazione possa trasmettere a distanza tutto ciò che i suoi sensori registrano, finché non sarà resa non operativa da un guasto meccanico causato dall'ambiente circostante.
Resumo:
In Italia hanno visto stampanti 3D commerciali, e grazie al gruppo di professori e ricercatori della Facoltà di Ingegneria Meccanica dell'Università di Bologna, con cui ho avuto la possibilità di realizzare questa tesi, è nato il progetto di una stampante 3D ibrida, dotata sia di una fresatrice che di un estrusore: una stampante talmente grande che si va a posizionare come la stampante più grande di tutta Italia. Il mio progetto, si chiama PrinterCAD, è in grado infatti di gestire le diverse fasi della stampa 3D ibrida con i necessari parametri di lavorazione e controllo. Questo applicazione è un modulo realizzato in Python e segue la filosofia del MVC; inoltre estende il software opensource FreeCAD.
Resumo:
Questo progetto ha lo scopo di creare un sistema di supporto per lo staff di grandi tornei internazionali di giochi da tavolo o di carte. Questi eventi sono solitamente gestiti da più di 40 persone e occupano grandi padiglioni fieristici. Vedremo come sia possibile, con l'ausilio di smartphone, facilitare le normali operazioni logistiche e permettere di risparmiare tempo e fatica. Analizzeremo le scelte progettuali e gli strumenti adottati per lo sviluppo di questo sistema.
Resumo:
Questa ricerca affronta in maniera interdisciplinare il tema delle funzioni polinomiali definite sugli anelli degli interi modulo la potenza di un numero primo. In primo luogo è stato esaminato il caso particolare del campo Zp, dimostrando che in esso tutte le funzioni sono polinomiali. In seguito è stato calcolato il numero delle funzioni polinomiali negli interi modulo 9 e modulo 25, mostrando un procedimento che può essere esteso a qualsiasi potenza di un numero primo. Esso fa uso di alcuni risultati di teoria dei numeri e di aritmetica e affronta il tema da un punto di vista prettamente algebrico. A queste dimostrazioni è stato affiancato un esperimento di tipo statistico, il cui obiettivo è cercare una regolarità che permetta, dati il numero primo p e il suo esponente n, di calcolare immediatamente il numero delle funzioni polinomiali nell'anello degli interi modulo p^n. Sono state presentate due congetture, ottenute utilizzando strumenti di tipo informatico: un software di calcolo e un linguaggio di programmazione ad alto livello. Gli strumenti della statistica descrittiva, in particolare il test di Pearson, si sono rivelati essenziali per verificare l'adeguatezza delle supposizioni. Questa ricerca può essere considerata il punto di partenza per dimostrare (o confutare) quello che è stato ipotizzato attraverso un'analisi di tipo sperimentale.
Resumo:
In questa tesi è stato proposto AffiliationExtractor, un tool modulare scritto in Python, preposto all'estrazione di informazioni su affiliazioni di autori di pubblicazioni scientifiche, producendo in output un dataset RDF contente queste informazioni.
Resumo:
In CMS è stato lanciato un progetto di Data Analytics e, all’interno di esso, un’attività specifica pilota che mira a sfruttare tecniche di Machine Learning per predire la popolarità dei dataset di CMS. Si tratta di un’osservabile molto delicata, la cui eventuale predizione premetterebbe a CMS di costruire modelli di data placement più intelligenti, ampie ottimizzazioni nell’uso dello storage a tutti i livelli Tiers, e formerebbe la base per l’introduzione di un solito sistema di data management dinamico e adattivo. Questa tesi descrive il lavoro fatto sfruttando un nuovo prototipo pilota chiamato DCAFPilot, interamente scritto in python, per affrontare questa sfida.
Resumo:
Our generation of computational scientists is living in an exciting time: not only do we get to pioneer important algorithms and computations, we also get to set standards on how computational research should be conducted and published. From Euclid’s reasoning and Galileo’s experiments, it took hundreds of years for the theoretical and experimental branches of science to develop standards for publication and peer review. Computational science, rightly regarded as the third branch, can walk the same road much faster. The success and credibility of science are anchored in the willingness of scientists to expose their ideas and results to independent testing and replication by other scientists. This requires the complete and open exchange of data, procedures and materials. The idea of a “replication by other scientists” in reference to computations is more commonly known as “reproducible research”. In this context the journal “EAI Endorsed Transactions on Performance & Modeling, Simulation, Experimentation and Complex Systems” had the exciting and original idea to make the scientist able to submit simultaneously the article and the computation materials (software, data, etc..) which has been used to produce the contents of the article. The goal of this procedure is to allow the scientific community to verify the content of the paper, reproducing it in the platform independently from the OS chosen, confirm or invalidate it and especially allow its reuse to reproduce new results. This procedure is therefore not helpful if there is no minimum methodological support. In fact, the raw data sets and the software are difficult to exploit without the logic that guided their use or their production. This led us to think that in addition to the data sets and the software, an additional element must be provided: the workflow that relies all of them.
Resumo:
In campo medico ha un ruolo fondamentale il monitoraggio dei parametri vitali, importanti indicatori dello stato di salute del paziente, essenziali nella diagnosi e nella cura dellle patologie. La frequenza cardiaca occupa un ruolo fondamentale nella clinica, primo indice dell'attività cardio circolatoria del paziente. Il trattato analizza una metodica di monitoraggio del battito cardiaco per mezzo delle videocamere digitali, la ripresa diretta in video del volto del paziente e la presenza di un'adeguata illuminazione ambientale: la pulsazione cardiaca esercita variazioni di pressione a livello periferico generando un cambiamento del colore della pelle sulle zone più esposte, quali il viso. Analizzando l'andamento temporale del segnale RGB registra, per mezzo di algoritmi di elaborazione delle immagini, è possibile stimare accuratamente il battito cardiaco dell'utente. Nell'elaborato viene affrontata la metodica degl algoritmi di image-prcessing presentando un applicativo scritto in linguaggio Python, funzionante e testato su di un sistema Linux (Ubuntu 14.04). Tale metodo si basa sui concetti della fotopletismografia applicata in remoto denotando il non-contact-mode.
Resumo:
La tesi è stata incentrata sul gioco «Indovina chi?» per l’identificazione da parte del robot Nao di un personaggio tramite la sua descrizione. In particolare la descrizione avviene tramite domande e risposte L’obiettivo della tesi è la progettazione di un sistema in grado di capire ed elaborare dei dati comunicati usando un sottoinsieme del linguaggio naturale, estrapolarne le informazioni chiave e ottenere un riscontro con informazioni date in precedenza. Si è quindi programmato il robot Nao in modo che sia in grado di giocare una partita di «Indovina chi?» contro un umano comunicando tramite il linguaggio naturale. Sono state implementate regole di estrazione e categorizzazione per la comprensione del testo utilizzando Cogito, una tecnologia brevettata dall'azienda Expert System. In questo modo il robot è in grado di capire le risposte e rispondere alle domande formulate dall'umano mediante il linguaggio naturale. Per il riconoscimento vocale è stata utilizzata l'API di Google e PyAudio per l'utilizzo del microfono. Il programma è stato implementato in Python e i dati dei personaggi sono memorizzati in un database che viene interrogato e modificato dal robot. L'algoritmo del gioco si basa su calcoli probabilistici di vittoria del robot e sulla scelta delle domande da proporre in base alle risposte precedentemente ricevute dall'umano. Le regole semantiche realizzate danno la possibilità al giocatore di formulare frasi utilizzando il linguaggio naturale, inoltre il robot è in grado di distinguere le informazioni che riguardano il personaggio da indovinare senza farsi ingannare. La percentuale di vittoria del robot ottenuta giocando 20 partite è stata del 50%. Il data base è stato sviluppato in modo da poter realizzare un identikit completo di una persona, oltre a quello dei personaggi del gioco. È quindi possibile ampliare il progetto per altri scopi, oltre a quello del gioco, nel campo dell'identificazione.
Resumo:
L'obiettivo che il presente lavoro di tesi si pone consiste nella realizzazione e sperimentazione di una infrastruttura software in grado di monitorare il traffico passante attraverso un nodo di uscita della rete Tor a fini di intelligence proattiva.
Resumo:
Nell'elaborato viene introdotto l'ambito della Computer Vision e come l'algoritmo SIFT si inserisce nel suo panorama. Viene inoltre descritto SIFT stesso, le varie fasi di cui si compone e un'applicazione al problema dell'object recognition. Infine viene presentata un'implementazione di SIFT in linguaggio Python creata per ottenere un'applicazione didattica interattiva e vengono mostrati esempi di questa applicazione.
Resumo:
Il sistema presentato all'interno di questo documento di tesi ha come obiettivo quello di essere un supporto all'analisi di genere, che risulta fondamentale per la risoluzione delle situazioni laddove il genere ancora rappresenta condizione di differenza. Attraverso l’utilizzo di un dizionario dati, costruito per contenere parole chiave su cui l’analisi si basa, è possibile effettuare lo studio dei contenuti di documenti strutturati. Il sistema è stato sviluppato mediante l'utilizzo di Nova Framework, jQuery, Bootstrap e Morris.js. Per quanto riguarda la gestione e memorizzazione dei dati sono stati utilizzati un database relazionale MySQL ed un insieme di file XML e JSON.
Resumo:
In the last few decades, offshore field has grown fast especially after the notable development of technologies, explorations of oil and gas in deep water and the high concern of offshore companies in renewable energy mainly Wind Energy. Fatigue damage was noticed as one of the main problems causing failure of offshore structures. The purpose of this research is to focus on the evaluation of Stress Concentration Factor and its influence on Fatigue Life for 2 tubular KT-Joints in offshore Jacket structure using different calculation methods. The work is done by using analytical calculations, mainly Efthymiou’s formulations, and numerical solutions, FEM analysis, using ABAQUS software. As for the analytical formulations, the calculations were done according to the geometrical parameters of each method using excel sheets. As for the numerical model, 2 different types of tubular KT-Joints are present where for each model 5 shell element type, 3 solid element type and 3 solid-with-weld element type models were built on ABAQUS. Meshing was assigned according to International Institute of Welding (IIW) recommendations, 5 types of mesh element, to evaluate the Hot-spot stresses. 23 different types of unitary loading conditions were assigned, 9 axial, 7 in-plane bending moment and 7 out-plane bending moment loads. The extraction of Hot-spot stresses and the evaluation of the Stress Concentration Factor were done using PYTHON scripting and MATLAB. Then, the fatigue damage evaluation for a critical KT tubular joint based on Simplified Fatigue Damage Rule and Local Approaches (Strain Damage Parameter and Stress Damage Parameter) methods were calculated according to the maximum Stress Concentration Factor conducted from DNV and FEA methods. In conclusion, this research helped us to compare different results of Stress Concentration Factor and Fatigue Life using different methods and provided us with a general overview about what to study next in the future.
Resumo:
Nella prima parte del mio lavoro viene presentato uno studio di una prima soluzione "from scratch" sviluppata da Andrew Karpathy. Seguono due miei miglioramenti: il primo modificando direttamente il codice della precedente soluzione e introducendo, come obbiettivo aggiuntivo per la rete nelle prime fasi di gioco, l'intercettazione della pallina da parte della racchetta, migliorando l'addestramento iniziale; il secondo é una mia personale implementazione utilizzando algoritmi più complessi, che sono allo stato dell'arte su giochi dell'Atari, e che portano un addestramento molto più veloce della rete.