902 resultados para interfaccia,rover,monitoraggio,connettività,programmazione
Resumo:
Pacchetto R per il supporto dell'analisi di dati spazio temporali. Il pacchetto fornisce due funzioni, le quali permettono di avviare due applicazioni web, sviluppate con il framework shiny, per la visualizzazione di dati con connotazione spaziale di tipo areale o puntuale. Le applicazioni generano, a partire dai dati caricati dall'utente, due grafici interattivi per la visualizzazione della distribuzione temporale e spaziale del fenomeno che i dati descrivono. Sono previsti, all'interno dell'interfaccia utente delle applicazioni, una serie di componenti che permettono di personalizzare i grafici prodotti.
Resumo:
Questo lavoro è incentrato sulla pianificazione delle acquizioni e scaricamento del satellite PLATiNO. Le operazioni permesse a questo satellite sono vincolate da varie attività tra cui acquisizioni, manovre e scaricamento di dati. L'obiettivo finale è quello di soddisfare più richieste possibili massimizzando le operazioni del satellite senza però violare i vincoli imposti. A questo scopo, è stato sviluppato un modello in formulazione MILP per una versione rilassata del problema. In questa Tesi vengono innanzitutto trattati i principali argomenti di programmazione lineare e intera in modo da poter affrontare il modello matematico inerente al problema di downlink di PLATiNO. Successivamente viene descritto nel dettaglio il problema da modellizzare, con particolare attenzione alla strategia di downlink, che costituisce l'aspetto più problematico nella costruzione del modello. Si opta, infatti, per una formulazione mista rilassando i vincoli inerenti allo scaricamento dei dati. Infine, vengono valutate le prestazioni del modello rilassato confrontandolo con la sua versione esatta.
Resumo:
L'argomento del lavoro di tesi svolto ha lo scopo di testare le prestazioni di dispositivi riceventi per Global Navigation Satellite System (GNSS) che utilizzano la tecnologia di posizionamento Real-Time Kinematics (RTK) e valutarne le prestazioni rispetto alle tradizionali riceventi GNSS, nello sviluppo di missioni autonome per veicoli di terra di piccole dimensioni. Per questi esperimenti è stato usato un rover di piccole dimensioni alimentato a batteria, su cui è stato installato un autopilota Pixhawk Cube Orange con firmware Ardupilot, nello specifico Ardurover. Attraverso il software Mission Planner è stato richiesto al rover di effettuare completamente in autonomia delle missioni per testare sia le prestazioni dei sistemi GNSS tradizionali sia dei sistemi RTK. Attraverso i dati raccolti durante le sperimentazioni è stato fatto un confronto tra GNSS e RTK. I dati raccolti sono stati utilizzati per valutare le prestazioni in termini di precisione dei sistemi e non sono state rilevate significative differenze durante l'utilizzo del dispositivo RTK per lo svolgimento della missione richiesta al rover, con l'architettura hardware proposta.
Resumo:
Un danneggiamento in una struttura altera le sue caratteristiche dinamiche quali frequenze naturali, indici di smorzamento e forme modali associate ad ogni frequenza naturale. In particolare, nel caso di travi, una variazione di rigidezza flessionale è in generale definibile danneggiamento se corrisponde ad una riduzione della stessa; tuttavia, anche un incremento altera i parametri dinamici della struttura. Il presente elaborato investiga l’applicazione del cambiamento nelle curvature modali per identificare un incremento di rigidezza flessionale in una trave metallica semplicemente appoggiata studiata presso il laboratorio LISG dell’Università di Bologna. Utilizzando le differenze centrali, le curvature modali sono state calcolate dalle forme modali ottenute sperimentalmente. Le modalità di calcolo utilizzate per identificare le forme modali della trave sono accomunate dall’utilizzo delle funzioni di trasferimento sperimentali ricavate sia dal rapporto tra le trasformate di output ed input, sia facendo uso della densità di potenza spettrale (PSD e CPSD). A supporto delle indagini sperimentali e per validare le modalità di calcolo utilizzate è stata modellata tramite elementi finiti una trave semplicemente appoggiata che simula la configurazione iniziale e quella irrigidita localmente in un suo tratto. I risultati numerici condotti validano le modalità utilizzate per la determinazione delle forme modali, evidenziando una forte sensibilità delle curvature modali all’irrigidimento locale. Come atteso, lato sperimentale le forme modali risultano meno accurate di quelle dedotte dalle esperienze numeriche. I risultati ottenuti evidenziano limiti e potenzialità dell’algoritmo di identificazione impiegato.
Resumo:
L'elaborato tratta la progettazione e la costruzione di un database, mediante l'utilizzo di un Database Management System (DBMS), correlato a una interfaccia GIS, con l'obiettivo di ottenere una panoramica del sistema della mobilità del Comune di Bologna. I software che si utilizzano sono QGIS e PostgreSQL, entrambi open source. Si descrive nel dettaglio la fase di raccolta e selezione dei file da inserire nel database, riguardanti la mobilità, i trasporti e le infrastrutture viarie, la maggior parte dei quali provenienti dagli uffici del Comune di Bologna. In seguito si mostra la fase di realizzazione del database e si effettuano interrogazioni sui dati inseriti, per ottenere nuove informazioni che descrivono la mobilità e l'accessibilità urbana. L'analisi della tesi si focalizza verso la valutazione dell'accessibilità alle modalità sostenibili, quali trasporto pubblico e modalità non motorizzate (mobilità ciclistica e pedonale). In questo modo si crea uno strumento per individuare punti di forza e criticità del sistema della mobilità.
Resumo:
A fronte dei numerosi eventi di perdita di servizio o crolli di ponti degli ultimi anni, il loro adeguamento e/o miglioramento è divenuto prioritario. Con questo spirito si è posta l’attenzione sui ponti Gerber, descrivendo dapprima le ragioni tecniche e storiche del loro sviluppo, i problemi di degrado, ed infine i modelli disponibili per il calcolo della portanza delle selle. Consapevoli della ridotta durabilità di queste opere, e del fatto che le cerniere Gerber sono state ufficialmente classificate come punti critici da attenzionare ai sensi delle nuove “Linee guida per la classificazione e gestione del rischio, la valutazione della sicurezza ed il monitoraggio dei ponti esistenti” del 2020, sono stati approfonditi due scenari tipici di intervento su casi reali di ponti che presentassero giunti Gerber particolarmente ammalorati. La soluzione più conservativa e meno invasiva prevede il mantenimento in essere delle selle e si basa sul by-pass dei giunti stessi ottenuto attraverso il meccanismo “leva” che si instaura in un sistema di travi metalliche posto a sostegno delle travi d’impalcato. Quella di solidarizzare le travi rendendo il sistema iperstatico è invece la seconda soluzione analizzata. La chiusura delle selle consente di ottenere gli effetti benefici propri delle strutture iperstatiche, a spese comunque della nascita di sollecitazioni all’interno della trave originariamente compresa tra le cerniere. Si è infine accennato a ipotesi di miglioramento sismico dell’opera, trattato con la cucitura delle selle Gerber stesse, che hanno consentito all’impalcato di avere un comportamento monolitico. Il presente elaborato costituisce dunque un punto d’incontro tra i modelli teorici con cui si studiano i degradi e la capacità portante residua delle selle, e le soluzioni progettuali di intervento effettivamente utilizzate e disponibili per la messa in sicurezza di ponti con caratteristiche simili.
Resumo:
Il telerilevamento satellitare costituisce una delle tecniche di osservazione maggiormente efficace nel monitoraggio e nello studio dell'estensione del manto nevoso. Il manto ricopre un ruolo di estrema importanza quale risorsa idrica per gli ecosistemi e per le applicazioni agricole e industriali. Inoltre, è un indicatore climatologico in un contesto di cambiamenti climatici regionali e globali. In questo senso, la copertura nevosa è da considerarsi come una importante risorsa economica e sociale. Lo scopo della presente tesi è di produrre mappe di copertura nevosa giornaliere per la stima dell'estensione del manto nevoso della regione Emilia-Romagna e di analizzare la sua variabilità spazio-temporale nel periodo 2000-2020. Le mappe sono state sviluppate sulla base dei prodotti di neve, M*D10A1, del sensore MODIS, che consistono in mappe di classificazione della copertura in funzione dell'indice NDSI. Inizialmente, è stato costruito un albero decisionale con criteri a soglia multipla in grado di rielaborare la classificazione della superficie del sensore e produrre mappe di copertura nevosa sulla base di tre classi: neve, no-neve e nube. L'accuratezza delle mappe è stata validata tramite test statistici effettuati confrontandole con i dati di altezza del manto nevoso in situ di 24 stazioni meteorologiche, per il periodo di compresenza dei dati 2000-2012. I risultati della procedura di validazione hanno mostrato come, in generale, vi sia buon accordo tra il dato satellitare e la rispettiva osservazione al suolo, soprattutto nei pressi di stazioni lontane da vegetazione sempreverde e/o di ambiente urbano. Infine, è stata valutata la variabilità climatologica dell'estensione del manto nevoso tramite l'elaborazione degli indici di neve SCF, SCD e diversi indici SCA. L'attenzione è stata particolarmente focalizzata sugli indici di massima estensione invernale del manto, del valore mediano e del numero di giorni con estensione superiore al 39.5% della regione.
Resumo:
Il presente lavoro propone la stesura di un codice in ambiente MATLAB per l'analisi energetica di powertrain ibridi operanti nel ciclo WLTP con il particolare funzionamento del motore termico benzina a punto fisso stechiometrico. Nello specifico, il codice prende dei dati in input tramite un'interfaccia grafica ed avvia una simulazione, i cui risultati principali corrispondono ad emissioni di anidride carbonica per chilometro percorso ed ai chilometri percorsi con un litro di carburante. Queste sono le due grandezze che questo lavoro si prefigge di ottimizzare, dalle quali proviene la scelta del particolare funzionamento del motore termico. Sono state implementate due differenti strategie di controllo, una generale ed una più particolare. La simulazione con la strategia generale è stata applicata a tre differenti scenari reali, con le caratteristiche tecniche di tre veicoli realmente esistenti che vengono inserite nell'interfaccia grafica. I risultati provenienti da queste simulazioni sono stati poi analizzati e discussi nel dettaglio, anche con l'ausilio di grafici a supporto della spiegazione. La strategia di controllo particolare non è stata applicata a scenari reali ma ha portato alla definizione di una ipotetica architettura di powertrain ibrido, alla quale la sopracitata strategia si adatta al meglio. Dopo aver proposto miglioramenti e possibili ulteriori sviluppi di questo lavoro, sono state tratte le conclusioni generali, allargando il tutto al contesto più ampio in cui si va ad inserire.
Resumo:
L'oggetto del mio studio sono i contenuti televisivi (pubblicità, programmi, promozioni televisive) che accompagnano i film archiviati nelle videocassette contenute nell'archivio della videoteca del Dipartimento delle Arti. Una prima fase del lavoro, di natura pratica, mi ha fisicamente portato in videoteca per studiare un campione di più di 2500 videocassette in poco più di un mese e raccogliere dati relativi a quali contenuti di natura televisiva vi si presentassero insieme al film archiviato. Ho visionato e censito, con la supervisione del dott. Gianmario Merizzi, circa 1800 cassette VHS, corrispondenti alla filmografia italiana e francese, raccolte e registrate in un periodo compreso tra gli anni '80 e i primi 2000. Dopo aver raccolto tutte le informazioni utili, ho eseguito un'analisi palinsestuale e pubblicitaria su un campione ridotto di 7 videocassette scelte secondo criteri ben precisi. L'analisi palinsestuale, con il supporto del correlatore, il prof. Luca Barra, ha rivelato i cambiamenti delle strategie di programmazione messe in atto dalle reti in risposta ai cambiamenti normativi, tecnologici e competitivi che hanno segnato la TV italiana negli anni '80 e '90; L'analisi pubblicitaria ha preso in esame i 25 messaggi pubblicitari contenuti nei 7 volumi approfonditi, descrivendone le dinamiche sia del messaggio pubblicitario stesso, sia di come questo si contestualizza all'interno della programmazione televisiva. Infine, ho dedicato un capitolo al valore archivistico dei contenuti della videoteca, raccogliendo le testimonianze del dott. Gianmario Merizzi e della dott.ssa Michela Giorgi, i quali mi hanno aiutato a ricostruire i momenti salienti della costituzione dell'archivio e a riflettere sul futuro incerto che questi servizi oggi affrontano, in un presente sempre più virtuale e ipermediato.
Resumo:
Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.
Resumo:
La tomografia ad impedenza elettrica è un metodo di imaging relativamente nuovo che ha suscitato interesse in un ampia gamma di discipline, la sua portabilità, sicurezza e basso costo suggeriscono che potrebbe risolvere diversi problemi clinici. Matematicamente il problema dell'EIT può essere suddiviso in un problema in avanti e uno inverso. Il problema forward, si basa su un'equazione differenziale parziale ellittica, e definisce l'insieme delle tensioni misurate a partire da una distribuzione nota di conducibilità. Il problema inverso è modellato come un problema dei minimi quadrati non lineare, in cui si cerca di ridurre al minimo la differenza tra le tensioni misurate e quelle generate dalla conducibilità ricostruita. Il problema inverso è mal posto e porta ad una soluzione che non dipende con continuità dai dati e quindi le tecniche di ricostruzione richiedono l'introduzione di un termine di regolarizzazione. L'elaborato si concentra sulle strategie algoritmiche per il problema inverso e sulla realizzazione di un'interfaccia grafica in grado di settare i parametri e confrontare velocemente i metodi proposti. Il progetto nella sua visione più ampia vorrebbe utilizzare le strategie algoritmiche proposte per dati ottenuti dal sistema prodotto dall'Università di Bologna nel laboratorio di Ingegneria Cellulare e Molecolare (ICM) di Cesena. I risultati dei test consentono di delineare quali siano gli strumenti migliori per poter arrivare ad una corretta ricostruzione dell'immagine nonché suggerire possibili miglioramenti della configurazione hardware al fine arrivare a risultati sperimentali completi.
Resumo:
Nell’analisi del comportamento delle fondazioni profonde, è cruciale comprendere la relazione che governa il legame sforzo-deformazione quando si innesca uno scorrimento relativo tra il terreno e altri materiali di costruzione. Quando tra terreno e struttura insorge uno scorrimento relativo, vi è la formazione di una zona denominata “banda di taglio”, essa è una porzione di terreno costituita da un sottile strato posto a diretto contatto con la superficie di un materiale avente caratteristiche meccaniche differenti. L'interazione struttura-terreno avviene a causa della mobilitazione di una forza agente in direzione tangenziale alla superficie di contatto tra i due mezzi. Lo studio dei problemi d'interfaccia è rilevante per tutte quelle strutture la cui resistenza allo scorrimento risulta essere una componente predominante nei riguardi della risposta della fondazione nel suo complesso. Il presente lavoro di tesi ha come oggetto l’analisi sperimentale e la modellazione del comportamento meccanico della sabbia Rohsand 3152 a contatto con superfici d’acciaio di diversa ruvidezza. Tale tema di studio si inserisce in un più ampio programma di ricerca sullo studio del comportamento di pali battuti a punta aperta in terreni granulari sottoposti a sforzi assiali. L'obiettivo principale della tesi è quello di analizzare e interpretare i dati delle prove di laboratorio condotte su Rohsand 3152 e implementare un modello costitutivo elasto-plastico, capace di cogliere tutti gli aspetti che influenzano il comportamento d'interfaccia in condizioni di carico monotono.
Resumo:
La malattia di Parkinson, seconda tra le malattie degenerative più comuni, ha basato per anni la diagnosi e le valutazioni terapeutiche su scale di misura soggettive, di modesta accuratezza e limitate all’utilizzo clinico. Per questo motivo, alla luce di nuove tecnologie emergenti ed efficaci, questa tesi si propone di analizzare lo stato dell’arte dei dispositivi indossabili per la ricerca sul Parkinson e i suoi disturbi. Dopo una breve introduzione, la narrazione prende avvio, nel primo capitolo, con la descrizione della malattia seguita dai trattamenti curativi più utilizzati. Nel secondo capitolo verranno trattati i metodi di diagnosi, a partire dalle scale di valutazione qualitative per poi proseguire con una breve rassegna dei componenti e dei nuovi sensori utilizzabili per ottenere misurazioni quantitative. Questa descrizione sarà fondamentale per poter comprendere il funzionamento dei dispositivi che verranno successivamente citati. Il terzo capitolo si focalizza sulla sintomatologia del Parkinson e sulla rassegna dei dispositivi innovativi destinati alla diagnosi, al monitoraggio e alla cura, partendo dai sintomi motori più comuni ed evidenti, fino ad arrivare alle manifestazioni non motorie silenziose e subdole. Infine, la tesi si focalizzerà in particolar modo sul sonno. Dopo un’analisi della struttura del sonno, si tratteranno le metodiche più utilizzate fino ad oggi per lo studio dei disturbi notturni. Successivamente si proporranno alcuni nuovi dispositivi indossabili innovativi e li si metterà a confronto con i metodi tradizionali per analizzarne le potenzialità, gli svantaggi e i possibili sviluppi futuri. La tesi, nel suo complesso, si pone l’obiettivo di illustrare come, nella ricerca sul Parkinson, lo sviluppo di nuove tecnologie indossabili possa rappresentare un punto di svolta e di sostegno per la valutazione, la diagnosi, la cura della malattia per i clinici, i pazienti e chi se ne prende cura.
Resumo:
I periodi di torpore sono seguiti da episodi di sonno (Deboer and Tobler, 1994) in cui si registra un notevole incremento di attività delta somigliante all’incremento ottenuto nel sonno NREM successivo ad un periodo di veglia prolungato (Trachsel et al. 1991; Deboer e Tobler 1994, 1996; Strijkstra e Daan 1997; Cerri et al. 2013). Nonostante il ruolo funzionale del sonno post-torpore sia ancora dibattuto, vi è una possibilità che possa svolgere un ruolo importante per la rinormalizzazione della connettività cerebrale. L’ingresso in uno stato di torpore è infatti associato con la perdita significativa di sinapsi in diverse regioni cerebrali (Ruediger et al. 2007; von der Ohe et al. 2007), le quali vengono riformate nelle ore immediatamente successive al risveglio dal torpore (Popov et al. 1992; von der Ohe et al. 2006). L’obiettivo principale di questa tesi è, quindi, quello di studiare le caratteristiche individuali delle onde lente rilevate durante il sonno post-torpore e confrontarle con le proprietà delle onde lente registrate durante il sonno fisiologico, al fine di valutare se questa particolare condizione possa rientrare nell’ambito del sonno o se, invece, si tratti di un fenotipo elettrofisiologico di natura diversa.
Resumo:
I vantaggi dell’Industria 4.0 hanno stravolto il manufacturing. Ma cosa vuol dire "Industria 4.0"? Essa è la nuova frontiera del manufacturing, basata su princìpi che seguono i passi avanti dei sistemi IT e della tecnologia. Dunque, i suoi pilastri sono: integrazione, verticale e orizzontale, digitalizzazione e automazione. L’Industria 4.0 coinvolge molte aree della supply chain, dai flussi informativi alla logistica. In essa e nell’intralogistica, la priorità è sviluppare dei sistemi di material handling flessibili, automatizzati e con alta prontezza di risposta. Il modello ideale è autonomo, in cui i veicoli fanno parte di una flotta le cui decisioni sono rese decentralizzate grazie all'alta connettività e alla loro abilità di collezionare dati e scambiarli rapidamente nel cloud aziendale.Tutto ciò non sarebbe raggiungibile se ci si affidasse a un comune sistema di trasporto AGV, troppo rigido e centralizzato. La tesi si focalizza su un tipo di material handlers più flessibile e intelligente: gli Autonomous Mobile Robots. Grazie alla loro intelligenza artificiale e alla digitalizzazione degli scambi di informazioni, interagiscono con l’ambiente per evitare ostacoli e calcolare il percorso ottimale. Gli scenari dell’ambiente lavorativo determinano perdite di tempo nel tragitto dei robot e sono queste che dovremo studiare. Nella tesi, i vantaggi apportati dagli AMR, come la loro decentralizzazione delle decisioni, saranno introdotti mediante una literature review e poi l’attenzione verterà sull’analisi di ogni scenario di lavoro. Fondamentali sono state le esperienze nel Logistics 4.0 Lab di NTNU, per ricreare fisicamente alcuni scenari. Inoltre, il software AnyLogic sarà usato per riprodurre e simulare tutti gli scenari rilevanti. I risultati delle simulazioni verranno infine usati per creare un modello che associ ad ogni scenario rilevante una perdita di tempo, attraverso una funzione. Per questo saranno usati software di data analysis come Minitab e MatLab.