694 resultados para sviluppo sostenibile, sistema di Gestione Ambientale, evento sostenibile
Resumo:
Porting dell'esecuzione dell'algoritmo KinectFusion su piattaforma mobile (Android).
Resumo:
Implementazione sequenziale e parallela dell'algoritmo Evolution Constructed feature per il riconoscimento di oggetti in immagini. Analisi dei risultati ottenuti dall'algoritmo tramite la precision e la recall. Confronto dei tempi di esecuzione delle due versioni dell'algoritmo al fine di valutare gli effettivi guadagni ottenuti tramite la parallelizzazione.
Resumo:
L'obiettivo dell'elaborato è presentare gli strumenti di marketing realizzati per l'azienda Varvel S.p.A. ed introdotti all'interno del processo Stage & Gate utilizzato dall'azienda per lo sviluppo ed il lancio dei nuovi prodotti, sottolineando il significato e l'importanza che la componente di marketing, finora trascurata dall'azienda, assume lungo tutte le fasi del modello.
Resumo:
Vengono analizzate le strategie di rilascio delle principali Distribuzioni Linux e i metodi per la compilazione automatizzata del software. Si propone quindi una nuova metodologia sia per il rilascio di media installabili e sia per la pacchettizzazione. Sfruttando le tecnologie del campo DevOps, si introduce quindi un alto grado di scalabilità anche in ambienti Cloud, grazie anche alla riproducibilità di ogni componente dell'infrastruttura proposta. Vedremo quindi come questo approccio aumenta l'automatizzazione nei cicli produttivi per la realizzazione della Distribuzione Sabayon Linux e per la definizione di un'infrastruttura automatizzata attualmente in production.
Resumo:
Il mondo dell’Internet of Things e del single board computing sono settori in forte espansione al giorno d’oggi e le architetture ARM sono, al momento, i dominatori in questo ambito. I sistemi operativi e i software si stanno evolvendo per far fronte a questo cambiamento e ai nuovi casi d’uso che queste tecnologie introducono. In questa tesi ci occuperemo del porting della distribuzione Linux Sabayon per queste architetture, la creazione di un infrastruttura per il rilascio delle immagini e la compilazione dei pacchetti software.
Resumo:
Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. Nasce, di conseguenza, la necessità di far ricorso a nuovi strumenti che possano sfruttare la potenza di calcolo oggi offerta dalle architetture più complesse che comprendono, sotto un unico sistema, un insieme di host utili per l’analisi. A tal merito, una quantità di dati così vasta, routine se si parla di Big Data, aggiunta ad una velocità di trasmissione e trasferimento altrettanto alta, rende la memorizzazione dei dati malagevole, tanto meno se le tecniche di storage risultano essere i tradizionali DBMS. Una soluzione relazionale classica, infatti, permetterebbe di processare dati solo su richiesta, producendo ritardi, significative latenze e inevitabile perdita di frazioni di dataset. Occorre, perciò, far ricorso a nuove tecnologie e strumenti consoni a esigenze diverse dalla classica analisi batch. In particolare, è stato preso in considerazione, come argomento di questa tesi, il Data Stream Processing progettando e prototipando un sistema bastato su Apache Storm scegliendo, come campo di applicazione, la cyber security.
Resumo:
Lo scopo della tesi è creare un’architettura in FPGA in grado di ricavare informazioni 3D da una coppia di sensori stereo. La pipeline è stata realizzata utilizzando il System-on-Chip Zynq, che permette una stretta interazione tra la parte hardware realizzata in FPGA e la CPU. Dopo uno studio preliminare degli strumenti hardware e software, è stata realizzata l’architettura base per la scrittura e la lettura di immagini nella memoria DDR dello Zynq. In seguito l’attenzione si è spostata sull’implementazione di algoritmi stereo (rettificazione e stereo matching) su FPGA e nella realizzazione di una pipeline in grado di ricavare accurate mappe di disparità in tempo reale acquisendo le immagini da una camera stereo.
Resumo:
Questa tesi, svolta nell’ambito dell’esperimento BEC3 presso il LENS di Firenze, si propone di studiare i problemi connessi alla variazione improvvisa di corrente in elementi induttivi, come sono le bobine utilizzate per generare campi magnetici. Nell’esperimento BEC3, come in molti esperimenti di atomi freddi, vi è spesso la necessità di compiere operazioni di questo genere anche in tempi brevi. Verrà analizzato il sistema di controllo incaricato di invertire la corrente in una bobina, azione che va effettuata in tempi dell’ordine di qualche millisecondo ed evitando i danni dovuti alle alte tensioni che si sviluppano ai capi della bobina. Per questa analisi sono state effettuate simulazioni del circuito e misure sperimentali, allo scopo di determinare il comportamento e stimare la durata dell’operazione.
Resumo:
Le informazioni di tipo geografico caratterizzano più dell'80% dei dati utilizzati nei processi decisionali di ogni grande azienda e la loro pervasività è in costante aumento. La Location Intelligence è un insieme di strumenti, metodologie e processi nati con l'obiettivo di analizzare e comprendere a pieno il patrimonio informativo presente in questi dati geolocalizzati. In questo progetto di tesi si è sviluppato un sistema completo di Location Intelligence in grado di eseguire analisi aggregate dei dati georeferenziati prodotti durante l'operatività quotidiana di una grande azienda multiservizi italiana. L’immediatezza dei report grafici e le comparazioni su serie storiche di diverse sorgenti informative integrate generano un valore aggiunto derivante dalle correlazioni individuabili solo grazie a questa nuova dimensione di analisi. In questo documento si illustrano tutte le fasi caratterizzanti del progetto, dalla raccolta dei requisiti utente fino all’implementazione e al rilascio dell’applicativo, concludendo con una sintesi delle potenzialità di analisi generate da questa specifica applicazione e ai suoi successivi sviluppi.
Resumo:
L’obiettivo di questo trattato è lo studio di un aeromobile militare a pilotaggio remoto (APR), volto ad una sua conversione per usi prettamente civili: il velivolo in questione è il Predator Canard-Long. Tale studio è basato sulle problematiche dovute alla sostituzione del propulsore originale Rotax 914 (4 cilindri da 115 CV del peso di 95 kg) con un Peugeot HDi Fap (4 cilindri da 175 CV del peso di 240 kg). L’aeromobile in questione dovrà svolgere compiti di monitoraggio e sorveglianza di siti archeologici, dunque si richiederà un alto livello di autonomia affinché le missioni vengano svolte nel modo più efficiente possibile. Preso un modello pre-esitente, costruito al CAD tramite il software Solidworks2016, è stato studiato il comportamento del velivolo tramite simulazioni CFD. Data l’insufficienza della portanza a causa dell’aggiunta di peso dovuta alla rimotorizzazione, sono state provate diverse soluzioni atte a colmare lo scompenso. Scelta come soluzione migliore l’installazione di alette canard e la modifica del profilo aerodinamico, è stato infine necessario verificare che la risposta ai comandi dell’aeromobile modificato soddisfacesse le richieste desiderate.
Resumo:
Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).
Resumo:
Si è analizzato un sistema di stoccaggio rivolgendo l'attenzione all'attività del Customer Service. Dopo il primo periodo di raccolta dati è stato popolato un database che rappresentasse al meglio la realtà osservata. Il database ci ha permesso, attraverso la manipolazione dei dati, di calcolare delle statistiche circa gli eventi più significativi in termini di tempo.
Resumo:
Il percorso di tesi che ho intrapreso è stato svolto presso l'azienda Datalogic, con l'intento di integrare un sistema di visione ad un sistema di marcatura laser. L'utilizzo di questo potente strumento è però vincolato dalla particolare posizione fisica occupata, di volta in volta, dall'oggetto; per questo motivo viene fissato nella posizione desiderata, attraverso dime meccaniche. Fin ad ora si riteneva assolutamente necessaria la presenza di un operatore per il controllo del corretto posizionamento, tramite una simulazione della marcatura. Per ovviare a questo limite strutturale, Datalogic ha pensato di introdurre uno strumento di aiuto e di visione del processo: la camera. L'idea di base è stata quella di impiegare le moderne smart camera per individuare l'oggetto da marcare e rendere quindi il processo più automatico possibile. Per giungere a questo risultato è stato necessario effettuare una calibrazione del sistema totale: Camera più Laser. Il mio studio si è focalizzato quindi nel creare un eseguibile che aiutasse il cliente ad effettuare questa operazione nella maniera più semplice possibile. E' stato creato un eseguibile in C# che mettesse in comunicazione i due dispositivi ed eseguisse la calibrazione dei parametri intrinseci ed estrinseci. Il risultato finale ha permesso di avere il sistema di riferimento mondo della camera coincidente con quello del piano di marcatura del laser. Ne segue che al termine del processo di calibrazione se un oggetto verrà rilevato dalla camera, avente il baricentro nella posizione (10,10), il laser, utilizzando le medesime coordinate, marcherà proprio nel baricentro dell'oggetto desiderato. La maggiore difficoltà riscontrata è stata la differenza dei software che permettono la comunicazione con i due dispositivi e la creazione di una comunicazione con il laser, non esistente prima in C#.
Resumo:
Lo scopo di questo lavoro di tesi sperimentale consiste nell’ideazione e nell’ottimizzazione di nuove forme d’ingegnerizzazione di sistemi nano e micrometrici di silice (SiO2) in cui sono stati incorporati complessi di metalli di transizione e lantanoidei. Lo studio è scaturito dalla prospettiva di poter trasferire le caratteristiche di luminescenza dei complessi dalla scala molecolare di sintesi a quella macroscopica, attraverso l’utilizzo di una opportuna matrice veicolante. Dopo una intensa sessione di lavoro dedicata all’ottimizzazione della sintesi e delle caratteristiche di stabilità e resistenza dei sistemi, dalla fase sol fino ai micronizzati, si è sviluppata una possibile applicazione industriale come substrato tessile dotato di funzioni eventualmente antibatteriche. This experimental work is aimed at exploiting and optimizing new and convenient ways to incorporate organometallic and lanthanoid complexes into silica-based colloid matrices. Following a similar approach, the luminescent properties of both organometallic and lanthanoid complexes could be kept unaltered on passing from the molecular to nanometric scale (sol), ending up to micrometer sized systems (micro-powders). The subsequent optimization of the processes led to systems that were loaded onto the surface of fabric, which were successively studied for their light-induced antimicrobial abilities.
Resumo:
L’ingegneria tissutale rappresenta oggi una delle tematiche più importanti di ricerca in ambito medico-ingegneristico. Questa disciplina si pone come obiettivo di far fronte alla mancanza, sostituzione o riparazione di tessuto attraverso lo sviluppo di scaffolds opportunamente ottimizzati. I polimeri naturali rappresentano una classe di materiali particolarmente indicata per soddisfare i requisiti richiesti soprattutto per la biocompatibilità che spesso li caratterizza. La gelatina è uno dei materiali che si presta alla realizzazione di scaffolds innovativi ad altissima biocompatibilità nonostante le scarse proprietà meccaniche e la facilità di degradazione. Proprio per questo è possibile migliorarne le prestazioni attraverso l’ottimizzazione di processi di blending con altri polimeri, in questo caso le nanofibre di cellulosa e l’impiego di agenti reticolanti. Lo scopo di questo lavoro di tesi, svolto presso l’Istituto di Scienza e Tecnologia dei Materiali Ceramici (ISTEC-CNR) di Faenza, è la progettazione, lo sviluppo e la caratterizzazione di scaffolds polimerici porosi a base di gelatina e nanocellulosa opportunamente reticolati per un ampio range di applicazioni nell’ambito dell’ingegneria tissutale. A questo scopo, sono stati sviluppati cinque dispositivi 3D porosi, ottenuti tramite liofilizzazione, che differiscono per il tipo di processo reticolante applicato. Il progetto ha previsto una prima fase di ricerca bibliografica che ha permesso di conoscere lo stato dell’arte sull’argomento trattato. Si è potuto così procedere alla realizzazione degli scaffolds e a una prima caratterizzazione di carattere chimico-fisico e morfologico. A questo punto, sulla base dei dati ottenuti, sono stati scelti i campioni su cui effettuare ulteriori caratterizzazioni meccaniche. In ultimo, sono stati analizzati e rielaborati tutti i risultati.