690 resultados para Tecniche di enhancement, Impronte digitali, Riconoscimento biometrico
Resumo:
Microsoft ha introdotto nella versione 2015 di Visual Studio un nuovo compilatore per i linguaggi C# e Visual Basic chiamato Roslyn. Oltre che un compilatore, Roslyn è una piattaforma che mette a disposizione degli sviluppatori servizi per analizzare e modificare progetti .NET, interagire con le varie fasi della compilazione e creare applicazioni per l'analisi e generazione di codice sorgente. Obiettivo della tesi vuole essere lo studio della suddetta piattaforma ed il suo utilizzo nello sviluppo di estensioni per Visual Studio. La tesi si pone pertanto nel contesto delle tecniche di analisi e generazione di codice sorgente. Il lavoro di tesi ha previsto lo sviluppo di due applicazioni facenti uso delle API di Roslyn. La prima applicazione consiste in un analizzatore di codice C# che provvede alla segnalazione di warning riguardanti l'errato utilizzo del costrutto var e all'esplicitazione del tipo relativo. La seconda applicazione riguarda un generatore di codice C# che utilizza i servizi di Roslyn per semplificare e automatizzare la scrittura di codice nel contesto del framework Phoenix. I risultati ottenuti possono essere d'aiuto per un successivo studio della piattaforma Roslyn ed essere usati come punto di partenza per la creazione dei propri applicativi per l'analisi e generazione di codice sorgente.
Resumo:
In questa tesi, viene illustrato un metodo risolutivo al problema dell’allocazione e schedulazione, su risorse eterogenee con capacità unaria rinnovabile e cumulativa non rinnovabile, di applicazioni multitask periodiche, con periodi in relazione armonica, strutturate in attività indipendenti o sottoposte a vincoli di precedenza e con durate dipendenti dalla specifica risorsa di allocazione. L’obiettivo è quello di fornire un’implementazione del modello in grado di gestire l’allocazione e la schedulazione di istanze (i.e. insieme di applicazioni) variabili, caratterizzate da una serie di parametri. La struttura implementativa, realizzata secondo la Logic-based Benders decomposition, prevede la suddivisione del problema in due moduli. Il primo in grado di generare un’allocazione e realizzato con tecniche di programmazione lineare intera mista, il secondo con lo scopo di controllare l’ammissibilità di tale allocazione attraverso una schedulazione ottima e realizzato mediante tecniche di programmazione a vincoli. Il meccanismo di comunicazione tra i due moduli avviene mediante vincoli lineari, denominati tagli di Benders, che vengono aggiunti dopo ogni iterazione del sistema. L’efficacia del modello sarà valutata confrontando i risultati ottenuti attraverso una serie di test, con i valori forniti da un metodo di allocazione e schedulazione alternativo.
Resumo:
Il caso studio del vestibolo ottagonale di Villa Adriana ha dato la possibilità di applicare ad un edificio di notevole valore storico e artistico tecniche di restituzione digitale e di modellazione tridimensionale basate su applicativi di modellazione geometrica, con lo scopo di generarne il modello 3D digitale fotorealistico e polifunzionale. Nel caso specifico del vestibolo, un modello tridimensionale di questo tipo risulta utile a fini documentativi, a sostegno di ipotesi costruttive e come strumento per la valutazione di interventi di restauro. Il percorso intrapreso ha permesso di valutare le criticità nelle tecniche di acquisizione, modellazione e foto-modellazione tridimensionale applicate in ambito archeologico, tecniche usate abitualmente anche in settori quali l’architettura, il design industriale ma anche nel cinema (effetti speciali e film d’animazione) e in ambito videoludico, con obiettivi differenti: nel settore del design e della progettazione industriale il Reverse Modeling viene impiegato per eseguire controlli di qualità e rispetto delle tolleranze sul prodotto finale, mentre in ambito cinematografico e videoludico (in combinazione con altri software) permette la creazione di modelli realistici da inserire all’interno di film o videogiochi, (modelli non solo di oggetti ma anche di persone). La generazione di un modello tridimensionale ottenuto tramite Reverse Modeling è frutto di un processo opposto alla progettazione e può avvenire secondo diverse strategie, ognuna delle quali presenta vantaggi e svantaggi specifici che la rendono più indicata in alcuni casi piuttosto che in altri. In questo studio sono state analizzate acquisizioni tridimensionali effettuate tramite Laser Scan e tramite applicazioni Structure from Motion/Dense Stereo View.
Resumo:
In questo elaborato verrà discusso il sottotitolaggio sia nella sua forma teorica, sia pratica. e verranno presentati due cortometraggi in lingua spagnola di genere horror, “Tin & Tina” di Rubin Stein ed “Horizonte” di Aitor Uribarri e ne verranno proposte le traduzioni sotto forma di sottotitolaggio. Nel primo capitolo verrà trattato il sottotitolaggio e le sue varie tipologie e caratteristiche, con particolare attenzione al sottotitolaggio interlinguistico, utilizzato per i due cortometraggi precedentemente elencati. Nella seconda parte saranno presentati i due cortometraggi ed i rispettivi autori, contestualizzandoli all’interno del cinema del cinema horror attraverso una analisi storico-tematica del cinema dell’orrore spagnolo e internazionale; concluderò il capitolo con un confronto con il cinema horror italiano. Nel terzo capitolo verranno analizzate le difficoltà riscontrate nella traduzione dei sottotitoli, la metodologia utilizzata e le tecniche di sottotitolaggio utilizzate.
Resumo:
Nell’ambito delle telecomunicazioni risulta di notevole rilievo la tecnologia ad onde convogliate, definita Power-Line Communication (PLC), che permette la trasmissione di dati sfruttando la rete elettrica come mezzo di trasmissione. Essa rappresenta una delle tecnologie promettenti per quanto concerne la fornitura di servizi come l’accesso ad Internet, alla rete telefonica e al telecontrollo di apparecchi sempre più sofisticati. Al fine di rendere possibile sia la trasmissione di potenza (alla frequenza di 50 Hz per l’Italia) che di altri segnali dati (su bande a frequenza maggiore) saranno necessarie tecniche di modulazione avanzata, che però non rappresentano un argomento trattato a fondo in questa tesi. Lo sviluppo tecnologico degli ultimi anni ha permesso una notevole diffusione delle PLC soprattutto in applicazioni domestiche, grazie ai prezzi molto contenuti in parallelo alle ottime prestazioni, soprattutto nell’automazione. Obbiettivo dell’elaborato risulta la rilevazione della risposta impulsiva in ambienti Power-Line di tipo Narrowband (a banda stretta), immettendo in rete sequenze di tipo casuale o pseudo-casuale, queste ultime definite Pseudo-Noise (PN); esse infatti hanno particolari proprietà che renderanno possibile il raggiungimento dello scopo prefissato. Lo strumento fondamentale per le misurazioni sul campo effettuate risulta l’Analog Discovery (Digilent ne è il produttore), utilizzato non solo come generatore di forme d’onda in ingresso ma anche come oscilloscopio per l’analisi del segnale ricevuto.
Resumo:
analisi sperimentale e progettazione di cinematismi atti alla movimentazione di devices protesici all’interno di una camera di deposizione pvd. descrizione delle tecniche di deposizione PVD attualmente esistenti. deduzione e progetto ex novo, con l'ausilio di Autodesk Inventor (CAD 3D), di movimentazioni per particolari devices medici dalla geometria complessa all'interno di una speciale camera di deposizione.
Resumo:
La seguente tesi tratta la bonifica dell' area comunale della zona denominata " Ex Orsi - Mangelli" nella città di Forlì, iniziando con una introduzione che analizza la pericolosità dei siti inquinati e la situazione attuale in Italia, Emilia Romagna e in Provincia di Forlì-Cesena; successivamente si analizzano tutte le procedure per i terreni inquinati, descritte nel D.Lgs 152/06, descrivendo anche le principali tecniche di bonifica e i criteri di scelta, concludendo con l'analisi, passata e presente, dell' area " Ex Orsi - Mangelli", esaminando i processi produttivi che hanno determinato tali episodi di inquinamento tra il 1900 e il 1993 e la situazione attuale dell' area.
Resumo:
Lo scopo del presente lavoro è illustrare le tecniche di modellazione di sistemi termici. In particolare, si vedrà come ricavare modelli matematici di sistemi di interesse industriale, come i forni.
Resumo:
Questo lavoro di tesi ha riguardato lo studio e la caratterizzazione, sia sensoriale che strumentale, di dodici campioni di salame, prodotti utilizzando carne di suino convenzionale o di Mora Romagnola, con lo scopo di evidenziare le differenze esistenti tra i due tipi di prodotto e, nel contempo, discriminare i prodotti ottenuti con carne di Mora Romagnola, da quelli simili, ma meno pregiati, disponibili sul mercato. In particolare, la caratterizzazione sensoriale è stata condotta tramite l’applicazione dell’analisi quantitativo-descrittiva (QDA®), mediante la quale è stato definito il profilo sensoriale dei campioni oggetto di studio. A supporto della messa a punto del profilo sensoriale del prodotto, sullo stesso gruppo di campioni, è stata effettuata un’analisi strumentale, avvalendosi dell’utilizzo di un “occhio elettronico” in grado di effettuare, in tempi estremamente rapidi, un’analisi dell’apparenza del prodotto tramite l’acquisizione di immagini, successivamente elaborate. I dati ottenuti dall’analisi sensoriale e strumentale, elaborati statisticamente con l’utilizzo di tecniche di analisi multivariata, hanno evidenziato come i campioni di Mora Romagnola presentassero una maggiore variabilità rispetto a quelli prodotti con carne di suino convenzionale. Nello specifico, i campioni di Mora Romagnola sono risultati essere maggiormente caratterizzati dagli attributi di “stagionatura” e “speziatura” e da tonalità più scure rispetto ai salami ottenuti mediante carne di suino convenzionale, più descritti da una nota olfattiva acidula e da un’elevata omogeneità di distribuzione del grasso. L’approccio seguito, fondato sulla correlazione dei dati sensoriali e strumentali, rappresenta, quindi, uno strumento potenzialmente utile non solo in un’ottica di caratterizzazione e discriminazione della qualità degli alimenti, ma anche in un’ottica di valorizzazione dei prodotti tipici, fornendo informazioni utili per generare una maggiore consapevolezza nei consumatori in merito alla scelta dei prodotti, ad esempio durante la fase di acquisto.
Resumo:
Il sistema muscolare scheletrico è l'insieme di organi adibiti al movimento, il quale è permesso dalla contrazione muscolare. L’elettromiografia è un esame di tipo funzionale che analizza il funzionamento di uno o più muscoli attraverso i potenziali elettrici che si sviluppano in esso durante la contrazione. Patologie del sistema muscolare o del sistema nervoso possono compromettere il comportamento fisiologico che il corpo richiede e l’elettromiografia può aiutare nella diagnosi. Oltre al campo medico, l’elettromiografia può dimostrarsi utile in ambito sportivo, valutando come il sistema muscolare evolve nella sua risposta quando sottoposto a cicli di lavoro o di recupero. Obiettivo dell’elaborato è descrivere e comprendere il principio di funzionamento dell’indagine elettromiografica, analizzando lo strumento elettromiografo e il segnale elettromiografico, e come può essere applicata in ambito sportivo. È fornita una breve descrizione del sistema muscolare, dal punto di vista strutturale e meccanico, e del sistema nervoso, dal punto di vista elettrico. Tali principi permettono di comprendere come la forza muscolare viene prodotta e come il segnale mioelettrico si propaga. Dell’elettromiografo sono presentati gli elementi utilizzati per la registrazione e l’elaborazione del segnale. Per quanto riguarda il segnale, invece, vengono esposti i metodi di acquisizione, interpretazione ed elaborazione digitale dello stesso. In un’ultima parte si confrontano alcune specifiche tecniche di elettromiografi commerciali in funzione della specifica applicazione. È infine affrontato l’utilizzo dell’elettromiografia in ambito sportivo, esponendo alcuni articoli riguardanti il nuoto e il rugby. Nel caso del nuoto è esaminato come alcuni muscoli reagiscono lavorando ad intensità diverse e tra atleti di livello agonistico differente. Invece, nel caso del rugby viene fatto un confronto su come alcuni muscoli si attivano in un soggetto sano e in un soggetto patologico.
Resumo:
L’intento di questa ricerca è stato quello di cercare di riordinare ed approfondire il settore delle demolizioni, campo vasto e in costante crescita, dove saranno necessari tecnici sempre più specializzati in materia di statica, ambiente, sicurezza ed esplosivistica civile. Nella prima parte della ricerca è stata analizzata l'errata concezione odierna delle demolizioni viste solamente come un mero intervento di distruzione e sono state descritte le principali tecniche di demolizione tradizionali per costruzioni in calcestruzzo armato, suddividendole nelle due famiglie riguardanti le demolizioni parziali e le demolizioni totali, analizzando i vantaggi e gli svantaggi di ognuna di esse e nello specifico evidenziando il grado di compatibilità della singola tecnica in relazione all'intervento da svolgere. Descritte le tecniche sono state studiate le principali verifiche statiche che vengono solitamente effettuate per le demolizioni con esplosivo e le demolizioni meccaniche. Nella seconda parte della tesi si è voluto prestare attenzione riguardo alle origini della demolizione guardando in che modo si sia evoluta sino ad oggi, in particolare le imprese odierne le quali sono attualmente in grado di affrontare qualsiasi problema seguendo il programma del processo demolitivo. L'ultima parte della ricerca consiste nella valutazione e descrizione dei principali fattori di rischio di questi interventi sottolineando ogni tipo di soluzione per poterli evitare, è stato inoltre analizzato molto schematicamente il caso di studio del Palazzo di Giustizia dell'Aquila distrutto a causa del sisma e rinnovato grazie ad interventi demolitivi.
Resumo:
Negli ultimi anni, lo scenario di crescente competizione su cui si affaccia il mercato ha spinto le aziende a interessarsi sempre più frequentemente all’ingegneria della manutenzione, allo scopo di avvalersi di tecniche che permettano di pianificare strategie di manutenzione per i sistemi produttivi che siano efficaci nel minimizzare i costi di gestione garantendo prestazioni e livelli di sicurezza elevati. Le tecniche analitiche tipiche dell’ingegneria della manutenzione sono nate in settori industriali che richiedono elevati livelli di progresso tecnologico (aeronautico, nucleare), e si basano su ipotesi specifiche stringenti, che risultano limitanti nel panorama sempre più vasto ed eterogeneo in cui ne si richiede l’applicazione. D’altra parte, la rimozione di tali ipotesi rende necessario il ricorso a tecniche di risoluzione numeriche. In questa tesi si definisce un nuovo modello che permetta di caratterizzare un sistema di produzione tenendo conto di tutti i possibili aspetti di interesse nell’ambito dell’ingegneria della manutenzione. Inoltre, sono descritti gli algoritmi definiti per la risoluzione di tale modello.
Resumo:
L’obbiettivo di questa tesi è quello di analizzare le conseguenze della scelta del frame (Jordan o Einstein) nel calcolo delle proprietà degli spettri primordiali generati dall’inflazione ed in particolare dell’osservabile r (rapporto tensore su scalare) al variare del potenziale del campo che genera l’espansione accelerata. Partendo dalla descrizione della teoria dell’inflazione in relatività generale, focalizzando l’attenzione sui motivi che hanno portato all’introduzione di questa teoria, vengono presentate le tecniche di utilizzo comune per lo studio della dinamica omogenea (classica) inflazionaria e di quella disomogenea (quantistica). Una particolare attenzione viene rivolta ai metodi di approssimazione che è necessario adottare per estrarre predizioni analitiche dai modelli inflazionari per poi confrontarle con le osservazioni. Le tecniche introdotte vengono poi applicate ai modelli di inflazione con gravità indotta, ovvero ad una famiglia di modelli con accoppiamento non minimale tra il campo scalare inflatonico e il settore gravitazionale. Si porrà attenzione alle differenze rispetto ai modelli con accoppiamento minimale, e verrà studiata la dinamica in presenza di alcuni potenziali derivanti dalla teoria delle particelle e diffusi in letteratura. Il concetto di “transizione tra il frame di Jordan e il frame di Einstein” viene illustrato e le sue conseguenze nel calcolo approssimato del rapporto tensore su scalare sono discusse. Infine gli schemi di approssimazione proposti vengono analizzati numericamente. Risulterà che per due dei tre potenziali presentati i metodi di approssimazione sono più accurati nel frame di Einstein, mentre per il terzo potenziale i due frames portano a risultati analitici similmente accurati.
Resumo:
Lo scopo della presente tesi è sviluppare un ambiente per l'ottimizzazione strutturale di componenti per applicazione aerospaziale utilizzando codici open-source. In particolare, il codice Salome viene utilizzato per il disegno automatico delle strutture, il programma Code Aster permette di effettuare l'analisi agli elementi finiti del componente, mentre Octave viene utilizzato per svolgere l'ottimizzazione basata su un algoritmo euristico e per integrare fra di loro i differenti codici. Le tecniche di ottimizzazione dei componenti stanno rivestendo sempre più importanza visto che le moderne tecniche di Additive Manufacturing permettono di realizzare strutture molto complesse che un tempo non era conveniente (o possibile) realizzare con asportazione di materiale. Nella prima parte della tesi si descrivono gli strumenti software utilizzati e la loro integrazione al fine di parametrizzare la generazione di geometrie ed effettuare in modo automatico analisi strutturali. Successivamente si descrivono tre casi di studio in cui la metodologia è stata sperimentata: un primo caso di validazione in cui si è applicato il metodo alla definizione della geometria di minimo peso per una trave a sbalzo con carico concentrato, un secondo test di ottimizzazione di un longherone per aeromobile, un terzo caso applicativo legato alla ottimizzazione di un serbatoio per fluidi in pressione da utilizzare su un satellite.
Resumo:
In questa tesi vengono analizzati i principi fisici che stanno alla base dei dispositivi ottici di misura di tensioni e di correnti e, in particolare, vengono presentate le differenti soluzioni tecnologiche investigate dai produttori. La trattazione si concentra principalmente sulle tecniche di misura polarimetriche, che riguardano mutamenti indotti nello stato di polarizzazione della luce, mentre essa viaggia attraverso una fibra ottica, a causa di fenomeni esterni di interesse (come campi magnetici o elettrici). Le tecniche ottiche di misura, in futuro, avranno ruoli sempre più predominanti nel settore della fornitura di energia elettrica, dove offrono miglioramenti in sensibilità e prestazioni, rispetto ai convenzionali sistemi, riducendo inoltre i costi grazie alla minima richiesta di isolamento. Esistono, però, ancora dei problemi da risolvere come l'influenza della temperatura ambientale nella misura o l'affidabilità dei dispositivi per lunghi funzionamenti.