998 resultados para Tecniche di enhancement, Impronte digitali, Riconoscimento biometrico
Resumo:
Mode of access: Internet.
Resumo:
Il sito archeologico di Arslantepe (provincia di Malatya, Turchia) rappresenta un caso di studio di potenziale interesse per l’interazione tra i mutamenti climatici e la storia della civiltà. Il sito, occupato quasi ininterrottamente per un periodo di tempo relativamente lungo (6250-2700 BP), ha fornito una grande quantità di reperti ossei, distribuiti lungo una stratigrafia archeologica relativamente dettagliata e supportata da datazioni al radiocarbonio. Tali reperti, indagati con le tecniche della geochimica degli isotopi stabili, possono costituire degli efficaci proxy paleoclimatici. In questo lavoro è stata studiata la composizione isotopica di 507 campioni di resti ossei umani e animali (prevalentemente pecore, capre, buoi). I rapporti isotopici studiati sono relativi a ossigeno (δ18Ocarb, δ18Oph), carbonio (δ13Ccarb, δ13Ccoll) e azoto (δ15N), misurati nella frazione minerale e organica dell’osso; la variabilità nel tempo di questi parametri, principalmente legati alla paleonutrizione, può essere correlata, direttamente o indirettamente, a cambiamenti dei parametri ambientali quali temperatura e umidità atmosferiche. I risultati indicano che la dieta degli animali selvatici e domestici di Arslantepe era quasi esclusivamente a base di piante a ciclo fotosintetico C3, generalmente tipiche di climi umidi o temperati. La presenza di piante C4, più tipiche di condizioni aride, sembrerebbe essere riconoscibile solamente nella dieta del bue (Bos taurus). La dieta umana era esclusivamente terrestre a base di cereali e carne di caprini con una percentuale esigua o del tutto assente di carne di maiale e bue. Dal punto di vista paleoclimatico il principale risultato del lavoro consiste nel riconoscimento della preservazione di un segnale paleoclimatico a lungo termine (δ18OW, composizione isotopica dell’ossigeno dell’acqua ingerita), che identifica un massimo relativo di umidità attorno al 5000 BP e che si correla, per andamento e ampiezza della variazione a record paleoclimatici di sedimenti lacustri collocati in regioni adiacenti all’area di studio. Sulla base del confronto dei tre segnali isotopici sono state inoltre riconosciute due anomalie climatiche siccitose a breve termine, apparentemente riferibili a due episodi di aridità a scala regionale documentati in letteratura.
Resumo:
Nell'elaborato viene introdotto l'ambito della Computer Vision e come l'algoritmo SIFT si inserisce nel suo panorama. Viene inoltre descritto SIFT stesso, le varie fasi di cui si compone e un'applicazione al problema dell'object recognition. Infine viene presentata un'implementazione di SIFT in linguaggio Python creata per ottenere un'applicazione didattica interattiva e vengono mostrati esempi di questa applicazione.
Resumo:
Con questa tesi verrà spiegata l'intrinseca connessione tra la matematica della teoria dei numeri e l'affidabilità e sicurezza dei crittosistemi asimmetrici moderni. I principali argomenti trattati saranno la crittografia a chiave pubblica ed il problema della verifica della primalità. Nei primi capitoli si capirà cosa vuol dire crittografia e qual è la differenza tra asimmetria e simmetria delle chiavi. Successivamente verrà fatta maggiore luce sugli utilizzi della crittografia asimmetrica, mostrando tecniche per: comunicare in modo confidenziale, scambiare in modo sicuro chiavi private su un canale insicuro, firmare messaggi, certificare identità e chiavi pubbliche. La tesi proseguirà con la spiegazione di quale sia la natura dei problemi alla base della sicurezza dei crittosistemi asimmetrici oggigiorno più diffusi, illustrando brevemente le novità introdotte dall'avvento dei calcolatori quantistici e dimostrando l'importanza che riveste in questo contesto il problema della verifica della primalità. Per concludere verrà fatta una panoramica di quali sono i test di primalità più efficienti ed efficaci allo stato dell'arte, presentando una nuova tecnica per migliorare l'affidabilità del test di Fermat mediante un nuovo algoritmo deterministico per fattorizzare gli pseudoprimi di Carmichael, euristicamente in tempo O~( log^3{n}), poi modificato sfruttando alcune proprietà del test di Miller per ottenere un nuovo test di primalità deterministico ed euristico con complessità O~( log^2{n} ) e la cui probabilità di errore tende a 0 con n che tende ad infinito.
Resumo:
La tesi si occupa dell'uso di più tecniche fotogrammetriche e di strumenti GIS nel recupero digitale e nell'integrazione di una molteplicità di dati storici, opportunamente georeferenziati, inerenti l'area del Centro Cadore, ai fini anche della valorizzazione turistico-culturale del territorio. Un ampio spazio viene dato alla caratterizzazione del territorio e delle fonti - cartografiche, fotografiche e testuali - che sono state recuperate ed organizzate in archivio. Le applicazioni fotogrammetriche comprendono la generazione di ortofoto digitali a scala territoriale da immagini storiche e modelli 3D close-range ottenuti con tecniche SfM.
Resumo:
Questo lavoro di tesi mira ad indagare, a livello preliminare, quali siano i vantaggi e gli svantaggi a livello strutturale legati alla possibilità di realizzare componenti per mezzi spaziali con tecnologie di Rapid Prototyping direttamente nello spazio: questa possibilità verrà confrontata con il caso in cui gli stessi componenti siano realizzati a terra e poi inviati nello spazio con un lanciatore. Nonostante si siano riscontrati dei limiti derivanti dalla carenza di dati tecnici sulle caratteristiche meccaniche dei materiali, è stata sviluppata una metodologia che ha fornito l’opportunità, seppur con grandi approssimazioni, di valutare il problema. Il punto di partenza dell’attività è stato quello di visionare figure ed immagini di mezzi spaziali e di scegliere alcuni componenti che possano essere oggetto di manutenzione o sostituzione in volo. Sei componenti sono stati poi modellati al CAD, ed è stata condotta un’analisi ad elementi finiti (FEM) mediante il software MSC Patran/Nastran, con lo scopo di simulare la risposta strutturale nelle diverse condizioni di carico prese in considerazione. Seppur a livello qualitativo e del tutto preliminare, sono stati svolti dei confronti in termini di massa e tensioni per valutare in quali casi sembra sia conveniente realizzare un componente a terra con tecnologie tradizionali, e in quali sembra sia vantaggioso utilizzare nuove tecnologie di prototipazione rapida stampando direttamente il componente nello spazio.
Resumo:
Abbiamo investigato con metodologie geofisiche del tutto non invasive un settore della necropoli etrusca di Monterozzi, Tarquinia (VT). Le tecniche utilizzate, per l'accertamento di camere sepolcrali nel sottosuolo, sono state il GPR e la geoelettrica. Dalla campagna effettuata nel mese di giugno 2016 è emerso che: I) le camere mortuarie, scavate direttamente nella roccia calcarenitica, si possono suddividere in superficiali (profondità maggiore di 2 m e comprendenti un dromos di accesso) e profonde (profondità maggiore di 5 m e di dimensioni maggiori rispetto alle prime); II) il metodo GPR permette un'elevata risoluzione delle strutture nascoste a scapito della profondità di investigazione, inoltre è affetto da disturbo proveniente da artefatti antropici posti in superficie; III) il metodo resistivo adottato permette esplorazioni profonde e risulta molto potente nella localizzazione delle cavità sepolte; IV) le strutture archeologiche nel sottosuolo producono sulla superficie topografica delle forme ben riconoscibili per il diverso contenuto in umidità rispetto all'intorno, di ausilio quindi al presente studio è stata l’analisi delle immagini da satellite di Google Earth; V) l'approccio di lavoro che ha combinato le due diverse metodologie sia tra loro sia con le immagini digitali risulta molto vantaggioso ai fini della presente ricerca.
Resumo:
Nel presente elaborato vengono analizzate alcune delle più recenti tecniche per eseguire il monitoraggio e il collaudo delle strutture, con attenzione particolare ai ponti. In una prima parte viene spiegata l'importanza di realizzare un sistema di monitoraggio continuo per le opere al fine di evitare danni alle persone e ai beni materiali. In particolare vengono analizzate tre tecniche quali la fibra ottica, laser scanning e fotogrammetria mostrando per ognuna alcuni esempi applicativi al fine di evidenziarne i vantaggi e le condizioni di utilizzo
Resumo:
Le rotture a fatica dei componenti sono dovute principalmente alle tensioni di trazione generate da carichi ciclici e variabili nel tempo. Le cricche causate da questo tipo di tensioni possono propagarsi e crescere fino a causare danni catastrofici nel componente. La fatica costituisce uno dei fattori principali di rottura delle strutture aeronautiche; in campo aeronautico sono quindi molto diffusi dei trattamenti superficiali che permettono di indurre tensioni di compressione che contrastano quelle di trazione, in modo tale da ritardare o prevenire le rotture dovute al fenomeno della fatica. Esistono diverse tecniche per raggiungere questo risultato e permettere di prolungare la vita a fatica di un componente metallico, la più nota è sicuramente il Laser Shock Peening (LSP). Nel corso degli ultimi anni la maggior parte delle ricerche condotte rispetto a questa tecnica sono state incentrate sugli effetti meccanici che questo trattamento ha sul materiale in modo da determinare la configurazione ottimale per ottenere una distribuzione delle tensioni il più efficace possibile ai fini della vita a fatica; sono state svolte diverse prove sperimentali per studiare il ruolo dei parametri del laser e ottimizzare la procedura del LSP. Tra le tecniche utilizzate per valutare gli effetti del LSP in termini di tensioni residue, spiccano, oltre ai metodi computazionali, l'X-ray Diffraction (XRD) e l'Incremental Hole Drilling (IHD). L'elaborato di tesi qui presentato ha come scopo il confronto tra i livelli di tensioni residue riscontrate all'interno di provini sottili in lega di alluminio, sottoposti a differenti trattamenti laser, attraverso i suddetti metodi XRD e IHD. I risultati, già noti, ottenuti con la tecnica l'XRD sono stati posti a verifica attraverso dei test svolti con l'IHD presso i laboratori MaSTeRLab della Scuola di Ingegneria dell'Università di Bologna.
Resumo:
In questa dissertazione verrà affrontata la mancanza di uno strumento che permetta la stesura e la gestione delle versioni di documenti strutturati, proponendo il modello CoVE. Tale modello si fonda sull'integrazione di due tecnologie: Operational Transformation e Versioning Management System. La prima si occupa di fornire un sistema collaborativo pensato per la produzione di documenti, la seconda si occupa di gestire le possibili versioni/varianti che un documento può assumere. Una possibile implementazione di tale modello abbatterebbe tempi e costi necessari alla stesura di documenti strutturati.
Resumo:
I frutti secchi ed i semi commestibili hanno comprovati benefici per la salute, essendo il loro consumo relazionato con la riduzione del rischio di malattie croniche. Tuttavia, questi alimenti hanno un elevato potenziale allergico per una parte della popolazione mondiale. A causa del fatto che le allergie alimentari sono in aumento, diventa importante conoscere tutti i componenti presenti in un alimento, anche se in tracce. Il Regolamento UE n°1169/2011 ha normalizzato le leggi sull’etichettatura delle sostanze che causano allergie ed intolleranze alimentari. Di conseguenza, vi è l'urgente necessità di metodi specifici e affidabili in grado di rilevare allergeni negli alimenti che permettano di garantire la sicurezza alimentare e la conformità delle etichette, migliorando così la vita dei consumatori allergici. Sebbene le tecniche immunologiche siano più specifiche per l’identificazione di proteine allergeniche, le tecniche basate sul DNA sono più adatte per matrici alimentari molto complesse o nel caso di alimenti che hanno subito numerosi processi di trasformazione, mostrandosi come metodi alternativi affidabili. L’obiettivo di questo lavoro di tesi è stato quello di sviluppare una metodica per il rilevamento di specie allergeniche vegetali (frutta a guscio e semi commestibili) in matrici alimentari usando la tecnica del DNA Barcoding e la tecnica della Real-Time PCR. I vantaggi di queste tecniche sono, oltre alla necessità di quantità minime di campione, la possibilità di identificare varie specie allergeniche in simultaneo, anche dopo che queste abbiano subito processi di lavorazione. Si è inoltre fatta un’analisi fingerprinting dei composti volatili su matrici alimentari attraverso il gascromatografo HERACLES II. Le metodiche sviluppate possono fungere come metodi di screening veloci ed affidabili nella riduzione di possibili contaminazioni dei prodotti alimentari, rilevando la presenza o confermando l'assenza di allergeni.
Resumo:
In questa tesi si è cercato di trovare le soluzioni più efficaci a supporto delle questioni legate all'ipertensione di seguito descritte attraverso l'uso di tecniche riguardanti l'intelligenza artificiale e l'Internet of Things. Uno tra i compiti dei medici che si occupano di curare i malati di ipertensione è quello di elaborare protocolli per quanto riguarda la prevenzione e la cura di questa malattia, i quali vengono periodicamente aggiornati. Per supportare ciò, il primo progetto sviluppato è consistito in un'analisi dei dati sul dataset ottenuto a partire dall'elaborazione delle risposte date ai questionari che sono stati distribuiti durante la Giornata Mondiale dell'Ipertensione. A partire da questo, si è cercato di evidenziare la classe di persone che con più probabilità sono malate di ipertensione in modo tale che le linee guida aggiornate si concentrino maggiormente su costoro. La seconda questione affrontata è che non sempre le cure che vengono prescritte sono efficaci, talvolta a causa del medico, talvolta a causa del paziente. Si rende perciò necessario fornire ai pazienti degli strumenti che li aiutino direttamente nella cura della loro malattia. Devono avere anche lo scopo di aiutare il medico nel suo lavoro di monitoraggio periodico delle condizioni di salute del paziente, perché possa avere realmente il polso della situazione. Per fare questo, il secondo progetto ha riguardato lo sviluppo di un chatbot disponibile sulla piattaforma di messaggistica istantanea Telegram ad uso dei malati di ipertensione. Questo assistente virtuale permette loro di registrare le misurazioni di pressione che settimanalmente devono effettuare e ricorda loro di farlo quando passa troppo tempo dall'ultima misurazione. Il sistema permette inoltre di visualizzare medie e grafici delle misurazioni che sono state raccolte cosicché il medico può affidarsi ad uno strumento più evoluto del semplice libretto diario in cui il paziente annota tutte le misurazioni.
Resumo:
Introduzione: I neuroni colinergici ricoprono un ruolo importante nella regolazione dei processi flogistici, tale scoperta ha portato la ricerca scientifica ad approfondire questo aspetto, provando che la stimolazione del Nervo Vago può essere utilizzata nel trattamento delle patologie infiammatorie. La respirazione potrebbe essere una tecnica volta a stimolare il Nervo Vago, inducendo cosi spostamenti nell’equilibrio simpatico-vagale verso una predominanza parasimpatica, con i conseguenti riflessi anti-infiammatori. Materiali e metodi: È stata effettuata una prima ricerca in letteratura per identificare studi che provassero la funzione immunologica, anti-infiammatoria, bi-direzionale del Nervo Vago. Attraverso la seconda ricerca è stata analizzata la possibile correlazione tra la pratica di pattern respiratori e la stimolazione del Nervo Vago analizzando i marker tonici vagali. Sono stati visionati i database elettronici PUBMED, CINAHL, COCHRANE e PEDRO. La ricerca è stata effettuata nel periodo che va da marzo 2020 ad ottobre 2020. Risultati: Il Nervo Vago è coinvolto nell’omeostasi dei processi infiammatori attraverso un sistema di controllo bi-direzionale neuroimmunologico. È capace di individuare i processi flogistici silenti nella periferia attraverso le vie afferenti, e mediante la via efferente colinergica anti- infiammatoria li disattiva. In base agli studi analizzati, un pattern respiratorio di circa 6 cicli resp/ min con un rapporto basso tra inspirazione ed espirazione evidenzia un aumento significativo nell’analisi dello spettro dell’ Heart Rate Variability, del baroriflesso e dell’aritmia sinusale respiratoria. Conclusioni: In accordo con i risultati biofisici e neurofisiologici e con le attuali pratiche medico ingegneristiche che utilizzano la stimolazione del Nervo Vago, nel trattamento di diverse patologie, si vuole invogliare la ricerca scientifica ad indagare un possibile utilizzo terapeutico della respirazione.
Resumo:
La stesura del seguente elaborato di tesi è avvenuta simultaneamente all’inizio di un progetto Lean presso il plant produttivo, situato a Crevalcore (Bo), di Fonderie di Montorso Spa, azienda produttrice di getti in ghisa. Lo scopo del seguente elaborato è di descrivere l’implementazione di un progetto Lean in uno dei settori più antichi esistenti. Negli ultimi decenni, si è sentito molto parlare di Lean production in settori come quello dell’automotive ma, raramente, si sente parlare di lean thinking o kaizen in settori metalmeccanici. I processi produttivi tipici di una fonderia, infatti, sono difficilmente prevedibili e controllabili come può essere un processo di assemblaggio di componenti. Trasferire, dunque, un sistema di gestione della produzione, il Toyota Production System, nato in una linea di assemblaggio, in un settore con una grande quantità di vincoli di progettazione e produzione, è una sfida, una sfida necessaria per rispondere ad una situazione di estrema variabilità della domanda, in cui il mercato richiede i prodotti in maniera rapida e puntuale. Per rimanere, dunque, competitivi è necessario un cambiamento radicale, una rivisitazione di tutti i processi aziendali partendo dall’arrivo dell’ordine, alla spedizione dello stesso. Alla luce di ciò, nel corso della trattazione, sono state svolte analisi al fine di ridurre il Lead time di partenza da 18 a 4 settimane, ponendo molta attenzione al coinvolgimento delle persone, il vero motore del cambiamento. Le parole cardine di questo elaborato sono: standardizzazione dei processi, eliminazione dei colli di bottiglia, aumento della comunicazione tra le funzioni aziendali, prioritizzazione dei clienti e per ultimo, ma non per importanza, la valorizzazione del gemba.
Resumo:
L’Intelligenza Artificiale è un campo dell’informatica che da tempo si afferma come valido strumento alternativo per la risoluzione di problemi tipicamente riservati esclusivamente all’intelletto umano. Se in principio gli algoritmi sfruttati nel campo dell’Intelligenza Artificiale erano basati su insiemi di regole codificate da esperti del dominio di applicazione dell’algoritmo, con l’arrivo del secondo millennio questo approccio è stato superato in favore di algoritmi che sfruttano grandi quantità di dati ed elevata potenza di calcolo per fare scelte ottimali. Un esempio di questo approccio può essere Deep Blue, che nel 1996, anche grazie ad un database di 4mila aperture e un’architettura che permetteva 11 GFLOPS fu la prima macchina a vincere una partita a scacchi contro un grande maestro. Col passare degli anni, l’aumentare degli investimenti e della ricerca, questo approccio ha portato alla strutturazione del campo dell’Apprendimento Automatico (Machine Learning, in inglese) dal quale sono scaturiti numerosi avanzamenti che hanno influenzato una moltitudine di ambiti: dall’agricoltura di precisione alla traduzione automatica, dal riconoscimento di frodi con carte di credito alla farmaceutica, dal marketing alla visione artificiale e molti altri, inclusa la medicina. Questo lavoro si concentra su proprio questioni relative al campo della medicina. In particolare si occupa di provare a riconoscere se le stenosi coronariche di un paziente sono gravi o meno attraverso l’uso di angiografie coronariche invasive e tomografie coronariche angiografiche; in maniera da diminuire delle angiografie coronariche invasive effettuate su pazienti che non ne hanno davvero bisogno.