892 resultados para plagio, software, leggi, università, test, verifiche, analisi, confronto, metodi di individuzazione
Resumo:
Perché la raccolta differenziata abbia ragion d’essere, essa deve essere portata a percentuali, rispetto al totale della raccolta rifiuti, ben più rilevanti di quelle che la media raggiunge allo stato dell’arte. Per raggiungere tale scopo sono fondamentali la sensibilizzazione dell’utente e l’introduzione di metodi di raccolta che favoriscano tale differenziazione dei rifiuti, possibilmente a monte della raccolta stessa. Una buona differenziazione più a monte possibile costituisce infatti un’indiscutibile vantaggio in termini di tempi e di costi. Tra i vari metodi possibili analizzerò in questo elaborato l’adozione di dispositivi a limitazione di conferimento: andando a limitare il volume conferibile della frazione non riciclata, si instrada l’utente verso una maggiore attenzione alla differenziazione del rifiuto a monte, tendendo a uniformare quindi la quantità delle varie frazioni di rifiuto prodotte, ed in particolare limitando quella delle non differenziate.
Resumo:
L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.
Resumo:
La tesi tratta dei protocolli di autenticazione a chiave privata, sia unilaterale che reciproca, e a chiave pubblica ed esamina brevemente il protocollo di Schnorr.
Resumo:
Nel corso di questa tesi si svilupperà il metodo del Beam-forming acustico, uno dei più semplici algoritmi di elaborazione segnale che permette di isolare spazialmente un suono proveniente da una precisa direzione decisa da noi, creando quindi un microfono super-direzionale orientabile a partire da un array microfonico di caratteristiche note. Inoltre si implementerà in modo pratico l'algoritmo per descrivere il livello sonoro emesso da ogni punto di una sorgente sonora estesa in modo da mappare l'intensità di quest'ultima in un'immagine 2D da sovrapporre all'immagine stessa dell'oggetto. Volendo schematizzare in breve questa tesi, essa è composta da una prima parte teorica contenente gli argomenti che ci servono per descrivere lo spazio acustico e le onde acustiche, una seconda parte riguardante i microfoni e i suoi vari parametri, una terza parte riguardante la teoria sull'elaborazione segnale nel dominio del tempo e delle frequenze e in particolare cenni sulla trasformata di Fourier. Nella parte successiva verranno descritti i due principali metodi di Beam-forming acustico trattando sia gli apparati di misura sia i due algoritmi, facendo sempre riferimento alle parti di teoria necessarie alla spiegazione del metodo. Infine nell'ultima parte della tesi verrà discusso in primo luogo la creazione del microfono virtuale, in particolare parleremo della sua sensibilità in funzione della direzione avvalendoci di uno schema che in letteratura viene denominato Beam-pattern, in secondo luogo parleremo di come creare la mappa 2D dove effettivamente possiamo vedere l'intensità sonora dell'onda proveniente da ogni punto dell'oggetto preso in considerazione.
Resumo:
Da poco più di 30 anni la comunità scientifica è a conoscenza dell’occasionale presenza di strutture cicloniche con alcune caratteristiche tropicali sul Mar Mediterraneo, i cosiddetti medicane. A differenza dei cicloni baroclini delle medie latitudini, essi posseggono una spiccata simmetria termica centrale che si estende per gran parte della troposfera, un occhio, talvolta privo di nubi, e una struttura nuvolosa a bande spiraleggianti. Ad oggi non esiste ancora una teoria completa che spieghi la loro formazione ed evoluzione. La trattazione di questa tesi, incentrata sull’analisi dei campi di vorticità potenziale e di umidità relativa, è sviluppata nell’ottica di una miglior comprensione delle dinamiche alla mesoscala più rilevanti per la nascita dei medicane. Lo sviluppo di tecniche avanzate di visualizzazione dei campi generati dal modello WRF, quali l’animazione tridimensionale delle masse d’aria aventi determinate caratteristiche, ha permesso l’individuazione di due zone di forti anomalie di due campi derivati dalla vorticità potenziale in avvicinamento reciproco, intensificazione e mutua interazione nelle ore precedenti la formazione dei medicane. Tramite la prima anomalia che è stata chiamata vorticità potenziale secca (DPV), viene proposta una nuova definizione di tropopausa dinamica, che non presenta i problemi riscontrati nella definizione classica. La seconda anomalia, chiamata vorticità potenziale umida (WPV), individua le aree di forte convezione e permette di avere una visione dinamica dello sviluppo dei medicane alle quote medio-basse. La creazione di pseudo immagini di vapore acqueo tramite la teoria del trasferimento radiativo e la comparazione di queste mappe con quelle effettivamente misurate nei canali nella banda del vapore acqueo dai sensori MVIRI e SEVIRI dei satelliti Meteosat hanno da un lato confermato l’analisi modellistica, dall’altro consentito di stimare gli errori spazio-temporali delle simulazioni. L’utilizzo dei dati di radianza nelle microonde, acquisiti dai sensori AMSU-B e MHS dei satelliti NOAA, ha aggiunto ulteriori informazioni sia sulle intrusioni di vorticità potenziale che sulla struttura degli elementi convettivi presenti sul dominio, in modo particolare sulla presenza di ghiaccio in nube. L’analisi dettagliata di tre casi di medicane avvenuti nel passato sul Mar Mediterraneo ha infine consentito di combinare gli elementi innovativi sviluppati in questo lavoro, apportando nuove basi teoriche e proponendo nuovi metodi di indagine non solo per lo studio di questi fenomeni ma anche per un’accurata ricerca scientifica su ciclogenesi di altro tipo.
Resumo:
Questa tesi si prefigge l’obiettivo di analizzare alcuni aspetti critici della sicurezza in ambito cloud. In particolare, i problemi legati alla privacy, dai termini di utilizzo alla sicurezza dei dati personali più o meno sensibili. L’aumento esponenziale di dati memorizzati nei sistemi di cloud storage (es. Dropbox, Amazon S3) pone il problema della sensibilità dei dati su un piano tutt'altro che banale, dovuto anche a non ben chiare politiche di utilizzo dei dati, sia in termini di cessione degli stessi a società di terze parti, sia per quanto riguarda le responsabilità legali. Questa tesi cerca di approfondire ed esaminare le mancanze più preoccupanti degli stessi. Oltre ad analizzare le principali criticità e i punti deboli dei servizi cloud, l’obiettivo di questo lavoro sarà quello di fare chiarezza sui passi e le infrastrutture che alcune aziende (es. Amazon) hanno implementato per avvicinarsi all’idea di 'safeness' nel cloud. Infine, l’ultimo obiettivo posto sarà l’individuazione di criteri per la valutazione/misura del grado di fiducia che l’utente può porre in questo contesto, distinguendo diversi criteri per classi di utenti. La tesi è strutturata in 4 capitoli: nel primo sarà effettuata una tassonomia dei problemi presenti nei sistemi cloud. Verranno presentati anche alcuni avvenimenti della storia recente, in cui queste problematiche sono affiorate. Nel secondo capitolo saranno trattate le strategie di 'safeness' adottate da alcune aziende, in ambito cloud. Inoltre, saranno presentate alcune possibili soluzioni, dal punto di vista architetturale. Si vedrà come il ruolo dell'utente sarà di estrema importanza. Il terzo capitolo sarà incentrato sulla ricerca di strumenti e metodi di valutazione che un utente, o gruppo di utenti, può utilizzare nei confronti di questi sistemi. Infine, il quarto capitolo conterrà alcune considerazioni conlusive sul lavoro svolto e sui possibili sviluppi di questa tesi.
Resumo:
Tesi compilativa riguardo definizione, proprietà e metodi di calcolo di Gruppi superiori di omotopia. Argomenti:definizioni, gruppi delle sfere, proprietà, sospensione, proiezioni di rivestimento, spazi fibrati, approssimazione cellulare, gruppi stabili di omotopia, esempi.
Resumo:
Uno studio della ferrovia Porrettana attraverso la sua costruzione e le sue difficoltà tecniche , in particolare nel tratto Pracchia-Pistoia e con un approfondimento sulle gallerie e sui metodi di costruzioni di esse.
Resumo:
Questo elaborato presenta i principali contenuti della fluidodinamica. Data la vastità dell'argomento, verranno mostrati i tratti essenziali, senza addentrarsi nei dettagli. Il capitolo iniziale introduce il concetto di fluido e i principali metodi di studio. Segue il corpo centrale dell'elaborato, in cui vengono presentate le equazioni fondamentali della dinamica dei fluidi. Successivamente due brevi capitoli si concentrano su una particolare forma dell'equazione del moto e sul tema della vorticità. L'ultimo capitolo tratta brevemente del collasso gravitazionale, una fra le innumerevoli applicazioni della teoria dei fluidi al campo dell'astrofisica. Vettori e tensori verranno rappresentati in coordinate cartesiane e, dove necessario, saranno richiamate in nota le identità utilizzate nei calcoli.
Resumo:
Molti metodi di compressione lossless si basano sulle idee che nel 1977 i ricercatori israeliani Abraham Lempel e Jacob Ziv hanno presentato nell’articolo “A universal Algorithm for sequential Data Compression”. In questa tesi viene descritto il metodo di fattorizzazione LZ77, illustrato appunto da Lempel e Ziv, e vengono esposte le strutture dati fondamentali per la sua realizzazione. Sono inoltre descritti due algoritmi CPS1 e CPS2 che realizzano LZ77. Infine, sfruttando i dati raccolti sperimentalmente da Al-Haffedh et al. in “A Comparison of Index-Based Lempel-Ziv LZ77 Factorization Algorithms” [2012], gli algoritmi descritti vengono confrontati in termini di spazio e tempo.
Resumo:
La tesi è dedicata ai vari sistemi di lettura e scrittuta accessibili ai non vedenti a cominciare dall'uso del braille fino alle opportunità offerte dalle nuove tecnologie
Resumo:
L'elaborato affronta l'applicazione della tecnologia di downsizing nei motori ad accensione comandata: i dispositivi che ne permettono l'implementazione nei veicoli leggeri (EGR, sovralimentazione) e i problemi intrinsechi di questa tecnologia (possibile comparsa di fenomeni anomali di combutione come preaccensioni, autoaccensioni, DDT, detonazione e superknock). Sono presi in esame diversi metodi di soluzione dei problemi sopraelencati, uno fra tutti l'aggiunta di un'iniezione d'acqua per diminuire le temperature dei gas in camera di combustione e mitigare così le possibili detonazioni. Infine l'elaborato analizza alcuni esempi di applicazione della tecnologia di downsizing al fine di ridurre le emissioni di CO2 allo scarico entro i limiti imposti dalla Comunità Europea. Il progetto Ultraboost di Jaguar Land Rover, la filosofia di rightsizing (giusta cilindrata in base alla classe a cui il veicolo appartiene) di Audi, lo SkyActiv-G di Mazda sono solo alcuni dei motori nati sotto la filosofia del downsizing. Nei motori progettati al fine di ridurre le emissioni allo scarico ma allo stesso tempo mantenere buone prestazioni del motore, si trovano anche il concetto di DCEE (Double Compression Expansion Engine) di Joahnnson e il motore a pistoni opposti a due tempi di Achates Power.
Resumo:
In quest’elaborato verranno trattate le caratteristiche fisiche, chimiche e morfologiche dei pianeti che compongono il Sistema Solare, escludendo però la Terra, in quanto lo studio del globo terrestre, seppur interessante, è argomento di geologia; per cui si è deciso di non descriverne le proprietà, anche se verrà usata la sua massa e il suo raggio come unità di riferimento per tutti i pianeti. Non verranno trattate questioni dinamiche come il problema di Keplero a piu` corpi e le risonanze orbitali, in quanto quest’argomento è già presente nell’elenco titoli degli elaborati delle laure triennali di Astronomia, per cui si esulerebbe dallo scopo di quest’elaborato; ci si limiterà dunque, soltanto ad accennare alcune questioni solo dove necessario. L’elaborato è suddiviso in varie sezioni: nella prima si farà un breve inventario di ciò che comprende il Sistema Solare e alle fasi della sua formazione che lo hanno portato alla sua attuale configurazione, nella seconda si analizzeranno le proprietà che definiscono i pianeti da un punto di vista fisico e le condizioni per cui assumono determinate caratteristiche, quali la forma, la temperatura di equilibrio, la presenza o meno di atmosfere e magnetosfere. Successivamente si passerà ad analizzare sommariamente, sotto le condizioni descritte nella sezione precedente, le proprietà caratteristiche di ciascun pianeta mettendo in evidenza analogie e differenze fra ciascun corpo. Dopo una breve sezione sui corpi minori e sulle decisioni che hanno portato a non considerare alcuni di questi corpi piu` come pianeti, si passerà a descrivere alcuni metodi di ricerca, grazie ai quali sono stati scoperti numerosi pianeti extrasolari. In appendice si riporteranno il significato di tutti i simboli e i valori delle costanti utilizzati spesso durante la stesura dell’elaborato.
Resumo:
Il lavoro svolto in questa tesi è legato allo studio ed alla formulazione di metodi computazionali volti all’eliminazione del noise (rumore) presente nelle immagini, cioè il processo di “denoising” che è quello di ricostruire un’immagine corrotta da rumore avendo a disposizione una conoscenza a priori del fenomeno di degrado. Il problema del denoising è formulato come un problema di minimo di un funzionale dato dalla somma di una funzione che rappresenta l’adattamento dei dati e la Variazione Totale. I metodi di denoising di immagini saranno affrontati attraverso tecniche basate sullo split Bregman e la Total Variation (TV) pesata che è un problema mal condizionato, cioè un problema sensibile a piccole perturbazioni sui dati. Queste tecniche permettono di ottimizzare dal punto di vista della visualizzazione le immagini in esame.
Resumo:
Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura