111 resultados para Indicateurs de la qualité


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Negli ultimi anni l’attenzione di legislatori e degli Organi di Vigilanza, in base alle riforme regolamentari attivate in risposta alla crisi economica, si sono focalizzate sulle pratiche di risk management delle Banche, sottolineando l’importanza dei sistemi di controllo e gestione dei rischi. Il presente lavoro nasce con l’intento di analizzare e valutare le caratteristiche salienti del processo di assunzione e gestione dei rischi nel sistema economico finanziario attuale. Numerosi e autorevoli esperti, come gli operatori del Financial Stability Board , Institute of International Finance e Senior Supervisory Group, si sono espressi sulle cause della crisi finanziaria ed hanno sollevato dubbi circa la qualità delle azioni intraprese da alcuni manager, sulle loro politiche gestionali e sulla comprensione delle reali condizioni in cui versavano le loro Banche (in termini di esposizione ai rischi, report da aggregazione dati su performance aziendali e qualità dei dati aggregati) , si è ritenuto giusto dal punto di vista teorico approfondire in particolare i temi del Risk Appetite e Risk Tolerance, novità introdotte nelle diverse direttive e normative in risposta alle citate ed ambigue politiche di gestione ed assunzione rischi. I concetti, qui introdotti, di appetito e tolleranza al rischio conducono ad una ampia sfera di riferimento che guarda alla necessità di fissare degli obiettivi di rischio e loro limiti per poter meglio controllare e valutare la stabilità economica/finanziaria e stimare gli effetti di condizioni peggiorative (reali o soltanto teoriche, come gli stress test) sulla solvibilità e profittabilità delle Banche nazionali ed internazionali. Inoltre, ad integrazione di quanto precedentemente esposto sarà illustrata una survey sulla disclosure delle principali Banche europee in relazione alle informazioni sul Risk Appetite e sul Risk Tolerance.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il fenomeno dell’urbanizzazione ha fatto sì che crescesse il numero delle abitazioni a scapito delle aree verdi ma, in un’ottica di sostenibilità umana, la tutela degli ecosistemi naturali diventa un obiettivo imprescindibile. Le infrastrutture verdi nascono proprio con questo scopo: cercare soluzioni per fare non solo convivere ma collaborare la natura e l’uomo. Con piccoli accorgimenti come le coperture verdi, le pavimentazioni permeabili, i “rain garden” si sfruttano le caratteristiche degli elementi già presenti in natura per avere benefici sia per la qualità dell’aria, sia per la tutela da catastrofi come allagamenti. In questa trattazione vedremo nel dettaglio come queste infrastrutture possano giovare all’uomo economicamente e ecologicamente analizzando i possibili benefici derivanti del tetto verde dell’Università di Bologna.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Quando si parla di olio extravergine di oliva ci si riferisce ad un prodotto caratterizzato da anni di storia, tradizioni e valori simbolici; è inoltre rinomato per le sue caratteristiche peculiari, anche di tipo sensoriale. Esso è definito come un prodotto "ottenuto unicamente mediante procedimenti meccanici" e non è ammesso nessun altro trattamento o successiva correzione. Lo scopo di questo lavoro di tesi è indagare le abitudini ed i gusti dei consumatori e guidarli verso scelte più consapevoli, attraverso attività divulgative e mediante l’educazione all’assaggio, la cognizione ed il senso più corretto del gusto applicati ad un prodotto vergine di altissimo valore merceologico oltre che nutrizionale. Per questa finalità, è stato realizzato un test di accettabilità su 125 soggetti, chiamati a rispondere ad una serie di domande riguardanti il gradimento e la percezione di alcuni attributi sensoriali per quattro diversi oli commercializzati come extravergini di oliva e selezionati con l’intento di rappresentare il più possibile i diversi livelli di qualità del prodotto presenti sul mercato. In questo lavoro viene messa in luce la necessità di riavvicinare e conquistare il consumatore interessato agli aspetti salutistici del prodotto ma che non dispone, per mancanza di informazioni, delle competenze e degli strumenti necessari per riconoscere un olio extravergine di qualità e capire cosa, in esso, effettivamente costituisce un valore aggiunto. I risultati ottenuti dall'indagine condotta dal Dipartimento di Scienze e Tecnologie Agro-Alimentari su 125 consumatori romagnoli, oggetto di questo elaborato, hanno permesso di capire meglio le abitudini, i gusti, le aspettative dei soggetti intervistati e di verificare la loro capacità di distinguere in maniera agevole la qualità di un prodotto tanto complesso quale l’olio extravergine di oliva. Gli oli proposti durante il test affettivo di tipo edonico, erano di differente qualità e con caratteristiche diverse in termini di attributi sensoriali, di prezzo e di origine geografica. Questo studio conferma l'esigenza di indirizzare la comunicazione in modo più mirato verso i consumatori finali, migliorando la leggibilità dell’offerta con etichette più chiare e promuovendo oltre alle caratteristiche salutistiche del prodotto, anche quelle sensoriali. Un consumatore informato, competente e capace di riconoscere la qualità rappresenta la migliore garanzia per i produttori di essere premiati per il proprio impegno.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il documento di tesi è composto da tre capitoli, che in successione analizzano gli aspetti teorici del progetto fino ad arrivare all’implementazione vera e propria dell’applicazione. Nel primo capitolo vediamo definito il tema dell’accessibilità accennando alle normative presenti in Italia e all’estero sull’argomento. Successivamente viene spiegato il concetto di Smart City e le tecniche che vengono utilizzate allo scopo di migliorare la qualità di vita nelle città. Vengono introdotti i concetti di crowdsourcing e participatory sensing, ideologie alla base delle Smart City. Al termine del capitolo viene introdotto uno studio sul grado di accessibilità degli smartphone presenti oggi sul mercato, analizzando anche le tecnologie assistive disponibili per questi dispositivi. Nel secondo capitolo si descrivono le tecnologie e i servizi utilizzati durante la creazione del progetto. In particolare viene presentato Android ed il suo funzionamento, essendo quest’ultimo il sistema operativo per cui è stata sviluppata l’applicazione. In seguito troviamo una breve analisi di tutti i servizi impiegati nel progetto: Foursquare, Fusion Table e Google Maps. Infine vengono descritte le tecnologie intermedie utilizzate per far comunicare fra loro gli strumenti spiegati in precedenza. Nel terzo capitolo viene presentata in modo dettagliato l’implementazione del progetto. Inizialmente vengono definite le classi principali create per progettare le funzionalità di base del software e per interagire con i servizi scelti. Successivamente viene descritto il funzionamento e l’aspetto dell’applicazione sviluppata insieme a degli screenshot, che permetteranno al lettore di avere un riferimento visivo di ciò che è stato esposto nel corso della tesi.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Lo scopo di questo lavoro di tesi consiste nel valutare l’efficacia di inibizione delle HDAC e la selettività per le cellule tumorali di nuove molecole basate su coniugati poliamminici (PC1, PC2, PC3, PC4, PC5). I modelli sperimentali utilizzati saranno una linea cellulare tumorale di glioblastoma umano (U87), paragonata a una linea cellulare sana di fibroblasti fetali umani (IMR90). Il progetto nasce dalla collaborazione con la Prof.ssa Anna Minarini del Dipartimento di Farmacia e BioTecnologie di Bologna e con il Dott. Andrea Milelli del Dipartimento di Scienze per la Qualità della Vita di Rimini che hanno progettato e sintetizzato i composti poliamminici utilizzati negli esperimenti condotti nel laboratorio di Ingegneria Cellulare e Molecolare “S. Cavalcanti” a Cesena. Gli obiettivi del progetto consistono nel valutare i potenziali vantaggi che sembrano offrire le poliammine se coniugate a molecole con specifiche funzioni antitumorali, quali l’acido idrossamico e il gruppo intercalante il DNA, naftalene-diimide. L’aggiunta della coda poliamminica al composto, infatti, permetterebbe alla molecola risultante di sfruttare il sistema di trasporto delle poliammine, tipicamente sovraespresso o iperattivo nelle cellule neoplastiche, favorendo così l’ingresso in cellula del farmaco e conferendogli selettività per le cellule tumorali. Inoltre, l’affinità elettrostatica che intercorre tra la coda policationica poliamminica e il DNA, carico negativamente, direzionerebbe con maggior efficacia l’intera molecola, compresa la parte intercalante e l’acido idrossamico (HDACi), verso il loro bersaglio, la doppia elica dell’acido nucleico e le HDAC. Gli effetti dei PC valutati in questo lavoro di tesi comprendono l’influenza dei farmaci sulla vitalità cellulare e l’efficacia di inibizione delle HDAC. Si effettueranno test di crescita cellulare in seguito ai trattamenti farmacologici per confrontare i diversi composti poliamminici, individuare quelli con maggior effetto citotossico e stabilire se il tipo di trattamento risulti idoneo per il proseguimento dell’indagine. Il grado di inibizione delle HDAC, relativo ai diversi farmaci, verrà valutato indirettamente mediante la tecnica del Western Blotting quantificando il livello di iperacetilazione istonica globale indotta. I vantaggi che queste nuove molecole potenzialmente possiedono e che andranno verificati con ulteriori studi, inducono ad attribuire loro un grande potenziale per la terapia antitumorale, come induttori dell’apoptosi e/o riprogrammazione dell’assetto epigenetico, risultante nella riattivazione di geni oncosoppressori silenziati nelle cellule neoplastiche. L’azione antitumorale di queste molecole potrà essere più efficace se combinata con altri farmaci, quali chemioterapici standard o demetilanti del DNA. Inoltre la variazione della coda poliamminica potrà essere utile per lo sviluppo di inibitori specifici per le diverse isoforme delle HDAC. La selettività per le cellule tumorali e l’affinità per il DNA di questi nuovi composti potrebbe infine limitare gli eventuali effetti collaterali in clinica.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il successo di XML ha rinnovato l'interesse per il controllo delle modifiche sugli alberi e i dati semi-strutturati. Le necessità principali sono gestire le revisioni dei documenti, interrogare e monitorare i cambiamenti e scambiare efficientemente i documenti e i loro aggiornamenti. I cambiamenti che si verificano tra due versioni di un documento sono sconosciuti al sistema. Quindi, un algoritmo di diffing viene utilizzato per costruire un delta che rappresenta i cambiamenti. Sono stati proposti vari algoritmi di diffing. Alcuni considerano la struttura ad albero dei documenti XML, mentre altri non lo fanno. Inoltre, alcuni algoritmi possono trovare una sequenza più "sintetica" delle modifiche. Questo migliora la qualità del monitoraggio e l'interrogazione delle modifiche. Esistono altri approcci sviluppati per monitorare i cambiamenti sui documenti XML, differenti dagli algoritmi di diffing, ma che comunque ottengono risultati quasi identici ed offrono un'interrogazione delle modifiche più agevole per gli utenti umani. Esistono infatti programmi di editing con strumenti di change tracking, che permettono a più autori di modificare diverse versioni dei documenti contemporaneamente e registrando in tempo reale tutti i cambiamenti da loro apportati. In questo lavoro studio i diversi strumenti e confronto i loro risultati sulla base di esperimenti condotti su documenti XML opportunamente modificati per riconoscere determinati cambiamenti. Ci sono anche diverse proposte di formati del delta per rappresentare i cambiamenti in XML, ma non vi è ancora alcuno standard. Espongo le principali proposte in base alle loro specifiche, le loro implementazioni e sui risultati degli esperimenti condotti. L'obiettivo è di fornire una valutazione della qualità degli strumenti e, sulla base di questo, guidare gli utenti nella scelta della soluzione appropriata per le loro applicazioni.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nella maggior parte dei casi, i soggetti affetti da Disturbo dello Spettro Autistico hanno un deficit di comunicazione, sia esso verbale o non verbale. Nonostante, ad oggi, non esista una cura per questo disturbo, una diagnosi precoce entro il terzo anno di vita del soggetto e un programma educativo coerente con le necessità del paziente, permettono al bambino con autismo di raggiungere quantomeno le abilità comunicative di base. Recenti studi hanno dimostrato che l’utilizzo di Information and Communication Technology (ICT) nel trattamento di soggetti affetti da Disturbo dello Spettro Autistico può portare molti benefici, dato che, da un lato, computer, tablet e smartphone sono strumenti strutturati e prevedibili e, dall’altro, i sintetizzatori vocali, se presenti, sono privi di inflessioni verbali. A questo proposito, durante il mio tirocinio di tesi magistrale presso l’azienda “CSP – Innovazioni nelle ICT” di Torino, ho sviluppato un’applicazione per tablet Android che permette a psicologi, educatori, logopedisti, insegnanti e genitori di creare tabelle comunicative circostanziate alle esigenze del soggetto e che consente a quest’ultimo di utilizzare questo strumento come efficace mediatore sociale. Questo software si va a inserire in un progetto più ampio, denominato “tools4Autism”, nato dalla collaborazione tra il centro di ricerca di cui sopra, la “Fondazione ASPHI Onlus – ICT per migliorare la qualità di vita delle persone con disabilità” e il “Centro Autismo e Sindrome di Asperger” di Mondovì (CN). L’applicazione prevede principalmente due metodi di utilizzo: il primo, definito “modalità operatore”, è un editor che permette di creare tabelle composte da un numero variabile di immagini che possono essere pittogrammi, fotografie personali, disegni del bambino e possono essere accompagnate o meno da un testo. Una volta create le tabelle, l’operatore ha la possibilità di modificarle, eliminarle, variarne l’ordine, esportarle su altri dispositivi o importare tabelle precedentemente create. Il secondo metodo di utilizzo, definito “modalità utente”, permette al soggetto affetto da Disturbo Autistico di comunicare con altre persone sfruttando le tabelle create dall’operatore coerentemente con le sue necessità. Al tocco dell’immagine da parte del bambino, essa viene evidenziata tramite un contorno rosso e, se abilitato, il sintetizzatore vocale riproduce il testo associato a tale immagine. I principali fattori di innovazione dell’applicazione sono la gratuità, la semplicità di utilizzo, la rapidità nella creazione e nell’aggiornamento delle tabelle comunicative, la portabilità dello strumento e l’utilizzo della sintesi vocale. Il software sarà sperimentato presso il “Centro Autismo e Sindrome di Asperger”, centro di neuropsichiatria infantile specializzato nello studio del Disturbo Autistico. Tale sperimentazione si pone come obiettivo quello di verificare gli effettivi miglioramenti nella velocità e nella qualità di apprendimento delle fondamentali abilità comunicative.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Questo elaborato presenta un metodo per lo sviluppo di correlazioni lineari con lo scopo di determinare le proprietà meccaniche di un acciaio laminato e zincato utilizzando un sensore che percepisce la magnetizzazione residua del materiale. Vengono utilizzati metodi statistici di analisi della varianza per lo studio delle funzioni di regressione lineari. Lo studio effettuato è stato sviluppato per la lavorazione di zincatura di coils presso Marcegaglia spa, stabilimento di Ravenna. È risultato evidente che la sola misurazione della magnetizzazione residua non fosse sufficiente per la determinazione delle proprietà meccaniche, a tale proposito sono stati sviluppati dei modelli di calcolo con funzioni multivariabili e, attraverso risolutori che minimizzano la differenza quadratica dell'errore, si sono determinati i coefficienti di regressione. Una delle principali problematiche riscontrate per la definizione delle correlazioni è stato il reperimento dei dati necessari per considerare affidabili i risultati ottenuti. Si sono infatti analizzate solamente le famiglie di materiale più numerose. Sono stati sviluppati tre modelli di calcolo differenti per parametri di processo di produzione utilizzati per la definizione delle correlazioni. Sono stati confrontati gli errori percentuali medi commessi dalle funzioni, gli indici di regressione che indicano la qualità della correlazione e i valori di significatività di ogni singolo coefficiente di regressione delle variabili. Si è dimostrato che la magnetizzazione residua influisce notevolmente, così come i parametri dei processo di ricottura del materiale, come le temperature in forno, lo spessore e le velocità. Questo modello di calcolo è stato utilizzato direttamente in linea per lo sviluppo di un ciclo ottimale per la produzione di un nuovo materiale bifasico. Utilizzando il modello per la predizione delle proprietà meccaniche si è concluso che per limiti impiantistici la chimica del materiale utilizzata non fosse idonea. Si è perciò utilizzato un acciaio con percentuali di carbonio, manganese e cromo differenti. In conclusione del progetto si sono formulate delle possibili alternative di funzioni di regressione che utilizzano il valore della durezza piuttosto che il valore di magnetizzazione residua. Si è appurato che l'utilizzo di un durometro, anziché il sensore studiato, potrebbe risultare una valida alternativa al sensore studiato.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’Italia è il secondo Paese più longevo al mondo (preceduto dal Giappone), con un’aspettativa di vita di circa 81,5 anni. L’attuale percentuale degli over 65 è di circa il 20% ma si prevede che nel 2050 tale percentuale possa raggiungere il 34%. Dal punto di vista economico è necessario trovare soluzioni che conducano ad una contenuta e ridotta spesa sanitaria sul bilancio statale, conservando la qualità e l’efficienza dei servizi ospedalieri. Dal punto di vista sociale l’obiettivo è quello di poter assistere l’anziano, non più completamente autosufficiente, nelle cure offrendo anche supporto psicologico e la sicurezza di non essere abbandonato a sé stesso. Il raggiungimento di tali obiettivi ha un’unica parola chiave: casa; cioè far in modo che l’anziano, ma in generale il paziente, possa ricevere cura ed assistenza nella propria casa, grazie alla combinazione sinergica del servizio di assistenza domiciliare e della Telemedicina.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il metodo agli elementi finiti è stato utilizzato per valutare la distribuzione dei carichi e delle deformazioni in numerose componenti del corpo umano. L'applicazione di questo metodo ha avuto particolare successo nelle articolazioni con geometria semplice e condizioni di carico ben definite, mentre ha avuto un impatto minore sulla conoscenza della biomeccanica delle articolazioni multi-osso come il polso. Lo scopo di questo lavoro è quello di valutare gli aspetti clinici e biomeccanici dell’articolazione distale radio-ulnare, attraverso l’utilizzo di metodi di modellazione e di analisi agli elementi finiti. Sono stati progettati due modelli 3D a partire da immagini CT, in formato DICOM. Le immagini appartenevano ad un paziente con articolazione sana e ad un paziente con articolazione patologica, in particolare si trattava di una dislocazione ulnare traumatica. Le componenti principali dei modelli presi in considerazione sono stati: radio, ulna, cartilagine, legamento interosso, palmare e distale. Per la realizzazione del radio e dell’ulna sono stati utilizzati i metodi di segmentazione “Thresholding” e “RegionGrowing” sulle immagini e grazie ad operatori morfologici, è stato possibile distinguere l’osso corticale dall’osso spongioso. Successivamente è stata creata la cartilagine presente tra le due ossa, attraverso operazioni di tipo booleano. Invece, i legamenti sono stati realizzati prendendo i punti-nodo del radio e dell’ulna e formando le superfici tra di essi. Per ciascuna di queste componenti, sono state assegnate le corrispondenti proprietà dei materiali. Per migliorare la qualità dei modelli, sono state necessarie operazioni di “Smoothing” e “Autoremesh”. In seguito, è stata eseguita un’analisi agli elementi finiti attraverso l’uso di vincoli e forze, così da simulare il comportamento delle articolazioni. In particolare, sono stati simulati lo stress e la deformazione. Infine, grazie ai risultati ottenuti dalle simulazioni, è stato possibile verificare l’eventuale rischio di frattura in differenti punti anatomici del radio e dell’ulna nell’articolazione sana e patologica.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il presente lavoro tratta la progettazione e caratterizzazione di una nuova "listening room" ad acustica controllata partendo dai requisiti dettati dalle norme tecniche ITU-R BS 1116-1 e EBU/UER Tech. doc. 3276. Ad oggi è presente un'ampia letteratura, che tratta approcci per valutazione acustica delle sale di ascolto. Essa inizialmente era volta a trovare proporzioni ideali tra le dimensioni della camera, poi la ricerca si è spostata sull'elaborazione di modelli previsionali. Purtroppo tali metodi spesso non riescono a garantire le prestazioni desiderate, mentre le prove sperimentali dettate dalle norme risultano essere di comprovata validità. L'ambiente oggetto di studio è stato progettato all'interno dello spazio dei laboratori CIRI. La tecnologia costruttiva è frutto di uno studio approfondito, in particolare la scelta di fibre di poliestere termolegate, per il rivestimento delle pareti interne, è stata valutata attraverso misure in camera riverberante secondo UNI-EN-ISO 354. Si è poi seguita una metodologia iterativa che coinvolgesse messa in opera, misurazioni in situ e valutazione tramite confronto con i parametri consigliati dalle normative tecniche sopra citate. In quest'ottica sono state effettuate acquisizioni di risposte all'impulso monoaurali e dei livelli di pressione sonora per verificare la qualità di isolamento e il comportamento alle basse frequenze. La validazione restituisce indicazioni positive per gli utilizzi dell'ambiente ipotizzati e risulta compatibile con le stringenti richieste delle norme tecniche.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nel presente studio è stato affrontato il problema di effettuare l’acquisizione di impronte digitali mediante la fotocamera di uno Smartphone. Si tratta di un’applicazione potenzialmente molto interessante in quanto l’utilizzo di uno Smartphone renderebbe molto più semplice l’acquisizione delle impronte, non essendo necessari dispositivi specifici come, ad esempio, scanner d’impronte digitali. D’altra parte, l’utilizzo di una fotocamera per l’acquisizione delle impronte introduce diverse problematiche, fra cui individuare l’area del dito corrispondente all'impronta, valutare la qualità di un'immagine e determinare quali minuzie estratte corrispondano effettivamente a quelle di interesse. Questo studio conferma la fattibilità di un sistema del genere che risulta essere in grado di fornire buone prestazioni di riconoscimento biometrico.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La natura distribuita del Cloud Computing, che comporta un'elevata condivisione delle risorse e una moltitudine di accessi ai sistemi informatici, permette agli intrusi di sfruttare questa tecnologia a scopi malevoli. Per contrastare le intrusioni e gli attacchi ai dati sensibili degli utenti, vengono implementati sistemi di rilevamento delle intrusioni e metodi di difesa in ambiente virtualizzato, allo scopo di garantire una sicurezza globale fondata sia sul concetto di prevenzione, sia su quello di cura: un efficace sistema di sicurezza deve infatti rilevare eventuali intrusioni e pericoli imminenti, fornendo una prima fase difensiva a priori, e, al contempo, evitare fallimenti totali, pur avendo subito danni, e mantenere alta la qualità del servizio, garantendo una seconda fase difensiva, a posteriori. Questa tesi illustra i molteplici metodi di funzionamento degli attacchi distribuiti e dell'hacking malevolo, con particolare riferimento ai pericoli di ultima generazione, e definisce le principali strategie e tecniche atte a garantire sicurezza, protezione e integrità dei dati all'interno di un sistema Cloud.