927 resultados para firma digitale crittografia asimmetrica gestione delle chiavi Philip Zimmermann
Resumo:
Attualmente il panorama informatico è dominato dai dispositivi mobile: smartphone e tablet pc dominano incontrastati la scena del mercato elettronico. Questo comporta un radicale ripensamento e cambiamento del software, le web app e le mobile application richiedono infatti una sempre maggiore reattività dell’interfaccia utente, la persistente connessione a Internet e l’interazione con una moltitudine di dispositivi esterni. Il progettista di software deve oggi far fronte a tutta una serie di problematiche, l’aumentata complessità dei sistemi e i sempre più ristretti tempi di sviluppo e consegna richiedono compromessi tra la semplicità delle tecniche di progettazione e l’efficienza del prodotto ottenuto. Le architetture ad eventi in primis, unitamente al paradigma di programmazione asincrona, si pongono come soluzione ottimale a queste esigenze. L’obbiettivo principale di questa tesi è quello di offrire una panoramica generale sullo stato dell’arte delle architetture ad eventi focalizzandosi sul ruolo che esse assumono nel contesto delle applicazioni moderne, intendendo principalmente con questo termine le web application e le mobile application. Partendo dal concetto di programmazione sincrona e parallela si giunge a descrivere un terzo modello, il modello asincrono, di fondamentale importanza per i sistemi event-driven. Utilizzando come principale linguaggio di riferimento JavaScript si affrontano le problematiche legate alla stesura del codice per la gestione degli eventi, l’asincronicità intrinseca degli eventi e l’utilizzo di funzioni di callback portano a produrre codice di difficile lettura e manutenzione. Si analizzano quindi in dettaglio i pattern fondamentali e le tecniche attualmente utilizzate per l’ottimizzazione della gestione del codice e delle problematiche esposte fornendo numerosi esempi esplicativi.
Resumo:
Analisi del sistema di gestione dell'azienda Mase Generators S.p.A. In particolare dopo aver introdotto l'importanza di un accurato flusso delle informazioni, si sono raccolti alcuni dati relativi alla produzione dell'impresa studiata per poter fare alcune considerazioni su valore di magazzino, livello di servizio ed ore di produzione caricate sulla commessa, al fine di individuare i punti di forza e le criticità del metodo adottato. Non esiste infatti un sistema di gestione che sappia rispondere a tutte le necesseità, ma una volta determinate le strategie esse devono essere ottimizzate e coerenti con gli obiettivi dell'azienda.
Resumo:
La ricerca ha preso in esame l’analisi archeologica di un territorio medievale e la sperimentazione di strumenti informatici per la gestione e l’analisi dei dati prodotti dalla ricerca stessa. Il Montalbano, oggetto della ricerca, è una microregione caratterizzata da elementi che la rendono molto interessante. Si tratta di una catena submontana che divide la piana di Firenze-Prato-Pistoia dal Valdarno inferiore. Questa posizione di frontiera ne ha fatto l’oggetto di mire espansionistiche da parte delle principali famiglie signorili prima, dei comuni poi. In una prima fase sono stati censiti i siti attestati dalle fonti documentarie e materiali per capire le dinamiche insediative del popolamento medievale e le strategie di controllo di un territorio caratterizzato dall’assenza di un’egemonia da parte di un solo potere (almeno fino a metà ‘300). L’analisi stratigrafica si è poi concentrata sulle strutture architettoniche religiose, in quanto offrono la maggior quantità di dati dal punto di vista documentario e archeologico. È stato così possibile ottenere un quadro delle tecniche costruttive medievali e delle influenze culturali che lo hanno prodotto. I dati archeologici sono stati gestiti attraverso una piattaforma gis sviluppata all’interno del Laboratorio di Archeologia Medievale dell’Università di Firenze in collaborazione con il laboratorio LSIS del CNRS di Marsiglia. Questa è stata appositamente strutturata secondo le procedure di raccolta e organizzazione dati utilizzate durante l’analisi archeologica. Le singole strutture indagate sono inoltre state oggetto di un rilievo 3d fotogrammetrico che in alcuni casi studio è stato anche utilizzato come base di accesso ai dati derivanti dall’analisi stratigrafica, all’interno di un’applicazione gis 3d (Arpenteur). Questo ha permesso di connettere all’interno di un’unica piattaforma i dati geometrici ed archeometrici con quelli archeologici, utilizzando i primi come interfaccia di accesso ai secondi.
Resumo:
Negli ultimi anni la tecnica di misura della correlazione digitale di immagini (“Digital Image Correlation” = DIC) sta trovando numerose applicazioni nell’ambito della meccanica sperimentale come valida alternativa per misure di campi di deformazione su componenti strutturali soggetti a carichi statici e dinamici. Misurare deformazioni in provini troppo piccoli, troppo grandi, teneri o caldi, è un tipico scenario in cui diventano necessarie le tecniche senza contatto in quanto l’applicazione di estensimetri risulta inefficiente. L’obiettivo di questo lavoro consta nel valutare l’applicabilità e l’accuratezza di programmi di elaborazione gratuiti per la correlazione digitale di immagini evidenziandone il metodo di utilizzo e l’autenticità dei risultati verificati attraverso prove in laboratorio. Tali programmi, per praticità e gratuità, nel campo bidimensionale, possono considerarsi una valida alternativa a programmi commerciali di elevato costo. Nonostante ciò, presentano alcune criticità e limitazioni che emergeranno dalle attente sperimentazioni effettuate. Verrà così definita la corretta e necessaria preparazione del set up sperimentale antecedente la prova e il campo di applicabilità a cui si prestano tali programmi per un preciso ed autentico rilevamento delle deformazioni subite da un corpo sottoposto a sollecitazioni, al pari di un comune estensimetro.
Resumo:
Obiettivo della presente tesi è l’ipotesi di applicazione dell’approccio PLLM (Plant Lifecycle Management) in un contesto sanitario sfruttando moderni metodi di organizzazione e coordinamento delle fasi del ciclo di vita di un impianto e nuove tecnologie per la realizzazione di un database informatizzato per la gestione dei dati e delle informazioni all’interno di una struttura sanitaria, nel caso specifico del Blocco Operatorio ‘Vittorio Trancanelli’ dell’Azienda Ospedaliera di Perugia. Per raggiungere tale obiettivo ho prima di tutto analizzato il contesto aziendale, studiate le realtà esistenti, per poi affrontare in dettaglio le variabili del problema. I dati ottenuti in seguito all’attività di ricerca sono stati utilizzati per conoscere e avere una dimensione della mole di informazioni e beni che vengono annualmente smistati e gestiti quotidianamente all’interno della struttura ospedaliera per andare ad analizzare più nello specifico la strutturazione e la complessità di un impianto complesso quale il Blocco Operatorio “Vittorio Trancanelli”. In ultima istanza sono state redatte delle metodologie per la corretta implementazione della piattaforma gestionale in ottica PLLM al fine di garantire una snella e tempestiva fruizione della documentazione utile alla corretta gestione del ciclo di vita di un impianto complesso.
Resumo:
Apprendere nelle organizzazioni, analisi della letteratura afferente con particolare attenzione al modello della "learning organization". Applicazioni e casi pratici per un raffronto con gli aspetti teorici precedentemente approfonditi e per l'individuazione dei trend attuali della gestione della conoscenza e dei processi di apprendimento all'interno delle organizzazioni con particolare attenzione al mondo del business internazionale.
Resumo:
La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.
Resumo:
Il presente studio si è proposto di fornire un contributo per la definizione dello stato ecologico delle zone umide d’acqua dolce ravennati (Punte Alberete, Valle Mandriole e uno stagno temporaneo creatosi nella limitrofa Pineta di San Vitale), attraverso lo studio della fauna macrobentonica presente nei sedimenti e nella vegetazione emergente. Sono stati prelevati campioni d’acqua con lo scopo di analizzare alcuni parametri chimico fisici, per relazionarli con i dati ecologici sulle comunità oggetto di studio. Inoltre è stato valutato il potenziale effetto sulle comunità macrozoobentoniche della attuale gestione di Valle Mandriole, che prevede il prosciugamento estivo della zona meridionale al fine di consentire operazioni di sflacio della vegetazione. Per valutare questo tipo di impatto è stato applicato un disegno di campionamento di tipo Beyond-BACI. Sono stati definiti quattro siti di controllo ed un sito potenzialmente impattato. Sono stati definiti due punti di campionamento su ciascun sito e sono stati campionati in totale quattro volte ciascuno, due volte prima del periodo estivo, corrispondente alla messa in secca del sito impattato, e due volte in autunno. I dati raccolti sul benthos e sulle acque sono poi stati analizzati attraverso l’analisi statistica multivariata PERMANOVA. I risultati dei test statistici non hanno rilevato nessun tipo di impatto associabile alla pratica di gestione attuata a Valle Mandriole, mentre l’analisi delle comunità macrozoobentoniche ha evidenziato, attraverso confronti temporali con dati storici e con altri studi, una situazione di degrado dal punto di vista delle stato ecologico di Punte Alberete e Valle Mandriole, molto probabilmente associabile all’abbondante presenza del gambero della Louisiana. La condizione di stato ecologico non soddisfacente può oltretutto essere imputabile anche alla qualità ecologica scarsa dei corsi d’acqua deputati al ricarico delle zone umide considerate. Lo studio ha inoltre sottolineato l’importanza dal punto di vista conservazionistico dello stagno in Pineta San Vitale.
Resumo:
Il periodo economico attuale è caratterizzato da una crisi che affligge numerose imprese non solo a livello nazionale, ma anche a livello mondiale. Tra le innumerevoli ragioni che hanno portato allo sviluppo di questa situazione troviamo quelle legate al contesto generale e competitivo, e quelle strategiche ed organizzative legate all’errata gestione aziendale. Le aziende devono sapersi rinnovare rimanendo concorrenziali e di alta qualità. È proprio in situazioni come queste che occorre saper considerare tutte le variabili in gioco prima di affrontare nuovi investimenti e, addirittura, i rifornimenti di materiale. La Nuova Bassani s.r.l. è sempre stata un’azienda dinamica e, nei suoi trent’anni di storia, ha saputo interpretare al meglio le esigenze del mercato mantenendosi sana ed affidabile. Adesso è orientata verso il revamping di uno dei suoi magazzini automatici per ovviare i tempi morti tra un’operazione e l’altra, e per velocizzare la preparazione degli ordini, per i clienti che ritirano personalmente il materiale richiesto. Oggi più che mai c’è la necessità non solo di soddisfare le richieste sempre più esigenti, ma anche quella di non tenere a magazzino del materiale che potrebbe risultare invenduto per anni perché “passato di moda”. La Nuova Bassani s.r.l. commercia acciaio ed è facilmente comprensibile quanto sia facile che qualche misura o materiale non venga più richiesto dal mercato perché sostituito da nuove tipologie, magari a lavorabilità migliorata. La tesi di seguito sviluppata ha quindi come scopo quello di: • Analizzare lo storico del venduto per approfondire la conoscenza dei materiali trattati e riscontrare quali sono le punte di diamante su cui puntare maggiormente; • Effettuare un’analisi tecnica per accertare quali materiali tenere in magazzino e in quale quantità, basandosi sui layout delle strutture esistenti; • Studiare il funzionamento del magazzino automatico obsoleto ed eventuali difetti tecnici per determinare soluzioni che lo possano migliorare; • Valutare l’investimento del revamping del magazzino per ragguagliare l’azienda sui tempi di recupero di tale investimento. La tesi sarà divisa in due parti fondamentali che riguardano una l’ottimizzazione delle strutture esistenti, l’altra l’aggiornamento di una delle strutture più importanti.
Resumo:
La presente tesi si inserisce nel contesto del progetto europeo Theseus, che ha l’obiettivo di pianificare strategie di difesa sostenibili nei confronti dell’erosione costiera e del rischio di inondazioni. E’ stata indagata la zona intertidale di sei spiagge della costa emiliano-romagnola, diverse per caratteristiche morfodinamiche, grado di antropizzazione e modalità di gestione contro l’erosione. Lido di Spina, Bellocchio e lido di Dante sono siti più naturali, Cervia, Cesenatico e Cesenatico sud sono antropizzati per la presenza di strutture di difesa costiera o attività di bulldozing. Lo scopo principale è stato quello di valutare la risposta della componente macrobentonica a variazioni morfodinamiche conseguenti alla differente gestione. I principali risultati possono essere così riassunti. Bellocchio, sito naturale, si è rivelato il più differente per tipologia di sedimento, fine e argilloso, e comunità presenti, con specie non tipiche delle spiagge sabbiose, quali Polydora e Mytilus galloprovincialis. Lido di Dante, anch’esso naturale, si pone all’opposto, con un sedimento più grossolano e caratterizzato sia dalla dominanza di Lentidium mediterraneum, la cui presenza evidenzia il maggiore grado di idrodinamismo del sito, sia dalle specie Scolelepis squamata ed Eurydice spinigera, tipiche delle spiagge sabbiose esposte al moto ondoso. Cervia, Cesenatico e Cesenatico sud presentano un numero di specie e di individui minore rispetto agli altri siti, come probabile conseguenza della gestione antropica, e comunità che rispecchiano le variazioni idrodinamiche dovute alla presenza di barriere. In generale, le differenze individuate sia fra le comunità che fra i descrittori sedimentari e morfodinamici, sembrano dovute alle caratteristiche peculiari dei siti e dal grado di antropizzazione piuttosto che dalla presenza di un vero e proprio gradiente morfodinamico o geografico. Questi risultati portano un contributo sostanziale alla problematica generale dell’impatto conseguente ai cambiamenti climatici e alla messa in opera di programmi di gestione sostenibili da un punto di vista anche ambientale.
Resumo:
Il mercato, in questi ultimi dieci anni, si è modificato in un qualcosa di più globale e competitivo. Questa trasformazione ha imposto alle imprese l’adozione di strategie orientate all’innovazione di prodotto e di processo, e all’efficienza industriale “Environmentally friendly” di lungo periodo. Le aziende, infatti, per competere sia nel territorio nazionale sia in quello internazionale, sono alla costante ricerca di una continua ottimizzazione, attraverso il processo “deming” del miglioramento continuo, delle proprie prestazioni; spesso però capita che massimizzino esclusivamente la performance produttiva, che è stata migliorata con l’introduzione, oramai da circa 35 anni, della Lean production e oggi quindi presenta limitati margini di miglioramento. È alla luce di questo ragionamento che le aziende, quelle più lungimiranti, stanno cercando di dirigersi verso un’altra direzione, ovvero quella che mira a ridurre gli sprechi e le perdite, di risorse naturali, nei processi produttivi, in accordo coi principi della sostenibilità ambientale. Considerando le quantità di risorse naturali messe in gioco in grandi aziende quali la VM Motori S.p.A. possiamo intuire quanta marginalità di miglioramento potremmo ottenere con l’attuazione di processi di miglioramento focalizzati sui singoli aspetti. I primi due capitoli trattano il tema dello sviluppo sostenibile e del S.G.A. in Italia e all’estero. Nel capitolo 3 introduco l’Azienda, descrivo tutte le fasi di processo per la fabbricazione di varie tipologie di motori rigorosamente diesel, l’impianto elettrico, termico e di aria compressa. Nel capitolo 4 faccio l’analisi di tutti gli aspetti e gli impatti ambientali; inoltre, per ogni fattore d’impatto ambientale, verrà compilata la cosiddetta VIA che sarà riassunta nell’ultimo paragrafo. Nel capitolo 5 affronto il concetto del miglioramento continuo applicando la filosofia del World Class Manufacturing che è stato implementato in Azienda.
Resumo:
Il presente lavoro di tesi si inserisce nel contesto dei sistemi ITS e intende realizzare un insieme di protocolli in ambito VANET relativamente semplici ma efficaci, in grado di rilevare la presenza di veicoli in avvicinamento a un impianto semaforico e di raccogliere quelle informazioni di stato che consentano all’infrastruttura stradale di ottenere una stima il più possibile veritiera delle attuali condizioni del traffico in ingresso per ciascuna delle direzioni previste in tale punto. Si prevede di raccogliere i veicoli in gruppi durante il loro avvicinamento al centro di un incrocio. Ogni gruppo sarà costituito esclusivamente da quelle vetture che stanno percorrendo uno stesso tratto stradale e promuoverà l’intercomunicazione tra i suoi diversi membri al fine di raccogliere e integrare i dati sulla composizione del traffico locale. Il sistema realizzato cercherà di trasmettere alle singole unità semaforiche un flusso di dati sintetico ma costante contenente le statistiche sull’ambiente circostante, in modo da consentire loro di applicare politiche dinamiche e intelligenti di controllo della viabilità. L’architettura realizzata viene eseguita all’interno di un ambiente urbano simulato nel quale la mobilità dei nodi di rete corrisponde a rilevazioni reali effettuate su alcune porzioni della città di Bologna. Le performance e le caratteristiche del sistema complessivo vengono analizzate e commentate sulla base dei diversi test condotti.
Resumo:
La pratica del remix è al giorno d’oggi sempre più diffusa e un numero sempre più vasto di persone ha ora le competenze e gli strumenti tecnologici adeguati per eseguire operazioni un tempo riservate a nicchie ristrette. Tuttavia, nella sua forma audiovisiva, il remix ha ottenuto scarsa attenzione a livello accademico. Questo lavoro esplora la pratica del remix intesa al contempo come declinazione contemporanea di una pratica di lungo corso all’interno della storia della produzione audiovisiva – ovvero il riuso di immagini – sia come forma caratteristica della contemporaneità mediale, atto di appropriazione grassroots dei contenuti mainstream da parte degli utenti. La tesi si articola in due sezioni. Nella prima, l’analisi di tipo teorico e storico-critico è suddivisa in due macro-aree di intervento: da una parte il remix inteso come pratica, atto di appropriazione, gesto di riciclo, decontestualizzazione e risemantizzazione delle immagini mediali che ha attraversato la storia dei media audiovisivi [primo capitolo]. Dall’altra, la remix culture, ovvero il contesto culturale e sociale che informa l’ambiente mediale entro il quale la pratica del remix ha conosciuto, nell’ultimo decennio, la diffusione capillare che lo caratterizza oggi [secondo capitolo]. La seconda, che corrisponde al terzo capitolo, fornisce una dettagliata panoramica su un caso di studio, la pratica del fan vidding. Forma di remix praticata quasi esclusivamente da donne, il vidding consiste nel creare fan video a partire da un montaggio d’immagini tratte da film o serie televisive che utilizza come accompagnamento musicale una canzone. Le vidders, usando specifiche tecniche di montaggio, realizzano delle letture critiche dei prodotti mediali di cui si appropriano, per commentare, criticare o celebrare gli oggetti di loro interesse. Attraverso il vidding il presente lavoro indaga le tattiche di rielaborazione e riscrittura dell’immaginario mediale attraverso il riuso di immagini, con particolare attenzione al remix inteso come pratica di genere.
Resumo:
Lo studio delle malattie che colpiscono i coralli rappresenta un campo di ricerca nuovo e poche sono le ricerche concentrate nell’Oceano Indo-Pacifico, in particolare nella Repubblica delle Maldive. Lo scopo di questa ricerca è stato approfondire le conoscenze riguardo distribuzione, prevalenza e host range della Skeleton Eroding Band (SEB) nell’atollo di Faafu. Durante il lavoro, svolto in campo tra il novembre e il dicembre 2013, sono state indagate le isole di: Magoodhoo, Filitheyo e Adangau al fine di rilevare differenze nei livelli di prevalenza della SEB in relazione ai diversi gradi di utilizzo da parte dell’uomo delle 3 isole. Il piano di campionamento ha previsto la scelta casuale, in ciascuna delle isole, di 4 siti in cui sono stati realizzati 3 belt transect e 3 point intercept transect a 2 profondità predefinite. La SEB è stata ritrovata con una prevalenza media totale di 0,27%. Dai risultati dell’analisi statistica le differenze fra le isole non sono apparse significative, facendo ipotizzare che i livelli di prevalenza differiscano a causa di oscillazioni casuali di carattere naturale e che quindi non siano dovute a dinamiche legate al diverso sfruttamento da parte dell’uomo. I generi Acropora e Pocillopora sono risultati quelli maggiormente colpiti con valori di prevalenza totale di 0,46% e 1,33%. Infine è stata rilevata una correlazione positiva tra il numero di colonie di madrepore affette dalla SEB e il numero di colonie in cui la malattia è associata alla presenza di lesioni provocate da danni meccanici. I dati di prevalenza ottenuti e le previsioni di cambiamenti climatici in grado di aumentare distribuzione, host range, abbondanza della patologia, pongono l’accento sulla necessità di chiarire il ruolo delle malattie dei coralli nel deterioramento, resilienza e recupero dei coral reefs, al fine di attuare politiche di gestione adatte alla protezione di questi fragili ecosistemi.
Resumo:
La disintegrazione dei nuclei atomici si traduce in una emissione di vari tipi di radiazioni e particelle tra cui neutroni e raggi gamma. La rivelazione dei neutroni comporta l’utilizzo di rivelatori a scintillazione e tecniche di analisi per poter identificare e ottenere informazioni sull’energia dei neutroni. Il processo di scintillazione per la rivelazione dei neutroni consiste nell’interazione con i nuclei del materiale e successiva emissione luminosa dovuta a ionizzazione degli atomi del rivelatore. La luce e in seguito convertita in impulsi elettrici, i quali possono essere analizzati con opportune tecniche. L’emissione di neutroni `e accompagnata da emissione di raggi gamma e quindi `e necessario identificare i neutroni. Rivelatori basati su scintillatori organici vengono spesso impiegati nella spettrometria neutronica ad energie superiori di 0.5 MeV ed in una vasta gamma di applicazioni come la medicina, l’industria e la radioprotezione. La rilevazione dei neutroni `e molto importante nello studio delle reazioni nucleari di bassa energia e nello studio della materia nucleare lontano dalla valle di stabilita. In questo lavoro abbiamo studiato tre algoritmi: Zero Crossing, Charge Comparison e Pulse Gradient Analysis. Questi algoritmi sono stati in seguito applicati all’analisi di un insieme di dati provenienti dalla reazione nucleare 7Li(p,n)7Be. E stato utilizzato uno scintillatore organico liquido BC501. Si `e effettuato un confronto tra le varie tecniche utilizzate per determinare il grado di discriminazione ottenuto con ognuna di esse. I risultati ottenuti permettono di decidere in seguito quale algoritmo si presta ad essere utilizzato anche in altri esperimenti futuri. Il metodo Pulse Gradient Analysis `e risultato il piu` prometente, essendo anche possibile l’utilizzo on-line.