368 resultados para Crittografia Computazionale Generatori Pseudocasuali Dimostrazione Automatica CryptoVerif
Resumo:
Gli eventi degli ultimi due decenni hanno mostrato come la Sardegna, in particolare il suo settore est, sia soggetta a frequenti eventi di precipitazione intensa che comportano perdita di vite umane e ingenti danni. Le alluvioni avvenute a Olbia nel 2013 o la più recente avvenuta a Bitti nel 2020 sono la dimostrazione dell’impatto che questi eventi possono avere sul territorio. Dal punto di vista della pratica previsionale di questi fenomeni intensi, è in uso presso ARPAS una classificazione dei cicloni avvenuti nel periodo compreso tra il 1957 e il 1999, che presentano configurazioni bariche simili e raggruppati in gruppi o “cluster”. Lo scopo di questo lavoro di tesi è estendere questa classificazione per il periodo 1951-1957 e 2000-2009, sulla base della configurazione sinottica in quota e al suolo in cui si sviluppano i cicloni appartenenti ai vari cluster. Tramite questa nuova classificazione, e utilizzando la temperatura superficiale media del mare, verrà analizzata la loro stagionalità e la loro durata temporale. Infine, sarà ricostruita la precipitazione legata ai diversi cluster suddividendo la precipitazione per i settori est e ovest dell’isola, per valutarne distribuzione e variabilità spaziale. I risultati mostrano come vi siano differenze tra i cicloni associati a ciascun cluster in base alle diverse configurazioni sinottiche. Un fattore importante è dato anche dalla stagione in cui i cicloni si verificano: emerge una frequenza maggiore nei mesi autunnali in cui le temperature medie mensili e l’anomalia di temperatura media risulta più alta. La distribuzione spaziale delle precipitazioni associate ai cluster conferma che le precipitazioni più intense e omogene interessano il settore est dell’isola. Poiché lo studio è basato interamente su una classificazione di tipo operativo in uso ad ARPAS, i suoi sviluppi riguardano soprattutto un maggior supporto e conoscenza previsionale degli eventi estremi sulla Sardegna.
Resumo:
L’influenza e lo sviluppo delle nuove tecnologie hanno generato svariati cambiamenti in tutti i settori della società e, di conseguenza, anche la traduzione è stata inevitabilmente coinvolta. Internet permette l'interazione quotidiana di lingue e culture distanti centinaia di chilometri, rendendo necessaria la mediazione linguistica e culturale e dando vita a un nuovo ramo della traduzione: la localizzazione. L’elaborato presenta il progetto di localizzazione del sito web Tryber, dell’azienda informatica italiana Unguess. Nell’ottica dell’internazionalizzazione, l’azienda ha richiesto che la propria piattaforma web di crowdtesting venisse sottoposta a un processo di localizzazione dall’italiano verso lo spagnolo. Il progetto di tesi è suddiviso in due sezioni principali, ciascuna composta da due capitoli: la prima parte fornisce un quadro teorico, mentre la seconda presenta il lavoro pratico. Il primo capitolo fornisce una panoramica teorica sulla localizzazione e ne presenta le peculiarità, prestando particolare attenzione alla traduzione per il web. Il secondo capitolo si concentra sulla presentazione dell’azienda Unguess per cui è stato svolto il lavoro e sulla sua comunità di crowdtesting, Tryber. Il terzo capitolo illustra la metodologia di lavoro e gli strumenti di traduzione assistita e automatica utilizzati. Il quarto e ultimo capitolo è dedicato all'analisi testuale e al commento traduttologico delle sezioni localizzate, che mira a illustrare le problematiche riscontrate e a spiegare le ragioni delle principali scelte traduttive.
Resumo:
Il presente elaborato analizza le rese del sistema di interpretazione automatica WT2 Plus di Timekettle in un reale contesto didattico. Nello specifico, sono state condotte tre sperimentazioni presso l’Accademia Europea di Manga utilizzando due modalità di interpretazione supportate dal dispositivo. L’obiettivo è valutare la qualità di un sistema di interpretazione automatica in un contesto reale, dato che allo stato attuale mancano studi che valutino la performance di questi dispositivi nei reali contesti per i quali sono stati sviluppati. Il primo capitolo ripercorre la storia dell’interpretazione automatica, cui fa seguito la spiegazione della tecnologia alla base dei sistemi disponibili sul mercato, di cui poi si presenta lo stato dell’arte. Successivamente si delinea in breve il prossimo passaggio evolutivo nell’interpretazione automatica e si analizzano tre casi studio simili a quello proposto. Il capitolo si conclude con l’approccio scelto per valutare la performance del dispositivo. Il secondo capitolo, dedicato alla metodologia, si apre con una panoramica su WT2 Plus e sull’azienda produttrice per poi descrivere il metodo usato nelle sperimentazioni. Nello specifico, le sperimentazioni sono state condotte durante alcune delle attività previste nel normale svolgimento delle lezioni presso l’Accademia Europea di Manga con il coinvolgimento di uno studente anglofono e di due membri del personale accademico. I dati raccolti sono analizzati e discussi rispettivamente nei capitoli 3 e 4. I risultati ottenuti sembrano suggerire che il dispositivo non sia, allo stato attuale, compatibile con un reale contesto didattico, per via del quasi mancato funzionamento di una delle modalità prescelte, per il servizio di interpretazione, che risulta ancora troppo letterale, la monotonia dell’intonazione della voce automatica e infine per la traduzione quasi completamente errata della terminologia tecnica.
Resumo:
La segmentazione prevede la partizione di un'immagine in aree strutturalmente o semanticamente coerenti. Nell'imaging medico, è utilizzata per identificare, contornandole, Regioni di Interesse (ROI) clinico, quali lesioni tumorali, oggetto di approfondimento tramite analisi semiautomatiche e automatiche, o bersaglio di trattamenti localizzati. La segmentazione di lesioni tumorali, assistita o automatica, consiste nell’individuazione di pixel o voxel, in immagini o volumi, appartenenti al tumore. La tecnica assistita prevede che il medico disegni la ROI, mentre quella automatica è svolta da software addestrati, tra cui i sistemi Computer Aided Detection (CAD). Mediante tecniche di visione artificiale, dalle ROI si estraggono caratteristiche numeriche, feature, con valore diagnostico, predittivo, o prognostico. L’obiettivo di questa Tesi è progettare e sviluppare un software di segmentazione assistita che permetta al medico di disegnare in modo semplice ed efficace una o più ROI in maniera organizzata e strutturata per futura elaborazione ed analisi, nonché visualizzazione. Partendo da Aliza, applicativo open-source, visualizzatore di esami radiologici in formato DICOM, è stata estesa l’interfaccia grafica per gestire disegno, organizzazione e memorizzazione automatica delle ROI. Inoltre, è stata implementata una procedura automatica di elaborazione ed analisi di ROI disegnate su lesioni tumorali prostatiche, per predire, di ognuna, la probabilità di cancro clinicamente non-significativo e significativo (con prognosi peggiore). Per tale scopo, è stato addestrato un classificatore lineare basato su Support Vector Machine, su una popolazione di 89 pazienti con 117 lesioni (56 clinicamente significative), ottenendo, in test, accuratezza = 77%, sensibilità = 86% e specificità = 69%. Il sistema sviluppato assiste il radiologo, fornendo una seconda opinione, non vincolante, adiuvante nella definizione del quadro clinico e della prognosi, nonché delle scelte terapeutiche.
Resumo:
Si presenta lo sviluppo di una nuova applicazione web, chiamata tonicarD, che fornisce gli strumenti per fare annotazione dei documenti che costituiscono il catalogo storico della Biblioteca Universitaria di Bologna. Si tratta di schede scritte a mano dal dott. Andrea Caronti nella seconda metà dell'Ottocento, che si ha interesse a digitalizzare. A questo scopo, si è progettato il sistema tonicarD, che permette di eseguire la segmentazione e la trascrizione delle scansioni di tali documenti e genera le immagini che verrano usate per popolare un dataset su cui allenare un modello di riconoscimento automatico del testo. L'applicazione implementa anche lo sviluppo di un algoritmo di segmentazione automatica, oltre che un'approssimativa trascrizione della scheda, con l'obiettivo di agevolare l'utente nell'esecuzione dell'annotazione. Il lavoro include anche test per misurare la qualità della segmentazione automatica e test di usabilità dell'interfaccia, in cui si mettono a confronto l'esperienza degli utenti su tonicarD e Transkribus.
Resumo:
In questa tesi si introdurranno i concetti fondamentali della crittografia, per poi concentrarci sui cifrari di flusso. Dopo aver definito le basi teoriche necessarie, si andrà a vedere il progetto eSTREAM e in particolare si analizzerà i suoi principali cifrari di flusso.
Resumo:
Nel presente elaborato sono state analizzate delle soluzioni per i sistemi di post-trattamento che permettano ai veicoli di rispettare la futura norma Euro7. In particolare è stato affrontato il principale problema dell'avviamento a freddo dei veicoli che produce la maggior parte degli inquinanti emessi. Sono stati vagliati diversi studi scientifici al fine di trovare soluzioni efficaci per rendere le emissioni dei veicoli sotto i limiti imposti dalla futura normativa, i cui valori sono stati proposti dal consorzio CLOVE. Dopo aver analizzato uno studio sul confronto di varie configurazioni di sistemi di post-trattamento, sono state prese in considerazione due soluzioni. La prima prevede l'introduzione di un bruciatore nel sistema al fine di mantenerlo alla temperatura ottimale di funzionamento, ovvero alla temperatura a cui avvengono le reazioni di ossidazione e di riduzione delle sostanze inquinanti. La seconda soluzione prevede, invece, l'aggiunta nel sistema di un riscaldatore elettrico accoppiato ad un generatore termoelettrico: il primo ha lo stesso scopo del bruciatore, mentre il secondo serve per convertire il calore di scarto dei gas di scarico in energia elettrica da fornire al riscaldatore. Infine, dopo aver analizzato le due soluzioni attraverso i test riportati dagli articoli scientifici studiati, si è concluso che entrambe le strategie permettono un'efficace riduzione delle emissioni anche per avviamento a freddo del veicolo e, quindi, possono essere considerate valide per permettere ai veicoli di rientrare all'interno dei limiti imposti dalla nuova normativa Euro7.
Resumo:
In questo lavoro di tesi si analizzerà un metodo per risolvere il problema del PageRank alternativo rispetto al tradizionale metodo delle potenze. Verso la fine degli anni '90, con l’avvento del World Wide Web, fu necessario sviluppare degli algoritmi di classificazione in grado di ordinare i siti web in base alla loro rilevanza. Davanti a questa sfida i due matematici A.N.Langville e C.D.Meyer svilupparono il metodo SIAD, "special iterative aggregation/disaggregation method". Lo scopo di questa tesi è in primo luogo di ricostruire il metodo SIAD e analizzarne le proprietà. Seguendo le analisi in un articolo di I.C.Ipsen e S.Kirkland, si ricostruirà nel dettaglio il metodo SIAD, così da esplicitare la convergenza asintotica del metodo in relazione al complemento stocastico scelto. In secondo luogo si analizzerà il metodo SIAD applicato ad una matrice di Google che rispetta ipotesi determinate, le matrici di Google sono solitamente utilizzate per rappresentare il problema del PageRank. Successivamente, si dimostrerà un importante teorema che prova come per ogni matrice di Google si possa individuare un complemento stocastico per cui il metodo SIAD converge più velocemente del metodo delle potenze. Infine, nell’ultimo capitolo si implementerà con il inguaggio di programmazione Matlab il metodo SIAD per una matrice generica e per una matrice di Google. In particolare, si sfrutterà la struttura della matrice di Google per ridurre sensibilmente il costo computazionale del metodo quando applicato applicato ad una tale matrice.