504 resultados para Logaritmo discreto, crittografia.
Resumo:
Programa de doctorado: Cibernética y Telecomunicaciones.
Resumo:
VILLA “CAPELLO - MORA”: PROGETTO DI RESTAURO E RIFUNZIONALIZZAZIONE
Il restauro è da intendere come un intervento diretto sull’opera, e anche come sua eventuale modifica, condotta sempre sotto un rigoroso controllo tecnico-scientifico e storico-critico, se parliamo di conservazione, intendiamo l’operare in un intento di salvaguardia e di prevenzione, da attuare proprio per evitare che si debba poi intervenire con il restauro, che comprende un evento traumatico per il manufatto.
Un seconda parola chiave in questo discorso è la “materia” il restauro interviene sulla materia di un monumento e questa costituisce il tramite dei valori culturali antichi, la sua conservazione e il suo restauro garantisce la trasmissione anche dei significati estetici, storici simbolici del costruito. Ma certamente influisce il tempo sulle cose per cui il progetto di restauro non può astenersi dall’intervenire, in una logica di minimo intervento, di reversibilità, di facile lettura.
Il concetto di nuovo in un opera antica, concetto che a parere personale, pare centrare in pieno il problema. Il nuovo infatti “deve avere carattere di autonomia e di chiara leggibilità: come l’<
Resumo:
Il confronto in corso tra gli esperti di management sanitario sui dipartimenti ospedalieri, la crescente attenzione sui modelli di organizzazione a rete e le indagini sui servizi sanitari condotte con strumenti di analisi dei network hanno rappresentato la base su cui sviluppare il disegno dello studio. La prospettiva relazionale e le tecniche di social network analysis (Sna) sono state impiegate in un indagine empirica effettuata presso tre Dipartimenti Ospedalieri dell’Azienda USL di Bologna per osservare la struttura delle relazioni che intercorrono nell’ambito dei dipartimenti, tra le unità operative e tra i clinici, al fine di assicurare il quotidiano svolgersi dei processi clinico assistenziali dei pazienti. L’indagine si è posta tre obiettivi. Il primo è quello di confrontare la rete delle relazioni “reali” che intercorrono tra unità operative e tra clinici con le relazioni “progettate” attraverso l’afferenza delle unità operative nei dipartimenti e dei singoli clinici nelle unità operative. In sostanza si tratta di confrontare, con intenti esclusivamente conoscitivi, la struttura organizzativa formale – istituzionale con quella “informale”, che emerge dalle relazioni giornaliere tra i professionisti. In secondo luogo si intende comprendere se e come i fattori di natura attributiva che caratterizzano i singoli rispondenti, (es. età, sesso, laurea, anni di permanenza in azienda, ecc.) incidano sulla natura e sull’intensità delle relazioni e delle collaborazioni intrattenute con i colleghi all’interno dell’azienda. L’analisi ha un intento “esplicativo”, in quanto si cerca di indagare come le similitudini nelle caratteristiche individuali possano o meno incidere sull’intensità degli scambi e quindi delle collaborazioni tra professionisti. Il terzo obiettivo è volto a comprendere se e come i fattori attributivi e/o relazionali siamo in grado di spiegare l’attitudine mostrata dai singoli professionisti rispetto l’adozione di un approccio alla pratica clinica ispirato all’Evidence based medicine. Lo scopo è quello di verificare se la disponibilità / orientamento ad operare in una prospettiva evidence based sia più legata ad elementi e caratteristiche personali piuttosto che all’influenza esercitata da coloro con i quali si entra in contatto per motivi lavorativi. La relativa semplicità della fase di indagine ha indotto ad arricchire i contenuti e gli obiettivi originari del lavoro allo scopo di correlare indicatori relazionali e attributivi con indicatori di “performance”, in particolare di efficienza e appropriatezza. Le relazioni sono state rilevate attraverso un questionario sociometrico inserito in uno spazio web accessibile dalla rete ospedaliera e compilato online da parte dei medici. Il questionario è stato organizzato in tre sezioni: la prima per la raccolta di informazioni anagrafiche e dati attributivi dei clinici; la seconda volta a raccogliere i dati relazionali, funzionali e di consulenza, verso le equipe di professionisti (unità operative) e verso i singoli colleghi clinici; la terza sezione è dedicata alla raccolta di informazioni sull’utilizzo delle evidenze scientifiche a supporto della propria pratica clinica (consultazione di riviste, banche dati, rapporti di HTA, etc,) e sulla effettiva possibilità di accesso a tali strumenti. L’azienda ha fornito i dati di struttura e la base dati degli indicatori di attività delle UO arruolate nello studio. La compliance complessiva per i tre dipartimenti è stata pari a circa il 92% (302 rispondenti su un campione di 329 medici.). Non si sono rilevate differenze significative sulla compliance per i tre dipartimenti considerati. L’elaborazione dei dati è stata effettuata mediante specifici software per l’analisi delle reti sociali, UCINET 6 per il calcolo degli indicatori relazionali (centralità, densità, structural holes etc.), e Pajek per l’analisi grafica dei network. L’ultima fase è stata realizzata con l’ausilio del software statistico STATA vers. 10. L’analisi dei risultati è distinta in due 2 fasi principali. In primis è stato descritto il network di relazioni professionali rilevate, sono stai calcolati i relativi indicatori di centralità relazionale e verificato il grado di sovrapposizione tra struttura formale dei dipartimenti in studio con le relazioni informali che si stabiliscono tra di essi nell’ambito clinico. Successivamente è stato analizzato l’impatto che le relazioni esercitano sulla propensione da parte dei singoli medici a utilizzare nuove evidenze scientifiche I primi risultati emersi dallo studio forniscono interessanti evidenze, con particolare riguardo al dato di un discreto grado di “sovrapposizione” tra struttura formale e informale delle unità organizzative in studio e a correlazioni significative tra fattori relazionali e attitudine dei medici verso l’utilizzo dell’approccio EBM. Altre evidenze, in specie la correlazione tra “centralità” degli attori organizzativi e alcuni indicatori di performance /appropriatezza, meritano ulteriori approfondimenti e una definitiva validazione. In conclusione lo studio dimostra che la prospettiva relazionale e la Sna consentono di porre in evidenza caratteristiche dei dipartimenti, dei suoi attori e delle loro reti di reciproche relazioni, in grado di favorire la comprensione di alcune dinamiche ricercate proprio attraverso l’organizzazione dipartimentale e quindi di specifico interesse per il management, i clinici e quanti altri impegnati nella gestione e nello sviluppo di questo modello di organizzazione dell’ospedale.
Resumo:
La tesi, divisa in tre parti presenta nella prima parte il sistema crittografico NTRU e il suo funzionamento, nella seconda introduce i reticoli e l'algoritmo di riduzione reticolare LLL, nella terza alcuni possibili attacchi a NTRU.
Resumo:
La crittografia ha sempre rivestito un ruolo primario nella storia del genere umano, dagli albori ai giorni nostri, e il periodo in cui viviamo non fa certo eccezione. Al giorno d'oggi, molti dei gesti che vengono compiuti anche solo come abitudine (operazioni bancarie, apertura automatica dell'auto, accedere a Facebook, ecc.), celano al loro interno la costante presenza di sofisticati sistemi crittografici. Proprio a causa di questo fatto, è importante che gli algoritmi utilizzati siano in qualche modo certificati come ragionevolmente sicuri e che la ricerca in questo campo proceda costantemente, sia dal punto di vista dei possibili nuovi exploit per forzare gli algoritmi usati, sia introducendo nuovi e sempre più complessi sistemi di sicurezza. In questa tesi viene proposto una possibile implementazione di un particolare tipo di attacco crittoanalitico, introdotto nel 2000 da due ricercatori dell'Università "La Sapienza" di Roma, e conosciuto come "Crittoanalisi Logica". L'algoritmo su cui è incentrato il lavoro è il Data Encryption Standard (DES), ostico standard crittografico caduto in disuso nel 1999 a causa delle dimensioni ridotte della chiave, seppur tuttora sia algebricamente inviolato. Il testo è strutturato nel seguente modo: il primo capitolo è dedicato ad una breve descrizione di DES e della sua storia, introducendo i concetti fondamentali con cui si avrà a che fare per l'intera dissertazione Nel secondo capitolo viene introdotta la Crittoanalisi Logica e viene fornita una definizione della stessa, accennando ai concetti matematici necessari alla comprensione dei capitoli seguenti. Nel capitolo 3 viene presentato il primo dei due software sviluppati per rendere possibile l'attuazione di questo attacco crittoanalitico, una libreria per la rappresentazione e la manipolazione di formule logiche scritta in Java. Il quarto ed ultimo capitolo descrive il programma che, utilizzando la libreria descritta nel capitolo 3, elabora in maniera automatica un insieme di proposizioni logiche semanticamente equivalenti a DES, la cui verifica di soddisfacibilità, effettuata tramite appositi tools (SAT solvers) equivale ad effettuare un attacco di tipo known-plaintext su tale algoritmo.
Resumo:
Nel lavoro di tesi qui presentato si indaga l'applicazione di tecniche di apprendimento mirate ad una più efficiente esecuzione di un portfolio di risolutore di vincoli (constraint solver). Un constraint solver è un programma che dato in input un problema di vincoli, elabora una soluzione mediante l'utilizzo di svariate tecniche. I problemi di vincoli sono altamente presenti nella vita reale. Esempi come l'organizzazione dei viaggi dei treni oppure la programmazione degli equipaggi di una compagnia aerea, sono tutti problemi di vincoli. Un problema di vincoli è formalizzato da un problema di soddisfacimento di vincoli(CSP). Un CSP è descritto da un insieme di variabili che possono assumere valori appartenenti ad uno specico dominio ed un insieme di vincoli che mettono in relazione variabili e valori assumibili da esse. Una tecnica per ottimizzare la risoluzione di tali problemi è quella suggerita da un approccio a portfolio. Tale tecnica, usata anche in am- biti come quelli economici, prevede la combinazione di più solver i quali assieme possono generare risultati migliori di un approccio a singolo solver. In questo lavoro ci preoccupiamo di creare una nuova tecnica che combina un portfolio di constraint solver con tecniche di machine learning. Il machine learning è un campo di intelligenza articiale che si pone l'obiettivo di immettere nelle macchine una sorta di `intelligenza'. Un esempio applicativo potrebbe essere quello di valutare i casi passati di un problema ed usarli in futuro per fare scelte. Tale processo è riscontrato anche a livello cognitivo umano. Nello specico, vogliamo ragionare in termini di classicazione. Una classicazione corrisponde ad assegnare ad un insieme di caratteristiche in input, un valore discreto in output, come vero o falso se una mail è classicata come spam o meno. La fase di apprendimento sarà svolta utilizzando una parte di CPHydra, un portfolio di constraint solver sviluppato presso la University College of Cork (UCC). Di tale algoritmo a portfolio verranno utilizzate solamente le caratteristiche usate per descrivere determinati aspetti di un CSP rispetto ad un altro; queste caratteristiche vengono altresì dette features. Creeremo quindi una serie di classicatori basati sullo specifico comportamento dei solver. La combinazione di tali classicatori con l'approccio a portfolio sara nalizzata allo scopo di valutare che le feature di CPHydra siano buone e che i classicatori basati su tali feature siano affidabili. Per giusticare il primo risultato, eettueremo un confronto con uno dei migliori portfolio allo stato dell'arte, SATzilla. Una volta stabilita la bontà delle features utilizzate per le classicazioni, andremo a risolvere i problemi simulando uno scheduler. Tali simulazioni testeranno diverse regole costruite con classicatori precedentemente introdotti. Prima agiremo su uno scenario ad un processore e successivamente ci espanderemo ad uno scenario multi processore. In questi esperimenti andremo a vericare che, le prestazioni ottenute tramite l'applicazione delle regole create appositamente sui classicatori, abbiano risultati migliori rispetto ad un'esecuzione limitata all'utilizzo del migliore solver del portfolio. I lavoro di tesi è stato svolto in collaborazione con il centro di ricerca 4C presso University College Cork. Su questo lavoro è stato elaborato e sottomesso un articolo scientico alla International Joint Conference of Articial Intelligence (IJCAI) 2011. Al momento della consegna della tesi non siamo ancora stati informati dell'accettazione di tale articolo. Comunque, le risposte dei revisori hanno indicato che tale metodo presentato risulta interessante.
Resumo:
Il mio elaborato finale si chiama “Restauro tra storia e progetto”, in cui rimetto a sistema, quanto appreso nelle materie di restauro, partendo dal laboratorio di restauro, dove la Prof. Antonella Ranaldi ci ha fatto trattare il complesso monumentale dell’ex convento di Sant’ Agostino a Cesena. Partendo da una lunga ricerca bibliografica, abbiamo individuato gli interventi da effettuare sul prospetto lungo via delle Mura di Sant’ Agostino ed effettuato il rilievo che ci ha permesso l’elaborazione del progetto. Gli interventi realizzati nel corso dei secoli costituiscono un esempio inquietante perchè se pure con esiti diversi ed in parte anche positivi, hanno però complessivamente portato alla situazione attuale, ormai compromessa per la definitiva perdita di molte interessanti tracce storiche. Data l'impossibilità di restituire al prospetto la sua immagine originaria abbiamo deciso di effettuare la sagramatura, che ha cancellato le stratificazioni che si sono succedute nei vari periodi storici. Abbiamo dato al prospetto una nuova immagine, riportando il prospetto ad un periodo storico non esattamente datato. L'illuminazione di questa preziosa facciata ha voluto essere un elemento discreto, capace di porre in risalto gli elementi architettonici e consentire, anche al calare del sole, un'intensa esperienza emotiva. In ogni caso si vuole evitare una scenografia serale eccessiva o artificiosa , e illuminare la facciata in maniera uniforme. Per fare questo si sono scelti apparecchi di illuminazione dotati di ottica asimmetrica, in modo da indirizzare il fascio di luce solo sulle superfici da illuminare e di ridurre così al minimo l'inquinamento luminoso. L'illuminazione omogenea della facciata in mattoni avviene attraverso riflettori con ottica larga, vetro allungante in verticale e schermo antiabbagliamento, posizionati su appositi pali (due pezzi per palo, paralleli alla facciata) situati dall'altra parte della strada di via delle mura. Mentre le lesene e il basamento sono illuminati da riflettori con condensatore ottico incassati nel terreno o nascosti nella parte superiore della cornice, con distribuzione della luce per un'altezza di circa 7 metri. Si è scelto di utilizzare sorgenti a luce bianca per mettere in risalto i materiali della facciata, senza alterarne i colori già di per se saturi. Abbiamo previsto nonostante lo stato di degrado, di recuperare il portone e le porte. Le parti mancanti vengono integrate con parti in legno della stessa essenza. Tutte le forature verranno poi tamponate con adeguati stucchi. Si ritiene fondamentale, in termini di restauro conservativo, mantenere ogni elemento che ancora sia in grado di svolgere la sua funzione. E' evidente in facciata il filo dell'impianto elettrico. E' stato pensato di farlo scorrere all'interno di una canalina, di dimensioni 4,5 x 7 cm, posizionata sopra il cornicione, nascosta alla vista del prospetto. Le gronde e i pluviali sono stati sostituiti durante l'ultimo intervento di rifacimento delle coperture, tuttavia non è stato studiato un posizionamento adeguato dei pluviali. Infatti, alcuni di questi, sopratutto quelli del prospetto principale sono posizionati senza alcun ordine. In alcuni casi i pluviali risultano essere scarsi con conseguente allagamento delle gronde e colate di acqua piovana sul muro. Nel nostro progetto si prevede di posizionare gli scarichi delle gronde sui lati, in maniera tale da non ostruire la facciata, inoltre vengono aumentati i pluviali per la gronda più alta. La seconda parte riguarda il restauro del borgo di Castelleale, che abbiamo trattato con il Prof. Andrea Ugolini nel laboratorio di sintesi finale. Il tema del corso ha previsto una prima fase di studio comprendente la ricerca storica e bibliografica, l’inquadramento dell’oggetto nel contesto urbano, la redazione delle piante di fase e ricostruzioni planivolumetriche nelle varie fasi storiche. Nella seconda fase abbiamo effettuato il rilievo, fatto foto esterne e interne di dettaglio per l’inquadramento del tema e delle sue caratteristiche architettoniche, studiato le principali cause di degrado e alterazione dei materiali da costruzione redigendo le tavole del degrado e dello stato di conservazione. Nella fase progettuale abbiamo deciso di effettuare un minimo intervento sul rudere, ripristinando la copertura crollata attraverso una copertura moderna sostenuta da pilastri, che vanno a costituire una struttura staccata rispetto al rudere. La terza parte riguarda l’efficienza energetica, il tema che ho affrontato sotto la guida del Prof. Kristian Fabbri in occasione dell’elaborato finale.
Resumo:
La crescita normale di un individuo è il risultato dell’azione coordinata di molteplici ormoni e recettori codificati da geni e a tal proposito, discreto interesse è stato dato ai geni tipici dell’asse del GH. Tuttavia altri geni, più a monte di questi e responsabili dello sviluppo dell’ipofisi contribuiscono alla crescita normale o patologica. Alcuni geni studiati sono POU1F1, PROP1, LHX3, LHX4, HESX1, SOX3 e svariate loro mutazioni sono state identificate come causa di panipopituarismo (CPHD=Combined Pituitary Hormone Deficiency). In realtà la ricerca genetica non spiega ancora molte anomalie ipofisarie e molte mutazioni devono ancora essere identificate. Uno degli scopi del dottorato, svoltosi nel laboratorio di Genetica molecolare di Pediatria, è stata l’identificazione di mutazioni geniche da un gruppo di pazienti CPHD considerando in particolare i geni POU1F1, LHX3, SOX3, non ancora messi a punto presso il laboratorio. L’approccio sperimentale si è basato sulle seguenti fasi: prelievo delle informazioni di sequenza da GeneBank, progettazione di primers per amplificare le porzioni esoniche, messa a punto delle fasi della PCR e del sequenziamento, analisi della sequenza e confronto con le informazioni di sequenza depositate allo scopo di rintracciare eventuali mutazioni o varianti. La bassa percentuale di mutazioni in questi geni non ha permesso finora di rintracciare mutazioni nelle porzioni esoniche salvo che in un soggetto, nell’esone 6 di LHX3b (nuova mutazione, recessiva eterozigote, c.1248A>G implicata nella mutazione p.T377A della sequenza proteica). Un metodo di screening di questa mutazione impiegando l’enzima di restrizione SacII è stato usato, senza rilevare nessun altra occorrenza dell’allele mutato in 53 soggetti di controllo. Oltre alla messa a punto del sequenziamento e di alcune tecniche di analisi di singoli SNP o piccoli INDELs per i 3 geni, la ricerca svolta è stata orientata all’impiego di metodi di rilevamento di riarrangiamenti genetici comportanti ampie delezioni e/o variazioni del copy-number di esoni/interi geni detto MLPA (Multiplex Ligation-dependent Probe Amplification) e progettato da MRC-Holland. Il sequenziamento infatti non permette di rilevare tali alterazioni quando sono ampie ed in eterozigosi. Per esempio, in un’ampia delezione in eterozigosi, l’intervallo delimitato dai primers usati per la PCR può non includere totalmente la porzione interessata da delezione su un cromosoma cosicché la PCR ed il sequnziamento si basano solo sulle informazioni dell’altro cromosoma non deleto. Un vantaggio della tecnica MLPA, è l’analisi contemporanea di una quarantina di siti posti su svariati geni. Questa metodo tuttavia può essere affetto da un certo margine di errore spesso dipendente dalla qualità del DNA e dovrebbe essere affiancato e validato da altre tecniche più impegnativa dal punto di vista sperimentale ma più solide, per esempio la Real Time PCR detta anche PCR quantitativa (qPCR). In laboratorio, grazie all’MLPA si è verificata la condizione di delezione eterozigote di un paziente “storico” per il gene GH1 e la stessa mutazione è stata rilevata anche con la qPCR usando lo strumento Corbett Rotor Gene 6000 (Explera). Invece un’analisi solo con la qPCR di variazioni del copy-number (CNV) per SOX3 in pazienti maschili non ha ancora evidenziato anomalie. Entrambe le tecniche hanno aspetti interessanti, il miglior approccio al momento sembra un’analisi iniziale di pazienti con l’MLPA, seguita dalla verifica di un eventuale esito anomalo impiegando la real-time PCR.
Resumo:
Negli ultimi anni l'avanzamento della ricerca in campo crittografico ha portato alla necessità di utilizzare strumenti software per la verifica delle prove formali. EasyCrypt è un tool, in fase di sviluppo, ideato per dimostrazioni basate su sequenze di giochi. Nella presente tesi viene presentato un caso di studio riguardante l'applicabilità di EasyCrypt alle mixing networks (abbr. mixnets). è presente un'esaustiva rassegna delle mixnets proposte in letteratura ed è descritta la teoria alla base delle dimostrazioni critografiche basate su sequenze di giochi. EasyCrypt viene analizzato nei suoi fondamenti teorici nonché nelle applicazioni pratiche, con riferimento particolare agli esperimenti svolti per la dimostrazione di proprietà di sicurezza delle mixnets.
Resumo:
In questa tesi vengono introdotte le idee chiave della moderna crittografia, presentato il cifrario perfetto one-time pad e mostrate le criticità che l’utilizzo di tale schema presenta. L’idea di schemi di cifratura matematicamente sicuri deve essere superata a favore di schemi computazionalmente sicuri. A questo proposito diventa cruciale il concetto di pseudocasualità: come la sicurezza computazionale è un indebolimento della sicurezza perfetta, così la pseudocasualità è un indebolimento della pura casualità. E' quindi necessario avere dei metodi per definire la bontà di un generatore pseudocasuale di numeri. Il National Institute of Standars and Technology fornisce alcuni criteri per caratterizzare e scegliere generatori appropriati sulla base di test statistici. Alcuni di questi test sono stati implementati all’interno del portale di apprendimento CrypTool sviluppato da alcune Università e centri di ricerca di Germania e Austria.
Resumo:
Le reti di oggetti intelligenti costituiscono una realtà che si sta affermando nel mondo quotidiano. Dispositivi capaci di comunicare tra loro, oltre che svolgere la propria funzione primaria, possono comporre una nuvola che faccia riferimento al legittimo proprietario. Un aspetto fondamentale di questo scenario riguarda la sicurezza, in particolar modo per garantire una comunicazione protetta. Il soddisfacimento di questo requisito è fondamentale anche per altri punti come l'integrità dell'informazione condivisa e l'autenticazione. Lo strumento più antico e tutt'ora adatto alla riservatezza di una comunicazione è costituito dalla crittografia. Una tecnica crittografica è schematicamente composta da un algoritmo che, a seconda di una chiave e del messaggio in ingresso, restituisce in uscita un messaggio cifrato, il crittogramma. Questo viene poi inviato e al legittimo destinatario che, essendo in possesso della chiave e dell'algoritmo, lo converte nel messaggio originale. L'obiettivo è rendere impossibile ad un utente malevolo - non dotato di chiave - la ricostruzione del messaggio. L'assunzione che l'algoritmo possa essere noto anche a terze parti concentra l'attenzione sul tema della chiave. La chiave deve essere sufficientemente lunga e casuale, ma soprattutto deve essere nota ai due utenti che intendono instaurare la comunicazione. Quest'ultimo problema, noto come distribuzione della chiave, è stato risolto con il sistema RSA a chiave pubblica. Il costo computazionale di questa tecnica, specialmente in un contesto di dispositivi non caratterizzati da grandi potenze di calcolo, suggerisce però la ricerca di strade alternative e meno onerose. Una soluzione promettente ed attualmente oggetto di studio sembra essere costituita dalle proprietà del canale wireless. Un ponte radio è caratterizzato da una funzione di trasferimento che dipende dall'ambiente in cui ci si trova e, per il teorema di reciprocità, risulta essere lo stesso per i due utenti che l'hanno instaurato. Oggetto della tesi è lo studio ed il confronto di alcune delle tecniche possibili per estrarre una chiave segreta da un mezzo condiviso, come quello del canale wireless. Si presenterà il contesto in cui verrà sviluppato l'elaborato. Si affronteranno in particolare due casi di interesse, costituiti dalla attuale tecnologia di propagazione del segnale a banda stretta (impiegata per la maggior parte delle trasmissioni senza fili) per passare a quella relativamente più recente della banda Ultra-larga (UWB). Verranno poi illustrate delle tecniche per ottenere stringhe di bit dai segnali acquisiti, e saranno proposti dei metodi per la loro correzione da eventuali discordanze. Saranno infine riportate le conclusioni sul lavoro svolto e le possibili strade future.
Resumo:
Il seguente studio propone l'esame di una cronaca veneziana del XVI secolo, inedita, dalle origini al 1538/39, che parte della tradizione manoscritta attribuisce al Patriarca di Venezia Giovanni Tiepolo (1619-1631), parte ad Agostino degli Agostini, (1530-1574), un patrizio veneziano il cui nome è legato essenzialmente ad una cronaca dal 421 al 1570. Indipendentemente da chi sia il primitivo autore, la cronaca, di discreto pregio per la storia interna e il funzionamento delle istituzioni veneziane, presenta elementi di spiccata originalità dal punto di vista compositivo e formale che la pongono in una prospettiva storiografica alternativa al dualismo tra la storiografia ufficiale promossa per pubblico decreto e l'iniziativa privata dei diaria del XV-XVI. La cronaca veneziana, abbandonata per formule più sofisticate e innovative di diffusione dell'informazione pubblica, sopravvive, formalmente immutata nella sua arcaicità, rinnovandosi nella tendenza a creare compendi ricchi di documenti e di elenchi, destinati ad aiutare la nobiltà ad orientarsi nel mondo socio-politico contemporaneo. Si consuma così il divorzio fra l'informazione tecnico-politica utile al patriziato nello svolgimento del suo lavoro e la storiografia pubblica che, di fronte alle varie esigenze e ai diversi generi letterari, sceglie ideologicamente di abbracciare il genere delle laus civitatis e della storiografia laudativa ed encomiastica. In questo contesto si inserisce la Cronaca esemplata dal Patriarca Giovanni Tiepolo, chiaro esempio di un tentativo di razionalizzazione dell'informazione in cui le notizie e gli elementi non ritenuti immediatamente utili come le lunghe liste dei 41 elettori, le promissioni ducali, nonchè singoli episodi ed eventi trattati, trovano una collocazione esterna alla cronaca, in quello che Reines definisce l'ormai nascente archivio politico del XVI secolo.
Resumo:
L'elaborato riguarda uno specifico attacco all'RSA tramite teoremi sui reticoli elaborato da Coppersmith. Dopo una breve introduzione sulla crittografia simmetrica e asimettrica, cioè a chiave pubblica, vengono definiti i reticoli, basi di reticoli, basi ridotte, l'algoritmo LLL. In seguito viene mostrato come applicare quest'ultimo algoritmo nella risoluzione di equazioni modulari ad una variabili e le sue applicazioni come attacco all'RSA.
Resumo:
I crescenti volumi di traffico che interessano le pavimentazioni stradali causano sollecitazioni tensionali di notevole entità che provocano danni permanenti alla sovrastruttura. Tali danni ne riducono la vita utile e comportano elevati costi di manutenzione. Il conglomerato bituminoso è un materiale multifase composto da inerti, bitume e vuoti d'aria. Le proprietà fisiche e le prestazioni della miscela dipendono dalle caratteristiche dell'aggregato, del legante e dalla loro interazione. L’approccio tradizionalmente utilizzato per la modellazione numerica del conglomerato bituminoso si basa su uno studio macroscopico della sua risposta meccanica attraverso modelli costitutivi al continuo che, per loro natura, non considerano la mutua interazione tra le fasi eterogenee che lo compongono ed utilizzano schematizzazioni omogenee equivalenti. Nell’ottica di un’evoluzione di tali metodologie è necessario superare questa semplificazione, considerando il carattere discreto del sistema ed adottando un approccio di tipo microscopico, che consenta di rappresentare i reali processi fisico-meccanici dai quali dipende la risposta macroscopica d’insieme. Nel presente lavoro, dopo una rassegna generale dei principali metodi numerici tradizionalmente impiegati per lo studio del conglomerato bituminoso, viene approfondita la teoria degli Elementi Discreti Particellari (DEM-P), che schematizza il materiale granulare come un insieme di particelle indipendenti che interagiscono tra loro nei punti di reciproco contatto secondo appropriate leggi costitutive. Viene valutata l’influenza della forma e delle dimensioni dell’aggregato sulle caratteristiche macroscopiche (tensione deviatorica massima) e microscopiche (forze di contatto normali e tangenziali, numero di contatti, indice dei vuoti, porosità, addensamento, angolo di attrito interno) della miscela. Ciò è reso possibile dal confronto tra risultati numerici e sperimentali di test triassiali condotti su provini costituiti da tre diverse miscele formate da sfere ed elementi di forma generica.