952 resultados para Digitale Revolution
Resumo:
La tesi riguarda la creazione di una architettura che ha lo scopo di far interagire attivamente un utente con una mappa digitale tramite browser web e un applicativo che calcola dei percorsi in base ad un algoritmo di ottimizzazione. Un ambito interessante, attuale e che avrà, molto probabilmente, notevoli sviluppi futuri. Basti pensare per esempio a come le persone interagiscono con le mappe digitali tramite i famosi Google Maps o Google Earth, Bing Maps e OpenStreetMap. Questa interazione è diventata talmente naturale che è ormai intuitivo ruotare la rotellina del mouse per zoomare oppure tenere premuto il tasto sinistro per trascinare la mappa. Spesso questi applicativi web offrono servizi per il calcolo di percorsi, o rilasciano anche delle API per interagire e personalizzare alcuni aspetti, anche se spesso in modo limitato per questioni di copyright. In questo contesto entrano in gioco associazioni, singoli individui e fondazioni che creano software e standard fruibili da chiunque per creare applicativi e architetture personalizzate senza vincoli di diritti troppo limitanti. In questa tesi viene mostrato un approccio che permette una personalizzazione molto dettagliata e un'alta interoperabilità con queste applicazioni specifiche. Ma tutti questi aspetti positivi sono fruibili, per ora, solo mediante supporto umano avente un bagaglio di esperienze tecniche adeguate.
Resumo:
Progetto di tesi finalizzato alla realizzazione di uno strumento informatico che, attraverso l'analisi e l'integrazione di banche dati diverse, consenta di individuare situazioni di sospetta evasione fiscale nel territorio di Cesena.
Resumo:
Si vuole analizzare l’evoluzione della normativa e criticità che il Legislatore si è trovato ad affrontare durante la transizione da un contesto documentale cartaceo ad uno informatico, passando per sistemi ibridi, nell’ottica di incentivare l’informatizzazione e dematerializzazione delle procedure. Viene preso in considerazione l’intero ciclo di vita del documento, partendo dalla formazione (digitale o cartacea) fino alla sua conservazione, con particolare attenzione alle problematiche riscontrate dalle Pubbliche Amministrazioni in quanto produttori massivi di materiale documentale. Si toccheranno tematiche specifiche come la declinazione in ambito digitale della firma, ovvero le firme elettroniche, remote, massive, timbro digitale. Verranno approfonditi gli aspetti legali e problematiche correlate alla protocollazione ed archiviazione.
Resumo:
L'elaborato si propone di esplorare e mettere a punto metodi di filtraggio del rumore nelle misure di deformazione tramite correlazione digitale di immagini. Tali strategie vengono perseguite inizialmente tramite filtraggio delle immmagini in ingresso, successivamente tramite filtraggio nel dominio delle frequenze spaziali delle distribuzioni di deformazione ed infine tramite filtraggio nel dominio temporale di immagini e distribuzioni di deformazione.
Resumo:
In questo studio si esamina la ricostruzione di Porta Aurea a Ravenna, edificio di epoca romana ormai scomparsa ma di cui rimangono molti documenti sia a livello di tradizione storica locale che per quanto riguarda disegni di illustri architetti come Andrea Palladio. Il processo di ricostruzione si articola sull’uso di materiale distintamente catalogato a seconda di diversi gradi di incertezza. Per giungere alla costruzione sono state effettuate anche due campagne di rilievo con la tecnica di acquisizione del Laser Scanner Leica C10 all-in-one. La prima presso il Museo Nazionale di Ravenna, dove sono tutt’oggi conservati alcuni frammenti architettonici di pregio provenienti da Porta Aurea. Una seconda indagine di rilievo è stata invece effettuata presso le mura di Ravenna in Via di Porta Aurea ove rimangono i resti delle porzioni di mura o meglio torrioni verticali che incorniciavano il monumento ravennate. Sintesi finale di questo lavoro è il raggiungimento di un modello “possibile” ma comunque ideale desunto dall’intreccio di diverse fonti iconografiche al fine di una possibile fruizione museale presso lo stesso Museo Nazionale di Ravenna.
Resumo:
Es wurde ein für bodengebundene Feldmessungen geeignetes System zur digital-holographischen Abbildung luftgetragener Objekte entwickelt und konstruiert. Es ist, abhängig von der Tiefenposition, geeignet zur direkten Bestimmung der Größe luftgetragener Objekte oberhalb von ca. 20 µm, sowie ihrer Form bei Größen oberhalb von ca. 100µm bis in den Millimeterbereich. Die Entwicklung umfaßte zusätzlich einen Algorithmus zur automatisierten Verbesserung der Hologrammqualität und zur semiautomatischen Entfernungsbestimmung großer Objekte entwickelt. Eine Möglichkeit zur intrinsischen Effizienzsteigerung der Bestimmung der Tiefenposition durch die Berechnung winkelgemittelter Profile wurde vorgestellt. Es wurde weiterhin ein Verfahren entwickelt, das mithilfe eines iterativen Ansatzes für isolierte Objekte die Rückgewinnung der Phaseninformation und damit die Beseitigung des Zwillingsbildes erlaubt. Weiterhin wurden mithilfe von Simulationen die Auswirkungen verschiedener Beschränkungen der digitalen Holographie wie der endlichen Pixelgröße untersucht und diskutiert. Die geeignete Darstellung der dreidimensionalen Ortsinformation stellt in der digitalen Holographie ein besonderes Problem dar, da das dreidimensionale Lichtfeld nicht physikalisch rekonstruiert wird. Es wurde ein Verfahren entwickelt und implementiert, das durch Konstruktion einer stereoskopischen Repräsentation des numerisch rekonstruierten Meßvolumens eine quasi-dreidimensionale, vergrößerte Betrachtung erlaubt. Es wurden ausgewählte, während Feldversuchen auf dem Jungfraujoch aufgenommene digitale Hologramme rekonstruiert. Dabei ergab sich teilweise ein sehr hoher Anteil an irregulären Kristallformen, insbesondere infolge massiver Bereifung. Es wurden auch in Zeiträumen mit formal eisuntersättigten Bedingungen Objekte bis hinunter in den Bereich ≤20µm beobachtet. Weiterhin konnte in Anwendung der hier entwickelten Theorie des ”Phasenrandeffektes“ ein Objekt von nur ca. 40µm Größe als Eisplättchen identifiziert werden. Größter Nachteil digitaler Holographie gegenüber herkömmlichen photographisch abbildenden Verfahren ist die Notwendigkeit der aufwendigen numerischen Rekonstruktion. Es ergibt sich ein hoher rechnerischer Aufwand zum Erreichen eines einer Photographie vergleichbaren Ergebnisses. Andererseits weist die digitale Holographie Alleinstellungsmerkmale auf. Der Zugang zur dreidimensionalen Ortsinformation kann der lokalen Untersuchung der relativen Objektabstände dienen. Allerdings zeigte sich, dass die Gegebenheiten der digitalen Holographie die Beobachtung hinreichend großer Mengen von Objekten auf der Grundlage einzelner Hologramm gegenwärtig erschweren. Es wurde demonstriert, dass vollständige Objektgrenzen auch dann rekonstruiert werden konnten, wenn ein Objekt sich teilweise oder ganz außerhalb des geometrischen Meßvolumens befand. Weiterhin wurde die zunächst in Simulationen demonstrierte Sub-Bildelementrekonstruktion auf reale Hologramme angewandt. Dabei konnte gezeigt werden, dass z.T. quasi-punktförmige Objekte mit Sub-Pixelgenauigkeit lokalisiert, aber auch bei ausgedehnten Objekten zusätzliche Informationen gewonnen werden konnten. Schließlich wurden auf rekonstruierten Eiskristallen Interferenzmuster beobachtet und teilweise zeitlich verfolgt. Gegenwärtig erscheinen sowohl kristallinterne Reflexion als auch die Existenz einer (quasi-)flüssigen Schicht als Erklärung möglich, wobei teilweise in Richtung der letztgenannten Möglichkeit argumentiert werden konnte. Als Ergebnis der Arbeit steht jetzt ein System zur Verfügung, das ein neues Meßinstrument und umfangreiche Algorithmen umfaßt. S. M. F. Raupach, H.-J. Vössing, J. Curtius und S. Borrmann: Digital crossed-beam holography for in-situ imaging of atmospheric particles, J. Opt. A: Pure Appl. Opt. 8, 796-806 (2006) S. M. F. Raupach: A cascaded adaptive mask algorithm for twin image removal and its application to digital holograms of ice crystals, Appl. Opt. 48, 287-301 (2009) S. M. F. Raupach: Stereoscopic 3D visualization of particle fields reconstructed from digital inline holograms, (zur Veröffentlichung angenommen, Optik - Int. J. Light El. Optics, 2009)
Implementazione di un modulatore sigma-delta digitale per la sintesi di segnali pwm ad alta fedelta.
Resumo:
La modulazione a durata d'impulso (PWM) è utilizzata soprattutto perchè permette di ottenere alta efficenza energetica. In ambito accademico è stato proposto un modulatore PWM che sfrutta la tecnica di noise shaping, Sigma Delta, per avere elevata fedeltà. Il lavoro di questa tesi è stato l'implementazione su FPGA del modulatore Sigma DeltaDigitale utilizzato: quarto ordine, con quantizzatore a 4 bit e SNR in banda di 60 dB. Il dimensionamento è stato fatto determinando l'effetto che la lunghezza delle parole dei segnali ha sul rumore prodotto dal sistema. Questo studio è stato svolto con analisi euristiche ed algoritmi di ricerca implementati in ambiente MATLAB. Lo studio fatto è di carattere generale ed estendibile a generiche architetture Sigma Delta.
Resumo:
La tesi riguarda l'utilizzo del DNA come archivio digitale; vengono mostrati i vantaggi di questo approccio concettuale, il metodo di codifica per ottenere le stringhe di DNA partendo da un generico file, l'efficienza del protocollo e i suoi costi.
Resumo:
Negli ultimi anni la tecnica di misura della correlazione digitale di immagini (“Digital Image Correlation” = DIC) sta trovando numerose applicazioni nell’ambito della meccanica sperimentale come valida alternativa per misure di campi di deformazione su componenti strutturali soggetti a carichi statici e dinamici. Misurare deformazioni in provini troppo piccoli, troppo grandi, teneri o caldi, è un tipico scenario in cui diventano necessarie le tecniche senza contatto in quanto l’applicazione di estensimetri risulta inefficiente. L’obiettivo di questo lavoro consta nel valutare l’applicabilità e l’accuratezza di programmi di elaborazione gratuiti per la correlazione digitale di immagini evidenziandone il metodo di utilizzo e l’autenticità dei risultati verificati attraverso prove in laboratorio. Tali programmi, per praticità e gratuità, nel campo bidimensionale, possono considerarsi una valida alternativa a programmi commerciali di elevato costo. Nonostante ciò, presentano alcune criticità e limitazioni che emergeranno dalle attente sperimentazioni effettuate. Verrà così definita la corretta e necessaria preparazione del set up sperimentale antecedente la prova e il campo di applicabilità a cui si prestano tali programmi per un preciso ed autentico rilevamento delle deformazioni subite da un corpo sottoposto a sollecitazioni, al pari di un comune estensimetro.
Resumo:
La pratica del remix è al giorno d’oggi sempre più diffusa e un numero sempre più vasto di persone ha ora le competenze e gli strumenti tecnologici adeguati per eseguire operazioni un tempo riservate a nicchie ristrette. Tuttavia, nella sua forma audiovisiva, il remix ha ottenuto scarsa attenzione a livello accademico. Questo lavoro esplora la pratica del remix intesa al contempo come declinazione contemporanea di una pratica di lungo corso all’interno della storia della produzione audiovisiva – ovvero il riuso di immagini – sia come forma caratteristica della contemporaneità mediale, atto di appropriazione grassroots dei contenuti mainstream da parte degli utenti. La tesi si articola in due sezioni. Nella prima, l’analisi di tipo teorico e storico-critico è suddivisa in due macro-aree di intervento: da una parte il remix inteso come pratica, atto di appropriazione, gesto di riciclo, decontestualizzazione e risemantizzazione delle immagini mediali che ha attraversato la storia dei media audiovisivi [primo capitolo]. Dall’altra, la remix culture, ovvero il contesto culturale e sociale che informa l’ambiente mediale entro il quale la pratica del remix ha conosciuto, nell’ultimo decennio, la diffusione capillare che lo caratterizza oggi [secondo capitolo]. La seconda, che corrisponde al terzo capitolo, fornisce una dettagliata panoramica su un caso di studio, la pratica del fan vidding. Forma di remix praticata quasi esclusivamente da donne, il vidding consiste nel creare fan video a partire da un montaggio d’immagini tratte da film o serie televisive che utilizza come accompagnamento musicale una canzone. Le vidders, usando specifiche tecniche di montaggio, realizzano delle letture critiche dei prodotti mediali di cui si appropriano, per commentare, criticare o celebrare gli oggetti di loro interesse. Attraverso il vidding il presente lavoro indaga le tattiche di rielaborazione e riscrittura dell’immaginario mediale attraverso il riuso di immagini, con particolare attenzione al remix inteso come pratica di genere.
Resumo:
La disintegrazione dei nuclei atomici si traduce in una emissione di vari tipi di radiazioni e particelle tra cui neutroni e raggi gamma. La rivelazione dei neutroni comporta l’utilizzo di rivelatori a scintillazione e tecniche di analisi per poter identificare e ottenere informazioni sull’energia dei neutroni. Il processo di scintillazione per la rivelazione dei neutroni consiste nell’interazione con i nuclei del materiale e successiva emissione luminosa dovuta a ionizzazione degli atomi del rivelatore. La luce e in seguito convertita in impulsi elettrici, i quali possono essere analizzati con opportune tecniche. L’emissione di neutroni `e accompagnata da emissione di raggi gamma e quindi `e necessario identificare i neutroni. Rivelatori basati su scintillatori organici vengono spesso impiegati nella spettrometria neutronica ad energie superiori di 0.5 MeV ed in una vasta gamma di applicazioni come la medicina, l’industria e la radioprotezione. La rilevazione dei neutroni `e molto importante nello studio delle reazioni nucleari di bassa energia e nello studio della materia nucleare lontano dalla valle di stabilita. In questo lavoro abbiamo studiato tre algoritmi: Zero Crossing, Charge Comparison e Pulse Gradient Analysis. Questi algoritmi sono stati in seguito applicati all’analisi di un insieme di dati provenienti dalla reazione nucleare 7Li(p,n)7Be. E stato utilizzato uno scintillatore organico liquido BC501. Si `e effettuato un confronto tra le varie tecniche utilizzate per determinare il grado di discriminazione ottenuto con ognuna di esse. I risultati ottenuti permettono di decidere in seguito quale algoritmo si presta ad essere utilizzato anche in altri esperimenti futuri. Il metodo Pulse Gradient Analysis `e risultato il piu` prometente, essendo anche possibile l’utilizzo on-line.
Resumo:
On the basis of illustrations of Shakespeare's Hamlet, the new digital 'Oppel-Hammerschmidt Shakespeare Illustration Archive' at the Mainz University Library - together with a lavishly-constructed and multiply-linked Web interface version - was presented to the public on 17 November 2008. This e-book, edited by Andreas Anderhub and Hildegard Hammerschmidt-Hummel, contains the speeches and presentations given on the occasion of the opening ceremony of the electronic archive. The collection of the new archive, published here for the first time, holds about 3,500 images and is part of the only Shakespeare illustration archive in the world. The Shakespeare Illustration Archive was founded in 1946 by the internationally acclaimed Shakespeare and Goethe scholar, Prof. Horst Oppel. This part of the archive was donated to the Mainz University Library on condition that its holdings be digitalised and made available to the public. The collection has been named 'The Oppel-Hammerschmidt Shakespeare Illustration Archive' in accordance with the terms of the Agreement of Donation of 9, 15, and 16 September 2005, and honouring the 16 March 1988 Delegation of Authority and Declaration of Intent by Frau Ingeborg Oppel, Prof. Oppel's widow and legal assignee. Vice-President Prof. Jürgen Oldenstein opened the proceedings by noting that 2008 had been a good year for international Shakespeare scholarship. For, in London, the site of the 'Theatre' in Shoreditch, where Shakespeare's company performed, had been unearthed, and in Mainz the Shakespeare Archive had gone online with thousands of illustrations. The Dean of the Faculty of Philosophy and Philology, Prof. Mechthild Dreyer, who mentioned that she herself had long been successfully employing interdisciplinary research methods, took particular pleasure in the transdisciplinary approach to research resolutely pursued by Prof. Hammerschmidt-Hummel. Prof. Clemens Zintzen (Cologne), former President of the Mainz Academy of Literature and Sciences, recalled highlights from the more than sixty-year-long history of the Shakespeare Illustration Archive. Prof. Kurt Otten (Heidelberg and Cambridge) drew an impressive portrait of Horst Oppel's personality as an academic and praised his influential books on Goethe and Shakespeare. He pointed out that Oppel's Shakespeare Illustration Archive, the basis for many a dissertation, had enjoyed great popularity around the world. Prof. Otten also delineated the academic career of Prof. Hammerschmidt-Hummel and her new findings regarding Shakespeare's time, life and work. Prof. Rüdiger Ahrens OBE (Würzburg) drew attention to Prof. Hammerschmidt-Hummel's research results, directly or indirectly arising out of her work on the Shakespeare Illustration Archive. This research had centred on proving the authenticity of four visual representations of Shakespeare (the Chandos and Flower portraits, the Davenant bust and the Darmstadt Shakespeare death mask); solving the mystery around Shakespeare's 'Dark Lady'; and establishing the dramatist's Catholic religion. Prof. Hammerschmidt-Hummel reported on her 'Shakespeare Illustration' project, describing the nature, dimensions and significance of the Archive's pictorial material, which relates to all of Shakespeare's plays and stretches over five centuries. She explained that the digital 'Oppel-Hammerschmidt Illustration Archive' was an addition to the three-volume edition she had compiled, authored and edited for publication in 2003. Unlike the print version, however, the digital collection had only been partly editorially prepared. It represented source material and a basis for further work. Hammerschmidt-Hummel expressed her thanks to the Head of the Central University Library, Dr Andreas Anderhub, for his untiring commitment. After the initial donation had been made, he had entered enthusiastically into setting up the necessary contacts, getting all the work underway, and clearing the legal hurdles. Hammerschmidt-Hummel was especially grateful to University of Mainz librarian Heike Geisel, who had worked for nearly five years to carry out the large-scale digitalization of a total of 8,800 items. Frau Geisel was also extremely resourceful in devising ways of making the collection yield even more, e.g. by classifying and cross-linking the data, assembling clusters of individual topics that lend themselves to research, and (in collaboration with the art historian Dr Klaus Weber) making the archive's index of artists compatible with the data-bank of artists held by the University of Mainz Institute of Art History. In addition, she compiled an extremely helpful 'users' guide' to the new digital collection. Frau Geisel had enjoyed invaluable support from Dr Annette Holzapfel-Pschorn, the leading academic in the Central IT Department at the University, who set up an intelligent, most impressive Web interface using the latest application technologies. Frau Geisel and Dr Holzapfel-Pschorn were highly praised for their convincing demonstration, using illustrations to Hamlet, of how to access this well-devised and exceptionally user-friendly Web version. For legal reasons, Prof. Hammerschmidt-Hummel pointed out, the collection could not be released for open access on the internet. The media - as Dr Anderhub stressed in his foreword - had shown great interest in the new digital collection of thousands of Shakespearean illustrations (cf. Benjamin Cor's TV feature in "Tagesthemen", 17 November 2008, presented by Tom Buhrow). The ‘Oppel-Hammerschmidt Shakespeare Illustration Archive’ should also meet with particular interest not only among academic specialists, but also among the performers of the arts and persons active in the cultural realm in general, as well as theatre and film directors, literary managers, teachers, and countless Shakespeare enthusiasts.
Resumo:
La Legge di conversione n. 221/2012 del Decreto Legge n.79/2012 (c.d. Decreto Crescita 2.0) introduce nel Codice dell’Amministrazione Digitale la facoltà per ogni cittadino di indicare alla pubblica amministrazione un proprio indirizzo di posta elettronica certificata quale suo domicilio digitale. La Legge di conversione n. 98/2013 del Decreto Legge n. 69/2013 (c.d. Decreto del Fare) prevede l’assegnazione di una casella di posta elettronica certificata, con funzione di domicilio digitale, contestualmente al rilascio del Documento Digitale Unificato al cittadino. La disponibilità del domicilio digitale, costituito da una casella di posta elettronica certificata, può consentire alle amministrazioni pubbliche di dematerializzare le comunicazioni verso il cittadino indirizzandole al domicilio digitale con notevoli risparmi dovuti all’eliminazione della carta e delle spese spedizione. In questo studio, attorno al domicilio digitale e alle comunicazioni via posta elettronica certificata, si cercherà di spiegare come e con quali effetti, il diritto di ogni cittadino di disporre di un domicilio digitale possa proficuamente essere esercitato nelle comunicazioni e nelle trasmissioni di documenti con la pubblica amministrazione.