1000 resultados para digitale Medien
Resumo:
La pratica del remix è al giorno d’oggi sempre più diffusa e un numero sempre più vasto di persone ha ora le competenze e gli strumenti tecnologici adeguati per eseguire operazioni un tempo riservate a nicchie ristrette. Tuttavia, nella sua forma audiovisiva, il remix ha ottenuto scarsa attenzione a livello accademico. Questo lavoro esplora la pratica del remix intesa al contempo come declinazione contemporanea di una pratica di lungo corso all’interno della storia della produzione audiovisiva – ovvero il riuso di immagini – sia come forma caratteristica della contemporaneità mediale, atto di appropriazione grassroots dei contenuti mainstream da parte degli utenti. La tesi si articola in due sezioni. Nella prima, l’analisi di tipo teorico e storico-critico è suddivisa in due macro-aree di intervento: da una parte il remix inteso come pratica, atto di appropriazione, gesto di riciclo, decontestualizzazione e risemantizzazione delle immagini mediali che ha attraversato la storia dei media audiovisivi [primo capitolo]. Dall’altra, la remix culture, ovvero il contesto culturale e sociale che informa l’ambiente mediale entro il quale la pratica del remix ha conosciuto, nell’ultimo decennio, la diffusione capillare che lo caratterizza oggi [secondo capitolo]. La seconda, che corrisponde al terzo capitolo, fornisce una dettagliata panoramica su un caso di studio, la pratica del fan vidding. Forma di remix praticata quasi esclusivamente da donne, il vidding consiste nel creare fan video a partire da un montaggio d’immagini tratte da film o serie televisive che utilizza come accompagnamento musicale una canzone. Le vidders, usando specifiche tecniche di montaggio, realizzano delle letture critiche dei prodotti mediali di cui si appropriano, per commentare, criticare o celebrare gli oggetti di loro interesse. Attraverso il vidding il presente lavoro indaga le tattiche di rielaborazione e riscrittura dell’immaginario mediale attraverso il riuso di immagini, con particolare attenzione al remix inteso come pratica di genere.
Resumo:
La disintegrazione dei nuclei atomici si traduce in una emissione di vari tipi di radiazioni e particelle tra cui neutroni e raggi gamma. La rivelazione dei neutroni comporta l’utilizzo di rivelatori a scintillazione e tecniche di analisi per poter identificare e ottenere informazioni sull’energia dei neutroni. Il processo di scintillazione per la rivelazione dei neutroni consiste nell’interazione con i nuclei del materiale e successiva emissione luminosa dovuta a ionizzazione degli atomi del rivelatore. La luce e in seguito convertita in impulsi elettrici, i quali possono essere analizzati con opportune tecniche. L’emissione di neutroni `e accompagnata da emissione di raggi gamma e quindi `e necessario identificare i neutroni. Rivelatori basati su scintillatori organici vengono spesso impiegati nella spettrometria neutronica ad energie superiori di 0.5 MeV ed in una vasta gamma di applicazioni come la medicina, l’industria e la radioprotezione. La rilevazione dei neutroni `e molto importante nello studio delle reazioni nucleari di bassa energia e nello studio della materia nucleare lontano dalla valle di stabilita. In questo lavoro abbiamo studiato tre algoritmi: Zero Crossing, Charge Comparison e Pulse Gradient Analysis. Questi algoritmi sono stati in seguito applicati all’analisi di un insieme di dati provenienti dalla reazione nucleare 7Li(p,n)7Be. E stato utilizzato uno scintillatore organico liquido BC501. Si `e effettuato un confronto tra le varie tecniche utilizzate per determinare il grado di discriminazione ottenuto con ognuna di esse. I risultati ottenuti permettono di decidere in seguito quale algoritmo si presta ad essere utilizzato anche in altri esperimenti futuri. Il metodo Pulse Gradient Analysis `e risultato il piu` prometente, essendo anche possibile l’utilizzo on-line.
Resumo:
On the basis of illustrations of Shakespeare's Hamlet, the new digital 'Oppel-Hammerschmidt Shakespeare Illustration Archive' at the Mainz University Library - together with a lavishly-constructed and multiply-linked Web interface version - was presented to the public on 17 November 2008. This e-book, edited by Andreas Anderhub and Hildegard Hammerschmidt-Hummel, contains the speeches and presentations given on the occasion of the opening ceremony of the electronic archive. The collection of the new archive, published here for the first time, holds about 3,500 images and is part of the only Shakespeare illustration archive in the world. The Shakespeare Illustration Archive was founded in 1946 by the internationally acclaimed Shakespeare and Goethe scholar, Prof. Horst Oppel. This part of the archive was donated to the Mainz University Library on condition that its holdings be digitalised and made available to the public. The collection has been named 'The Oppel-Hammerschmidt Shakespeare Illustration Archive' in accordance with the terms of the Agreement of Donation of 9, 15, and 16 September 2005, and honouring the 16 March 1988 Delegation of Authority and Declaration of Intent by Frau Ingeborg Oppel, Prof. Oppel's widow and legal assignee. Vice-President Prof. Jürgen Oldenstein opened the proceedings by noting that 2008 had been a good year for international Shakespeare scholarship. For, in London, the site of the 'Theatre' in Shoreditch, where Shakespeare's company performed, had been unearthed, and in Mainz the Shakespeare Archive had gone online with thousands of illustrations. The Dean of the Faculty of Philosophy and Philology, Prof. Mechthild Dreyer, who mentioned that she herself had long been successfully employing interdisciplinary research methods, took particular pleasure in the transdisciplinary approach to research resolutely pursued by Prof. Hammerschmidt-Hummel. Prof. Clemens Zintzen (Cologne), former President of the Mainz Academy of Literature and Sciences, recalled highlights from the more than sixty-year-long history of the Shakespeare Illustration Archive. Prof. Kurt Otten (Heidelberg and Cambridge) drew an impressive portrait of Horst Oppel's personality as an academic and praised his influential books on Goethe and Shakespeare. He pointed out that Oppel's Shakespeare Illustration Archive, the basis for many a dissertation, had enjoyed great popularity around the world. Prof. Otten also delineated the academic career of Prof. Hammerschmidt-Hummel and her new findings regarding Shakespeare's time, life and work. Prof. Rüdiger Ahrens OBE (Würzburg) drew attention to Prof. Hammerschmidt-Hummel's research results, directly or indirectly arising out of her work on the Shakespeare Illustration Archive. This research had centred on proving the authenticity of four visual representations of Shakespeare (the Chandos and Flower portraits, the Davenant bust and the Darmstadt Shakespeare death mask); solving the mystery around Shakespeare's 'Dark Lady'; and establishing the dramatist's Catholic religion. Prof. Hammerschmidt-Hummel reported on her 'Shakespeare Illustration' project, describing the nature, dimensions and significance of the Archive's pictorial material, which relates to all of Shakespeare's plays and stretches over five centuries. She explained that the digital 'Oppel-Hammerschmidt Illustration Archive' was an addition to the three-volume edition she had compiled, authored and edited for publication in 2003. Unlike the print version, however, the digital collection had only been partly editorially prepared. It represented source material and a basis for further work. Hammerschmidt-Hummel expressed her thanks to the Head of the Central University Library, Dr Andreas Anderhub, for his untiring commitment. After the initial donation had been made, he had entered enthusiastically into setting up the necessary contacts, getting all the work underway, and clearing the legal hurdles. Hammerschmidt-Hummel was especially grateful to University of Mainz librarian Heike Geisel, who had worked for nearly five years to carry out the large-scale digitalization of a total of 8,800 items. Frau Geisel was also extremely resourceful in devising ways of making the collection yield even more, e.g. by classifying and cross-linking the data, assembling clusters of individual topics that lend themselves to research, and (in collaboration with the art historian Dr Klaus Weber) making the archive's index of artists compatible with the data-bank of artists held by the University of Mainz Institute of Art History. In addition, she compiled an extremely helpful 'users' guide' to the new digital collection. Frau Geisel had enjoyed invaluable support from Dr Annette Holzapfel-Pschorn, the leading academic in the Central IT Department at the University, who set up an intelligent, most impressive Web interface using the latest application technologies. Frau Geisel and Dr Holzapfel-Pschorn were highly praised for their convincing demonstration, using illustrations to Hamlet, of how to access this well-devised and exceptionally user-friendly Web version. For legal reasons, Prof. Hammerschmidt-Hummel pointed out, the collection could not be released for open access on the internet. The media - as Dr Anderhub stressed in his foreword - had shown great interest in the new digital collection of thousands of Shakespearean illustrations (cf. Benjamin Cor's TV feature in "Tagesthemen", 17 November 2008, presented by Tom Buhrow). The ‘Oppel-Hammerschmidt Shakespeare Illustration Archive’ should also meet with particular interest not only among academic specialists, but also among the performers of the arts and persons active in the cultural realm in general, as well as theatre and film directors, literary managers, teachers, and countless Shakespeare enthusiasts.
Resumo:
La Legge di conversione n. 221/2012 del Decreto Legge n.79/2012 (c.d. Decreto Crescita 2.0) introduce nel Codice dell’Amministrazione Digitale la facoltà per ogni cittadino di indicare alla pubblica amministrazione un proprio indirizzo di posta elettronica certificata quale suo domicilio digitale. La Legge di conversione n. 98/2013 del Decreto Legge n. 69/2013 (c.d. Decreto del Fare) prevede l’assegnazione di una casella di posta elettronica certificata, con funzione di domicilio digitale, contestualmente al rilascio del Documento Digitale Unificato al cittadino. La disponibilità del domicilio digitale, costituito da una casella di posta elettronica certificata, può consentire alle amministrazioni pubbliche di dematerializzare le comunicazioni verso il cittadino indirizzandole al domicilio digitale con notevoli risparmi dovuti all’eliminazione della carta e delle spese spedizione. In questo studio, attorno al domicilio digitale e alle comunicazioni via posta elettronica certificata, si cercherà di spiegare come e con quali effetti, il diritto di ogni cittadino di disporre di un domicilio digitale possa proficuamente essere esercitato nelle comunicazioni e nelle trasmissioni di documenti con la pubblica amministrazione.
Resumo:
Keying e composizione sono da sempre tecniche ampiamente utilizzate in contesti multimediali, quali produzione cinematografica e televisiva; il chroma keying è in particolare la tecnica più popolare, ma presenta una serie di limiti e problematiche. In questo elaborato viene proposta una tecnica alternativa di estrazione, basata sull'uso della profondità, operante in tempo reale e che sfrutta il device Kinect di Microsoft. Sono proposti una serie di algoritmi, basati su tecniche di edge detection, utilizzati per il miglioramento della depth map lungo i bordi di estrazione; viene infine testato il risultato ottenuto dall'implementazione del sistema e proposta una possibile applicazione nell'ambito del teatro multimediale.
Resumo:
L’Arco d’Augusto di Rimini rappresenta da sempre il monumento simbolo della città; ha visto ogni periodo storico, dei quali riporta tuttora i segni in modo visibile. L’alto valore storico, culturale ed artistico che l’Arco porta con se merita di essere valorizzato, conservato e studiato. E’ stato realizzato un rilievo fotogrammetrico del monumento romano e una successiva analisi strutturale mediante la tecnica F.E.M. Il rilievo è stato eseguito con la moderna tecnica digitale non convenzionale, la quale ha permesso di comprendere quanto essa sia in grado di soddisfare le varie esigenze di rilievo nell’ambito dei Beni Culturali. Nel primo capitolo si affrontano le tematiche relative al rilievo dei Beni Culturali, si concentra poi l’attenzione sul settore della fotogrammetria digitale. Il secondo capitolo è dedicato interamente alla storia dell’Arco d’Augusto, riportando tutti i rilievi dell’Arco realizzati dal Medioevo ad oggi. Il terzo capitolo riporta la serie di restauri che l’Arco riminese ha subito nel corso dei secoli, fra cui i due grandi interventi di restauro: il primo eseguito nel 1947 dall’Ing. Rinaldi G., il secondo nel 1996-98 per opera dell’Arch. Foschi P.L. Nel quarto capitolo si parla di come la tecnica fotogrammetrica si presti molto bene all’analisi e al controllo delle deformazioni strutturali. Il capitolo cinque è dedicato al rilievo topo-fotogrammetrico dell’oggetto, affrontato in tutte le sue fasi: ricognizione preliminare,progettazione ed esecuzione delle prese. Il sesto capitolo affronta l’elaborazione dei dati mediante il software PhotoModeler Pro 5. Nel settimo capitolo si confronta il presente rilievo con l’ortofoto realizzata nel 1982 dall’Arch. Angelini R. Il capitolo otto riporta alcune informazioni al riguardo della geomorfologia della zona limitrofa all’Arco. Nell’ultimo capitolo si descrive l’impiego del software agli elementi finiti Straus7 per creare ed elaborare il modello numerico dell’Arco.
Resumo:
The development of next generation microwave technology for backhauling systems is driven by an increasing capacity demand. In order to provide higher data rates and throughputs over a point-to-point link, a cost-effective performance improvement is enabled by an enhanced energy-efficiency of the transmit power amplification stage, whereas a combination of spectrally efficient modulation formats and wider bandwidths is supported by amplifiers that fulfil strict constraints in terms of linearity. An optimal trade-off between these conflicting requirements can be achieved by resorting to flexible digital signal processing techniques at baseband. In such a scenario, the adaptive digital pre-distortion is a well-known linearization method, that comes up to be a potentially widely-used solution since it can be easily integrated into base stations. Its operation can effectively compensate for the inter-modulation distortion introduced by the power amplifier, keeping up with the frequency-dependent time-varying behaviour of the relative nonlinear characteristic. In particular, the impact of the memory effects become more relevant and their equalisation become more challenging as the input discrete signal feature a wider bandwidth and a faster envelope to pre-distort. This thesis project involves the research, design and simulation a pre-distorter implementation at RTL based on a novel polyphase architecture, which makes it capable of operating over very wideband signals at a sampling rate that complies with the actual available clock speed of current digital devices. The motivation behind this structure is to carry out a feasible pre-distortion for the multi-band spectrally efficient complex signals carrying multiple channels that are going to be transmitted in near future high capacity and reliability microwave backhaul links.
Resumo:
Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda USL della Romagna, Presidio Ospedaliero di Ravenna e consiste nella validazione del dato dosimetrico visualizzato su due apparecchiature per mammografia digitale e nel confronto tra qualità immagine di diverse curve di acquisizione in funzione della dose e della post-elaborazione. Presupposto per l’acquisizione delle immagini è stata la validazione del dato dosimetrico visualizzato sui mammografi, tramite misura diretta della dose in ingresso con strumentazione idonea, secondo protocolli standard e linee guida europee. A seguire, sono state effettuate prove di acquisizione delle immagini radiografiche su due diversi fantocci, contenenti inserti a diverso contrasto e risoluzione, ottenute in corrispondenza di tre curve dosimetriche e in funzione dei due livelli di post-elaborazione delle immagini grezze. Una volta verificati i vari passaggi si è proceduto con l’analisi qualitativa e quantitativa sulle immagini prodotte: la prima valutazione è stata eseguita su monitor di refertazione mammografica, mentre la seconda è stata effettuata calcolando il contrasto in relazione alla dose ghiandolare media. In particolare è stato studiato l’andamento del contrasto cambiando le modalità del software Premium View e lo spessore interposto tra la sorgente di raggi X ed il fantoccio, in modo da simulare mammelle con grandezze differenti.
Resumo:
La tesi tratta in modo approfondito le tipologie di apprendimento non tradizionale, ovvero in contesto non scolastico/universitario, focalizzandosi sull'importanza che hanno i dispositivi mobili come mezzo di aggiornamento e miglioramento costante delle conoscenze e abilità delle persone. Queste nuove metodologie sono chiamate microlearning e mobile learning, evoluzioni naturali dell'e-learning nate dall'esigenza di un apprendimento che non fosse più solo a distanza, ma applicabile al contesto mobile per rispecchiare le nuove esigenze delle persone.
Resumo:
La firma digitale è uno degli sviluppi più importanti della crittografia a chiave pubblica, che permette di implementarne le funzionalità di sicurezza. La crittografia a chiave pubblica, introdotta nel 1976 da Diffie ed Hellman, è stata l'unica grande rivoluzione nella storia della crittografia. Si distacca in modo radicale da ciò che l'ha preceduta, sia perché i suoi algoritmi si basano su funzioni matematiche e non su operazioni di sostituzione e permutazione, ma sopratutto perché è asimmetrica: prevede l'uso di due chiavi distinte (mentre nelle crittografia simmetrica si usa una sola chiave condivisa tra le parti). In particolare, le funzioni matematiche su cui si basa tale crittografia sono funzioni ben note nella Teoria dei Numeri: ad esempio fattorizzazione, calcolo del logaritmo discreto. La loro importanza deriva dal fatto che si ritiene che siano 'computazionalmente intrattabili' da calcolare. Dei vari schemi per la firma digitale basati sulla crittografia a chiave pubblica, si è scelto di studiare quello proposto dal NIST (National Institute of Standard and Technology): il Digital Signature Standard (DSS), spesso indicato come DSA (Digital Signature Algorithm) dal nome dell'algoritmo che utilizza. Il presente lavoro è strutturato in tre capitoli. Nel Capitolo 1 viene introdotto il concetto di logaritmo discreto (centrale nell'algoritmo DSA) e vengono mostrati alcuni algoritmi per calcolarlo. Nel Capitolo 2, dopo una panoramica sulla crittografia a chiave pubblica, si dà una definizione di firma digitale e delle sue caratteristiche. Chiude il capitolo una spiegazione di un importante strumento utilizzato negli algoritmi di firma digitale: le funzioni hash. Nel Capitolo 3, infine, si analizza nel dettaglio il DSA nelle tre fasi che lo costituiscono (inizializzazione, generazione, verifica), mostrando come il suo funzionamento e la sua sicurezza derivino dai concetti precedentemente illustrati.
Resumo:
In questo documento si presenta lo studio degli algoritmi matematici e crittografici su cui si basa il sistema di moneta digitale Bitcoin, in circolazione dal 2009. Bitcoin è un sistema di cripto valuta elettronica peer-to-peer, ideato da un anonimo conosciuto con lo pseudonimo "Satoshi Nakamoto", i cui principi sono descritti in un documento pubblicato nel 2008 ed ora accessibile in rete. L'utilizzo di Bitcoin permette di effettuare transazioni con sicurezza da un soggetto ad un altro e, grazie a una tecnologia peer-to-peer che opera senza alcuna autorità centrale e intermediari quali banche o istituzioni governative, sia la gestione delle operazioni sia l'emissione di denaro sono svolte per mezzo di un protocollo P2P. Nel corso della trattazione si propone un analisi più tecnica del sistema di gestione e creazione dei Bitcoin e degli strumenti crittografici che hanno permesso l'avvento di questa moneta elettronica decentralizzata.
Resumo:
Nel testo viene descritto passo dopo passo come la tecnologia si è imposta all'interno del campo radiologico. Dallo scenario generale con i vari attori e mezzi di comunicazione, alla realizzazione del progetto di trasformazione di tutta una unità radiologica da analogica a digitale.
Resumo:
Questa tesi tratta la gestione dei formati digitali dei testi, parziale argomento del progetto Biblio dell'università di Bologna. L'analisi proposta in questa tesi prevede la proposta di un'architettura che sfrutta in parte tecnologie già esistenti come linguaggi di markup, gestione di frammenti di testo con XPointer e epubcfi, tools per NLP, TEI, DocBook. Questa architettura ha il compito di modificare i formati digitali dei documenti in modo tale che la struttura sia indipendente dall'impaginazione. Ciò avviene attraverso l'introduzione delle unità informative, ossia nuovi elementi nella struttura del testo. Le unità informative sono di vari tipi, quelle più rilevanti ed innovative riguardano parti di testo e periodi; esse, infatti, permettono di identificare un preciso periodo dall'opera senza che esso dipenda dal tipo di impaginazione. Per ottenere questo risultato sono state sollevate tre problematiche principali: la gestione delle opere già esistenti, la gestione delle traduzioni, la gestione di opere inedite; esse vengono rispettivamente risolte nelle proposte dei postprocessor, del translationSystem e dell'authorSystem. Tutte e tre si basano sulla produzione di un'enumerazione delle unità informative, con una particolare attenzione per i periodi. Per riuscire a reperire i periodi si sfruttano le tecnologie di riconoscimento NLP. Il translationSystem e l'authorSystem presentano inoltre funzioni per la gestione della numerazione. Inoltre si prende in considerazione un repository e un sistema di autenticazione certificato per combattere furti d'identità, plagi e simili. Comprende accenni al recupero di unità informative sulla base di FRBR e una proposta per un sistema multiautore.
Resumo:
La Digital Volume Correlation (DVC) è una tecnica di misura a tutto campo, non invasiva, che permette di misurare spostamenti e deformazioni all’interno della struttura ossea in esame. Mediante la comparazione d’immagini con provino scarico e con provino carico, ottenute attraverso sistemi di tomografia computerizzata, si può ottenere la mappa degli spostamenti per ogni direzione e la mappa di deformazione per ogni componente di deformazione. L’obiettivo di questo lavoro di tesi è la validazione della DVC, attraverso la determinazione dell’errore sistematico (accuratezza) e dell’errore casuale (precisione), in modo da poter valutare il livello di affidabilità della strumentazione. La valutazione si effettua su provini di vertebre di maiale, aumentate e non, sia a livello d’organo, sia a livello di tessuto. The Digital Volume Correlation (DVC) is a full field and contact less measurement technique that allowed estimating displacement and strain inside bone specimen. Images of the unloaded and loaded specimen were obtained from micro-CT and compared in order to obtain the displacement map and, differentiating, the strain map. The aim of this work is the validation of the approach, estimating the lack of accuracy (systematic error) and the lack of precision (random error) on different kinds of porcine vertebra, augmented and not, analysing the specimen on tissue level and on organ level.
Resumo:
Tra tutte le tecniche sviluppate per il recupero di segnali, i metodi basati sul principio di rilevazione sincrona, utilizzati dagli amplificatori lock-in, sono largamente i più usati in tutti i campi della ricerca scientifica. Gli amplificatori lock-in sono strumenti utilizzati per rilevare e misurare segnali in ambienti in cui il rumore di fondo può essere di diversi ordini di grandezza più grande del segnale che si intende misurare. In questo lavoro viene presentato un metodo per realizzare un amplificatore lock-in digitale su scheda hardware NI ELVIS II+ e software LabVIEW. In seguito viene descritto come, attraverso test opportuni, sono state analizzate le performance del sistema realizzato e sono state confrontate con i sistemi disponibili commercialmente. Infine, l’amplificatore lock-in realizzato è stato poi utilizzato in un esperimento di misura spettroscopica dell’energia di gap di un campione di Germanio per mezzo dell’effetto fotoelettrico interno.