938 resultados para firma digitale, dematerializzazione, timbro digitale
Resumo:
La tomosintesi digitale computerizzata è una particolare tecnica che permette di ricostruire una rappresentazione 3D di un oggetto, con un numero finito di proiezioni su un range angolare limitato, sfruttando le convenzionali attrezzature digitali a raggi X. In questa tesi è stato descritto un modello matematico per la ricostruzione dell’immagine della mammella nella tomosintesi digitale polienergetica che tiene conto della varietà di materiali che compongono l’oggetto e della natura polienergetica del fascio di raggi X. Utilizzando questo modello polienergetico-multimateriale, la ricostruzione dell’immagine di tomosintesi è stata ricondotta alla formulazione di un problema dei minimi quadrati non lineare su larga scala e risolverlo ha permesso la ricostruzione delle percentuali dei materiali del volume assegnato. Nelle sperimentazioni sono stati implementati il metodo del gradiente, il metodo di Gauss-Newton ed il metodo di Gauss-Newton CGLS. E' stato anche utilizzato l’algoritmo trust region reflective implementato nella funzione lsqnonlin di MATLAB. Il problema della ricostruzione dell'immagine di tomosintesi è stato risolto utilizzando questi quattro metodi ed i risultati ottenuti sono stati confrontati tra di loro.
Resumo:
La rotazione dell’apice del cuore è una delle espressioni della complessa cinematica del miocardio e rappresenta un importante indice di funzionalità cardiaca. Disporre di un sensore impiantabile che permetta un monitoraggio continuo di tale parametro consentirebbe di individuare precocemente un deterioramento della performance cardiaca e di adattare tempestivamente la terapia. L’obiettivo del lavoro di tesi è la realizzazione di un sistema di acquisizione dati per segnali provenienti da un giroscopio MEMS triassiale da utilizzarsi per lo studio della cinematica cardiaca, in particolare della rotazione del cuore. Per leggere e decodificare i segnali digitali in uscita dal giroscopio MEMS triassiale utilizzato (CMR3100, VTI Technologies) è stata progettata e sviluppata un’unità di condizionamento composta da una board Arduino ADK, associata ad un adattatore di tensione PCA9306 e a 3 convertitori digitali/analogici MCP4921, che ha richiesto lo sviluppo di software per la gestione del protocollo di comunicazione e della decodifica del segnale digitale proveniente dal sensore. Per caratterizzare e validare il sistema realizzato sono state effettuate prove di laboratorio, che hanno permesso di individuare i parametri di lavoro ottimali del sensore. Una prima serie di prove ha dimostrato come l’unità di condizionamento realizzata consenta di acquisire i segnali con una velocità di processo elevata (1 kHz) che non comporta perdita di dati in uscita dal sensore. Successivamente, attraverso un banco prova di simulazione appositamente assemblato allo scopo di riprodurre rotazioni cicliche nel range dei valori fisio-patologici, è stato quantificato lo sfasamento temporale (St) tra il segnale rilevato dal CMR3100 e decodificato dall'unità di condizionamento e un segnale analogico in uscita da un giroscopio analogico, ottenendo un valore medio St=4 ms. Attraverso lo stesso banco di simulazione, è stata infine dimostrata una buona accuratezza (errore percentuale <10%) nella misura dell'angolo di rotazione derivato dal segnale di velocità angolare rilevato direttamente dal sensore CRM300.
Resumo:
È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.
Resumo:
Fino dagli albori della metodica scientifica, l’osservazione e la vista hanno giocato un ruolo fondamentale. La patologia è una scienza visiva, dove le forme, i colori, le interfacce e le architetture di organi, tessuti, cellule e componenti cellulari guidano l’occhio del patologo e ne indirizzano la scelta diagnostico-classificativa. L’osservazione del preparato istologico in microscopia ottica si attua mediante l’esame e la caratterizzazione di anomalie ad ingrandimenti progressivamente crescenti, a diverse scale spaziali, che partono dalla valutazione dell’assetto architettonico sovracellulare, per poi spostarsi ad investigare e descrivere le cellule e le peculiarità citomorfologiche delle stesse. A differenza di altri esami di laboratorio che sono pienamente quantificabili, l’analisi istologica è intrinsecamente soggettiva, e quindi incline ad un alto grado di variabilità nei risultati prodotti da differenti patologi. L’analisi d’immagine, l’estrazione da un’immagine digitale di contenuti utili, rappresenta una metodica oggettiva, valida e robusta ormai largamente impiegata a completamento del lavoro del patologo. Si sottolinea come l’analisi d’immagine possa essere vista come fase descrittiva quantitativa di preparati macroscopici e microscopici che poi viene seguita da una interpretazione. Nuovamente si sottolinea come questi descrittori siano oggettivi, ripetibili e riproducibili, e non soggetti a bassa concordanza inter operatore. La presente tesi si snoda attraverso un percorso concettuale orientato ad applicazioni di analisi d’immagine e patologia quantitativa che parte dalle applicazioni più elementari (densità, misure lineari), per arrivare a nozioni più avanzate, quali lo studio di complessità delle forme mediante l’analisi frattale e la quantificazione del pattern spaziale di strutture sovracellulari.
Resumo:
Internet e turismo sono due settori che si intersecano profondamente e che da sempre risultano interconnessi. Grazie al progresso delle nuove tecnologie l’ambito turistico ha mutato profondamente i suoi connotati, sia da un punto di vista strutturale sia nella gestione e nella distribuzione delle informazioni. Con l’ingresso nell’era digitale, lo sviluppo delle ICT (Information and Communication Technologies) e l’avvento del web 2.0, la comunicazione turistica si è modificata in modo sostanziale: si è passati da una comunicazione monologica e unidirezionale da esperti a pubblico, a un dialogo tra le varie parti coinvolte, dove la centralità dell’utente/consumatore, che ha acquisito un ruolo proattivo e guadagnato il diritto di parola, si fa sempre più evidente. In particolare la comparsa del web sociale, che si contraddistingue per la sua forte dinamicità e un carattere collaborativo e comunitario, ha permesso lo sviluppo di modelli comunicativi originali, che sono riusciti ad apportare elementi innovativi e peculiari anche nel linguaggio del turismo, varietà linguistica già di per sé piuttosto particolare ed eterogenea. Tramite l’analisi della versione spagnola del portale di viaggi più famoso al mondo (Tripadvisor.es), si è cercato di evidenziare quali caratteristiche mostrate nei testi pubblicati in questo spazio fossero riconducibili all’influenza del linguaggio del turismo dei generi più tradizionali (guide, dépliant, cataloghi) e quali invece fossero gli elementi attribuibili al mezzo computer e quindi appartenessero alla sfera della comunicazione mediata dal computer.
Resumo:
Innerhalb des Untersuchungsgebiets Schleswig-Holstein wurden 39.712 topographische Hohlformen detektiert. Genutzt wurden dazu ESRI ArcMap 9.3 und 10.0. Der Datenaufbereitung folgten weitere Kalkulationen in MATLAB R2010b. Jedes Objekt wurde räumlich mit seinen individuellen Eigenschaften verschnitten. Dazu gehörten Fläche, Umfang, Koordinaten (Zentroide), Tiefe und maximale Tiefe der Hohlform und Formfaktoren wie Rundheit, Konvexität und Elongation. Ziel der vorgestellten Methoden war die Beantwortung von drei Fragestellungen: Sind negative Landformen dazu geeignet Landschaftseinheiten und Eisvorstöße zu unterscheiden und zu bestimmen? Existiert eine Kopplung von Depressionen an der rezenten Topographie zu geologischen Tiefenstrukturen? Können Senken unterschiedlicher Entstehung anhand ihrer Formcharakteristik unterteilt werden? Die vorgenommene Klassifikation der großen Landschaftseinheiten basiert auf der Annahme, dass sowohl Jungmoränengebiete, ihre Vorflächen als auch Altmoränengebiete durch charakteristische, abflusslose Hohlformen, wie Toteislöcher, Seen, etc. abgegrenzt werden können. Normalerweise sind solche Depressionen in der Natur eher selten, werden jedoch für ehemalige Glaziallandschaften als typisch erachtet. Ziel war es, die geologischen Haupteinheiten, Eisvorstöße und Moränengebiete der letzten Vereisungen zu differenzieren. Zur Bearbeitung wurde ein Detektionsnetz verwendet, das auf quadratischen Zellen beruht. Die Ergebnisse zeigen, dass durch die alleinige Nutzung von Depressionen zur Klassifizierung von Landschaftseinheiten Gesamtgenauigkeiten von bis zu 71,4% erreicht werden können. Das bedeutet, dass drei von vier Detektionszellen korrekt zugeordnet werden können. Jungmoränen, Altmoränen, periglazialeVorflächen und holozäne Bereiche können mit Hilfe der Hohlformen mit großer Sicherheit voneinander unterschieden und korrekt zugeordnet werden. Dies zeigt, dass für die jeweiligen Einheiten tatsächlich bestimmte Senkenformen typisch sind. Die im ersten Schritt detektierten Senken wurden räumlich mit weiterreichenden geologischen Informationen verschnitten, um zu untersuchen, inwieweit natürliche Depressionen nur glazial entstanden sind oder ob ihre Ausprägung auch mit tiefengeologischen Strukturen in Zusammenhang steht. 25.349 (63,88%) aller Senken sind kleiner als 10.000 m² und liegen in Jungmoränengebieten und können vermutlich auf glaziale und periglaziale Einflüsse zurückgeführt werden. 2.424 Depressionen liegen innerhalb der Gebiete subglazialer Rinnen. 1.529 detektierte Hohlformen liegen innerhalb von Subsidenzgebieten, von denen 1.033 innerhalb der Marschländer im Westen verortet sind. 919 große Strukturen über 1 km Größe entlang der Nordsee sind unter anderem besonders gut mit Kompaktionsbereichen elsterzeitlicher Rinnen zu homologisieren.344 dieser Hohlformen sind zudem mit Tunneltälern im Untergrund assoziiert. Diese Parallelität von Depressionen und den teils über 100 m tiefen Tunneltälern kann auf Sedimentkompaktion zurückgeführt werden. Ein Zusammenhang mit der Zersetzung postglazialen, organischen Materials ist ebenfalls denkbar. Darüber hinaus wurden in einer Distanz von 10 km um die miozän aktiven Flanken des Glückstadt-Grabens negative Landformen detektiert, die Verbindungen zu oberflächennahen Störungsstrukturen zeigen. Dies ist ein Anzeichen für Grabenaktivität während und gegen Ende der Vereisung und während des Holozäns. Viele dieser störungsbezogenen Senken sind auch mit Tunneltälern assoziiert. Entsprechend werden drei zusammenspielende Prozesse identifiziert, die mit der Entstehung der Hohlformen in Verbindung gebracht werden können. Eine mögliche Interpretation ist, dass die östliche Flanke des Glückstadt-Grabens auf die Auflast des elsterzeitlichen Eisschilds reagierte, während sich subglazial zeitgleich Entwässerungsrinnen entlang der Schwächezonen ausbildeten. Diese wurden in den Warmzeiten größtenteils durch Torf und unverfestigte Sedimente verfüllt. Die Gletschervorstöße der späten Weichselzeit aktivierten erneut die Flanken und zusätzlich wurde das Lockermaterial exariert, wodurch große Seen, wie z. B. der Große Plöner See entstanden sind. Insgesamt konnten 29 große Depressionen größer oder gleich 5 km in Schleswig-Holstein identifiziert werden, die zumindest teilweise mit Beckensubsidenz und Aktivität der Grabenflanken verbunden sind, bzw. sogar auf diese zurückgehen.Die letzte Teilstudie befasste sich mit der Differenzierung von Senken nach deren potentieller Genese sowie der Unterscheidung natürlicher von künstlichen Hohlformen. Dazu wurde ein DEM für einen Bereich im Norden Niedersachsens verwendet, das eine Gesamtgröße von 252 km² abdeckt. Die Ergebnisse zeigen, dass glazial entstandene Depressionen gute Rundheitswerte aufweisen und auch Elongation und Exzentrizität eher kompakte Formen anzeigen. Lineare negative Strukturen sind oft Flüsse oder Altarme. Sie können als holozäne Strukturen identifiziert werden. Im Gegensatz zu den potentiell natürlichen Senkenformen sind künstlich geschaffene Depressionen eher eckig oder ungleichmäßig und tendieren meist nicht zu kompakten Formen. Drei Hauptklassen topographischer Depressionen konnten identifiziert und voneinander abgegrenzt werden: Potentiell glaziale Senken (Toteisformen), Flüsse, Seiten- und Altarme sowie künstliche Senken. Die Methode der Senkenklassifikation nach Formparametern ist ein sinnvolles Instrument, um verschiedene Typen unterscheiden zu können und um bei geologischen Fragestellungen künstliche Senken bereits vor der Verarbeitung auszuschließen. Jedoch zeigte sich, dass die Ergebnisse im Wesentlichen von der Auflösung des entsprechenden Höhenmodells abhängen.
Resumo:
In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.
Resumo:
Bitcoin è una moneta digitale decentralizzata e parzialmente anonima. Viene scambiata tramite un software open source che utilizza la crittografia per garantire l'integrità e l'autenticità delle transazioni. Permette di inviare denaro digitale in maniera rapida, sicura ed economica attraverso Internet. La tesi si propone di analizzarne il fenomeno, partendo dalla sua storia fino alle possibili evoluzioni future. Vengono introdotte le basi di crittografia per comprenderne i concetti ed i meccanismi di funzionamento. In seguito viene analizzata l'implementazione del software e vengono discussi i principali vantaggi e criticità. La tesi esplora le possibili conseguenze di una sua adozione dal punto di vista economico e politico, e le innovazioni che potrebbe portare al sistema finanziario. Vengono infine mostrati alcuni esempi di software ispirati a Bitcoin che ne estendono ed ampliano le funzionalità nell'ambito dei sistemi distribuiti.
Resumo:
Tra le plurime conseguenze dell’avvento del digitale, la riarticolazione dei rapporti tra immagine statica e immagine in movimento è certamente una delle più profonde. Sintomatica dei cambiamenti in atto sia nei film studies sia nella storia dell’arte, tale riarticolazione richiede un ripensamento dei confini disciplinari tradizionali entro cui il cinema e la fotografia sono stati affrontati come oggetti di studio separati e distinti. Nell’adottare un approccio molteplice, volto a comprendere prospettive provenienti dalla New Film History e dalla media archaeology, dalla teoria dell’arte e dagli studi visuali, questo lavoro esplora l’esistenza di una relazione dialettica tra il cinema e la fotografia intesa in modo duplice: come tensione costitutiva tra due media indissolubilmente connessi – non tanto in considerazione di un medesimo principio realistico di rappresentazione quanto, piuttosto, in virtù di uno scambio incessante nella modellizzazione di categorie quali il tempo, il movimento, l’immobilità, l’istante, la durata; come istanza peculiare della pratica artistica contemporanea, paradigma di riferimento nella produzione estetica di immagini. La tesi si suddivide in tre capitoli. Il primo si concentra sul rapporto tra l’immobilità e il movimento dell’immagine come cifra in grado di connettere l’estetica delle attrazioni e la cronofotografia a una serie di esperienze filmiche e artistiche prodotte nei territori delle avanguardie. Il secondo capitolo considera l’emergenza, dagli anni Novanta, di pratiche artistiche in cui l’incontro intermediale tra film e fotografia fornisce modelli di analisi volti all’indagine dell’attuale condizione estetica e tecnologica. Il terzo offre una panoramica critica su un caso di studio, la GIF art. La GIF è un formato digitale obsoleto che consente di produrre immagini che appaiono, simultaneamente, come fisse e animate; nel presente lavoro, la GIF è discussa come un medium capace di contraddire i confini attraverso cui concepiamo l’immagine fissa e in movimento, suggerendo, inoltre, un possibile modello di pensiero storico-cronologico anti-lineare.
Resumo:
In vielen Bereichen der industriellen Fertigung, wie zum Beispiel in der Automobilindustrie, wer- den digitale Versuchsmodelle (sog. digital mock-ups) eingesetzt, um die Entwicklung komplexer Maschinen m ̈oglichst gut durch Computersysteme unterstu ̈tzen zu k ̈onnen. Hierbei spielen Be- wegungsplanungsalgorithmen eine wichtige Rolle, um zu gew ̈ahrleisten, dass diese digitalen Pro- totypen auch kollisionsfrei zusammengesetzt werden k ̈onnen. In den letzten Jahrzehnten haben sich hier sampling-basierte Verfahren besonders bew ̈ahrt. Diese erzeugen eine große Anzahl von zuf ̈alligen Lagen fu ̈r das ein-/auszubauende Objekt und verwenden einen Kollisionserken- nungsmechanismus, um die einzelnen Lagen auf Gu ̈ltigkeit zu u ̈berpru ̈fen. Daher spielt die Kollisionserkennung eine wesentliche Rolle beim Design effizienter Bewegungsplanungsalgorith- men. Eine Schwierigkeit fu ̈r diese Klasse von Planern stellen sogenannte “narrow passages” dar, schmale Passagen also, die immer dort auftreten, wo die Bewegungsfreiheit der zu planenden Objekte stark eingeschr ̈ankt ist. An solchen Stellen kann es schwierig sein, eine ausreichende Anzahl von kollisionsfreien Samples zu finden. Es ist dann m ̈oglicherweise n ̈otig, ausgeklu ̈geltere Techniken einzusetzen, um eine gute Performance der Algorithmen zu erreichen.rnDie vorliegende Arbeit gliedert sich in zwei Teile: Im ersten Teil untersuchen wir parallele Kollisionserkennungsalgorithmen. Da wir auf eine Anwendung bei sampling-basierten Bewe- gungsplanern abzielen, w ̈ahlen wir hier eine Problemstellung, bei der wir stets die selben zwei Objekte, aber in einer großen Anzahl von unterschiedlichen Lagen auf Kollision testen. Wir im- plementieren und vergleichen verschiedene Verfahren, die auf Hu ̈llk ̈operhierarchien (BVHs) und hierarchische Grids als Beschleunigungsstrukturen zuru ̈ckgreifen. Alle beschriebenen Verfahren wurden auf mehreren CPU-Kernen parallelisiert. Daru ̈ber hinaus vergleichen wir verschiedene CUDA Kernels zur Durchfu ̈hrung BVH-basierter Kollisionstests auf der GPU. Neben einer un- terschiedlichen Verteilung der Arbeit auf die parallelen GPU Threads untersuchen wir hier die Auswirkung verschiedener Speicherzugriffsmuster auf die Performance der resultierenden Algo- rithmen. Weiter stellen wir eine Reihe von approximativen Kollisionstests vor, die auf den beschriebenen Verfahren basieren. Wenn eine geringere Genauigkeit der Tests tolerierbar ist, kann so eine weitere Verbesserung der Performance erzielt werden.rnIm zweiten Teil der Arbeit beschreiben wir einen von uns entworfenen parallelen, sampling- basierten Bewegungsplaner zur Behandlung hochkomplexer Probleme mit mehreren “narrow passages”. Das Verfahren arbeitet in zwei Phasen. Die grundlegende Idee ist hierbei, in der er- sten Planungsphase konzeptionell kleinere Fehler zuzulassen, um die Planungseffizienz zu erh ̈ohen und den resultierenden Pfad dann in einer zweiten Phase zu reparieren. Der hierzu in Phase I eingesetzte Planer basiert auf sogenannten Expansive Space Trees. Zus ̈atzlich haben wir den Planer mit einer Freidru ̈ckoperation ausgestattet, die es erlaubt, kleinere Kollisionen aufzul ̈osen und so die Effizienz in Bereichen mit eingeschr ̈ankter Bewegungsfreiheit zu erh ̈ohen. Optional erlaubt unsere Implementierung den Einsatz von approximativen Kollisionstests. Dies setzt die Genauigkeit der ersten Planungsphase weiter herab, fu ̈hrt aber auch zu einer weiteren Perfor- mancesteigerung. Die aus Phase I resultierenden Bewegungspfade sind dann unter Umst ̈anden nicht komplett kollisionsfrei. Um diese Pfade zu reparieren, haben wir einen neuartigen Pla- nungsalgorithmus entworfen, der lokal beschr ̈ankt auf eine kleine Umgebung um den bestehenden Pfad einen neuen, kollisionsfreien Bewegungspfad plant.rnWir haben den beschriebenen Algorithmus mit einer Klasse von neuen, schwierigen Metall- Puzzlen getestet, die zum Teil mehrere “narrow passages” aufweisen. Unseres Wissens nach ist eine Sammlung vergleichbar komplexer Benchmarks nicht ̈offentlich zug ̈anglich und wir fan- den auch keine Beschreibung von vergleichbar komplexen Benchmarks in der Motion-Planning Literatur.
Resumo:
La tesi espone il caso della Valve Corporation, una azienda produttrice e distributrice di Videogiochi. Questa azienda, leader nel suo settore, ha adottato una organizzazione di tipo "flat" ed ha ideato particolari e innovative soluzioni per la produzione dei suoi software. Ha inoltre sviluppato una piattaforma di distribuzione digitale per la vendita online di Videogiochi.
Resumo:
L’obbiettivo di questa tesi è quello di studiare le tecnologie e i metodi necessari alla simulazione degli effetti audio lineari, normalmente utilizzati per strumenti a corda elettrici, ed implementarla sullo smartphone. I vantaggi di questa idea sono evidenti nella versatilità e nella comodità di utilizzo, rispetto ai classici dispositivi impiegati dai musicisti (come gli effetti a pedali). Per fare ciò è necessaria la conoscenza delle tecniche di rappresentazione digitale di un segnale, come la trasformata di Fourier, il processo di campionamento e la trasformata Z, esposte nel Capitolo 1. Il Capitolo 2 continua l’introduzione trattando dei metodi utilizzati per creare effetti audio lineari tramite lo studio dei filtri FIR e IIR. Nel capitolo 3 sarà disponibile una classificazione degli effetti più utilizzati, seguiti dal procedimento di sviluppo di due sistemi: un equalizzatore a 10 bande e un delay, che saranno implementati nello smartphone. L’ultimo Capitolo, il quarto, spiega come è sviluppato il progetto, perché iOS è l’unico sistema operativo che permetta di farlo, ed indica le principali classi che necessitano di essere utilizzate.
Resumo:
Una stampa libera e plurale è un elemento fondante di ogni sistema democratico ed è fondamentale per la creazione di un’opinione pubblica informata e in grado di esercitare controllo e pressione sulle classi dirigenti. Dal momento della loro creazione i giornali si sono imposti come un’importantissima fonte di informazione per l’opinione pubblica. La seconda metà del Novecento, inoltre, ha conosciuto innovazioni tecnologiche che hanno portato grandi cambiamenti nel ruolo della carta stampata come veicolo di trasmissione delle notizie. Partendo dalla diffusione della televisione fino ad arrivare alla rivoluzione digitale degli anni ’90 e 2000, la velocità di creazione e di trasmissione delle informazioni è aumentata esponenzialmente, i costi di produzione e di acquisizione delle notizie sono crollati e una quantità enorme di dati, che possono fornire moltissime informazioni relative alle idee e ai contenuti proposti dai diversi autori nel corso del tempo, è ora a disposizione di lettori e ricercatori. Tuttavia, anche se grazie alla rivoluzione digitale i costi materiali dei periodici si sono notevolmente ridotti, la produzione di notizie comporta altre spese e pertanto si inserisce in un contesto di mercato, sottoposto alle logiche della domanda e dell'offerta. In questo lavoro verrà analizzato il ruolo della domanda e della non perfetta razionalità dei lettori nel mercato delle notizie, partendo dall’assunto che la differenza di opinioni dei consumatori spinge le testate a regolare l’offerta di contenuti, per venire incontro alla domanda di mercato, per verificare l’applicabilità del modello utilizzato (Mullainhatan e Shleifer, 2005) al contesto italiano. A tale scopo si è analizzato il comportamento di alcuni quotidiani nazionali in occasione di due eventi che hanno profondamente interessato l'opinione pubblica italiana: il fenomeno dei flussi migratori provenienti dalla sponda sud del Mediterraneo nel mese di ottobre 2013 e l'epidemia di influenza H1N1 del 2009.
Resumo:
Seit der Geburt von Louise J. Brown (1978) als erstem künstlich erzeugtem Kind hat sich die Nachfrage nach assistierten Reproduktionstechniken (ART) stark erhöht. Der Anteil der nach In-vitro-Fertilisation (IVF) oder Intrazytoplasmatischer Spermieninjektion (ICSI) geborenen Kinder macht mittlerweile abhängig vom betrachteten Industrieland zwischen 1-4% an der Gesamtgeburtenzahl aus. In zahlreichen Studien korreliert eine erhöhte Prävalenz für seltene Imprinting-Erkrankungen, wie z.B. Beckwith-Wiedemann oder Angelman-Syndrom, mit der Geburt nach assistierten Reproduktionstechniken. Es ist bekannt, dass die medizinischen Interventionen zur Behandlung von Sub- und Infertilität in sehr sensitive Phasen der epigenetischen Reprogrammierung des Embryos und der Keimzellen eingreifen. In der vorliegenden Arbeit wurde untersucht, ob die ovarielle Stimulation einen Einfluss auf die epigenetische Integrität von geprägten Genen in murinen Präimplantationsembryonen hat. Die in diesem Zusammenhang entwickelte digitale Bisulfitpyrosequenzierung gewährleistet die Analyse der DNA-Methylierung auf Einzelallelebene durch eine adäquate Verdünnung der Probe im Vorfeld der PCR. Die ovarielle Induktion führte zu einem erhöhten Rate an Epimutationen des paternalen H19-Allels, sowie des maternalen Snrpn-Allels. Zudem konnte festgestellt werden, dass die Expression von drei potentiellen Reprogrammierungsgenen (Apex1, Polb, Mbd3) in Embryonen aus hormonell stimulierten Muttertieren dereguliert ist. Whole-Mount Immunfluoreszenzfärbungen für APEX1 korrelierten dessen differentielle Genexpression mit dem Proteinlevel. Anzeichen früher apoptotischer Vorgänge äußerten sich in Embryonen aus hormonell induzierten Muttertieren in der hohen Rate an Embryonen, die keines der drei Transkripte exprimierten oder weniger APEX1-positive Blastomeren aufwiesen.In einer weiteren Fragestellung wurde untersucht, ob die Kryokonservierung muriner Spermatozoen den epigenetischen Status geprägter Gene in den Keimzellen beeinflusst. Die Analyse von F1-Zweizellembryonen, die durch IVF mit den jeweiligen Spermatozoen eines Männchens generiert wurden, diente der Aufklärung möglicher paternaler Transmissionen. Insgesamt konnten keine signifikanten Auswirkungen der Kryokonservierung auf den epigenetischen Status in Spermatozoen und F1-Embryonen ermittelt werden.
Resumo:
Lo studio di sistemi quantistici sta alla base di molti dei moderni sviluppi teorici e applicativi della Fisica. In questo scritto vogliamo studiare il funzionamento di simulatori e computer quantistici. I primi permettono di simulare l’evoluzione di un sistema quantistico in maniera controllata gli altri possono eseguire operazioni logiche su oggetti chiamati qubits. Andremo a studiare come ottenere un set universale di porte logiche quantistiche e le loro caratteristiche. Analizzeremo le differenze tra simulazione analogica(AQS) e digitale(DQS). Applicheremo quest’ultima a sistemi di particelle fermioniche e bosoniche in un reticolo.