1000 resultados para digitale Medien


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La firma grafometrica è la sottoscrizione autografa eseguita con uno stilo elettronico su un dispositivo di acquisizione digitale e rappresenta ad oggi nel panorama delle tipologie di firma elettroniche una realtà a tutti gli effetti realizzabile. Questa tipologia di firma elettronica fonda il proprio valore sulle caratteristiche di universalità, unicità, permanenza e collezionabilità dei dati biometrici. Il successo della firma grafometrica è da ricercare invece nella sua stessa natura di firma, in quanto l'uomo da sempre è stato abituato ad eseguire il gesto dell'apposizione della propria firma autografa a dichiarazione della propria volontà. La profonda informatizzazione degli ultimi anni e la recente normativa hanno quindi permesso di trasferire la semplicità di questo gesto dal contesto analogico a quello digitale. I vantaggi derivanti dall'utilizzo della firma grafomentrica sono molteplici: innanzitutto il suo utilizzo comporta la completa dematerializzazione della gestione documentale aziendale con considerevoli risparmi dati dall'annullamento dei costi di stampa ed archiviazione dei documenti stessi, comporta inoltre una maggiore velocità di esecuzione dei processi documentali (dalla realizzazione dei documenti alla ricerca degli stessi) ed infine rende possibile l’ottenimento di documenti già predisposti per la conservazione a norma (con conseguente mantenimento della validità legale nel tempo). Come conseguenza di questa trasposizione dall'analogico al digitale si sono presentate tuttavia problematiche derivanti dalla natura stessa del nuovo contesto; la realizzazione di soluzioni di firma grafometrica richiede quindi una forte attenzione, al fine di evitare che i dati biometrici possano essere utilizzati impropriamente. Questa tesi è quindi volta a descrivere sia a livello normativo che tecnologico questa tipologia di firma elettronica avanzata. Nel corso della trattazione verranno inoltre fornite delle linee guida per la realizzazione di un corretto processo di apposizione della firma grafometrica a tutela della sicurezza dei dati biometrici dell'individuo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fino a qualche anno fa, la conversione di documenti cartacei in documenti digitali appariva come una vera e propria utopia. Quest’oggi invece pensiamo al digitale di qualsiasi tipologia come fosse un fattore prioritario, scontato ed immediato, da poterlo considerare una vera a propria dipendenza. Mentre una volta i documenti venivano depositati in archivi talvolta rudi e polverosi, spiacevoli da recuperare, sia per tempistiche sia per condizioni, oggi la quotidianità è così frenetica che occorre ottenere tutto in modo tempestivo. Un’ evoluzione socio-culturale ha portato all’elaborazione di tecniche sempre più sofisticate di ottimizzazione nel campo; si parla di “dematerializzazione dei documenti” o “processo di conservazione sostitutiva”, innovazione che ha determinato una vera e propria rivoluzione nella Pubblica Amministrazione, nei rapporti tra privati, nell’Ordinamento Giuridico e nella scienza del diritto, poiché è radicalmente mutata la concezione di “documento” così com’è conosciuto da migliaia di anni, nella sua natura res signata, “cosa “ che riporta informazioni. Il concetto di ”smaterializzazione” non è un’ assoluta novità se si pensa alle transazioni finanziarie di enormi quantità di denaro, che da anni avvengono in tutto il mondo, grazie a “documenti informatici”, senza che passi di mano una sola banconota. Lo scopo di questa tesi è approfondire il processo di conservazione sostitutiva, partendo dalle figure ad esso legate, per poi continuare con le regole tecniche di adozione, la validità probatoria dei documenti informatici, i formati, i metadati utilizzati, e così via.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit untersucht die sprachlichen Handlungen von Massenmedien bei der Skandalisierung gesellschaftlicher und politischer Ereignisse nach konzeptionellen und funktionalen Gesichtspunkten. Die Untersuchung knüpft dabei an die Vorleistungen der sozial- und kommunikationswissenschaftlichen Skandalforschung an. Der hier eingeführte handlungstheoretische Ansatz zur Untersuchung der sprecherseitigen kommunikativen Handlungen im Prozess der Skandalisierung fußt auf den Erkenntnissen der gegenwärtigen Skandalforschung unter Berücksichtigung ihrer Leistungen und Grenzen. Er dient dabei dem genauen Verständnis der Kommunikationsstrategien der Medien bei der Skandalisierung.rnGleichzeitig geht die Arbeit der Frage nach der unterschiedlichen Struktur verschiedener Skandale auf den Grund. Dazu wird bei der empirischen Untersuchung von Fallbeispielen der funktionale Zusammenhang von ereignis- und kommunikationsspezifischen Aspekten der Skandalisierung genauer betrachtet. Grundlegend im methodischen Vorgehen bei der Analyse ist ein sprachwissenschaftlicher Ansatz, der durch eine kultursemiotische Betrachtung ereignisspezifischer Vorgaben der Skandalisierung ergänzt wird. Das daraus entwickelte Zweiebenenmodell in der Untersuchung ermöglicht es, skandaltypische Kommunikationsschemata zu identifizieren und gleichzeitig fallspezifische Besonderheiten in der kommunikativen Umsetzung zu erkennen und einzuordnen.rnDas systematisch und intersubjektiv konzipierte Analyseverfahren wird exemplarisch an zwei Skandalbeispielen, dem Friedman-Skandal 2003 und dem BND-Spitzelskandal 2006, überprüft. Die Datenbasis dafür ergibt sich aus der jeweiligen Vollerhebung der Printberichterstattung in drei überregionalen deutschen Tageszeitungen. rnDie Arbeit ist in acht Kapitel untergliedert. Eingangs werden die zentralen Erkenntnisse und Grenzen der Skandalforschung betrachtet, um darauf aufbauend die Vorgehensweise in der vorliegenden Untersuchung abzuleiten. Die anschließenden Ausführungen zum methodischen Vorgehen bilden die Grundlage für die Fallanalyse. Abschließend werden die empirischen Erkenntnisse der Analysen ausgewertet und die Eignung der angewandten Vorgehensweise zur interdisziplinären Untersuchung von Skandalen überprüft.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit befasst sich mit der Erlösdiversifizierung privater deutscher Free-TV-Unternehmen. Im Zentrum stehen dabei die Entwicklung eines Nutzwerttheo-rie-basierten Modells zur Bestimmung attraktiver Diversifikationsfelder und dessen empirische Überprüfung. Zur Modellbildung werden sowohl der market-based als auch der resource-based View des strategischen Managements berücksichtigt und methodisch integriert. Zunächst werden anhand von Fallstudien der Mediengruppe RTL Deutsch-land und der ProSiebenSat.1 Media AG der strategische Optionsraum bestehend aus 15 Diversifizierungsmärkten identifiziert und die Kernressourcen deutscher Free-TV-Unternehmen untersucht. Aufbauend auf den gewonnenen Erkenntnissen wird das soge-nannte COAT-Diversifizierungsmodell als Rahmenmodell für die Planung und Bewer-tung von Diversifizierungsstrategien entworfen (COAT = Online Content Distribution, Offline Activities und Add-On Services/ Transaction TV). Durch eine ausführliche Be-fragung von 26 hochrangigen Managern, Senderchefs und Branchenbeobachtern der deutschen TV-Industrie wird das entworfene Modell überprüft und die Attraktivität der identifizierten Diversifizierungsmärkte ermittelt. Im Zentrum des Modells und der Ex-pertenbefragung steht die Durchführung einer Nutzwertanalyse, anhand derer zum einen die Marktattraktivität der verschiedenen Diversifizierungsmärkte ermittelt wird (market-based View), und zum anderen die Bedeutung der Kernressourcen eines Free-TV-Unternehmens in den verschiedenen Diversifizierungsmärkten untersucht wird (ressour-ce-based View). Hierzu werden für beide Dimensionen entsprechende Subkriterien de-finiert und eine Nutzwertbewertung für jedes Kriterium in jedem der 15 Märkte vorge-nommen. Aus den ermittelten Teilnutzwerten können für jeden untersuchten Markt ein übergreifender marktorientierter Nutzwert NM und ein ressourcenorienterter Nutzwert NR ermittelt werden. Im Resultat lässt sich ein Nutzwert-Portfolio aufspannen, in dem die 15 Diversifizierungsmärkte entsprechend ihrer ressourcen- und marktorientierten Nutzwertkombinationen in vier Gruppen kategorisiert werden: Diversifizierungsmärkte mit 1) sehr hoher Attraktivität, 2) hoher Marktchance, 3) hoher Opportunität oder rn4) geringer Attraktivität. Abschließend werden erste Normstrategien für die einzelnen Diversifizierungskategorien abgeleitet und die Eignung des COAT-Diversifizierungs-modells für die strategische Planung analysiert.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

All currently available human skeletal remains from the Wadi Howar (Eastern Sahara, Sudan) were employed in an anthropological study. The study’s first aim was to describe this unique 5th to 2nd millennium BCE material, which comprised representatives of all three prehistoric occupation phases of the region. Detecting diachronic differences in robusticity, occupational stress levels and health within the spatially, temporally and culturally heterogeneous sample was its second objective. The study’s third goal was to reveal metric and non-metric affinities between the different parts of the series and between the Wadi Howar material and other relevant prehistoric as well as modern African populations. rnThe reconstruction and comprehensive osteological analysis of 23 as yet unpublished individuals, the bulk of the Wadi Howar series, constituted the first stage of the study. The analyses focused on each individual’s in situ position, state of preservation, sex, age at death, living height, living weight, physique, biological ancestry, epigenetic traits, robusticity, occupational stress markers, health and metric as well as morphological characteristics. Building on the results of these efforts and the re-examination of the rest of the material, the Wadi Howar series as a whole, altogether 32 individuals, could be described. rnA wide variety of robusticity, occupational stress and health variables was evaluated. The pre-Leiterband (hunter-gatherer-fisher/hunter-gatherer-fisher-herder) and the Leiterband (herder-gatherer) data of over a third of these variables differed statistically significantly or in tendency from each other. The Leiterband sub-sample was characterised by higher enamel hypoplasia frequencies, lower mean ages at death and less pronounced expressions of occupational stress traits. This pattern was interpreted as evidence that the adoption and intensification of animal husbandry did probably not constitute reactions to worsening conditions. Apart from that, the relevant observations, noteworthy tendencies and significant differences were explained as results of a broader spectrum of pre-Leiterband subsistence activities and the negative side effects of the increasingly specialised herder-gatherer economy of the Leiterband phase. rnUsing only the data which could actually be collected from it, multiple, separate, individualised discriminant function analyses were carried out for each Wadi Howar skeleton to determine which prehistoric and which modern comparative sample it was most similar to. The results of all individual analyses were then summarised and examined as a whole. Thus it became possible to draw conclusions about the affinities the Wadi Howar material shared with prehistoric as well as modern populations and to answer questions concerning the diachronic links between the Wadi Howar’s prehistoric populations. When the Wadi Howar remains were positioned in the context of the selected prehistoric (Jebel Sahaba/Tushka, A-Group, Malian Sahara) and modern comparative samples (Southern Sudan, Chad, Mandinka, Somalis, Haya) in this fashion three main findings emerged. Firstly, the series as a whole displayed very strong affinities with the prehistoric sample from the Malian Sahara (Hassi el Abiod, Kobadi, Erg Ine Sakane, etc.) and the modern material from Southern Sudan and, to a lesser extent, Chad. Secondly, the pre-Leiterband and the Leiterband sub-sample were closer to the prehistoric Malian as well as the modern Southern Sudanese material than they were to each other. Thirdly, the group of pre-Leiterband individuals approached the Late Pleistocene sample from Jebel Sahaba/Tushka under certain circumstances. A theory offering explanations for these findings was developed. According to this theory, the entire prehistoric population of the Wadi Howar belonged to a Saharo-Nilotic population complex. The Jebel Sahaba/Tushka population constituted an old Nilotic and the early population of the Malian Sahara a younger Saharan part of this complex. The pre-Leiterband groups probably colonised the Wadi Howar from the east, either during or soon after the original Saharo-Nilotic expansion. Unlike the pre-Leiterband groups, the Leiterband people originated somewhere west of the Wadi Howar. They entered the region in the context of a later, secondary Saharo-Nilotic expansion. In the process, the incoming Leiterband groups absorbed many members of the Wadi Howar’s older pre-Leiterband population. The increasing aridification of the Wadi Howar region ultimately forced its prehistoric inhabitants to abandon the wadi. Most of them migrated south and west. They, or groups closely related to them, probably were the ancestors of the majority of the Nilo-Saharan-speaking pastoralists of modern-day Southern Sudan and Eastern Chad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Fokus dieser Arbeit liegt in dem Design, der Synthese und der Charakterisierung neuartiger photosensitiver Mikrogele und Nanopartikel als potentielle Materialien für Beladungs- und Freisetzungsanwendungen. Zur Realisierung dieses Konzepts wurden verschiedene Ansätze untersucht.Es wurden neuartige niedermolekulare lichtspaltbare Vernetzermoleküle auf der Basis von o-Nitrobenzylderivaten synthetisiert, charakterisiert und zur Herstellung von photosensitiven PMMA und PHEMA Mikrogelen verwendet. Diese sind unter Bestrahlung in organischen Lösungsmitteln quellbar und zersetzbar. Durch die Einführung anionischer MAA Gruppen in solche PHEMA Mikrogele wurde dieses Konzept auf doppelt stimuliresponsive p(HEMA-co-MAA) Mikrogele erweitert. Hierbei wurde ein pH-abhängiges Quellbarkeitsprofil mit der lichtinduzierten Netzwerkspaltung in wässrigen Medien kombiniert. Diese duale Sensitivität zu zwei zueinander orthogonalen Reizen stellt ein vielversprechendes Konzept zur Kombination einer pH-abhängigen Beladung mit einer lichtinduzierten Freisetzung von funktionellen Substanzen dar. Desweiteren wurden PAAm Mikrogele entwickelt, welche sowohl eine Sensitivität gegenüber Enzymen als auch Licht aufweisen. Dieses Verhalten wurde durch die Verwendung von (meth-)acrylatfunktionalisierten Dextranen als polymere Vernetzungsmoleküle erreicht. Das entsprechende stimuliresponsive Profil basiert auf der enzymatischen Zersetzbarkeit der Polysaccharid-Hauptkette und der Anbindung der polymerisierbaren Vinyleinheiten an diese über photospaltbare Gruppen. Die gute Wasserlöslichkeit der Vernetzermoleküle stellt einen vielversprechenden Ansatz zur Beladung solcher Mikrogele mit funktionellen hydrophilen Substanzen bereits während der Partikelsynthese dar. Ein weiteres Konzept zur Beladung von Mikrogelen basiert auf der Verwendung von photolabilen Wirkstoff-Mikrogel Konjugaten. In einem ersten Schritt zur Realisierung solch eines Ansatzes wurde ein neuartiges Monomer entwickelt. Hierbei wurde Doxorubicin über eine lichtspaltbare Gruppe an eine polymerisierbare Methacrylatgruppe angebunden. Für die Freisetzung hydrophober Substanzen in wässrigen Medien wurden polymere Photolack-Nanopartikel entwickelt, welche sich unter Bestrahlung in Wasser zersetzen. Die lichtinduzierte Änderung der Hydrophobizität des Polymers ermöglichte die Freisetzung von Nilrot durch das Auflösen der partikulären Struktur. Ein interessanter Ansatz zur Verhinderung einer unkontrollierten Freisetzung funktioneller Substanzen aus Mikrogelen ist die Einführung einer stimuliresponsiven Schale. In diesem Kontext wurden Untersuchungen zur Bildung von nicht-stimulisensitiven Schalen um vorgefertigte Mikrogelkerne und zur Synthese von Hydrogelkernen in vorgefertigten polymeren Schalen (Nanokapseln) durchgeführt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Wintersemester 2009/2010 und im Sommersemester 2010 wurde am Institut für Soziologie der Johannes Gutenberg-Universität Mainz unter unserer Leitung eine mündliche standardisierte Befragung durchgeführt, das sich mit der Nutzung und Bewertung des bibliothekarischen Angebotes dieser Universität durch die Studierenden beschäftigte. Aus der Grundgesamtheit der Studierenden im Wintersemester 2009/2010 wurde anhand einer Quotenauswahl eine Stichprobe im Umfang von n = 453 bestimmt.rnFolgende Untersuchungsergebnisse sind hervorzuheben:rnZu Studienzwecken arbeiten die Studierenden bevorzugt zu Hause und nicht in einer Bibliothek oder in einem anderen Arbeitsraum der Universität.rnDie unterschiedlichen elektronischen Angebote der Bibliothek, die allen Studierenden zur Verfügung stehen, werden von fast 90% der Studierenden zumindest teilweise wahrgenommen. Die Arbeit am Rechner zu Hause wird technisch durch die elektronischen Angebote der Bibliothek ermöglicht und unterstützt, ebenso die ortsunabhängige Benutzung eines Laptops.rnLob für die Bibliothek gibt es besonders für den Sachverstand der Bibliotheksmitarbeiter, die langen Öffnungszeiten und das reibungslose Funktionieren des Ausleihprozesses. Gleichfalls hervorgehoben wird die Qualität elektronischer Dienstleistungen (Reader-Plus, E-Mail-Erinnerungsservice, Verlängerungs- und Vormerkungsservice). rnKritik äußern viele Studierende an der mangelnden Aktualität der Buchbestände und an der zu geringen Anzahl an Buchexemplaren bei Werken, die zur Standardliteratur ihres Faches gehören. Häufig wird gefordert, dass der Anteil der ausleihbaren Bücher zu Lasten des Präsenzbestandes vergrößert werden sollte. Gewünscht werden ebenfalls eine ‚Modernisierung‘ von Arbeitsräumen und eine Erweiterung der Arbeitsplätze insbesondere für Arbeitsgruppen. Zusätzlich sollten nach Auffassung vieler Studierender innerhalb der Bibliothek Aufenthaltsräume für die Erholung und Kommunikation in Pausen geschaffen werden. Allgemein zeigt sich, dass beim Aufenthalt in den Bibliotheken nicht nur auf Funktionalität Wert gelegt wird.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maggior parte dei moderni dispositivi e macchinari, sia ad uso civile che industriale, utilizzano sistemi elettronici che ne supervisionano e ne controllano il funzionamento. All’ interno di questi apparati è quasi certamente impiegato un sistema di controllo digitale che svolge, anche grazie alle potenzialità oggi raggiunte, compiti che fino a non troppi anni or sono erano dominio dell’ elettronica analogica, si pensi ad esempio ai DSP (Digital Signal Processor) oggi impiegati nei sistemi di telecomunicazione. Nonostante l'elevata potenza di calcolo raggiunta dagli odierni microprocessori/microcontrollori/DSP dedicati alle applicazioni embedded, quando è necessario eseguire elaborazioni complesse, time-critical, dovendo razionalizzare e ottimizzare le risorse a disposizione, come ad esempio spazio consumo e costi, la scelta ricade inevitabilmente sui dispositivi FPGA. I dispositivi FPGA, acronimo di Field Programmable Gate Array, sono circuiti integrati a larga scala d’integrazione (VLSI, Very Large Scale of Integration) che possono essere configurati via software dopo la produzione. Si differenziano dai microprocessori poiché essi non eseguono un software, scritto ad esempio in linguaggio assembly oppure in linguaggio C. Sono invece dotati di risorse hardware generiche e configurabili (denominate Configurable Logic Block oppure Logic Array Block, a seconda del produttore del dispositivo) che per mezzo di un opportuno linguaggio, detto di descrizione hardware (HDL, Hardware Description Language) vengono interconnesse in modo da costituire circuiti logici digitali. In questo modo, è possibile far assumere a questi dispositivi funzionalità logiche qualsiasi, non previste in origine dal progettista del circuito integrato ma realizzabili grazie alle strutture programmabili in esso presenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi ha come scopo quello di individuare alcune problematiche relative all’esercizio e alla limitazione del diritto alla libertà di espressione nel contesto delle attività globali di sorveglianza e controllo delle tecnologie dell’informazione e della comunicazione. Tali attività, poste in essere da parte degli Stati e da parte degli operatori privati, sono favorite dal nebuloso rapporto tra norme di fonte pubblica, privata e informatica, e sono invece osteggiate dal ricorso, collettivo e individuale, alle possibilità offerte dalle tecnologie stesse per la conduzione di attività in anonimato e segretezza. La sorveglianza globale nel contesto delle privatizzazioni si serve del codice e dell’autonomia privata, così come la resistenza digitale ricorre alle competenze informatiche e agli spazi di autonomia d’azione dell’individuo. In questo contesto, la garanzia dell’esistenza e dell’esercizio dei diritti fondamentali dell’individuo, tra tutti il diritto alla libertà di espressione e il diritto alla tutela della riservatezza, passa per l’adozione di tecniche e pratiche di autotutela attraverso l’utilizzo di sistemi di cifratura e comunicazioni anonime. L’individuo, in questo conflitto tecnico e sociale, si trova a dover difendere l’esercizio dei propri diritti e finanche l’adempimento ai propri doveri, quando attinenti a particolari figure professionali o sociali, quali avvocati, operatori di giustizia, giornalisti, o anche semplicemente genitori. In conclusione dell’elaborato si propongono alcune riflessioni sulla formazione della cittadinanza e del mondo professionale, da parte dei giuristi delle nuove tecnologie, all’uso cosciente, consapevole e responsabile delle nuove tecnologie dell’informazione, con lo stimolo ad orientare altresì le proprie attività alla tutela e alla promozione dei diritti umani fondamentali, democratici, costituzionali, civili e sociali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prova informatica richiede l’adozione di precauzioni come in un qualsiasi altro accertamento scientifico. Si fornisce una panoramica sugli aspetti metodologici e applicativi dell’informatica forense alla luce del recente standard ISO/IEC 27037:2012 in tema di trattamento del reperto informatico nelle fasi di identificazione, raccolta, acquisizione e conservazione del dato digitale. Tali metodologie si attengono scrupolosamente alle esigenze di integrità e autenticità richieste dalle norme in materia di informatica forense, in particolare della Legge 48/2008 di ratifica della Convenzione di Budapest sul Cybercrime. In merito al reato di pedopornografia si offre una rassegna della normativa comunitaria e nazionale, ponendo l’enfasi sugli aspetti rilevanti ai fini dell’analisi forense. Rilevato che il file sharing su reti peer-to-peer è il canale sul quale maggiormente si concentra lo scambio di materiale illecito, si fornisce una panoramica dei protocolli e dei sistemi maggiormente diffusi, ponendo enfasi sulla rete eDonkey e il software eMule che trovano ampia diffusione tra gli utenti italiani. Si accenna alle problematiche che si incontrano nelle attività di indagine e di repressione del fenomeno, di competenza delle forze di polizia, per poi concentrarsi e fornire il contributo rilevante in tema di analisi forensi di sistemi informatici sequestrati a soggetti indagati (o imputati) di reato di pedopornografia: la progettazione e l’implementazione di eMuleForensic consente di svolgere in maniera estremamente precisa e rapida le operazioni di analisi degli eventi che si verificano utilizzando il software di file sharing eMule; il software è disponibile sia in rete all’url http://www.emuleforensic.com, sia come tool all’interno della distribuzione forense DEFT. Infine si fornisce una proposta di protocollo operativo per l’analisi forense di sistemi informatici coinvolti in indagini forensi di pedopornografia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomosintesi digitale computerizzata è una particolare tecnica che permette di ricostruire una rappresentazione 3D di un oggetto, con un numero finito di proiezioni su un range angolare limitato, sfruttando le convenzionali attrezzature digitali a raggi X. In questa tesi è stato descritto un modello matematico per la ricostruzione dell’immagine della mammella nella tomosintesi digitale polienergetica che tiene conto della varietà di materiali che compongono l’oggetto e della natura polienergetica del fascio di raggi X. Utilizzando questo modello polienergetico-multimateriale, la ricostruzione dell’immagine di tomosintesi è stata ricondotta alla formulazione di un problema dei minimi quadrati non lineare su larga scala e risolverlo ha permesso la ricostruzione delle percentuali dei materiali del volume assegnato. Nelle sperimentazioni sono stati implementati il metodo del gradiente, il metodo di Gauss-Newton ed il metodo di Gauss-Newton CGLS. E' stato anche utilizzato l’algoritmo trust region reflective implementato nella funzione lsqnonlin di MATLAB. Il problema della ricostruzione dell'immagine di tomosintesi è stato risolto utilizzando questi quattro metodi ed i risultati ottenuti sono stati confrontati tra di loro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rotazione dell’apice del cuore è una delle espressioni della complessa cinematica del miocardio e rappresenta un importante indice di funzionalità cardiaca. Disporre di un sensore impiantabile che permetta un monitoraggio continuo di tale parametro consentirebbe di individuare precocemente un deterioramento della performance cardiaca e di adattare tempestivamente la terapia. L’obiettivo del lavoro di tesi è la realizzazione di un sistema di acquisizione dati per segnali provenienti da un giroscopio MEMS triassiale da utilizzarsi per lo studio della cinematica cardiaca, in particolare della rotazione del cuore. Per leggere e decodificare i segnali digitali in uscita dal giroscopio MEMS triassiale utilizzato (CMR3100, VTI Technologies) è stata progettata e sviluppata un’unità di condizionamento composta da una board Arduino ADK, associata ad un adattatore di tensione PCA9306 e a 3 convertitori digitali/analogici MCP4921, che ha richiesto lo sviluppo di software per la gestione del protocollo di comunicazione e della decodifica del segnale digitale proveniente dal sensore. Per caratterizzare e validare il sistema realizzato sono state effettuate prove di laboratorio, che hanno permesso di individuare i parametri di lavoro ottimali del sensore. Una prima serie di prove ha dimostrato come l’unità di condizionamento realizzata consenta di acquisire i segnali con una velocità di processo elevata (1 kHz) che non comporta perdita di dati in uscita dal sensore. Successivamente, attraverso un banco prova di simulazione appositamente assemblato allo scopo di riprodurre rotazioni cicliche nel range dei valori fisio-patologici, è stato quantificato lo sfasamento temporale (St) tra il segnale rilevato dal CMR3100 e decodificato dall'unità di condizionamento e un segnale analogico in uscita da un giroscopio analogico, ottenendo un valore medio St=4 ms. Attraverso lo stesso banco di simulazione, è stata infine dimostrata una buona accuratezza (errore percentuale <10%) nella misura dell'angolo di rotazione derivato dal segnale di velocità angolare rilevato direttamente dal sensore CRM300.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit werden verschiedene, insbesondere zeitliche Aspekte des Blickrichtungsnacheffekts (gaze aftereffect) untersucht. Dieser Effekt besagt, dass nach längerer Betrachtung von Bildern, die Personen mit abgewandtem Blick zeigen, die Wahrnehmung von Blickrichtungen in Richtung des adaptierten Blickes verschoben ist. Betrachter halten dann zugewandte Blicke fälschlicherweise für in die Gegenrichtung verschoben, und Blicke in die Adaptationsblickrichtung fälschlicherweise für geradeaus, d.h. sie fühlen sich angeschaut, obwohl sie es nicht werden. In dieser Dissertation wird der Blickrichtungsnacheffekt mit vier psychophysischen Experimenten untersucht, in denen die Probanden einfache kategoriale Urteile über die Blickrichtung der Testbilder abzugeben hatten.rnrnDas erste Experiment untersucht die Induktion des Blickrichtungsnacheffekts. Es wird gezeigt, dass keine separate Adaptationsphase für die Induktion des Nacheffekts notwendig ist. Auch die alleinige, relativ kurze Darbietung des zur Adaptation verwendeten Reizes (TopUp-Display) vor der Präsentation eines Testbildes führt im Laufe wiederholter experimenteller Darbietungen zu einer Verschiebung der allgemeinen Blickrichtungs-Tuningkurve, sowie zu ihrer Verbreiterung. In einem zweiten Experiment wird nachgewiesen, dass die Ausprägung des Blickrichtungsnacheffekts von der jeweiligen Darbietungszeit des Adaptationsreizes abhängt. Zwar ist der Nacheffekt umso stärker, je länger das TopUp-Display gezeigt wird. Aber auch bei sehr kurzen Darbietungszeiten von einer Sekunde kommt der Effekt bereits zustande, hier zeigt sich eine lokal begrenztere Wirkung. Die Auswertung des zeitlichen Verlaufs ergibt, dass sich der Effekt rasch vollständig aufbaut und bereits innerhalb der ersten Darbietungen entsteht. Das dritte Experiment zeigt, dass dem Nacheffekt sowohl kurzfristige Einwirkungen der direkt vor dem Testbild erfolgten Reizung zugrunde liegen, als auch langfristige Memory-Effekte, die über die im Laufe des Experiments gegebenen Wiederholungen akkumuliert werden. Bei Blickwinkeln von 5° halten sich kurzfristige und langfristige Einwirkungen in etwa die Waage. Bei Blickwinkeln von 10° aber sind nur knapp 20% kurzfristig, und etwa 80% langfristige Einwirkungen für den Effekt verantwortlich. In einem vierten Experiment wird die zeitliche Rückbildung des Effekts untersucht und gezeigt, dass sich der Blickrichtungsnacheffekt im Kontrast zu seiner schnellen Entstehung langsam, nämlich innerhalb mehrerer Minuten zurückbildet.rnrnDie Diskussion der Ergebnisse kommt zu dem Schluss, dass die hier gefundene zeitliche Dynamik des Blickrichtungsnacheffekts Adaptationsprozesse auf höheren Schichten der visuellen Informationsverarbeitung als die zugrunde liegenden Mechanismen nahe legt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fino dagli albori della metodica scientifica, l’osservazione e la vista hanno giocato un ruolo fondamentale. La patologia è una scienza visiva, dove le forme, i colori, le interfacce e le architetture di organi, tessuti, cellule e componenti cellulari guidano l’occhio del patologo e ne indirizzano la scelta diagnostico-classificativa. L’osservazione del preparato istologico in microscopia ottica si attua mediante l’esame e la caratterizzazione di anomalie ad ingrandimenti progressivamente crescenti, a diverse scale spaziali, che partono dalla valutazione dell’assetto architettonico sovracellulare, per poi spostarsi ad investigare e descrivere le cellule e le peculiarità citomorfologiche delle stesse. A differenza di altri esami di laboratorio che sono pienamente quantificabili, l’analisi istologica è intrinsecamente soggettiva, e quindi incline ad un alto grado di variabilità nei risultati prodotti da differenti patologi. L’analisi d’immagine, l’estrazione da un’immagine digitale di contenuti utili, rappresenta una metodica oggettiva, valida e robusta ormai largamente impiegata a completamento del lavoro del patologo. Si sottolinea come l’analisi d’immagine possa essere vista come fase descrittiva quantitativa di preparati macroscopici e microscopici che poi viene seguita da una interpretazione. Nuovamente si sottolinea come questi descrittori siano oggettivi, ripetibili e riproducibili, e non soggetti a bassa concordanza inter operatore. La presente tesi si snoda attraverso un percorso concettuale orientato ad applicazioni di analisi d’immagine e patologia quantitativa che parte dalle applicazioni più elementari (densità, misure lineari), per arrivare a nozioni più avanzate, quali lo studio di complessità delle forme mediante l’analisi frattale e la quantificazione del pattern spaziale di strutture sovracellulari.