951 resultados para memorie di massa, memorie secondarie, dati digitali, hard disk
Resumo:
Il presente studio è stato progettato e articolato includendo tre approcci disciplinari sviluppati parallelamente al fine di ottenere dati etologici, endocrinologici, e respiratori riguardo cinque esemplari di trichecho del pacifico (Odobenus rosmarus) ospitati presso l’Oceanografic di Valencia. Il periodo di campionamento si è sviluppato in un lasso di tempo di 12 settimane durante le quali sono stati raccolti dati riguardo i tre ambiti di studio. La raccolta di dati etologici è stata effettuata per mezzo di supporto video il quale ha permesso di generare un totale di 72 ore di filmato. Attraverso l’analisi del materiale multimediale è stato possibile elaborare un catalogo comportamentale con annesso un catalogo video atto alla semplificazione di riconoscimento dei vari moduli comportamentali; la revisione della documentazione video è stata effettuata mediante il software Noldus “Observer 5.0” che si è resa necessaria per la quantificazione dei singoli comportamenti osservati durante il periodo di studio. Succesivamente i dati ottenuti sono stati sottoposti ad analisi statistica al fine di poter valutare le differenze e le analogie comportamentali dei due soggetti principali nell’arco della singola giornata e durante le dodici settimane di analisi. In concomitanza col campionamento video, si è proceduto ialla raccolta dei dati relativi ai pattern respiratori al fine di valutare la durata delle apnee in ambiente controllato. In seguito è stato effettuato un approccio endocrinologico al fine di valutare la possibilità di rilevare e quantificare glucorticoidi quali cortisolo, testosterone e progesterone presenti nei campioni. Si è ricorso alla raccolta di materiale salivare in alternativa al campionamento ematico in modo da stabilire l’effettiva efficacia del metodo. I campioni sono stati poi processati mediante RIA e i livelli ormonali ottenuti sono stati utilizzati per effettuare una comparazione con il manifestarsi dei moduli comportamentali osservati è analizzarne le correlazioni presenti e osservarne gli effetti sull’espressione etologica.
Resumo:
Una delle tecnologie radio che negli ultimi anni ha subito il maggior sviluppo è quella dell’identificazione a radio frequenza (Radio Frequency Identification), utilizzata in un gran numero di ambiti quali la logistica, il tracciamento, l’autenticazione e i pagamenti elettronici. Tra le tecnologie specifiche legate all’RFID si ritrova la Near Field Communication (NFC). Questa è una tecnologia di trasmissione dati a corto raggio che rappresenta un’evoluzione dell’RFID. Una delle caratteristiche dell’NFC è quella di instaurare una comunicazione tra due dispositivi in maniera semplice e intuitiva. L’oggetto che instaura la comunicazione è il Reader, nell’ambito RFID è un dispositivo altamente specializzato, poiché può lavorare a diverse frequenze operative. L’elemento innovativo che ha consentito il successo dell’NFC è il fatto che questa tecnologia possa integrare il Reader in uno strumento di comunicazione di largo uso, ovvero lo smartphone. Questo permette di inizializzare lo scambio dati, sia esso di lettura di un circuito integrato passivo o una trasmissione peer-to-peer, a seguito del naturale gesto di avvicinare lo smartphone. Analisti ed esperti del settore sono convinti del successo dell’NFC, nonostante siano state smentite le attese che vedevano l’NFC integrato in oltre la metà dei cellulari entro il 2010. Tra le molteplici applicazioni NFC in questo elaborato ci si soffermerà in particolare sul cosiddetto Smart Poster. Questo utilizzo può essere molto efficace avendo una gamma di impiego molto vasta. Per l’immagazzinamento dei dati nei Tag o nelle Smart Card si è utilizzato un protocollo d’incapsulamento dati chiamato NDEF (NFC Data Exchange Format) trattato nel capitolo 3 di questa trattazione. Nella seconda parte dell’elaborato si è realizzata una sperimentazione per misurare le distanze di funzionamento di cellulari e Reader per PC. In questo ambito si è realizzato quello che si è definito lo Smart Brick, cioè un mattone che comunica con dispositivi NFC grazie all’installazione di un Tag al suo interno. Si parlerà della realizzazione e degli strumenti software/hardware che hanno permesso di realizzare e programmare questo ”mattone elettronico”.
Resumo:
Alcune osservazioni sperimentali portano ad affermare che la maggior parte della massa dell'universo è costituita da un tipo di materia definita oscura, cioè materia che interagisce solo gravitazionalmente e debolmente. I candidati più promettenti sono tipicamente identificati con le WIMP (Weakly Interacting Massive Particle). L'esperimento XENON1T per la rivelazione di materia oscura, in fase di costruzione nei Laboratori Nazionali del Gran Sasso, sfrutta uno spessore di 1.4 km di roccia schermante. Il rivelatore è una Time Projection Chamber contenente circa 2 tonnellate di xeno e avrà sensibilità per sezioni d’urto WIMP-nucleo spin-indipendent pari a circa 2x10-47 cm2 (per WIMP di massa 50 GeV/c2), due ordini di grandezza al di sotto degli attuali limiti. Per raggiungere tale sensibilità la TPC sarà inserita in una tank cilindrica riempita di acqua ultrapura, che fungerà sia da schermo passivo contro la radiazione esterna (gamma e neutroni di bassa energia), sia da veto per i muoni cosmici. I muoni possono infatti produrre neutroni di energia tale da raggiungere la TPC e simulare segnali tipici delle WIMP. Essi sono identificati per via della radiazione Cherenkov, emessa in seguito al loro passaggio in acqua, rivelata per mezzo di 84 fotomoltiplicatori (PMT) 8'' Hamamatsu R5912ASSY HQE. Lo studio delle prestazioni e delle caratteristiche dei PMT utilizzati nel sistema di veto di muoni sono lo scopo di questo lavoro di tesi. In particolare è stato preparato un opportuno setup per i test dei fotomoltiplicatori e sono state effettuate misure di guadagno, dark rate ed afterpulse. In una prima fase sono stati testati in aria 50 PMT presso la Sezione INFN di Bologna, nel periodo compreso tra Novembre 2012 e Marzo 2013 ed in una seconda fase sono stati testati in acqua 90 PMT presso i Laboratori Nazionali del Gran Sasso, nel periodo compreso tra Aprile e Settembre 2013.
Resumo:
Questo studio, che è stato realizzato in collaborazione con Hera, è un'analisi della gestione dei rifiuti a Bologna. La ricerca è stata effettuata su diversi livelli: un livello strategico il cui scopo è quello di identificare nuovi metodi per la raccolta dei rifiuti in funzione delle caratteristiche del territorio della città, un livello analitico che riguarda il miglioramento delle applicazioni informatiche di supporto, e livello ambientale che riguarda il calcolo delle emissioni in atmosfera di veicoli adibiti alla raccolta e al trasporto dei rifiuti. innanzitutto è stato necessario studiare Bologna e lo stato attuale dei servizi di raccolta dei rifiuti. È incrociando questi componenti che in questi ultimi tre anni sono state effettuate modifiche nel settore della gestione dei rifiuti. I capitoli seguenti sono inerenti le applicazioni informatiche a sostegno di tali attività: Siget e Optit. Siget è il programma di gestione del servizio, che attualmente viene utilizzato per tutte le attività connesse alla raccolta di rifiuti. È un programma costituito da moduli diversi, ma di sola la gestione dati. la sperimentazione con Optit ha aggiunto alla gestione dei dati la possibilità di avere tali dati in cartografia e di associare un algoritmo di routing. I dati archiviati in Siget hanno rappresentato il punto di partenza, l'input, e il raggiungimento di tutti punti raccolta l'obiettivo finale. L'ultimo capitolo è relativo allo studio dell'impatto ambientale di questi percorsi di raccolta dei rifiuti. Tale analisi, basata sulla valutazione empirica e sull'implementazione in Excel delle formule del Corinair mostra la fotografia del servizio nel 2010. Su questo aspetto Optit ha fornito il suo valore aggiunto, implementando nell'algoritmo anche le formule per il calcolo delle emissioni.
Resumo:
Il contesto nazionale è cambiato recentemente per l’introduzione del nuovo Sistema Geodetico coincidente con quello Europeo (ETRS89, frame ETRF00) e realizzato dalle stazioni della Rete Dinamica Nazionale. Sistema geodetico, associato al cartografico UTM_ETRF00, divenuto per decreto obbligatorio nelle Pubbliche Amministrazioni. Questo cambiamento ha consentito di ottenere rilevamenti dei dati cartografici in coordinate assolute ETRF00 molto più accurate. Quando i dati così rilevati vengono utilizzati per aggiornamenti cartografici perdono le coordinate originarie e vengono adattati a particolari cartografici circostanti. Per progettare una modernizzazione delle mappe catastali e delle carte tecniche finalizzata a consentire l’introduzione degli aggiornamenti senza modificarne le coordinate assolute originarie, lo studio è iniziato valutando come utilizzare sviluppi di strutturazione dei dati topografici presenti nel Database Geotopografico, modellizzazioni 3D di fabbricati nelle esperienze catastali INSPIRE, integrazioni in ambito MUDE tra progetti edilizi e loro realizzazioni. Lo studio è proseguito valutando i servizi di posizionamento in tempo reale NRTK presenti in Italia. Inoltre sono state effettuate sperimentazioni per verificare anche in sede locale la precisione e l’affidabilità dei servizi di posizionamento presenti. La criticità della cartografia catastale deriva sostanzialmente dal due fatti: che originariamente fu inquadrata in 850 Sistemi e successivamente fu trasformata in Roma40 con una esigua densità di punti rimisurati; che fino al 1988 fu aggiornata con modalità non rigorose di bassa qualità. Per risolvere tali criticità si è quindi ipotizzato di sfruttare le modalità di rilevamento NRTK per aumentare localmente la densità dei punti rimisurati e reinquadrare le mappe catastali. Il test, realizzato a Bologna, ha comportato un’analisi preliminare per individuare quali Punti Fiduciali considerare coerenti con le specifiche cartografiche per poi utilizzarli e aumentare localmente la densità dei punti rimisurati. La sperimentazione ha consentito la realizzazione del progetto e di inserire quindi i prossimi aggiornamenti senza modificarne le coordinate ETRF00 ottenute dal servizio di posizionamento.
Resumo:
Viene sviluppata in XCSurf, un pacchetto di XCModel, una struttura dati chiamata B-Rep il cui scopo è quello di poter accogliere sia geometrie mesh che nurbs. La struttura B-Rep è stata progettata nel lavoro di tesi di F.Pelosi a seguito del riscontro di diverse analogie fra la struttura winged-edge (per mesh) e la struttura B-Rep (per nurbs). In questa tesi viene sviluppata ed integrata ulteriormente. Il punto di arrivo è la possibilità di attaccare due modelli qualsiasi (Nurbs + Nurbs, Mesh + Nurbs, Mesh + Mesh), deformando opportunamente le parti da attaccare, ma mantenendo tutte le informazioni in un'unica struttura.
Resumo:
Il documento contiene un'analisi sull'accordo fra le misure delle sezioni d’urto differenziali del sistema top-antitop registrate nel 2011 dall’esperimento ATLAS a un'energia del centro di massa di 7 TeV e le predizioni teoriche.
Resumo:
Gli scavi effettuati a Classe, a sud di Ravenna, presso i siti archeologici dell'area portuale e della Basilica di San Severo, hanno portato alla luce un numero abbondante di moneta, 2564 dall'area portuale e 224 dalla basilica, un totale di 2788 reperti monetali, di cui solo 863 sono leggibili e databili. La datazione dei materiali dell’area portuale, fondata agli inizi del V secolo, parte dal II secolo a.C. fino all’VIII secolo d.C.. La maggior parte dei reperti è relativa al periodo tra il IV e il VII secolo, il momento di massima importanza del porto commerciale, con testimonianza di scambi con altri porti del bacino mediterraneo, in particolare con l’Africa del Nord e il Vicino Oriente. La documentazione proveniente dalla Basilica di San Severo, fondata alla fine del VI secolo per la custodia delle reliquie del santo, mostra un trend diverso dal precedente, con monetazione che copre un arco cronologico dal I secolo a.C. fino al XIV secolo d.C.. La continuità dell’insediamento è dimostrato dall’evidenza numismatica, seppur scarsa, fino alla costruzione del monastero a sud della basilica, l’area dalla quale provengono la maggior parte delle monete. I quantitativi importanti di monetazione tardoantica, ostrogota e bizantina, in particolare di tipi specifici come il Felix Ravenna, ipoteticamente coniato a Roma, oppure il ½ e il 1/4 di follis di produzione saloniana emesso da Giustiniano I, hanno concesso uno studio dettagliato per quello che riguarda il peso, le dimensioni e lo stile di produzione di queste emissioni. Questi dati e la loro distribuizione sul territorio ha suggerito nuove ipotesi per quello che riguarda la produzione di questi due tipi presso la zecca di Ravenna. Un altro dato importante è il rinvenimento di emissioni di Costantino VIII, alcune rare e altre sconosciute, rinvenute solo nel territorio limitrofo a Classe e Ravenna.
Resumo:
L’ictus rappresenta una delle principali cause di invalidità poiché compromette la deambulazione, incrementando l’incidenza di cadute nei soggetti colpiti. Lo studio della stabilità motoria è fondamentale per l’identificazione dei soggetti a rischio di caduta. I diversi indicatori clinici attualmente utilizzati negli ospedali non sono in grado di fornire una valutazione quantitativo predittiva della stabilità della deambulazione. Lo scopo di questa tesi è indagare una serie di misure sperimentali e valutarne il possibile utilizzo ad integrazione o sostituzione di scale cliniche per l’analisi della stabilità motoria e la prevenzione del rischio di cadute. Analizzando il segnale di accelerazione del centro di massa corporeo di 33 soggetti post stroke sono stati ottenuti gli indici strumentali di interesse. Il corpo centrale di questa tesi consiste nell'analisi statistica condotta tramite modelli di regressione lineare che mettono in correlazione parametri clinici (acquisiti per mezzo di test e questionari) e indici strumentali. Lo studio presente ha reso note importanti correlazioni tra parametri clinici e strumentali, che permettono di affermare l’utilità di tali indici strumentali per una valutazione dei soggetti a rischio di caduta.
Resumo:
Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.
Resumo:
OBIETTIVI: Per esplorare il contributo dei fattori di rischio biomeccanico, ripetitività (hand activity level – HAL) e forza manuale (peak force - PF), nell’insorgenza della sindrome del tunnel carpale (STC), abbiamo studiato un’ampia coorte di lavoratori dell’industria, utilizzando come riferimento il valore limite di soglia (TLV©) dell’American Conference of Governmental Industrial Hygienists (ACGIH). METODI: La coorte è stata osservata dal 2000 al 2011. Abbiamo classificato l’esposizione professionale rispetto al limite di azione (AL) e al TLV dell’ACGIH in: “accettabile” (sotto AL), “intermedia” (tra AL e TLV) e “inaccettabile” (sopra TLV). Abbiamo considerato due definizioni di caso: 1) sintomi di STC; 2) sintomi e positività allo studio di conduzione nervosa (SCN). Abbiamo applicato modelli di regressione di Poisson aggiustati per sesso, età, indice di massa corporea e presenza di patologie predisponenti la malattia. RISULTATI: Nell’intera coorte (1710 lavoratori) abbiamo trovato un tasso di incidenza (IR) di sintomi di STC di 4.1 per 100 anni-persona; un IR di STC confermata dallo SCN di 1.3 per 100 anni-persona. Gli esposti “sopra TLV” presentano un rischio di sviluppare sintomi di STC di 1.76 rispetto agli esposti “sotto AL”. Un andamento simile è emerso per la seconda definizione di caso [incidence rate ratios (IRR) “sopra TLV”, 1.37 (intervallo di confidenza al 95% (IC95%) 0.84–2.23)]. Gli esposti a “carico intermedio” risultano a maggior rischio per la STC [IRR per i sintomi, 3.31 (IC95% 2.39–4.59); IRR per sintomi e SCN positivo, 2.56 (IC95% 1.47–4.43)]. Abbiamo osservato una maggior forza di associazione tra HAL e la STC. CONCLUSIONI: Abbiamo trovato un aumento di rischio di sviluppare la STC all’aumentare del carico biomeccanico: l’aumento di rischio osservato già per gli esposti a “carico intermedio” suggerisce che gli attuali valori limite potrebbero non essere sufficientemente protettivi per alcuni lavoratori. Interventi di prevenzione vanno orientati verso attività manuali ripetitive.
Resumo:
La tecnica di posizionamento GPS costituisce oggi un importante strumento per lo studio di diversi processi tettonici e geodinamici a diverse scale spaziali. E’ possibile infatti usare dati GPS per studiare sia i movimenti delle placche tettoniche a scala globale, sia i lenti movimenti relativi attraverso singole faglie. I campi di applicazione del GPS sono aumentati considerevolmente negli ultimi anni grazie all’incremento del numero di stazioni distribuite sulla Terra e al perfezionamento delle procedure di misura ed elaborazione dati. Tuttavia mentre le velocità di spostamento orizzontali sono da tempo largamente studiate, quelle verticali non lo sono altrettanto perché richiedono il raggiungimento di precisioni sub millimetriche e risultano inoltre affette da numerose fonti di errore. Lo scopo di questo lavoro è quello di ricavare i tassi di deformazione verticale della litosfera in Europa Occidentale a partire dalle misure di fase GPS, passando per l’analisi delle serie temporali, e di correggere tali velocità per il contributo dell’aggiustamento glacio-isostatico (Glacial Isostatic Adjustment, GIA), modellato utilizzando il software SELEN (SEa Level EquatioN solver). Quello che si ottiene è un campo di velocità depurato dal contributo del GIA e rappresentante una stima dei tassi di deformazione verticale relativi all’area in esame associati a processi deformativi diversi dal GIA.
Resumo:
La firma grafometrica è la sottoscrizione autografa eseguita con uno stilo elettronico su un dispositivo di acquisizione digitale e rappresenta ad oggi nel panorama delle tipologie di firma elettroniche una realtà a tutti gli effetti realizzabile. Questa tipologia di firma elettronica fonda il proprio valore sulle caratteristiche di universalità, unicità, permanenza e collezionabilità dei dati biometrici. Il successo della firma grafometrica è da ricercare invece nella sua stessa natura di firma, in quanto l'uomo da sempre è stato abituato ad eseguire il gesto dell'apposizione della propria firma autografa a dichiarazione della propria volontà. La profonda informatizzazione degli ultimi anni e la recente normativa hanno quindi permesso di trasferire la semplicità di questo gesto dal contesto analogico a quello digitale. I vantaggi derivanti dall'utilizzo della firma grafomentrica sono molteplici: innanzitutto il suo utilizzo comporta la completa dematerializzazione della gestione documentale aziendale con considerevoli risparmi dati dall'annullamento dei costi di stampa ed archiviazione dei documenti stessi, comporta inoltre una maggiore velocità di esecuzione dei processi documentali (dalla realizzazione dei documenti alla ricerca degli stessi) ed infine rende possibile l’ottenimento di documenti già predisposti per la conservazione a norma (con conseguente mantenimento della validità legale nel tempo). Come conseguenza di questa trasposizione dall'analogico al digitale si sono presentate tuttavia problematiche derivanti dalla natura stessa del nuovo contesto; la realizzazione di soluzioni di firma grafometrica richiede quindi una forte attenzione, al fine di evitare che i dati biometrici possano essere utilizzati impropriamente. Questa tesi è quindi volta a descrivere sia a livello normativo che tecnologico questa tipologia di firma elettronica avanzata. Nel corso della trattazione verranno inoltre fornite delle linee guida per la realizzazione di un corretto processo di apposizione della firma grafometrica a tutela della sicurezza dei dati biometrici dell'individuo.
Resumo:
L'utilizzo dell'idrogeno come vettore energetico �è negli ultimi anni uno dei temi in maggior rilievo riguardo la sostenibilit�à energetica, questo per via della sua abbondanza in natura, della sua elevata energia chimica per unità di massa, e della non tossicità dei prodotti della sua combustione. Tuttavia non si conosce ancora una maniera e�fficiente di immagazzinarlo per poterlo utilizzare per applicazioni mobili. In questo lavoro di tesi sono state cresciute, e analizzate mediante microscopia elettronica, nanoparticelle di magnesio decorate con metalli di transizione (Pd e Ti), che si collocano tra i candidati più promettenti per lo stoccaggio di idrogeno a stato solido.
Resumo:
Nella presente tesi indaghiamo la potenzialità di LCM e Reverse Phase Protein microarray negli studi clinici. Si analizza la possibilità di creare una bio banca con line cellular primarie, al fine di conseguire drug test di sensibilità prima di decidere il trattamento da somministrare ai singoli pazienti. Sono stati ottenuti profili proteomici da biopsie pre e post terapia. I risultati dimostrano che questa piattaforma mostra il meccanismo di resistenza acquisito durante la terapia biologica. Questo ci ha portato ad analizzare una possibile stratificazione per pazienti con mCRC . I dati hanno rivelato distinti pathway di attivazione tra metastasi resecabile e non resecabili. I risultati mostrano inoltre due potenziali bersagli farmacologici. Ma la valutazione dell'intero tumore tramite singole biopsie sembra essere un problema a causa dell’eterogeneità intratumorale a livello genomico. Abbiamo indagato questo problema a livello dell'architettura del segnale in campioni di mCRC e ccRCC . I risultati indicano una somiglianza complessiva nei profili proteomici all'interno dello stesso tumore. Considerando che una singola biopsia è rappresentativa di un intera lesione , abbiamo studiato la possibilità di creare linee di cellule primarie, per valutare il profilo molecolare di ogni paziente. Fino ad oggi non c'era un protocollo per creare linee cellulari immortalizzate senza alcuna variazione genetica . abbiamo cosiderato, però, l'approccio innovativo delle CRCs. Ad oggi , non è ancora chiaro se tali cellule mimino il profilo dei tessuti oppure I passaggi in vitro modifichino i loro pathways . Sulla base di un modello di topo , i nostri dati mostrano un profilo di proteomica simile tra le linee di cellule e tessuti di topo LCM. In conclusione, i nostri dati dimostrano l'utilità della piattaforma LCM / RPPA nella sperimentazione clinica e la possibilità di creare una bio - banca di linee cellulari primarie, per migliorare la decisione del trattamento.