470 resultados para memorie di massa, memorie secondarie, dati digitali, hard disk
Resumo:
Le macchine automatiche per il confezionamento sono sistemi complessi composti da molte parti soggette a usura. Con ritmi di produzione di migliaia di pezzi l’ora, l’eventualità di un guasto e del conseguente fermo macchina, può avere ripercussioni economiche considerevoli per un’azienda. Sempre più risorse, per tale motivo, vengono dedicate allo sviluppo di tecniche per incrementare l’affidabilità dei macchinari, e che riducano al contempo, il numero e la durata degli interventi manutentivi. In tal senso, le tecniche di manutenzione predittiva permettono di prevedere, con un certo grado di accuratezza, il tempo di vita residuo dei componenti delle macchine; consentendo l’ottimizzazione della programmazione degli interventi di manutenzione. Appositi sensori installati sui macchinari permettono l’acquisizione di dati, la cui analisi è alla base di tali tecniche. L'elaborato descrive il progetto e la realizzazione di un’infrastruttura software, nell’ambiente di sviluppo Matlab, per l’elaborazione automatizzata di dati di vibrazione. Il sistema proposto, attraverso il monitoraggio dei parametri rms e kurtosis, consiste in strumento di ausilio per la diagnostica di cuscinetti. Il progetto è stato realizzato sulla base di veri dati storici messi a disposizione da un'azienda del settore. L’elaborato affronta inizialmente il problema dell’accuratezza e affidabilità dei campioni, proponendo soluzioni pratiche per la valutazione della qualità e selezione automatica dei dati. Segue la descrizione del processo di estrapolazione dei parametri sopraccitati, nel caso di cuscinetti in moto non stazionario, con profilo di velocità periodico. Nella terza parte è discussa la metodologia con cui istruire il sistema affinché possa, attraverso la redazione di report sullo stato dei componenti, fungere da strumento di diagnosi. L’ultimo capitolo descrive gli strumenti del toolbox per l’analisi dati che è stato realizzato allo scopo di aumentare potenzialità del sistema di diagnostica.
Resumo:
Questo elaborato nasce con l’obiettivo di trovare quali indicatori sono maggiormente indicativi delle reali performance ambientali ed economiche nella gestione dei rifiuti urbani al fine di studiare la situazione attuale e le cause che maggiormente influenzano la qualità della gestione del servizio. Il lavoro di analisi dei dati è stato diviso in quattro fasi principali. Inizialmente sono stati raccolti dati pubblici relativi ai vari Comuni della Provincia di Bologna per la successiva creazione di indicatori complessi, indispensabili sia per il confronto dei dati stessi, che delle varie categorie e delle classi create in seguito. Infine lo sviluppo dei grafici ha permesso di mettere in relazione i vari elementi in modo da fornire una chiara rappresentazione di come questi possano influire sui costi e sulle tematiche ambientali.
Resumo:
L'RCMT (Regional Centroid Moment Tensor), realizzato e gestito dai ricercatori dell'INGV (Istituto Nazionale di Geofisica e Vulcanologia), è dal 1997 il catalogo di riferimento per gli eventi sismici avvenuti nell'area Europea-Mediterranea, ossia nella regione avente longitudine compresa tra 10° W e 40° E e latitudine compresa tra 25° N e 60° N. Tale regione è caratterizzata da un'attività tettonica complessa, legata non soltanto alla convergenza delle placche Euroasiatica ed Africana, ma anche al movimento di altre placche minori (ad esempio, la placca Arabica), che tutte insieme danno origine ad una vasta gamma di regimi tettonici. Col termine RCMT si indica un particolare tipo di tensore momento sismico, la cui determinazione avviene su scala regionale, per eventi sismici aventi M_w >= 4.5 (M_w >= 4.0 per gli eventi che avvengono nella penisola italica). Il tensore momento sismico è uno strumento fondamentale per caratterizzare natura ed entità di un terremoto. Da esso, infatti, oltre alla magnitudo momento M_w, si ricava anche il meccanismo focale. Comunemente rappresentato sotto forma di beach ball, consente di individuare il tipo di movimento (distensivo, compressivo o trascorrente, o anche una combinazione del primo o del secondo con il terzo) avvenuto sulla faglia che ha provocato il terremoto. I tensori momento sismico permettono, quindi, di identificare le faglie che si attivano durante una sequenza sismica, di comprendere la loro cinematica e di ipotizzare la successiva evoluzione a breve termine. Scopo di questa relazione di laurea è stato derivare le relazioni che intercorrono fra le M_w dell'RCMT e le M_w del CMT (Centroid Moment Tensor della Columbia University), del GFZ (Deutsches GeoForschungsZentrum di Postdam) e del TDMT (Time Domain Moment Tensor). Le relazioni sono state ottenute applicando il metodo dei minimi quadrati agli eventi comuni, che sono stati selezionati utilizzando alcuni semplici programmi scritti in Fortran.
Resumo:
Internet ha rivoluzionato il modo di comunicare degli individui. Siamo testimoni della nascita e dello sviluppo di un'era caratterizzata dalla disponibilità di informazione libera e accessibile a tutti. Negli ultimi anni grazie alla diffusione di smartphone, tablet e altre tipologie di dispositivi connessi, è cambiato il fulcro dell'innovazione spostandosi dalle persone agli oggetti. E' così che nasce il concetto di Internet of Things, termine usato per descrivere la rete di comunicazione creata tra i diversi dispositivi connessi ad Internet e capaci di interagire in autonomia. Gli ambiti applicativi dell'Internet of Things spaziano dalla domotica alla sanità, dall'environmental monitoring al concetto di smart cities e così via. L'obiettivo principale di tale disciplina è quello di migliorare la vita delle persone grazie a sistemi che siano in grado di interagire senza aver bisogno dell'intervento dell'essere umano. Proprio per la natura eterogenea della disciplina e in relazione ai diversi ambiti applicativi, nell'Internet of Things si può incorrere in problemi derivanti dalla presenza di tecnologie differenti o di modalità eterogenee di memorizzazione dei dati. A questo proposito viene introdotto il concetto di Internet of Things collaborativo, termine che indica l'obiettivo di realizzare applicazioni che possano garantire interoperabilità tra i diversi ecosistemi e tra le diverse fonti da cui l'Internet of Things attinge, sfruttando la presenza di piattaforme di pubblicazione di Open Data. L'obiettivo di questa tesi è stato quello di creare un sistema per l'aggregazione di dati da due piattaforme, ThingSpeak e Sparkfun, con lo scopo di unificarli in un unico database ed estrarre informazioni significative dai dati tramite due tecniche di Data Mining: il Dictionary Learning e l'Affinity Propagation. Vengono illustrate le due metodologie che rientrano rispettivamente tra le tecniche di classificazione e di clustering.
Resumo:
Oggi l’esigenza di permettere all’utente di riuscire a formulare interrogazioni su database a grafo in maniera più semplice e soprattutto intuitiva ha portato gli istituti di ricerca a proporre metodi di interrogazione visuale. Uno dei sistemi che sono stati proposti è GraphVista. Tale sistema si basa sull’idea di dividere l’interrogazione in due macro-fasi. La prima fase permette di avvicinarsi al risultato richiesto escludendo da successive analisi dati che sicuramente non potranno far parte del risultato finale, mentre la seconda fase permette all’utente di essere protagonista. Infatti ad esso è concessa la possibilità di manipolare a proprio piacimento i risultati ottenuti dalla prima fase al fine di “ricercare” da sé le informazioni desiderate. Il tutto viene supportato grazie a un’interfaccia intuitiva ed efficace che permette all’utente di navigare interattivamente all’interno di una base di dati a grafo. Le caratteristiche dell’interfaccia e la possibilità di formulare interrogazioni visuali fanno in modo che l’utente non necessiti di conoscere alla perfezione un linguaggio di query specifico. Nel corso di questa tesi viene descritto il sistema GraphVista e la tecnologia sulla quale si fonda. Infine, viene effettuata una comparazione sull’efficacia e la semplicità d’uso del sistema GraphVista rispetto alla formulazione di query tramite un linguaggio standard come SPARQL.
Resumo:
La Cartella Clinica Elettronica è lo strumento d’eccellenza per la condivisione e il recupero dei dati clinici e per la gestione organica e strutturata dei dati riferiti alla storia clinica di un paziente. Garantisce il supporto dei processi clinici (diagnostico-terapeutici) e d’assistenza nei singoli episodi di cura e favorisce la continuità di cura. In questo nuovo scenario acquista rilevanza il contributo degli infermieri ai processi sanitari e al percorso diagnostico-terapeutico di competenza medica, nonché l’affermarsi del processo assistenziale di specifica competenza infermieristica. Nasce l’esigenza di progettare e sviluppare un valido sistema informativo, indispensabile per documentare sistematicamente ogni attività infermieristica, ottenere informazioni utili per la pianificazione, la gestione e la valutazione dei percorsi assistenziali e per migliorare l’assistenza. Il seguente progetto di tesi sperimentale ha come obiettivo la digitalizzazione delle documentazione infermieristica,in accordo con le esigenze del personale clinico in un ambito realmente operativo di reparto ospedaliero, al fine di realizzare uno strumento informativo semplice ma efficace, in grado di rendere agevole la registrazione dell’attività clinica quotidiana. Per iniziare la trattazione, sono forniti elementi introduttivi e propedeutici ad una comprensione più esaustiva del sistema che verrà integrato con le schede infermieristiche digitali. Si procede con la descrizione delle fasi di sviluppo che hanno portato all’informatizzazione delle schede infermieristiche, analizzando sia gli studi preliminari che gli strumenti utilizzati per la loro realizzazione. Il lavoro si conclude con la presentazione e discussione di un prototipo al personale infermieristico referente, così da mostrare al cliente l’effettiva funzionalità della cartella infermieristica e il flusso di utilizzo per avere un riscontro preliminare su leggibilità ed organicità dei documenti.
Resumo:
Gli ammassi di galassie sono le strutture più grandi che possiamo osservare nell’Universo. La loro formazione deriva direttamente dalla crescita delle perturbazioni primordiali di densità e dal loro conseguente collasso gravitazionale indotto appunto dalla gravità. Gli ammassi di galassie sono molto importanti in Astrofisica in quanto possono essere considerati come dei laboratori per lo studio di molti aspetti fisici legati al gas, all’ICM e all’evoluzione delle galassie. Lo studio degli ammassi di galassie è molto importante anche per la Cosmologia in quanto è possibile effettuare delle stime sui parametri cosmologici ed ottenere dei vincoli sulla geometria dell’Universo andando a valutare la loro massa e la loro distribuzione nell’Universo. Diventa quindi fondamentale l’utilizzo di algoritmi che ci permettano di utilizzare i dati ottenuti dalle osservazioni per cercare ed individuare gli ammassi di galassie in modo tale da definire meglio la loro distribuzione nell’Universo. Le più recenti survey di galassie ci forniscono molteplici informazioni a riguardo delle galassie, come ad esempio la loro magnitudine in varie bande osservative, il loro colore, la loro velocità ecc. In questo lavoro abbiamo voluto testare la performance di un algoritmo Optimal Filtering nella ricerca degli ammassi di galassie utilizzando prima solo l’informazione della magnitudine delle galassie e successivamente anche l’informazione sul loro colore. Quello che abbiamo voluto fare, quindi, è stato valutare se l’utilizzo combinato della magnitudine delle galassie e del loro colore permette all’algoritmo di individuare più facilmente, e in numero maggiore, gli ammassi di galassie.
Resumo:
L'Italia è spesso sede di eventi d'intensa precipitazione, frequentemente associati ad alluvioni con conseguente perdita di vite umane e gravi danni economici. È quindi di fondamentale importanza poter prevedere questi eventi con un adeguato anticipo. Allo stato attuale, i modelli meteorologici non permettono sempre di raggiungere tale obbiettivo e, di conseguenza, è in atto un'intensa attività di ricerca al fine di di renderne più accurata la previsione, sia attraverso il miglioramento dei modelli stessi, sia sviluppando l'assimilazione dati, la quale riduce l'incertezza della condizione iniziale da cui parte la previsione. All'interno di questo contesto, la tesi si prefigge l'obiettivo di studiare gli effetti dell'assimilazione di dati di precipitazione, effettuata mediante uno schema di nudging, nel modello non idrostatico MOLOCH. Al fine di ottimizzare lo schema e di valutarne l'impatto, sono stati simulati tutti gli eventi di maltempo di ottobre e novembre del 2014 che hanno interessato la Liguria, area frequentemente soggetta ad alluvioni. Dalla sistematica verifica dei risultati, effettuata sia qualitativamente che mediante numerosi metodi statistici (tra cui la tecnica SAL basata sull'individuazione dei nuclei di precipitazione), si riscontra un generale miglioramento della previsione della precipitazione anche se limitato alle prime ore dopo la fine del periodo di assimilazione. L'impatto dello schema di nudging varia a seconda dell'evento e, in particolare, si osserva una certa correlazione tra il miglioramento ottenuto e la tipologia di evento, come descritto dalla teoria dell'equilibrio convettivo e come riportato in alcuni studi analoghi recentemente comparsi in letteratura. La ricaduta del miglioramento della previsione meteorologica è stata valutata anche in termini di impatti al suolo accoppiando il modello meteorologico con il modello idrologico utilizzato dal Centro Funzionale della Regione Liguria, con risultati abbastanza positivi.
Resumo:
Questo elaborato di tesi presenta uno studio volto a identificare il ruolo dell’autofagia nella patogenesi della neuropatia ottica ereditaria di Leber (LHON), una patologia neurodegenerativa mitocondriale dovuta a mutazioni nel mtDNA. Tali mutazioni generano difetti nella catena respiratoria, nelle vie apoptotiche mediate dai mitocondri e nella produzione di ROS; dati preliminari hanno dimostrato una correlazione tra le mutazioni LHON e l’omeostasi mitocondriale, regolata dai processi contrapposti di autofagia e mitobiogenesi. Secondo questa ipotesi, le alterazioni LHON aumentano il flusso autofagico soprattutto negli individui affetti, mentre i portatori di mutazione sani (carrier) risultano protetti da un importante incremento nella mitobiogenesi che agisce da meccanismo compensatorio. È stata dunque caratterizzata tramite Western Blotting l’espressione proteica di due marker autofagici, LC3 e p62, in PBMCs (Peripheral Blood Mononuclear Cells) estratte da pazienti LHON, affetti e carrier, e individui di controllo. Sono stati inoltre quantificati i livelli cellulari di due proteine della membrana interna mitocondriale, COX IV e SDHA, al fine di valutare la massa mitocondriale come parametro di confronto rispetto ai livelli di autofagia. È stata infine analizzata l’influenza dell’idebenone sull’autofagia e sulla massa mitocondriale, confrontando pazienti affetti in terapia con questo farmaco e pazienti affetti non trattati. Lo studio ha in parte avvalorato i risultati preliminari; l’elevata variabilità riscontrata porta però all’esigenza, nelle analisi future, di una maggiore campionatura, nonché di indagini di diversa natura condotte in parallelo per validare i risultati.
Resumo:
Questa tesi verte sulla traduzione di ricette scritte a mano o tramandate oralmente da diverse generazioni di alcune famiglie russe. Anche tali ricette, e non solo quelle riportate nei libri di cucina stampati, contengono preziose informazioni sulle abitudini alimentari dei russi, nonché sulla loro vita quotidiana e sulla storia del loro paese. Ho intervistato alcuni membri di queste famiglie e inviato un questionario online ad altri. Ho fotografato o chiesto di mandarmi fotografie delle ricette trascritte a mano da loro stessi o da alcuni familiari su libri o fogli conservati in casa. Alcune di queste ricette sono state scritte decenni fa, altre sono rielaborazioni più recenti di ricette tradizionali della famiglia o invenzioni delle ultime generazioni. Nella prima parte della mia tesi ho analizzato le tappe fondamentali della letteratura culinaria russa e i processi con cui le ricette tradizionali vengono tramandate alle generazioni successive, sia sotto forma di libri di cucina scritti da chef e autorità nel campo, sia in ambito familiare, trascritte a mano su fogli e quaderni oppure insegnate direttamente, in forma orale. In seguito sono riportate le traduzioni delle ricette: dal boršč della mamma di Kristina, una mia compagna di università alla Moscow State Univesity, alle antiche ricette della bisnonna della mia professoressa Maria Arapova, ancora scritte con l’ortografia prerivoluzionaria, alle specialità di Marzhan, 15 anni, ma già abilissima ai fornelli. Le ricette sono precedute da una breve introduzione sulla storia del piatto oppure da memorie e aneddoti familiari legati ad esso che mi sono stati raccontati durante le interviste o nelle risposte al questionario. Segue un’analisi dei principali problemi affrontati durante la traduzione. In primo luogo, quelli legati al genere testuale: la ricetta è un testo prescrittivo, il che rende l’efficacia della traduzione un aspetto cruciale, ed è anche una tipologia testuale ricca di elementi culturally specific, ad esempio ingredienti e unità di misura. In secondo luogo, vengono analizzate le difficoltà legate al tipo particolare di ricette tradotte: testi ad uso domestico e familiare, ricchi di omissioni e spesso scritti in una grafia difficile da decifrare.
Resumo:
In questa tesi descriviamo due teorie, la MOND e la TeVeS, che si pongono come alternativa all’ipotesi dell’esistenza della materia oscura. Seguendo l’ordine storico degli eventi, nel primo capitolo presentiamo i dati sperimentali e le considerazioni teoriche che hanno convinto gli scienziati del ’900 che la massa osservata nell’Universo sia minore della massa dinamica inferita dalla fisica newtoniana e dalla Relatività Generale. Il primo tentativo di risolvere questo problema è consistito nell’ipotizzare l’esistenza di una materia non ancora osservata, divenuta nota come “materia oscura”. Affrontando le questioni sollevate dalle curve di rotazione delle galassie a spirale, dalla relazione di Tully-Fisher, dalla legge di Freeman e dalle fluttuazioni della radiazione cosmica di fondo, vedremo come questa ipotesi si sia evoluta per tenere conto dei risultati sperimentali, a partire dal modello della sfera isoterma fino al modello ΛCDM, e i problemi che essa non risolve. Nel secondo capitolo descriviamo la MOND, una modifica della dinamica newtoniana nata con l’obiettivo di ridurre la quantità di materia oscura necessaria per descrivere l’Universo. Il problema della massa nascosta può, infatti, essere dovuto a un’incompleta comprensione delle leggi della fisica e, confrontando la MOND con i dati sperimentali presentati nel primo capitolo, vedremo come essa riesca a descrivere la dinamica su scale galattiche ed extragalattiche. Concluderemo il capitolo mostrando una densità di lagrangiana capace di riprodurre la formula fenomenologica della MOND. Per affrontare le questioni cosmologiche è necessario disporre di una teoria relativistica che recuperi la MOND nel limite di campo debole. Nel terzo capitolo trattiamo quindi la TeVeS, riportando le azioni che permettono di derivare le equazioni dei campi di tale teoria. Dopo averne studiato i limiti relativistici e non relativistici, accenneremo a come essa permetta di estendere il paradigma MOND in campo cosmologico.
Resumo:
L'elaborato presenta Google Fusion Tables, un software che fa parte dei servizi messi a disposizione da Google, funzionale per la gestione di database. Il servizio gratuito e online ha quindi lo scopo di supportare i compiti di gestori di basi di dati e fornisce operazioni di manipolazione dei dati come estrazione, aggregazione, filtraggio e fusione. Il servizio utilizza dati strutturati, i quali sono estratti dalle pagine Web con appositi motori di ricerca come WebTables, trattato nell'elaborato. Google Fusion Tables è impiegato in ambito scientifico ed è nato per esplicitare le informazioni di ricerche scientifiche che spesso sono contenute in database e fogli di calcolo difficilmente condivisi nel Web. Questo servizio è molto pratico per le aziende, le quali possono integrare dati interni ed esterni all’organizzazione per ampliare la propria conoscenza e ottenere un vantaggio competitivo sui concorrenti. Vengono quindi presentate le caratteristiche distintive che potrebbero indurre numerose organizzazioni a scommettere su questo nuovo servizio.
Resumo:
In questo elaborato si vuole studiare l’implementazione di un sistema di comunicazione dati e audio basato su segnali Ultra Wide Band (UWB). L’obiettivo del progetto è quindi quello di implementare un sistema di comunicazione punto-multi punto basato su UWB.
Resumo:
Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).
Resumo:
L'argomento principale di questo elaborato è l'analisi delle proprietà termiche del G.H.A .(Golden Hard Anodizing), ovvero un particolare trattamento di trasformazione superficiale dell'alluminio. Nello specifico è stato studiato tramite confronto con la conducibilità termica, la diffusività e l’emissività termica. Per ottenere tali dati sono state svolte prove sperimentali in modo da avere un chiara visione dell'entità di tali proprietà e metterle a confronto con quelle dell'alluminio base e dell'alluminio anodizzato.