981 resultados para Recomendacao tecnica
Resumo:
Lo streaming è una tecnica per trasferire contenuti multimediali sulla rete globale, utilizzato per esempio da servizi come YouTube e Netflix; dopo una breve attesa, durante la quale un buffer di sicurezza viene riempito, l'utente può usufruire del contenuto richiesto. Cisco e Sandvine, che con cadenza regolare pubblicano bollettini sullo stato di Internet, affermano che lo streaming video ha, e avrà sempre di più, un grande impatto sulla rete globale. Il buon design delle applicazioni di streaming riveste quindi un ruolo importante, sia per la soddisfazione degli utenti che per la stabilità dell'infrastruttura. HTTP Adaptive Streaming indica una famiglia di implementazioni volta a offrire la migliore qualità video possibile (in termini di bit rate) in funzione della bontà della connessione Internet dell'utente finale: il riproduttore multimediale può cambiare in ogni momento il bit rate, scegliendolo in un insieme predefinito, adattandosi alle condizioni della rete. Per ricavare informazioni sullo stato della connettività, due famiglie di metodi sono possibili: misurare la velocità di scaricamento dei precedenti trasferimenti (approccio rate-based), oppure, come recentemente proposto da Netflix, utilizzare l'occupazione del buffer come dato principale (buffer-based). In questo lavoro analizziamo algoritmi di adattamento delle due famiglie, con l'obiettivo di confrontarli su metriche riguardanti la soddisfazione degli utenti, l'utilizzo della rete e la competizione su un collo di bottiglia. I risultati dei nostri test non definiscono un chiaro vincitore, riconoscendo comunque la bontà della nuova proposta, ma evidenziando al contrario che gli algoritmi buffer-based non sempre riescono ad allocare in modo imparziale le risorse di rete.
Resumo:
La tesi di laurea è stata svolta presso l’Università di Scienze Applicate di Rosenheim, in Germania; il progetto di ricerca si basa sulla tecnica di rinforzo conosciuta come “Soil Nailing”, che consiste nella costruzione di un’opera di sostegno nella realizzazione di pareti di scavo o nel consolidamento di versanti instabili. L’obiettivo principale dell’elaborato sarà quello di valutare la fattibilità dell’impiego di tubi fabbricati con legno di faggio, in sostituzione dei chiodi d’acciaio comunemente utilizzati; la scelta di questo tipo di legno è dettata dalla larga disponibilità presente in Germania. La sollecitazione principale su tali tubi sarà di trazione parallela alla fibratura, tramite test sperimentali è stato possibile valutare tale resistenza nelle diverse condizioni in cui si verrà a trovare il tubo dopo l’installazione nel terreno. A tal proposito è necessario specificare che, l’indagine per risalire all’influenza che le condizioni ambientali esercitano sull’elemento, verrà condotta su provini costituiti da un singolo strato di legno; in tal modo si può apprezzare l’influenza direttamente sull’elemento base e poi risalire al comportamento globale. I dati ottenuti dall’indagine sperimentale sono stati elaborati tramite la teoria di Weibull, largamente utilizzata in tecnologia dei materiali per quanto riguarda materiali fragili come il legno; tali distribuzioni hanno permesso la determinazione della resistenza caratteristica dei provini per ogni condizione ambientale d’interesse. Per quanto riguarda la valutazione della fattibilità dell’uso di tubi in legno in questa tecnica di consolidamento, è stato eseguito il dimensionamento del tubo, utilizzando i dati a disposizione ottenuti dall’indagine sperimentale eseguita; ed infine sono state eseguite le verifiche di stabilità dell’intervento.
Resumo:
La tecnica olografica venne introdotta nel 1948 da Denis Gabor. Creò la parola holography combinando tra loro le parole greche holos, che vuol dire tutto, e graphein, che invece vuol dire scrivere. Con il termine olografia si intende le registrazione e la ricostruzione dell'ampiezza e della fase di un'onda. La prima si ricava dalle informazioni contenute nell'intensità delle frange luminose che costituiscono l'immagine di diffrazione, mentre la seconda si ottiene dalla distanza delle stesse. L'immagine di diffrazione non è altro che il prodotto dell'interferenza tra l'onda oggetto e l'onda di riferimento, che viene registrato solitamente su una lastra olografica o una pellicola, che si presenta come un susseguirsi di frange chiare e scure molto sottili, tanto da non essere visibili a occhio nudo a causa delle alte frequenze spaziali. Questa immagine riproduce l'oggetto se illuminato con un fascio luminoso simile all'onda di riferimento. Negli anni a seguire si sviluppò molto velocemente la tecnologia alla base dei computer che permise di trasferire sia il processo di registrazione che quello di ricostruzione su tali dispositivi. Un passo avanti venne fatto con l’introduzione dei Charged Coupled Devices (CCD) nella registrazione diretta di ologrammi, ad opera di Schnars e Juptner, con i quali venne eliminato definitivamente ogni tipo di passaggio fotografico intermedio. L'intero procedimento numerico di registrazione e ricostruzione venne riconosciuto in seguito come Olografia Digitale, e i suoi vantaggi rispetto all'olografia ottica erano ben chiari e ne permisero un largo impiego: dall'interferometria alla shearografia alla fotografia speckle. Questa tesi ha l'obiettivo di mostrare un'applicazione dell'olografia ottica e di infine tentare un primo approccio all'olografia digitale per mezzo di acquisizioni di figure di diffrazione attraverso un CCD e di simulazioni di generazione e ricostruzione di ologrammi su dispositivi elettronici.
Resumo:
Una nuova ed originale tecnica è stata messa a punto, finalizzata alla realizzazione di una procedura per la diagnosi dell’osteoporosi, mediante l’utilizzo di scanner low field single-sided NMR. Tre differenti scanner (NMR MOLE, MOUSE PM 10 e MOUSE PM5) sono stati usati per determinare il Bone Volume-to-Total Volume ratio (BV/TV), parametro che fornisce indicazioni sulla microstruttura dell’osso. I risultati sono stati confrontati con le analisi micro-CT. Gli esperimenti sono stati condotti nel Lab. NMR del dipartimento DIFA di UNIBO e nel Lab. NMR della Victoria University di Wellington (NZ), durante un periodo di visita di cinque mesi, supportato da una borsa di studio della “Facoltà di Scienze” di UNIBO. Le analisi micro-CT sono state condotte presso il Lab. di Tecnologie Mediche dell’Istituto Ortopedico Rizzoli, Bologna. La ricerca è stata parzialmente finanziata dalla “Fondazione del Monte di Bologna e Ravenna”. La caratterizzazione dell’osso trabecolare di campioni animali e dei tessuti che lo circondano (come cartilagine e muscolo) è stata condotta tramite mappe di correlazione T1-T2 e D-T2 , dove T1 e T2 sono, rispettivamente, il tempo di rilassamento longitudinale e trasversale del nucleo 1H, e D è il coefficiente di autodiffusione molecolare. E’ stata sviluppata una sequenza di impulsi (Diffusion-Weighted T1-T2) per ottenere mappe T1-T2 pesate in diffusione. I risultati hanno consentito di mettere a punto una procedura che elimina il segnale NMR proveniente da cartilagine e muscolo, rendendo più realistico lo scenario di applicazione in-vivo. I tre diversi dispositivi NMR hanno dato risultati consistenti tra loro e con le immagini micro-CT. L’intera catena di esperimenti condotti ha mostrato che dispositivi NMR single-sided possono essere usati per valutare il BV/TV di ossa trabecolari, con il vantaggio di essere portatili, a basso costo e non invasivi, permettendo campagne di screening della popolazione a rischio osteoporosi.
Resumo:
Il grafene è un cristallo bidimensionale di atomi di carbonio, isolato per la prima volta nel 2004 da due fisici che per questo risultato vinsero il premio Nobel per la Fisica nel 2010. Il grafene possiede proprietà chimiche e fisiche superiori, quali un’elevata resistenza chimica e meccanica e un’eccellente conducibilità termica ed elettrica. Inoltre possiede altre due caratteristiche che lo rendono particolarmente promettente in diversi ambiti applicativi: leggerezza e trasparenza ottica. In questo elaborato ho descritto le attività svolte seguendo le ricerche che vengono svolte al CNR-IMM di Bologna, dove questo materiale viene prodotto tramite la tecnica di Chemical Vapor Deposition e studiato per l’integrazione in dispositivi elettronici ed elettro-meccanici innovativi. Durante la mia esperienza di laboratorio all’IMM ho seguito i procedimenti che portano al trasferimento del grafene sintetizzato su substrati catalitici di rame sui substrati finali per la successiva integrazione nella tecnologia del silicio. Nell’elaborato vengono da prima descritte la struttura cristallina ed elettronica e successivamente presentate alcune proprietà di cui gode e messe in relazione con i materiali attualmente in uso. Segue una breve trattazione bibliografica di alcune delle principali tecniche di produzione del grafene, trattando più nel dettaglio la tecnica CVD attualmente in uso per la sintesi di grafene all’interno dei laboratori del CNR-IMM di Bologna. La parte principale di questa esperienza di laboratorio è stato di seguire in prima persona le attuali ricerche del gruppo di lavoro per la messa a punto di un metodo alternativo che utilizza il ciclododecano per il trasferimento del grafene sintetizzato su rame al posto del classico strato sacrificale polimerico di PMMA. Nell’elaborato il confronto tra le due tecniche viene eseguito confrontando i risultati del trasferimento analizzando la morfologia dei campioni finali con tecniche di microscopia elettronica in scansione
Resumo:
Questo elaborato studia e analizza il comportamento di tre algoritmi di base per quanto riguarda la localizzazione indoor e in particolare la tecnica del fingerprint. L'elaborato include l'analisi di come l'eterogeneita dei dispositivi possa influenzare gli algoritmi e la loro accuratezza nel produrre il risultato. Si include inoltre l'analisi dello stato dell'arte la progettazione e lo sviluppo di un'applicazione Android e di un web service. L'illustrazione dei test effettuati e le considerazioni finali concludono la tesi.
Resumo:
Questa tesi riguarda lo sviluppo di un'applicazione che sfrutta le tecnologie del Web Semantico e del Text Mining. L'applicazione rappresenta l'estensione di un lavoro relativo ad una tesi precedente, aggiungendo ad esso la funzionalità di ricerca semantica. Tale funzionalità permette il recupero di informazioni che con il metodo di ricerca normale non verrebbero considerate. Per raggiungere questo risultato si utilizza WordNet, un database semantico-lessicale, e una libreria per la Latent Semantic Analysis, una tecnica del Text Mining.
Resumo:
I bacini idrografici appenninici romagnoli rappresentano una fonte idropotabile di essenziale importanza per la Romagna, grazie alla regolazione stagionale svolta dall’invaso artificiale di Ridracoli. Nel presente elaborato si è implementato un modello per lo studio e la valutazione del regime idrologico dei bacini idrografici allacciati all’invaso, affrontando sia gli aspetti relativi alla miglior spazializzazione dei dati metereologici in ingresso al modello (in particolare in relazione alla stima della temperatura, fondamentale per la rappresentazione dei processi di evapotraspirazione e dei fenomeni di accumulo e scioglimento nevoso), sia gli aspetti di calibrazione dei parametri, confrontando le simulazioni ottenute a partire da diverse configurazioni del modello in termini di rappresentazione spaziale e temporale dei fenomeni. Inoltre si è eseguita una regionalizzazione del modello su due sezioni fluviali che sono al momento oggetto di indagini idrologiche, fornendo supporto alla valutazione della possibilità di realizzazione di una nuova opera di presa. A partire dai dati puntuali dei sensori termometrici disponibili si è ricercata la migliore tecnica di interpolazione della temperatura sull’area di studio, ottenendo una discreta precisione, con un errore in procedura di ricampionamento jack-knife raramente superiore al grado centigrado. La calibrazione del modello TUWien in approccio semi-distribuito, sia quando applicato a scala oraria sia quando applicato a scala giornaliera, ha portato a buoni risultati. La complessità del modello, dovuta in gran parte alla presenza di uno specifico modulo per la gestione di accumulo e scioglimento nivale, è stata ripagata dalle buone prestazioni delle simulazioni ottenute, sia sul periodo di calibrazione sia su quello di validazione. Tuttavia si è osservato che l’approccio semi-distribuito non ha portato benefici sostanziali rispetto a quello concentrato, soprattutto in relazione al forte aumento di costo computazionale.
Resumo:
In questo elaborato si affronta lo studio della tecnica di sopraelevazione di edifici esistenti in muratura con strutture in legno di tipo XLAM. Le sopraelevazioni, sebbene non siano una tipologia di intervento ancora così diffusa in Italia, offrono numerosi vantaggi e, in tale contesto, le caratteristiche del legno si prestano perfettamente a rendere vantaggioso e pratico questo sistema costruttivo. Partendo dall’analisi delle diverse caratteristiche e proprietà meccaniche che contraddistinguono la muratura e il legno, viene trattata l’interazione tra i due materiali all’interno della medesima struttura, concentrandosi sulla corretta progettazione degli elementi di collegamento. Vengono creati una serie di modelli agli elementi finiti per riprodurre il comportamento di un edificio esistente in muratura allo stato di fatto e a seguito degli interventi di sopraelevazione, analizzando le sollecitazioni che la parte di struttura sopraelevata genera sulla sottostruttura. Lo studio prevede la variazione dell’input sismico, prendendo in considerazione diversi valori di accelerazione di picco (da 0,35g a 0,05g). Particolare attenzione viene riservata per i collegamenti metallici tra sopraelevazione lignea e sottostruttura in muratura. Si propongono due diverse tecniche di sopraelevazione in XLAM: a parete unica e a pareti separate.
Resumo:
L’Image Labeling è una tecnica che si occupa di assegnare ad ogni pixel di un’immagine un valore, chiamato label (etichetta), in base a determinate caratteristiche dei punti vicini. Lo scopo del labeling è di semplificare e/o modificare la rappresentazione delle immagini al fine di ottenere qualcosa di più significativo e facile da analizzare.
Resumo:
Lo scopo di questa tesi è la fabbricazione di ossidi complessi aventi struttura perovskitica, per mezzo della tecnica Channel Spark Ablation (CSA). Più precisamente sono stati depositati film sottili di manganite (LSMO), SrTiO3 (STO) e NdGaO3 (NGO). Inoltre nel laboratorio ospite è stata effettuata la caratterizzazione elettrica e dielettrica (spettroscopia di impedenza), mentre per l'analisi strutturale e chimica ci si è avvalsi di collaborazioni. Sono stati fabbricati dispositivi LSMO/STO/Co e se ne è studiato il comportamento magnetoresistivo e la bistabilità elettrica a seconda del carattere epitassiale od amorfo dell'STO. I risultati più promettenti sono stati ottenuti con STO amorfo. Sono stati costruiti diversi set di condensatori nella configurazione Metallo/Isolante/Semiconduttore (MIS), con M=Au, I=STO o NGO ed S=Nb:STO, allo scopo di indagare la dipendenza delle proprietà dielettriche ed isolanti dai parametri di crescita. In particolare ci si è concentrati sulla temperatura di deposizione e, nel caso dei film di STO, anche sulla dipendenza della costante dielettrica dallo spessore del film. Come ci si aspettava, la costante dielettrica relativa dei film di STO (65 per un film spesso 40 nm e 175 per uno di 170 nm) si è rivelata maggiore di quella dei film di NGO per i quali abbiamo ottenuto un valore di 20, che coincide con il valore del bulk. Nonostante l'elevata capacità per unità di area ottenibile con l'STO, la costante dielettrica di questo materiale risulta fortemente dipendente dallo spessore del film. Un ulteriore aspetto critico relativo all'STO è dato dal livello di ossidazione del film: le vacanze di ossigeno, infatti, possono ridurre la resistività dell'STO (nominalmente molto elevata), ed aumentarne la corrente di perdita. Al contrario l'NGO è meno sensibile ai processi tecnologici e, allo stesso tempo, ha un valore di costante dielettrica più alto rispetto ad un tipico dielettrico come l'ossido di silicio.
Resumo:
Uno dei concetti chiave dell'impiego della nanotecnologia è quello dell'ingegnerizzazione dei materiali alla nano-scala. Si procede così alla realizzazione di materiali aventi morfologia, struttura e composizione ottimizzate per migliorarne specifiche proprietà in maniera controllata. In questo lavoro sono stati realizzati campioni nanoparticellari a base di magnesio con la tecnica (R-)IGC (Reactive or Inert Gas Condensation) allo scopo di studiare come l'atmosfera nella quale vengono sintetizzati ne influenzi le proprietà morfologiche e strutturali, al fine di poterne controllare la crescita per impieghi specifici. In particolare, si sono voluti analizzare i risultati ottenuti in diverse situazioni: nel caso in cui la sintesi avvenga in un'atmosfera contenente una piccola concentrazione di ossigeno e nel caso della coevaporazione di magnesio e titanio in atmosfera inerte o contenente idrogeno. I campioni sono poi stati analizzati dal punto di vista morfologico, composizionale e strutturale mediante microscopia a scansione elettronica e diffrazione a raggi X. E' stato mostrato che la presenza controllata di ossigeno durante la sintesi permette di realizzare strutture core-shell di dimensione media 40nm e che la co-evaporazione di magnesio e titanio permette la sintesi di nanoparticelle di dimensioni medie anche inferiori ai 12nm. La presenza di idrogeno durante l'evaporazione permette inoltre di crescere nanoparticelle contenenti idruro di titanio senza dover ricorrere ad una idrurazione successiva. Le proprietà termodinamiche e cinetiche di (de)-idrurazione dei campioni sintetizzati sono state misurate utilizzando sia un apparato barometrico Sievert, sia effettuando un'analisi direttamente nel sito di crescita. I campioni realizzati non mostrano una termodinamica significativamente diversa da quella del magnesio bulk, mentre le cinetiche dei processi di assorbimento e desorbimento risultano notevolmente più rapide.
Resumo:
La catalogazione è la tecnica per costruire, mantenere e aggiornare un catalogo. L’utilizzo del catalogo diventa strettamente necessario quando la raccolta dei documenti viene fuori da un ambito locale e si riferisce ad un pubblico che vuole beneficiare delle informazioni possedute dalla biblioteca. Il passo successivo è aderire ad un sistema in cui ciascuna biblioteca contribuisce alla costruzione del catalogo, trasmettendo i propri dati e le informazioni relative ai documenti in proprio possesso. Per effettuare questa progressione è necessario aderire allo standard catalografico del sistema. La Biblioteca dello Studentato per le Missioni ha deciso di passare da un catalogo bibliografico cumulativo, realizzato con il software CDS/ISIS e l’interfaccia web IBISWEB, ad un sistema più vasto e strutturato, quale l’OPAC CEIBib: per aderire al sistema è necessario effettuare una conversione di formato dei dati bibliografici della banca dati. Lo scopo di questa tesi, dunque, è quello di realizzare un tool di conversione di formato dei dati bibliografici, passando dal formato di catalogazione CDS/ISIS, basato su UNIMARC, al formato MARC 21. La struttura della tesi è organizzata come segue. Il primo capitolo racconta, in breve, la nascita della Biblioteca dello Studentato per le Missioni e del fondo librario di cui dispongono. Il secondo capitolo introduce alla catalogazione, approfondendo diversi aspetti tra cui il catalogo, i formati di catalogazione e i diversi sistemi. Il terzo capitolo tratta il formato di rappresentazione dei metadati MARC 21, adottato dall’OPAC CEIBib come formato bibliografico per la catalogazione. Il quarto capitolo descrive il software di catalogazione CDS/ISIS. In particolare, la creazione dei record CDS/ISIS e l’esportazione degli stessi nel formato ISO 2709. Il quinto capitolo mostra l’implementazione del tool di conversione di formato di dati bibliografici realizzato per la conversione della banca dati della Biblioteca.
Resumo:
In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.
Resumo:
L'obiettivo della tesi è proporre e motivare l'adozione di un modello computazionale Agent-Based nell'ambito del Self-Management di malattie croniche in un sistema di mobile Health. Viene quindi affrontata in maniera approfondita la tematica del mobile Health, settore in grande espansione che vede l'introduzione massiccia dei dispositivi mobili (smartphone, tablet, PDA) in ambito sanitario, e quella del Self-Managment di malattie croniche, un processo di cura caratterizzato dalla partecipazione autonoma del paziente stesso, fornendo una panoramica dei vari approcci computazionali sviluppati. Successivamente vengono presentate le peculiarità dei modelli computazionali risultati dalle ricerche in letteratura strumenti innovati nell'ambito. Nel caso di studio viene adottata la tecnica di modellazione Agent-Based per sviluppare un modello a supporto di malati cronici affetti da diabete mellito di tipo 1. Con la successiva implementazione sulla piattaforma di simulazione MASON, vengono eseguiti diversi esperimenti per dimostrare la fattibilità dell’approccio adottato nell'ambito del Self-Management di malattie croniche.