121 resultados para Ricerca scientifica - Costi - Valutazione - Europa

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La malattia oncologica è caratterizzata da una complessa rete di processi di alterazioni replicative, infiammatorie e metaboliche che, se non adeguatamente corrette, possono compromettere lo stato nutrizionale del paziente, aumentando esponenzialmente il rischio di incorrere in una condizione di malnutrizione. L’equilibrio tra energia, composizione corporea e funzioni dell’organismo può essere ripristinato soltanto con un corretto intervento nutrizionale: è il dietista che, adoperando il Nutrition Care Process, interverrà per garantire al paziente un corretto supporto nutrizionale, ricorrendo al counseling per fornirgli le strategie necessarie a superare le cause di scarso apporto nutrizionale o, qualora le misure dietetiche fossero insufficienti, tramite l’uso di Supplementi Nutrizionali Orali. In questo contesto, la ricerca scientifica ha introdotto l’immunonutrizione, una modalità di nutrire il paziente e allo stesso tempo di modulare l’attività immunitaria a favore del processo di guarigione. Le evidenze si mostrano a favore anche della fornitura extra di amminoacidi a catena ramificata che, oltre a colmare il deficit proteico-energetico, forniscono precursori per ridurre il catabolismo muscolare, promuovendo l’anabolismo. Come terapia adiuvante nel trattamento del cancro sta emergendo in letteratura anche la Dieta Chetogenica, la cui efficacia risiederebbe nella capacità di instaurare un ambiente sfavorevole alla sopravvivenza delle cellule neoplastiche deprivandole del loro unico nutrimento, il glucosio. Alla fine di educare la popolazione ad una corretta prevenzione, risulta necessario diffidare da qualsiasi dieta “miracolosa” e “antitumorale” che, per quanto accattivanti, non fanno altro che generare falsa informazione. Quindi cosa dice la scienza? La nutrizione non ha il potere di guarire dalle malattie oncologiche, ma uno stile di vita sano e un’alimentazione di impronta Mediterranea rappresentano sicuramente la chiave per una corretta prevenzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’alta risoluzione nel telerilevamento termico (Thermal Remote Sensing) da aereo o satellitare si rivela molto importante nell’analisi del comportamento termico delle superfici, in particolare per lo studio dei fenomeni climatici locali dello spazio urbano. La stato termico dell'ambiente urbano è oggi motivo di grande interesse per ricercatori, organi istituzionali e cittadini. Uno dei maggiori campi di studio del comportamento termico urbano interessa il problema energetico: la riduzione dei consumi e delle emissioni di CO2 è un obiettivo primario da perseguire per uno sviluppo sostenibile, spesso supportato da criteri legislativi e progetti comunitari. Su scala differente e con caratteristiche differenti, un altro degli argomenti che scuote da anni e con notevole interesse la ricerca scientifica, è il fenomeno termico urbano che prende il nome di isola di calore; questa si sviluppa non solo in conseguenza al calore sensibile rilasciato da attività antropiche, ma anche a causa della sempre maggiore conversione del territorio rurale in urbanizzato (inurbamento), con conseguente riduzione del fenomeno dell’evapotraspirazione. Oggetto di questa dissertazione è lo studio del comportamento termico delle superfici in ambito urbano, sperimentato sulla città di Bologna. Il primo capitolo si interessa dei principi e delle leggi fisiche sui quali è basato il telerilevamento effettuato nelle bende spettrali dell’infrarosso termico. Viene data una definizione di temperatura radiometrica e cinematica, tra loro legate dall’emissività. Vengono esposti i concetti di risoluzione (geometrica, radiometrica, temporale e spettrale) dell’immagine termica e viene data descrizione dei principali sensori su piattaforma spaziale per l’alta risoluzione nel TIR (ASTER e Landsat). Il secondo capitolo si apre con la definizione di LST (Land Surface Temperature), parametro del terreno misurato col telerilevamento, e ne viene descritta la dipendenza dal flusso della radiazione in atmosfera e dalle condizioni di bilancio termico della superficie investigata. Per la sua determinazione vengono proposti metodi diversi in funzione del numero di osservazioni disponibili nelle diverse bande spettrali dell’IR termico. In chiusura sono discussi i parametri che ne caratterizzano la variabilità. Il capitolo terzo entra nel dettaglio del telerilevamento termico in ambito urbano, definendo il fenomeno dell’Urban Heat Island su tutti i livelli atmosferici interessati, fornendo un quadro di operabilità con gli strumenti moderni di rilievo alle differenti scale (analisi multiscala). Un esempio concreto di studio multiscala dei fenomeni termici urbani è il progetto europeo EnergyCity, volto a ridurre i consumi energetici e le emissioni di gas serra di alcune città del centro Europa. Il capitolo quarto riporta la sperimentazione condotta sull’isola di calore urbana della città di Bologna tramite immagini ASTER con risoluzione spaziale 90 m nel TIR e ricampionate a 15 m dal VIS. Lo studio dell’isola di calore si è effettuata a partire dal calcolo della Land Surface Temperature utilizzando valori di emissività derivati da classificazione delle superfici al suolo. Per la validazione dei dati, in alternativa alle stazioni di monitoraggio fisse dell’ARPA, presenti nell’area metropolitana della città, si è sperimentato l’utilizzo di data-loggers per il rilievo di temperatura con possibilità di campionamento a 2 sec. installati su veicoli mobili, strumentati con ricevitori GPS, per la misura dei profili di temperatura atmosferica near-ground lungo transetti di attraversamento della città in direzione est-ovest.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’installazione di smorzatori viscosi sulle strutture permette di dissipare l’energia che il sisma trasmette, senza provocare danni o rotture degli elementi strutturali principali. Questi dispositivi sono stati l'oggetto di numerosi lavori di ricerca dal 1980 fino ad oggi e l'efficacia nel mitigare gli effetti dell’azione sismica su strutture edilizie è stata ampiamente dimostrata. La maggior parte delle teorie scientifiche per la progettazione e l'ottimizzazione degli smorzatori si basano sofisticati algoritmi, portando talvolta a complessi procedure. L'applicazione di tali algoritmi richiede spesso competenze computazionali e di tempo eccessive. Il fine della tesi è quello di proporre un metodo pratico, cioè diretto e immediato per aiutare gli ingegneri per effettuare analisi sismiche su strutture intelaiate dotate di smorzatori viscosi e di dimensionare tali dispositivi. Tale metodo è stato l’oggetto del lavoro di ricerca scientifica trattato nell’articolo: “Equivalent Static Analyses of framed structures with added viscous dampers” di Palermo et al., 2015. Si riesce così ad estendere così il concetto di analisi statica equivalente anche per strutture dotate di smorzatori viscosi, definendo in maniera intuitiva sia le configurazioni di idealizzazione della strutture durante il sisma sia l’ idealizzazione dell’effetto del sisma sulla struttura. In questi anni di lavoro di ricerca, sono stati proposti vari metodi per il dimensionamento degli smorzatori viscosi. Tra questi, il prof. Ing. Silvestri (Silvestri et al., 2010) ha proposto un approccio progettuale diretto, chiamato "five step procedure” che mira a guidare l'ingegnere professionista, dalla scelta del target di prestazioni alle identificazioni della caratteristiche meccaniche di smorzatori viscosi trovabili in commercio. La procedura originale (Silvestri et al., 2010, Silvestri et al., 2011, Palermo et al., 2013), anche se per lo più basata su espressioni analitiche, richiede ancora lo sviluppo di analisi numeriche Time-History di modelli FEM, al fine di valutare le forze massime negli smorzatori aggiunti. Verrà spiegato e proposto un metodo semplificato (“Direct five step procedure for the dimensioning of added viscous dampers” Palermo et al., 2015) che consente ottenere direttamente, tramite una semplice formula, le forze massime degli smorzatori (spesso un parametro chiave della valutazione del costo degli smorzatori), senza eseguire simulazioni numeriche. Infine, si è applicato il metodo semplificato proposto di analisi statica equivalente per strutture equipaggiate di smorzatori viscosi ad un edificio reale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al giorno d'oggi l'accessibilità all’informazione e ai prodotti audiovisivi è un argomento particolarmente delicato. Spesso, le categorie più svantaggiate, come le persone affette da disabilità sensoriali e gli stranieri, non hanno pieno accesso alla programmazione televisiva o a eventi ricreativi, culturali o formativi (conferenze, workshop, spettacoli), a causa della mancanza di adeguati servizi di supporto linguistico. Tale carenza rappresenta una mancata opportunità d’integrazione e anche una potenziale perdita, in termini di pubblico e di introiti, per le emittenti e gli enti che organizzano programmi ed eventi di interesse generale. Questa tesi intende analizzare le tecniche attraverso le quali oggi viene realizzata la sottotitolazione interlinguistica in tempo reale. Il nostro obiettivo è quello di dimostrare che approfondendo la ricerca scientifica sul respeaking e su altre tecniche meno costose rispetto alla stenotipia, la sottotitolazione interlinguistica in tempo reale non sarebbe più un miraggio. Il primo capitolo fornisce una panoramica sulla sottotitolazione intralinguistica e interlinguistica e sulla sottotitolazione preregistrata, in diretta e in semi-diretta. Nel secondo capitolo presenteremo il caso dell’azienda Ericsson in Olanda, l'unica a fornire sottotitolazione interlinguistica in tempo reale nei Paesi Bassi, tramite una tecnica che combina un interprete simultaneo, uno stenotipista e un "subtitle keyer" (figura che inserisce i sottotitoli al momento opportuno). La squadra lavora su un segnale dal vivo che viene però trasmesso al pubblico olandese con alcuni secondi di ritardo, permettendo di migliorare la qualità dei sottotitoli. Grazie ad una borsa di studio concessa dal Dipartimento d’Interpretazione e Traduzione di Forlì (Università di Bologna), abbiamo potuto intervistare il responsabile dell’unità di traduzione presso Ericsson, dott. Thijs de Korte, e abbiamo avuto modo di assistere in loco alla realizzazione dei sottotitoli interlinguistici in tempo reale. Il terzo capitolo si concentrerà sulla tecnica del respeaking, dagli ambiti d’uso ai requisiti per svolgere questa professione. Ci concentreremo in particolare sulle somiglianze tra respeaker e interprete simultaneo, che ci condurranno all'esperimento descritto nel capitolo 4. Infatti, date le somiglianze riscontrate tra interpretazione simultanea e respeaking e il potenziale in termini di accessibilità offerto dalla sottotitolazione interlinguistica dal vivo, abbiamo fornito un servizio sperimentale di sottotitolazione in diretta dall’italiano verso l’inglese durante la cerimonia di premiazione del Sedicicorto International Film Festival di Forlì. Dopo aver descritto in dettaglio l’esperienza, analizzeremo i giudizi espressi da ospiti stranieri, pubblico italiano e membri dell'associazione "Sedicicorto", al fine di verificare la qualità del servizio e osservarne i benefici. La conclusione della nostra tesi è che sfruttando appieno il potenziale offerto della tecnologia moderna e approfondendo la ricerca sulle tecniche per la sottotitolazione interlinguistica dal vivo, si potrebbero ridurre i costi dei servizi di supporto linguistico a non udenti e stranieri, incoraggiando dunque aziende ed enti a garantire una maggiore accessibilità all’informazione e agli eventi culturali e formativi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di Tesi Magistrale nasce dall’esigenza di trovare soluzioni alle problematiche legate alla produzione e smaltimento delle plastiche, prevalentemente provenienti dal packaging alimentare. Una delle strategie maggiormente utilizzate in alternativa all’accumulo in discarica, è il riciclo. Questa soluzione ha però alcuni limiti: basse performance rispetto al materiale vergine e costi di processo troppo elevati a causa dei problemi di contaminazione e delle strutture multistrato. Alla luce di ciò, la ricerca scientifica si è orientata verso nuovi approcci come la sintesi di bioplastiche compostabili. Il poli(butilene furanoato) (PBF), è un buon candidato come materiale plastico per il packaging alimentare, ma possiede scarse caratteristiche di biodegradabilità e proprietà meccaniche non adeguate all’imballaggio flessibile. Per superare tali limitazioni, è stata messa a punto la sintesi di un nuovo poliestere, il poli(dietilene furanoato) (PDEF), un polimero biobased che si differenzia dal PBF per la presenza di un atomo di ossigeno etereo nella sub-unità glicolica. I due polimeri sono stati sottoposti ad una completa caratterizzazione chimico-fisica, con lo scopo di valutare l’effetto dell’introduzione di ossigeni eterei lungo la catena polimerica sulle proprietà finali del materiale. Oltre alla caratterizzazione molecolare e strutturale, è stato studiato anche il comportamento termico, la risposta meccanica e la permeabilità a diversi tipi di gas oltre che le caratteristiche di compostabilità. I risultati ottenuti hanno mostrato come nel PDEF vi sia un netto miglioramento delle proprietà non idonee per applicazioni nel packaging flessibile del PBF, in particolare quelle meccaniche, insieme a un ulteriore potenziamento delle già buone proprietà barriera. Inoltre, aspetto di fondamentale importanza nell’ottica della realizzazione di un materiale ecosostenibile, il PDEF mostra una velocità di degradazione in compost eccezionalmente elevata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I sensori indossabili rappresentano una frontiera della ricerca scientifica e, allo stesso tempo, a livello commerciale sono un nuovo mercato emergente. La possibilità di studiare diversi parametri fisiologici con dispositivi versatili e di dimensioni ridotte è importante per raggiungere una comprensione più profonda dei diversi fenomeni che avvengono nel nostro corpo. In maniera simile, la composizione dell’essudato di una ferita è finemente legata all’evoluzione del processo di guarigione, che comporta diversi meccanismi di rigenerazione del tessuto connettivo e dell’epitelio. Grazie ai dispositivi indossabili, si apre la possibilità di monitorare i componenti chiave di questi processi. I wearable devices costituiscono quindi sia uno strumento diagnostico, che uno strumento clinico per l’identificazione e la valutazione di strategie terapeutiche più efficienti. Il mio lavoro di tirocinio si è incentrato sulla fabbricazione, caratterizzazione e sperimentazione delle performance di transistor elettrochimici a base organica (OECT) tessili per la misurazione dei livelli di pH ed acido urico. L’obbiettivo del gruppo di ricerca è quello di realizzare un cerotto intelligente che abbia due diversi elementi sensibili, uno per l’acido urico e l’altro per la concentrazione idrogenionica. Per il raggiungimento di tale scopo, si è sfruttato uno dei semiconduttori organici più utilizzati e studiati nell’ultimo periodo, il PEDOT, ovvero il poli(3,4-etilen-diossi-tiofene), che risulta anche uno dei materiali principalmente impiegati nella ricerca sui sensori tessili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background: l’epilessia è una malattia cerebrale che colpisce oggigiorno circa l’1% della popolazione mondiale e causa, a chi ne soffre, convulsioni ricorrenti e improvvise che danneggiano la vita quotidiana del paziente. Le convulsioni sono degli eventi che bloccano istantaneamente la normale attività cerebrale; inoltre differiscono tra i pazienti e, perciò, non esiste un trattamento comune generalizzato. Solitamente, medici neurologi somministrano farmaci, e, in rari casi, l’epilessia è trattata con operazioni neurochirurgiche. Tuttavia, le operazioni hanno effetti positivi nel ridurre le crisi, ma raramente riescono a eliminarle del tutto. Negli ultimi anni, nel campo della ricerca scientifica è stato provato che il segnale EEG contiene informazioni utili per diagnosticare l'arrivo di un attacco epilettico. Inoltre, diversi algoritmi automatici sono stati sviluppati per rilevare automaticamente le crisi epilettiche. Scopo: lo scopo finale di questa ricerca è l'applicabilità e l'affidabilità di un dispositivo automatico portatile in grado di rilevare le convulsioni e utilizzabile come sistema di monitoraggio. L’analisi condotta in questo progetto, è eseguita con tecniche di misure classiche e avanzate, in modo tale da provare tecnicamente l’affidabilità di un tale sistema. La comparazione è stata eseguita sui segnali elettroencefalografici utilizzando due diversi sistemi di acquisizione EEG: il metodo standard utilizzato nelle cliniche e il nuovo dispositivo portatile. Metodi: è necessaria una solida validazione dei segnali EEG registrati con il nuovo dispositivo. I segnali saranno trattati con tecniche classiche e avanzate. Dopo le operazioni di pulizia e allineamento, verrà utilizzato un nuovo metodo di rappresentazione e confronto di segnali : Bump model. In questa tesi il metodo citato verrà ampiamente descritto, testato, validato e adattato alle esigenze del progetto. Questo modello è definito come un approccio economico per la mappatura spazio-frequenziale di wavelet; in particolare, saranno presenti solo gli eventi con un’alta quantità di energia. Risultati: il modello Bump è stato implementato come toolbox su MATLAB dallo sviluppatore F. Vialatte, e migliorato dall’Autore per l’utilizzo di registrazioni EEG da sistemi diversi. Il metodo è validato con segnali artificiali al fine di garantire l’affidabilità, inoltre, è utilizzato su segnali EEG processati e allineati, che contengono eventi epilettici. Questo serve per rilevare la somiglianza dei due sistemi di acquisizione. Conclusioni: i risultati visivi garantiscono la somiglianza tra i due sistemi, questa differenza la si può notare specialmente comparando i grafici di attività background EEG e quelli di artefatti o eventi epilettici. Bump model è uno strumento affidabile per questa applicazione, e potrebbe essere utilizzato anche per lavori futuri (ad esempio utilizzare il metodo di Sincronicità Eventi Stocas- tici SES) o differenti applicazioni, così come le informazioni estratte dai Bump model potrebbero servire come input per misure di sincronicità, dalle quali estrarre utili risultati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel 2004 due Fisici dell’Università di Manchester, nel Regno Unito, hanno isolato per la prima volta un materiale dallo spessore di un singolo atomo: il grafene. Questo materiale, composto da un reticolo di atomi di carbonio disposti a nido d’ape, possiede interessanti proprietà chimiche e fisiche, tra le quali una elevata resistenza chimica e meccanica, un’eccellente trasporto termico ed elettrico ed una elevata trasparenza. Il crescente fermento attorno al grafene ha suscitato un forte interesse a livello europeo, al punto che il 28 gennaio di quest’anno la Comunità Europea ha approvato i due più grandi progetti di ricerca mai finanziati in Europa. Tra questi il Graphene Flagship Project (www.graphene-flagship.eu) che coinvolge oltre 120 gruppi di ricerca da 17 Stati Europei e distribuirà nei prossimi anni 1,000 milioni di euro per lo sviluppo di tecnologie e dispositivi a base grafene. Nel mio elaborato di Tesi ho seguito le ricerche del gruppo grafene dell’Istituto per la Microelettronica e i Microsistemi del Consiglio Nazionale delle Ricerche di Bologna, approfondendo il funzionamento del sistema di sintesi di questo materiale chiamato Chemical Vapour Deposition e le tecniche sperimentali che permettono il trasferimento del grafene su substrati come il silicio, ma anche materiali polimerici flessibili come il PET, per la realizzazione di elettrodi conduttivi, trasparenti per applicazioni nell’elettronica flessibile. Questa esperienza e stata molto importante per la mia formazione e mi ha dato modo di lavorare ad un soggetto di ricerca cosi attuale, importante e promettente come il grafene. Nutro personalmente grande passione e aspettativa per questo materiale e sono convinto che nel prossimo futuro la tecnologia del grafene saprà entrare nella vita quotidiana di tutti noi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo della presente ricerca è stato la valutazione dell’utilizzo degli scarti derivanti dal processo di vinificazione come substrato per la digestione anerobica finalizzata alla produzione di VFA (“Volatile Fatty Acids”). I VFA sono acidi grassi a corta catena, convenzionalmente fino a 6 atomi di carbonio, che possono essere utilizzati industrialmente nell’ambito della “Carboxilation Platfrorm” per produrre energia, prodotti chimici, o biomateriali. La sperimentazione si è articolata in due fasi principali: 1) Produzione di VFA in processi batch alimentati con vinacce e fecce come substrato; 2) Recupero dei VFA prodotti dall’effluente anaerobico (digestato) mediante processi di adsorbimento con resine a scambio anionico. Nella prima fase sono stati studiati i profili di concentrazione dei principali VFA nel brodo di fermentazione al variare della tipologia di substrato (vinacce e fecce, bianche e rosse) e della temperatura di incubazione (35 °C e 55 °C). La condizione ottimale rilevata per la produzione di VFA è stata la digestione anaerobica di vinacce rosse disidratate e defenolizzate alla temperatura di 35 °C (mesofilia), che ha permesso di raggiungere una concentrazione di VFA totali nel digestato di circa 30 g/L in 16 giorni di monitoraggio. Nella seconda fase è stato analizzato il processo di estrazione in fase solida (Solid Phase Extraction, SPE) con resine a scambio anionico per il recupero dei VFA dal digestato di vinacce rosse. Sono state messe a confronto le prestazioni di quattro diverse resine a scambio anionico: Sepra SAX, Sepra SAX-ZT, Sepra NH2, Amberlyst A21. I parametri operativi ottimali per l’adsorbimento sono risultati essere condizioni di pH acido pari al valore naturale delle soluzioni indicate sopra (~2.5) e tempo di contatto di 2 ore. Tra le quattro resine quella che ha fornito i migliori risultati è stata la Amberlyst A21, una resina polimerica a scambio anionico debolmente basica il cui gruppo funzionale caratteristico è un’ammina terziaria. Infine è stato valutato il processo di desorbimento dei VFA adsorbiti dalla resina con tre diverse soluzioni desorbenti: acqua demineralizzata, etanolo (EtOH) ed acqua basificata con NaOH (1 mol/L). I risultati migliori sono stati conseguiti nel caso dell’EtOH, ottenendo un recupero finale del 9,1% dei VFA inizialmente presenti nel digestato di vinacce rosse incubate in termofilia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato ha come scopo quello di analizzare ed esaminare una patologia oggetto di attiva ricerca scientifica, la sindrome dell’arto fantasma o phantom limb pain: tracciando la storia delle terapie più utilizzate per la sua attenuazione, si è giunti ad analizzarne lo stato dell’arte. Consapevoli che la sindrome dell’arto fantasma costituisce, oltre che un disturbo per chi la prova, uno strumento assai utile per l’analisi delle attività nervose del segmento corporeo superstite (moncone), si è svolta un’attività al centro Inail di Vigorso di Budrio finalizzata a rilevare segnali elettrici provenienti dai monconi superiori dei pazienti che hanno subito un’amputazione. Avendo preliminarmente trattato l’argomento “Machine learning” per raggiungere una maggiore consapevolezza delle potenzialità dell’apprendimento automatico, si sono analizzate la attività neuronali dei pazienti mentre questi muovevano il loro arto fantasma per riuscire a settare nuove tipologie di protesi mobili in base ai segnali ricevuti dal moncone.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni, i progressi della ricerca scientifica nell'ambito dell'elettronica organica hanno messo in luce le proprietà dei cristalli organici che rendono possibile un loro potenziale utilizzo nel campo della rivelazione di radiazioni ionizzanti. All'interno di questa tesi, analizzeremo le prestazioni di rivelazione di raggi X da parte di due cristalli che si distinguono tra loro per proprietà chimiche e fisiche: l'NTI e il Rubrene. Questi due materiali verranno sottoposti a misure elettriche, svolte in diverse condizioni di irraggiamento, e dai dati ottenuti sarà possibile analizzare la risposta alla radiazione da parte di ciascun dispositivo. Verranno valutate le capacità di rivelazione da parte dei due materiali studiati, in base ai parametri che caratterizzano i rivelatori di radiazione a stato solido, e sarà inoltre possibile mettere a confronto i risultati ottenuti dai due diversi cristalli e osservare eventuali comportamenti differenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le tematiche presentate in questa tesi fanno parte di una disciplina in ampio sviluppo nella ricerca scientifica moderna denominata “Dronistica”. I droni possiedono caratteristiche fisiche differenti in base alle esigenze dettate dall'ambito di utilizzo. La dronistica è infatti una disciplina molto varia e completa grazie alla versatilità dei dispositivi utilizzati, principalmente però tratta aeromobili a pilotaggio remoto e la loro applicazione nella computer vision. Nonostante il ricco hardware ed i molteplici software attualmente a disposizione dei ricercatori, questo settore è attualmente nelle prime fasi di vita; le prospettive di miglioramento e di sviluppo infatti sono ampie ed in mano a chi si occuperà di effettuare operazioni di ricerca e sperimentazione in tale campo. Nel seguente lavoro viene presentata la dronistica sotto ogni suo aspetto fondamentale, ponendo particolare attenzione ai dettagli tecnici ed alle applicazioni presenti e future. Il lavoro svolto inizia descrivendo la storia dei droni, presentando una panoramica sui modelli, le normative attualmente in vigore ed una classificazione delle applicazioni. La parte centrale della tesi tratta invece gli aspetti tecnici della dronistica, descrivendo le tecnologie hardware e le tecnologie software attualmente disponibili sul mercato. L'ultima parte descrive invece il legame tra i droni e la computer vision, il loro interfacciamento, le applicazioni ed i vantaggi di tale combinazione, mostrando inoltre casi di studio di diverse facoltà tra cui quella di Ingegneria e Scienze Informatiche di Cesena. Infine termina con una conclusione riguardante il lavoro svolto ed una prospettiva sugli sviluppi futuri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analisi del cammino è uno strumento in grado di fornire importanti informazioni sul ciclo del passo; in particolare è fondamentale per migliorare le conoscenze biomeccaniche del cammino, sia normale che patologico, e su come questo viene eseguito dai singoli soggetti. I parametri spazio temporali del passo rappresentano alcuni degli indici più interessanti per caratterizzare il cammino ed il passo nelle sue diverse fasi. Essi permettono infatti il confronto e il riconoscimento di patologie e disturbi dell’andatura. Negli ultimi anni è notevolmente aumentato l’impiego di sensori inerziali (Inertial Measurement Unit, IMU), che comprendono accelerometri, giroscopi e magnetometri. Questi dispositivi, utilizzati singolarmente o insieme, possono essere posizionati direttamente sul corpo dei pazienti e sono in grado fornire, rispettivamente, il segnale di accelerazione, di velocità angolare e del campo magnetico terrestre. A partire da questi segnali, ottenuti direttamente dal sensore, si è quindi cercato di ricavare i parametri caratteristici dell’andatura, per valutare il cammino anche al di fuori dell’ambiente di laboratorio. Vista la loro promettente utilità e la potenziale vasta applicabilità nell’analisi del ciclo del cammino; negli ultimi anni un vasto settore della ricerca scientifica si è dedicata allo sviluppo di algoritmi e metodi per l’estrazione dei parametri spazio temporali a partire da dati misurati mediante sensori inerziali. Data la grande quantità di lavori pubblicati e di studi proposti è emersa la necessità di fare chiarezza, riassumendo e confrontando i metodi conosciuti, valutando le prestazioni degli algoritmi, l’accuratezza dei parametri ricavati, anche in base alla tipologia del sensore e al suo collocamento sull’individuo, e gli eventuali limiti. Lo scopo della presente tesi è quindi l’esecuzione di una revisione sistematica della letteratura riguardante la stima dei parametri spazio temporali mediante sensori inerziali. L’intento è di analizzare le varie tecniche di estrazione dei parametri spazio temporali a partire da dati misurati con sensori inerziali, utilizzate fino ad oggi ed indagate nella letteratura più recente; verrà utilizzato un approccio prettamente metodologico, tralasciando l’aspetto clinico dei risultati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Da poco più di 30 anni la comunità scientifica è a conoscenza dell’occasionale presenza di strutture cicloniche con alcune caratteristiche tropicali sul Mar Mediterraneo, i cosiddetti medicane. A differenza dei cicloni baroclini delle medie latitudini, essi posseggono una spiccata simmetria termica centrale che si estende per gran parte della troposfera, un occhio, talvolta privo di nubi, e una struttura nuvolosa a bande spiraleggianti. Ad oggi non esiste ancora una teoria completa che spieghi la loro formazione ed evoluzione. La trattazione di questa tesi, incentrata sull’analisi dei campi di vorticità potenziale e di umidità relativa, è sviluppata nell’ottica di una miglior comprensione delle dinamiche alla mesoscala più rilevanti per la nascita dei medicane. Lo sviluppo di tecniche avanzate di visualizzazione dei campi generati dal modello WRF, quali l’animazione tridimensionale delle masse d’aria aventi determinate caratteristiche, ha permesso l’individuazione di due zone di forti anomalie di due campi derivati dalla vorticità potenziale in avvicinamento reciproco, intensificazione e mutua interazione nelle ore precedenti la formazione dei medicane. Tramite la prima anomalia che è stata chiamata vorticità potenziale secca (DPV), viene proposta una nuova definizione di tropopausa dinamica, che non presenta i problemi riscontrati nella definizione classica. La seconda anomalia, chiamata vorticità potenziale umida (WPV), individua le aree di forte convezione e permette di avere una visione dinamica dello sviluppo dei medicane alle quote medio-basse. La creazione di pseudo immagini di vapore acqueo tramite la teoria del trasferimento radiativo e la comparazione di queste mappe con quelle effettivamente misurate nei canali nella banda del vapore acqueo dai sensori MVIRI e SEVIRI dei satelliti Meteosat hanno da un lato confermato l’analisi modellistica, dall’altro consentito di stimare gli errori spazio-temporali delle simulazioni. L’utilizzo dei dati di radianza nelle microonde, acquisiti dai sensori AMSU-B e MHS dei satelliti NOAA, ha aggiunto ulteriori informazioni sia sulle intrusioni di vorticità potenziale che sulla struttura degli elementi convettivi presenti sul dominio, in modo particolare sulla presenza di ghiaccio in nube. L’analisi dettagliata di tre casi di medicane avvenuti nel passato sul Mar Mediterraneo ha infine consentito di combinare gli elementi innovativi sviluppati in questo lavoro, apportando nuove basi teoriche e proponendo nuovi metodi di indagine non solo per lo studio di questi fenomeni ma anche per un’accurata ricerca scientifica su ciclogenesi di altro tipo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel 2004 due Fisici dell’Università di Manchester, nel Regno Unito, isolarono per la prima volta un materiale dallo spessore di un singolo atomo: il grafene. Questo materiale, composto da un reticolo di atomi di carbonio disposti a nido d’ape, possiede interessanti proprietà chimiche e fisiche, tra le quali una elevata resistenza chimica e meccanica, un eccellente trasporto termico ed elettrico ed un’ elevata trasparenza. Il crescente fermento attorno al grafene ha suscitato un forte interesse a livello europeo, al punto che la Comunità Europea ha approvato due dei più grandi progetti di ricerca mai finanziati in Europa, tra questi il Graphene Flagship Project (www.graphene-flagship.eu) che coinvolge oltre 120 gruppi di ricerca da 17 Stati Europei e distribuirà nei prossimi anni 1,000 milioni di euro per lo sviluppo di tecnologie e dispositivi a base grafene. Con Flagship Grafene l’Europa punta sul grafene, e lo fa in grande. L’obiettivo è dunque ambizioso. Il suddetto materiale è infatti non solo il più sottile che conosciamo, con uno spessore di un atomo di carbonio, ma è anche 100 volte più resistente dell’acciaio e al tempo stesso flessibile. E’ Inoltre trasparente e conduce l’energia elettrica e termica molto meglio del rame. Ergo, il grafene offre le stesse performance dei materiali usati attualmente nei nostri dispositivi, con l’aggiunta però di ulteriori funzionalità.