364 resultados para teorema di rappresentazione di Riesz spazio duale
Resumo:
La termografia è un metodo d’indagine ampiamente utilizzato nei test diagnostici non distruttivi, in quanto risulta una tecnica d’indagine completamente non invasiva, ripetibile nel tempo e applicabile in diversi settori. Attraverso tale tecnica è possibile individuare difetti superficiali e sub–superficiali, o possibili anomalie, mediante la rappresentazione della distribuzione superficiale di temperatura dell’oggetto o dell’impianto indagato. Vengono presentati i risultati di una campagna sperimentale di rilevamenti termici, volta a stabilire i miglioramenti introdotti da tecniche innovative di acquisizione termografica, quali ad esempio la super-risoluzione, valutando un caso di studio di tipo industriale. Si è effettuato un confronto tra gli scatti registrati, per riuscire a individuare e apprezzare le eventuali differenze tra le diverse modalità di acquisizione adottate. L’analisi dei risultati mostra inoltre come l’utilizzo dei dispositivi di acquisizione termografica in modalità super-resolution sia possibile anche su cavalletto.
Resumo:
Studio dell’impacchettamento di un propellente solido tramite un codice realizzato in ambiente Matlab nel laboratorio di propulsione e macchine della Scuola di ingegneria e architettura con sede a Forlì. Tale studio è stato realizzato in quanto l’impacchettamento di materiale solido risulta essere di fondamentale importanza in molti settori dell’industria odierna, come il settore spaziale, minerario, farmaceutico e altri ancora. L’obiettivo è quello di riuscire a ottimizzare il volume occupato, in questo caso dal propellente, all’interno di un predeterminato dominio di controllo. Poter massimizzare lo spazio a disposizione permette di avere vantaggi sia in termini economici che di prestazione (ad esempio permette di avere a parità di volume una maggiore quantità di propellente a disposizione).
Resumo:
Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.
Resumo:
Lo studio ha consentito la valutazione delle potenzialità di utilizzo di informazioni telerilevate da satellite, al fine di ottenere un DEM utilizzabile per simulazioni numerico - idrauliche. In particolare è stato utilizzato il DEM a scala globale fornito dalla missione SRTM (Shuttle Radar Topography Mission), per acquisire la geometria del tratto medio inferiore del fiume Po. Ottenuto l'andamento plano altimetrico del corso d'acqua sono state effettuate simulazioni in condizioni di piena eccezionale e deflusso medio allo scopo di valutarne affidabilità e precisione. Vengono infine proposti tre metodi di modifica della geometria, fornita da SRTM, in modo tale da migliorare la rappresentazione dell'alveo di magra ed incrementarne le performance.
Resumo:
Internet e turismo sono due settori che si intersecano profondamente e che da sempre risultano interconnessi. Grazie al progresso delle nuove tecnologie l’ambito turistico ha mutato profondamente i suoi connotati, sia da un punto di vista strutturale sia nella gestione e nella distribuzione delle informazioni. Con l’ingresso nell’era digitale, lo sviluppo delle ICT (Information and Communication Technologies) e l’avvento del web 2.0, la comunicazione turistica si è modificata in modo sostanziale: si è passati da una comunicazione monologica e unidirezionale da esperti a pubblico, a un dialogo tra le varie parti coinvolte, dove la centralità dell’utente/consumatore, che ha acquisito un ruolo proattivo e guadagnato il diritto di parola, si fa sempre più evidente. In particolare la comparsa del web sociale, che si contraddistingue per la sua forte dinamicità e un carattere collaborativo e comunitario, ha permesso lo sviluppo di modelli comunicativi originali, che sono riusciti ad apportare elementi innovativi e peculiari anche nel linguaggio del turismo, varietà linguistica già di per sé piuttosto particolare ed eterogenea. Tramite l’analisi della versione spagnola del portale di viaggi più famoso al mondo (Tripadvisor.es), si è cercato di evidenziare quali caratteristiche mostrate nei testi pubblicati in questo spazio fossero riconducibili all’influenza del linguaggio del turismo dei generi più tradizionali (guide, dépliant, cataloghi) e quali invece fossero gli elementi attribuibili al mezzo computer e quindi appartenessero alla sfera della comunicazione mediata dal computer.
Resumo:
In questo elaborato viene presentata una proposta di traduzione del racconto "El saltamontes verde" della scrittrice spagnola Ana María Matute. Nella prima parte, vengono esposte brevemente la biografia e le opere dell'autrice, evidenziandone i temi ricorrenti e le influenze letterarie. L'attenzione si focalizza, in seguito, sul testo in lingua originale, che viene analizzato dal punto di vista narratologicoo (trama, tempo, spazio, personaggi e temi) e linguistico (lingua e stile). Le strategie utilizzate durante la traduzione e le scelte traduttive più rilevanti vengono descritte e motivate in un commento finale che si basa sul confronto tra la versione spagnola e quella italiana.
Resumo:
Il morbo di Parkinson è una comune malattia neurodegenerativa. I disturbi nella camminata sono per le persone affette da questa patologia una delle più frequenti cause di disabilità e limitazione all’indipendenza nello svolgimento delle attività della vita quotidiana. La camminata nei soggetti che presentano questa malattia è caratterizzata da bassa velocità, produzione di shuffling, passi corti, e alta cadenza del passo. Recenti studi hanno dimostrato che i soggetti con la malattia di Parkinson possono ricevere benefici da una terapia motoria basata su sistemi stand alone in grado di fornire stimoli audio e feedback. Lo scopo di questo studio è stato quello di esaminare se i soggetti con la malattia di Parkinson miglioravano la loro camminata in risposta a due tipi di stimoli audio: istruzioni verbali e metronomo. Undici soggetti con la malattia di Parkinson sono stati testati utilizzando un sistema indossabile finalizzato alla fornitura di un feedback uditivo. Il sistema è in grado di estrarre in tempo reale i parametri spazio-temporali(cadenza, lunghezza del passo e velocità) della camminata e, confrontandoli con parametri di riferimento ottenuti da una camminata del soggetto stesso supervisionata dal clinico, è in grado di restituire all’utente un feedback sotto forma di messaggio vocale o di metronomo finalizzato a correggere, qualora la camminata attuale non risulti efficace e clinicamente corretta, lo schema della camminata.
Resumo:
La classificazione delle algebre di Lie semplici di dimensione finita su un campo algebricamente chiuso si divide in due parti: le algebre di Lie classiche e quelle eccezionali. La differenza principale è che le algebre di Lie classiche vengono introdotte come algebre di matrici, quelle eccezionali invece non si presentano come algebre di matrici ma un modo di introdurle è attraverso il loro diagramma di Dynkin. Lo scopo della tesi è di realizzare l' algebra di Lie eccezionale di tipo G_2 come algebra di matrici. Per raggiungere tale scopo viene introdotta un' algebra di composizione: la cosiddetta algebra degli ottonioni. Quest'ultima viene costruita in due modi diversi: come spazio vettoriale sui reali con un prodotto bilineare e come insieme delle coppie ordinate di quaternioni. Il resto della tesi è dedicato all' algebra delle derivazioni degli ottonioni. Viene dimostrato che questa è un' algebra di Lie semisemplice di dimensione 14. Infine, considerando la complessificazione dell'algebra delle derivazioni degli ottonioni, viene dimostrato che quest'ultima è semplice e quindi isomorfa a G_2.
Resumo:
Uno dei problemi che ostacola la diffusione in ambito civile degli aerei senza pilota a bordo (UAV) è la gestione della sicurezza in volo. Gli UAV civili, infatti, popolando una regione di spazio aereo molto affollata e devono interagire con una moltitudine di altri mezzi aerei. Per questo motivo, risulta particolarmente critica l'implementazione di logiche di tipo Sense and Avoid, attraverso le quali un UAV deve essere in grado di "vedere" altri mezzi in rotta di collisione ed elaborare le azioni utili ad evitare l'impatto, decidendo se attuare una manovra autonoma di avoiding oppure delegarla al mezzo incontrato. Questa tesi descrive un primo approccio al problema del riconoscimento (Sense) dei mezzi aerei che un generico velivolo UAV può incontrare durante la normale condotta del volo. In particolare, si descrivono le strategie impiegate e gli ambienti software utilizzati per testare alcune procedure di riconoscimento delle immagini applicabili alla fase di detection dell'intruder, situazione tipica del caso di studio. I risultati sperimentali ottenuti dalla progettazione e dallo sviluppo di un apposito software, consistono nell'implementazione e successiva valutazione di diverse tecniche, individuando le criticità del problema.
Resumo:
Lo scopo di questo elaborato è descrivere alcuni dei meccanismi di produzione dell’energia studiati nel campo astrofisico. Essendo questi piuttosto numerosi, sono stati trascurati i processi ritenuti di sola conversione di energia da una forma ad un’altra, come, per esempio,l’emissione da parte di una particella accelerata. In questo modo si è potuto dedicare più spazio ad altri fenomeni, molto comuni ed efficienti, che saranno qui anticipatamente elencati. Nel Capitolo 1 vengono descritti i processi di fusione nucleare che alimentano le stelle; per ognuno sono state riportate la quantità di energia prodotta e i tempi scala. Si è scelto inoltre di dare maggiore importanza a quei fenomeni che caratterizzano le fasi principali dell’evoluzione stellare, essendo questi anche i più efficienti, mentre le reazioni secondarie sono state solamente accennate. Nella Sezione 1.4 vengono descritti i meccanismi alla base dell’esplosione di supernova, essendo un’importante fase evolutiva nella quale la quantità di energia in gioco è considerevole. Come conclusione dell’argomento vengono riportare le equazioni che descrivono la produzione energetica nei processi di fusione descritti precedentemente. Nella seconda parte dell’elaborato, viene descritto il fenomeno dell’accrescimento gravitazionale utilizzando come oggetto compatto di riferimento un buco nero. Si è scelto di porre l’accento sull’efficienza della produzione energetica e sul limite di luminosità di Eddington.
Resumo:
Lo spazio fra le stelle nelle galassie non è vuoto, ma è composto da gas rarefatto, particelle di polvere, un campo magnetico, elettroni, protoni e altri nuclei atomici relativistici; spesso questi elementi possono essere considerati come un’unica entità di- namica: il mezzo interstellare o più semplicemente ISM. Nel primo capitolo vedremo come il mezzo si distribuisce generalmente all’interno delle galassie a spirale, in fasce di temperatura sempre minore man mano che ci si allontana dal centro (HIM, WIM, WNM, CNM). La conoscenza della distribuzione del mezzo è utile per poter comprendere maggiormente i processi di emissione e le varie zone in cui questi avvengono in una tipica galassia a spirale, che è lo scopo di questa tesi. L’ISM infatti entra in gioco in quasi tutti i processi emissivi, in tutte le bande di emis- sione dello spettro elettromagnetico che andremo ad analizzare. Il nostro modo di vedere le galassie dell’universo è molto cambiato infatti nel corso dell’ultimo secolo: l’utilizzo di nuovi telescopi ci ha permesso di andare ad osservare le galassie anche in bande dello spettro diverse da quella visibile, in modo da raccogliere informazioni impossibili da ottenere con la sola banda ottica. Nel secondo capitolo andremo ad analizzare cinque bande di emissione (banda X, ot- tica, radio, gamma e infrarossa) e vedremo come appaiono tipicamente le galassie a spirale a lunghezze d’onda differenti, quali sono i processi in gioco e come il mezzo interstellare sia fondamentale in quasi ogni tipo di processo. A temperature elevate, esso è responsabile dell’emissione X della galassia, mentre re- gioni più fredde, formate da idrogeno ionizzato, sono responsabili delle righe di emis- sione presenti nello spettro ottico. Il campo magnetico, tramite le sue interazioni con elettroni relativistici è la principale fonte dell’emissione radio nel continuo di una galas- sia a spirale, mentre quella in riga è dovuta a idrogeno atomico o a gas freddo. Vedremo infine come raggi cosmici e polvere, che fanno sempre parte del mezzo inter- stellare, siano rispettivamente la causa principale dell’emissione gamma e infrarossa.
Resumo:
Lo studio effettuato raccoglie informazioni al fine di svolgere un’analisi globale delle tecniche attualmente in uso, o in fase di studio, nel campo della localizzazione di dispositivi all’interno di un ambiente chiuso, ovvero laddove non è possibile sfruttare la copertura del sistema GPS. La panoramica è frutto dell’analisi e dello studio di paper tecnici pubblicati dai collaboratori dell’IEEE, fruibili all’interno del portale IEEE Xplore. A corredo di questo studio è stata sviluppata una applicazione per dispositivi Android basata sulla tecnica del Wi-Fi fingerprint; l’applicazione, che rappresenta un primo approccio alle tecniche di localizzazione, è a tutti gli effetti un sistema standalone per la localizzazione, consente cioè di costruire sia la mappa per la localizzazione, partendo da un ambiente sconosciuto, sia di ottenere la posizione dell’utente all’interno di una mappa conosciuta. La tesi si conclude con una analisi dei risultati e delle performance ottenute dall’applicazione in un uso comune, al fine di poter valutare l’efficacia della tecnica presa in considerazione. I possibili sviluppi futuri sono analizzati in un capitolo a parte e trovano spazio in ambienti nei quali si vogliono offrire servizi "context-based", ovvero basati sulla posizione esatta dell’utente.
Resumo:
Il lavoro di tesi si propone di analizzare l'evoluzione dinamica di una faglia caratterizzata da due asperità complanari contraddistinte da diverso attrito (modello asimmetrico) e da accoppiamento viscoelastico. Il modello reologico assunto per la crosta terrestre è di tipo Maxwelliano: lo sforzo trasferito da un'asperità all'altra in occasione degli scorrimenti delle asperità stesse subisce parziale rilassamento durante il periodo intersismico, con conseguente anticipo o ritardo degli eventi sismici successivi. Lo studio del sistema viene condotto tramite un modello di faglia discreto, in cui lo stato della faglia è determinato da tre variabili che rappresentano i deficit di scorrimento delle asperità e il loro accoppiamento viscoelastico. Scopo principale della tesi è quello di caratterizzare i differenti modi dinamici del sistema, determinando equazioni del moto e orbite nello spazio delle fasi e confrontando i risultati ottenuti con i modelli precedentemente sviluppati, con particolare riferimento al caso simmetrico (asperità caratterizzate dallo stesso attrito) studiato in [Amendola e Dragoni (2013)] e al caso di accoppiamento puramente elastico analizzato in [Dragoni e Santini (2012)]. Segue l'applicazione del modello all'evento sismico verificatosi in Alaska nel 1964, generato dallo scorrimento delle asperità di Kodiak Island e Prince William Sound: lo studio verte in particolare sulla valutazione dello stato di sforzo sulla faglia prima e dopo il terremoto, la determinazione della funzione sorgente (moment rate) a esso associata e la caratterizzazione della possibile evoluzione futura del sistema. Riferimenti bibliografici Amendola, A. & Dragoni, M., “Dynamics of a two-fault system with viscoelastic coupling”. Nonlinear Processes in Geophysics, 20, 1–10, 2013. Dragoni, M. & Santini, S., “Long-term dynamics of a fault with two asperities of different strengths”. Geophysical Journal International, 191, 1457–1467, 2012.
Resumo:
La suddivisione in aree assistenziali per intensità di cura e non in reparti e unità operative, consente al personale medico e sanitario una migliore gestione del paziente, ponendolo al centro del suo percorso di cura, evitando dispersioni, sprechi di tempo, di spazio, di risorse e consentendo una ottimizzazione del proprio lavoro. I settori su cui questo elaborato tende a focalizzarsi maggiormente, sono le aree a media e bassa intensità. Tali aree ospitano pazienti i quali necessitano di monitoraggio dei propri parametri fisiologici vitali, ma non in modo invasivo e costante come al contrario avviene in aree assistenziali ad intensità più alta. Si tratterà in particolare di quali dispositivi sono i più adatti per essere impiegati all’interno di tali aree. Si vuole sottolineare l’importanza della “modularità” di questi dispositivi, ovvero la possibilità di rilevare solo ed esclusivamente i parametri che realmente servono al medico per comprendere il quadro clinico del paziente in fase di stabilizzazione. I dati rilevati vengono poi generalmente trasmessi a un accentratore attraverso Bluetooth o altri standard a corto raggio. La cartella clinica del paziente viene aggiornata automaticamente e il personale sanitario può accedere in qualsiasi momento allo storico dei dati, ottimizzando il proprio lavoro. Per descrivere lo stato dell’arte dei dispositivi ne vengono riportati due esempi: Win@Hospital dell’azienda pisana Winmedical e EverOn dell’azienda israeliana EarlySense. L’integrazione dei dati medicali di questi dispositivi, così come per tutte le apparecchiature biomedicali presenti all’interno degli ospedali, avviene per mezzo di standard quali HL7 e sulla base di profili di integrazione definiti da IHE.
Resumo:
L’assioma di scelta ha una preistoria, che riguarda l’uso inconsapevole e i primi barlumi di consapevolezza che si trattasse di un nuovo principio di ragionamento. Lo scopo della prima parte di questa tesi è quello di ricostruire questo percorso di usi più o meno impliciti e più o meno necessari che rivelarono la consapevolezza non solo del fatto che fosse indispensabile introdurre un nuovo principio, ma anche che il modo di “fare matematica” stava cambiando. Nei capitoli 2 e 3, si parla dei moltissimi matematici che, senza rendersene conto, utilizzarono l’assioma di scelta nei loro lavori; tra questi anche Cantor che appellandosi alla banalità delle dimostrazioni, evitava spesso di chiarire le situazioni in cui era richiesta questa particolare assunzione. Il capitolo 2 è dedicato ad un caso notevole e rilevante dell’uso inconsapevole dell’Assioma, di cui per la prima volta si accorse R. Bettazzi nel 1892: l’equivalenza delle due nozioni di finito, quella di Dedekind e quella “naturale”. La prima parte di questa tesi si conclude con la dimostrazione di Zermelo del teorema del buon ordinamento e con un’analisi della sua assiomatizzazione della teoria degli insiemi. La seconda parte si apre con il capitolo 5 in cui si parla dell’intenso dibattito sulla dimostrazione di Zermelo e sulla possibilità o meno di accettare il suo Assioma, che coinvolse i matematici di tutta Europa. In quel contesto l’assioma di scelta trovò per lo più oppositori che si appellavano ad alcune sue conseguenze apparentemente paradossali. Queste conseguenze, insieme alle molte importanti, sono analizzate nel capitolo 6. Nell’ultimo capitolo vengono riportate alcune tra le molte equivalenze dell’assioma di scelta con altri enunciati importanti come quello della tricotomia dei cardinali. Ci si sofferma poi sulle conseguenze dell’Assioma e sulla sua influenza sulla matematica del Novecento, quindi sulle formulazioni alternative o su quelle più deboli come l’assioma delle scelte dipendenti e quello delle scelte numerabili. Si conclude con gli importanti risultati, dovuti a Godel e a Cohen sull’indipendenza e sulla consistenza dell’assioma di scelta nell’ambito della teoria degli insiemi di Zermelo-Fraenkel.