681 resultados para problema di Cauchy teorema di dipendenza continua dai dati iniziali teorema di dipendenza regolare dai dati e dai parametri
Resumo:
Dai Sumeri a Galileo lo studio dei cinque pianeti conosciuti era stato effettuato ad occhio nudo e aveva consentito di comprendere le modalità del loro moto. Con Galileo gli strumenti tecnologici sono posti a servizio della scienza, per migliorare le prestazioni dei sensi umani. La ricerca subisce così una netta accelerazione che porta, nell'arco di soli tre secoli, alla scoperta dei satelliti di Giove e dei pianeti Urano e Nettuno. Quest'ultima è considerata il trionfo della matematica perché effettuata esclusivamente con lunghi e complessi calcoli.
Resumo:
Questo studio concerne uno studio di fattibilità per l'applicazione dei "positive displacement motors" in ambienti ambienti fortemente critici, soggetti ad alta pressione e alta temperatura. Tali motori sono utilizzati nell'industria Oil & Gas per la perforazione di pozzi petroliferi. L’analisi è stata portata a termine attraverso definizione dell’intervallo di temperatura per cui le performance degli strumenti in commercio presenta il maggior numero di failures, compreso tra i 175°C e i 225°C , e per il quale si vuole riuscire a limitare i rischi connessi e le criticità associate, garantendo così il raggiungimento dei target con un maggior grado di affidabilità e disponibilità del PDM utilizzato. Analizzando le sollecitazioni agenti sul motore durante le fasi di utilizzo, è stato possibile rilevare le principali cause di rottura e malfunzionamento che, nella maggior parte dei casi, possono essere attribuite al rigonfiamento e alla degradazione del materiale elastomerico che costituisce lo statore della power section. Investigando in merito alle differenze e alle proprietà di resistenza di numerosi materiali elastomerici a diversi range di temperatura, sono stati evidenziati dei margini di ottimizzazione in particolare relativi alla potenziale riduzione e totale sostituzione della superficie elastomerica con materiale metallico. Ciò ha fatto si che fosse necessario un approfondimento sulle caratteristiche degli acciai e delle leghe metalliche, in termini di resistenza a corrosione, costo del materiale, resistenza meccanica e della capacità di mantenere elevate proprietà meccaniche con l’aumento della temperatura, al fine di individuare i migliori “candidati” per sostituire interamente il materiale elastomerico dello statore in materiale metallico e risolvere così il problema dell’applicazione dei PDM in ambienti HT-HP.
Resumo:
I giunti ibridi sono impiegati in molte applicazioni meccaniche, avendo molti vantaggi, tra i quali quello di aumentare il carico trasferibile. Ci sono state ricerche in merito, le quali hanno valutato la dipendenza della resistenza a taglio di questi giunti rispetto a numerose variabili. Abbiamo poche informazioni, però, sulla dipendenza rispetto all'ER (Engagement Ratio, rapporto tra lunghezza e diametro di accoppiamento). Con questo lavoro la si vuole studiare nel caso di accoppiamenti con gioco in presenza di adesivo, considerando quattro livelli di ER. Per questo sono state effettuate prove di spiantaggio su pin e collar, dalle quali è risultata la presenza di una possibile dipendenza tra le due grandezze, seppur minima.
Resumo:
Questa tesi si pone l’obiettivo di effettuare un’analisi aggiornata sulla recente evoluzione del Cloud Computing e dei nuovi modelli architetturali a sostegno della continua crescita di richiesta di risorse di computazione, di storage e di rete all'interno dei data center, per poi dedicarsi ad una fase sperimentale di migrazioni live singole e concorrenti di macchine virtuali, studiandone le prestazioni a livello di risorse applicative e di rete all’interno della piattaforma open source di virtualizzazione QEMU-KVM, oggi alla base di sistemi cloud-based come Openstack. Nel primo capitolo, viene effettuato uno studio dello stato dell’arte del Cloud Computing, dei suoi attuali limiti e delle prospettive offerte da un modello di Cloud Federation nel futuro immediato. Nel secondo capitolo vengono discusse nel dettaglio le tecniche di live migration, di recente riferimento per la comunità scientifica internazionale e le possibili ottimizzazioni in scenari inter e intra data center, con l’intento di definire la base teorica per lo studio approfondito dell’implementazione effettiva del processo di migrazione su piattaforma QEMU-KVM, che viene affrontato nel terzo capitolo. In particolare, in quest’ultimo sono descritti i principi architetturali e di funzionamento dell'hypervisor e viene definito il modello di progettazione e l’algoritmo alla base del processo di migrazione. Nel quarto capitolo, infine, si presenta il lavoro svolto, le scelte configurative e progettuali per la creazione di un ambiente di testbed adatto allo studio di sessioni di live migration concorrenti e vengono discussi i risultati delle misure di performance e del comportamento del sistema, tramite le sperimentazioni effettuate.
Resumo:
Lo sviluppo hardware nel campo della robotica ha raggiunto negli ultimi anni livelli impressionanti ed è in continua crescita, e di pari passo si è espansa l’eterogeneità delle forme che può assumere, dalle tipologie basate su movimento a terra ai droni volanti, fino a forme più sofisticate di robot umanoidi che cercano di emularne il comportamento. Se da un lato ora possiamo disporre di hardware sempre più potente ed efficiente a costi sempre minori, dall’altro programmare il comportamento che un robot deve tenere nelle svariate circostanze in cui può imbattersi, nel poter portare a compimento il proprio obbiettivo, risulta essere sempre più complesso. Dopo una breve introduzione alla robotica e alle difficoltà che deve affrontare e una panoramica sui robot, cosa siano e come siano strutturati, fulcro della tesi sarà l’esposizione delle caratteristiche principali di ROS, Robot Operating System, come piattaforma di sviluppo software nel campo della robotica, e si concluderà con un semplice caso di studio in cui ne verrà messo in mostra concretamente l’utilizzo.
Resumo:
Analisi riguardante la tenacizzazione della matrice di laminati compositi. Lo scopo è quello di aumentare la resistenza alla frattura di modo I e, a tal proposito, sono stati modificati gli interstrati di alcuni provini tramite l’introduzione di strati, di diverso spessore, di nanofibre in polivinilidenfluoruro (PVDF). La valutazione di tale metodo di rinforzo è stata eseguita servendosi di dati ottenuti tramite prove sperimentali svolte in laboratorio direttamente dal sottoscritto, che si è occupato dell’elaborazione dei dati servendosi di tecniche e algoritmi di recente ideazione. La necessità primaria per cui si cerca di rinforzare la matrice risiede nel problema più sentito dei laminati compositi in opera da molto tempo: la delaminazione. Oltre a verificare le proprietà meccaniche dei provini modificati sottoponendoli a test DCB, si è utilizzata una tecnica basata sulle emissioni acustiche per comprendere più approfonditamente l’inizio della delaminazione e i meccanismi di rottura che si verificano durante le prove. Quest’ultimi sono illustrati servendosi di un algoritmo di clustering, detto Fuzzy C-means, tramite il quale è stato possibile identificare ogni segnale come appartenente o meno ad un determinato modo di rottura. I risultati mostrano che il PVDF, applicato nelle modalità esposte, è in grado di aumentare la resistenza alla frattura di modo I divenendo contemporaneamente causa di un diverso modo di propagazione della frattura. Infine l’elaborato presenta alcune micrografie delle superfici di rottura, le quali appoggiano i risultati ottenuti nelle precedenti fasi di analisi.
Resumo:
Nel lavoro di tesi è stato studiato il problema del tuning di un data warehouse, in particolare la tecnica maggiormente utilizzata in ambito aziendale, ovvero la creazione degli aggregati. Inoltre, è stato progettato e implementato uno strumento che generi automaticamente l'insieme di viste che meglio risolve il carico di lavoro basato sulle analisi di business più frequenti su quella specifica base di dati.
Resumo:
Viene proposto un metodo completo di autocalibrazione degli intrinseci della telecamera utilizzando una singola vista, sfruttando i punti di fuga riconosciuti nell'immagine. La metodologia è suddivisa in quattro fasi fondamentali: estrazione dei segmenti dall’immagine, clusterizzazione dei segmenti, stima di un punto di fuga da ogni cluster e determinazione dei punti di fuga ortogonali. Viene fornita un nuova metodologia per la determinazione dei punti di fuga, dai cluster di segmenti identificati. Inoltre vengono proposti degli approcci euristici che favoriscono la selezione della terna corretta di punti di fuga ortogonali. L’approccio proposto è completamente modulare e sufficientemente flessibile per poter essere adattato a esigenze diverse. Le prestazioni dell’approccio vengono valutate confrontando altre due proposte alternative, a cui viene sottoposto il medesimo set di immagini, ognuna dotata di diverse caratteristiche. I risultati di questi esperimenti evidenziano la bontà dell’approccio proposto.
Resumo:
La "paralisi agitante", come �e stata de�finita da James Parkinson nel 1817, �è la seconda malattia neurodegenerativa pi�ù comune dopo la malattia di Alzheimer, con una frequenza che varia tra 8 e 18 per 100000 persone all'anno. L'esordio è raro prima dei 50 anni con un aumento dell'incidenza attorno ai 60. Ad oggi, non esiste una cura per la malattia di Parkinson ed una via, assieme al trattamento farmacologico, per fornire un sollievo dai sintomi è la riabilitazione. Nel primo capitolo dell'elaborato vengono descritti l'eziopatogenesi e i sintomi principali della malattia; nel secondo viene presentata una descrizione sistematica delle tecnologie applicate oggi a fini riabilitativi. La terza parte unisce le prime due e rappresenta l'obiettivo della tesi: vengono presi in considerazione i principali sintomi della malattia e, per ognuno di essi, viene mostrato come le tecnologie vengono impiegate per fornire un supporto ed un aiuto alla rieducazione motoria e cognitiva
Resumo:
L'analisi accurata del processo di combustione è un aspetto sempre più influente nello sviluppo di un motore a combustione interna. In particolare il fenomeno della detonazione pone dei limiti sull'efficienza dei motori ad accensione comandata. Il rapporto di compressione è limitato in fase di progettazione dello sviluppo motore, lasciando al controllo dell'anticipo di accensione il compito di ridurre le problematiche di una combustione anomala. Nella seguente tesi si vuole implementare una metodologia per la valutazione dell'insorgere e dello sviluppo della detonazione in base alle condizioni di funzionamento del motore per differenti miscele di combustibili. Il metodo consiste nell'affiancare la cinetica chimica tabulata al risolutore CFD, \textsc{KIVA-3}. La cinetica chimica permette di determinare la velocità di reazione per differenti specie durante l'ossidazione a partire da precise condizioni ambiente. Il solutore CFD potrebbe risolvere questo tipo di problema ma utilizzare dei modelli con più reazioni chimiche richiede dei tempi di simulazioni troppo elevati. La cinetica chimica tabulata consiste nella determinazione ed estrapolazione dei dati relativi all'evoluzione della detonazione utilizzando schemi cinetici con centinaia o migliaia di reazioni. In seguito alla determinazione della miscela desiderata sono state eseguite delle simulazioni utilizzando il solutore Cantera per la determinazione dell'evoluzione dell'ossigeno. E' stata scelta questa grandezza come indicatore del progresso della detonazione poiché fornisce un'indicazione sullo stato di avanzamento delle reazioni. Successivamente i dati ricavati sono stati forniti al solutore CFD, tramite il quale sono state effettuate delle simulazioni per verificare i risultati ottenuti nella valutazione del comportamento di un motore ad alte prestazioni.
Resumo:
Attività sperimentale riguardante lo studio dei materiali compositi, nell’ambito della progettazione a crashworthiness, svolto, tramite test dei provini realizzati nell’attività di tirocinio, presso i laboratori didattici della Scuola di ingegneria e architettura, sede di Forlì. Il lavoro di tesi, si è basato sulla valutazione dell’energia assorbita dai provini in materiale composito, tramite prove quasi-statiche; per questo tipo di prove sono stati utilizzati provini autostabilizzanti, rinforzati in fibra di carbonio e matrice in resina epossidica. Prima di procedere alla sperimentazione, sono stati studiati i risultati ottenuti da precedenti sperimentazioni eseguite da colleghi, per valutare quale fosse la configurazione migliore di provino, in termini di geometria, e trigger, che garantisse elevate energie di assorbimento. Dopo una panoramica dei materiali compositi, con riferimento alle caratteristiche e proprietà, alle diverse tipologie che si possono avere in ambito industriale, è spiegato il concetto di crashworthiness, le varie tipologie di test di impatto e le varie tipologie di rottura alla quale può essere soggetto un provino. Si è di seguito descritto come è stata valutata la scelta del tipo di geometria e del trigger, che sarebbero stati utilizzati per la progettazione del provino, e si è accennato al processo di laminazione svolta presso i laboratori della Scuola per la fabbricazione del provino. Al termine della descrizione dei tester usati per la sperimentazione sono, infine, illustrati i risultati delle prove svolte, con successivi commenti.
Resumo:
Mycelium Tectonics è un lavoro multidisciplinare che interseca l’architettura con la biologia e con la tecnologia. Il concetto di tettonica - qui definito come il territorio in cui si costruiscono le relazioni tra l’organizzazione formale e i processi di funzionamento endogeni - viene indagato partendo da un punto di vista materico, dai limiti fisici e meccanici della materia e dalle differenze che ne possono emergere attraverso il cambio di scala. Procedendo dunque dal basso, sono stati studiati fenomeni quali l’auto-organizzazione e le intelligenze collettive, costituite da elementi con comportamenti autonomi, in cui l’organizzazione globale non è pianificata a priori ma emerge dalle interrelazioni degli elementi stessi. Si è tentato di descrivere una tettonica in cui fosse proprio la differenziazione e la variazione, di cui il sistema è intrinsecamente capace, a produrre una propria forma di organizzazione tettonica ed estetica su cui la funzionalità potesse essere mappata in modi non convenzionali. La biologia fornisce in questo diversi stimoli circa il concetto di costruire in termini di articolazione spaziale e adattabilità: in natura ogni struttura viene generata mediante processi di crescita intrinsecamente coerenti, e le relazioni che la regolano rendono impossibile scindere le parti dal tutto; una logica profondamente differente dai processi produttivi - e costruttivi – odierni, che racchiude in questo il potenziale per superarne i limiti. L’esperienza di laboratorio ha permesso un’ indagine approfondita sulle capacità esplorative e di morfogenesi del micelio: un organismo pluricellulare molto semplice formato da numerosi filamenti (ife), capaci di ramificarsi e riconnettersi tra loro per formare una rete biologica di trasporto. Le strategie messe in atto durante la crescita, poi simulate digitalmente, si sono evidenziate durante tutto il percorso di ricerca pratica, fornendo non solo motivo di dibattito teorico, quanto stimoli e possibilità a livello operativo. Partendo dagli esperimenti in vitro, lo studio si è poi soffermato sulla possibilità di far crescere il micelio (della specie Pleurotus Ostreatus) su strutture fibrose di canapa. Queste sono state simulate ed indagate digitalmente, al fine di costruire prototipi fisici da far colonizzare attraverso una crescita controllata del micelio. I modelli, lasciati essiccare, mostrano caratteristiche e performance emergenti, coerentemente alle premesse architettoniche. Considerando i risultati - seppur parziali - dell’attività teorico-sperimentale condotta, diviene necessario considerare un significato più esteso del termine sostenibilità, oltre ad un esame più approfondito delle ripercussioni a scala ecologica conseguenti l’applicazione di soluzioni qui soltanto ipotizzate.
Resumo:
La dialisi è una terapia essenziale alla sopravvivenza delle persone colpite da insufficienza renale. Senza questo trattamento periodico l’aspettativa di vita si riduce a pochi giorni. Il fine di questo trattamento è il ripristino dell’equilibrio idro-elettrolitico e acido-base del paziente e la rimozione del fluido in eccesso che l’organismo non è in grado di espellere autonomamente. La parte di liquido che passa attraverso il filtro dal lato sangue, alla parte di bagno dialisi prende il nome di ultrafiltrato. Ciò comporta che nelle macchine per emodialisi ci sia un sistema di controllo dedicato all’ultrafiltrazione. La durata della seduta è variabile, è finalizzata a riportare il paziente al peso ottimale in un tempo limitato. Il seguente elaborato è stato svolto presso il laboratorio della start-up IBD Italian Biomedical Devices, uno dei progetti in via di sviluppo è la realizzazione di una macchina per emodialisi a basso costo. Obiettivo della tesi è stato quello di confrontare due misuratori di portata e valutarne l’adeguatezza per la gestione del sistema di ultrafiltrazione. È stato esplorato tutto il range di portate a cui potrebbero essere sottoposti durante l’utilizzo del macchinario. I sensori oggetto di studio sono l’Oval Gears Flowmeters ed il flussimetro Series 800, entrambi adatti all’impiego in ambito biomedicale. Appartengono a due diverse classi: il primo è un contatore volumetrico, registra il numero di volumi base lo che attraversano. Il secondo è un misuratore a turbina, genera impulsi verso l’esterno in numero proporzionale alla velocità del fluido. Lo studio necessita anche di una parte di acquisizione dei segnali provenienti dai sensori, è stata implementata interamente sulla piattaforma Arduino. I dati acquisiti sono stati elaborati ed analizzati al fine di avere un confronto tra i misuratori e con il gold-standard. Per poter confrontare le prestazioni è stato realizzato e seguito un protocollo sperimentale.
Resumo:
L'obiettivo di questo lavoro di tesi è quello di implementare un codice di calcolo, attraverso l'algoritmo di Lubachevsky-Stillinger, in modo da poter prevedere la frazione volumetrica occupata dalle particelle solide che costituiscono il grain negli endoreattori a propellente solido. Particolare attenzione verrà rivolta al problema dell'impacchettamento sferico random (Random-Close Packing) che tale algoritmo cerca di modellare, e le ipotesi per cui tale modellazione può essere applicata al tipo di problema proposto. Inoltre saranno descritte le procedure effettuate per l'ottenimento dei risultati numerici delle simulazioni e la loro motivazione, oltre ai limiti del modello utilizzato e alle migliorie apportate per un'esecuzione più efficiente e veloce.
Resumo:
L'attuale processo di sviluppo del software è abbastanza lontano dai canoni di sistematicità e correttezza propri di altre aree dell'ingegneria. L'obiettivo di questa Tesi è quello di fornire metodologie e strumenti realmente ingegneristici per la costruzione del software, attraverso l'introduzione di linguaggi general purpose per l'analisi e la progettazione, di robustezza industriale e con semantica formalmente definita. A partire da frasi corrette in tali linguaggi, le quali costituiscono a tutti gli effetti modelli di sistemi software, ci si propone la completa generazione del codice corrispondente.