650 resultados para Linee Guida per la progettazione delle opere di sostegno rinforzate con geosintetici
Resumo:
In questa tesi viene analizzato il concetto di mobilità elettrica e viene proposta un’applicazione per la gestione della propria auto elettrica. L'applicazione in questione si pone come scopo l’agevolazione delle interazioni dell’utente con l’auto a distanza. Analizzando le caratteristiche principali dell’auto elettrica, ne vengono delineati i benefici e le limitazioni dell’autonomia, per la quale si suggerisce soluzione tramite regole da adottare alla guida. Attraverso la comparazione con le tipologie di applicazioni esistenti per la mobilità si decide che genere di approccio adottare nella realizzazione della nostra applicazione. Seguono la descrizione delle tecnologie di sviluppo del progetto sotto forma di applicazione ibrida, tra le quali ci si sofferma sull'utilizzo di linguaggi di markup, fogli di stile e JavaScript lato client. Di quest’ultimo ne vengono elencate le API utilizzate, in particolare Google Maps e Google Charts. Successivamente si introduce il concetto di simulazione server ed i metodi e le tecniche adottate per renderlo effettivo. Infine vengono spiegate le scelte implementative nonché i metodi e le decisioni presi in ambito di sviluppo per realizzare al meglio l’applicazione, fornendo una presentazione dettagliata delle sue funzionalità.
Resumo:
I bacini idrografici appenninici romagnoli rappresentano una fonte idropotabile di essenziale importanza per la Romagna, grazie alla regolazione stagionale svolta dall’invaso artificiale di Ridracoli. Nel presente elaborato si è implementato un modello per lo studio e la valutazione del regime idrologico dei bacini idrografici allacciati all’invaso, affrontando sia gli aspetti relativi alla miglior spazializzazione dei dati metereologici in ingresso al modello (in particolare in relazione alla stima della temperatura, fondamentale per la rappresentazione dei processi di evapotraspirazione e dei fenomeni di accumulo e scioglimento nevoso), sia gli aspetti di calibrazione dei parametri, confrontando le simulazioni ottenute a partire da diverse configurazioni del modello in termini di rappresentazione spaziale e temporale dei fenomeni. Inoltre si è eseguita una regionalizzazione del modello su due sezioni fluviali che sono al momento oggetto di indagini idrologiche, fornendo supporto alla valutazione della possibilità di realizzazione di una nuova opera di presa. A partire dai dati puntuali dei sensori termometrici disponibili si è ricercata la migliore tecnica di interpolazione della temperatura sull’area di studio, ottenendo una discreta precisione, con un errore in procedura di ricampionamento jack-knife raramente superiore al grado centigrado. La calibrazione del modello TUWien in approccio semi-distribuito, sia quando applicato a scala oraria sia quando applicato a scala giornaliera, ha portato a buoni risultati. La complessità del modello, dovuta in gran parte alla presenza di uno specifico modulo per la gestione di accumulo e scioglimento nivale, è stata ripagata dalle buone prestazioni delle simulazioni ottenute, sia sul periodo di calibrazione sia su quello di validazione. Tuttavia si è osservato che l’approccio semi-distribuito non ha portato benefici sostanziali rispetto a quello concentrato, soprattutto in relazione al forte aumento di costo computazionale.
Resumo:
Le acque sotterranee rappresentano una risorsa fondamentale di acqua potabile; per questo motivo esse devono essere preservate, controllate, e se necessario, trattate e decontaminate. Nella presente tesi è stato analizzato, dal punto di vista idraulico, uno dei metodi di risanamento delle acque sotterranee più efficaci ed ampiamente utilizzati: il sistema Pump & Treat. Esso consiste nella costruzione di una barriera idraulica formata da pozzi che pompano acqua dal sottosuolo per consentirne il trattamento e la conseguente reimmissione nel corpo idrico. In questo contesto, sono stati approfonditi i principali criteri di progettazione ed è stato sviluppato un esempio applicativo utilizzando il codice numerico MODFLOW per la risoluzione delle equazioni di flusso e trasporto in acque sotterranee.
Resumo:
Questa tesi concerne quella che è una generalizzata tendenza verso la trasformazione digitale dei processi di business. Questa evoluzione, che implica l’utilizzo delle moderne tecnologie informatiche tra cui il Cloud Computing, le Big Data Analytics e gli strumenti Mobile, non è priva di insidie che vanno di volta in volta individuate ed affrontate opportunamente. In particolare si farà riferimento ad un caso aziendale, quello della nota azienda bolognese FAAC spa, ed alla funzione acquisti. Nell'ambito degli approvvigionamenti l'azienda sente la necessità di ristrutturare e digitalizzare il processo di richiesta di offerta (RdO) ai propri fornitori, al fine di consentire alla funzione di acquisti di concentrarsi sull'implementazione della strategia aziendale più che sull'operatività quotidiana. Si procede quindi in questo elaborato all'implementazione di un progetto di implementazione di una piattaforma specifica di e-procurement per la gestione delle RdO. Preliminarmente vengono analizzati alcuni esempi di project management presenti in letteratura e quindi viene definito un modello per la gestione del progetto specifico. Lo svolgimento comprende quindi: una fase di definizione degli obiettivi di continuità dell'azienda, un'analisi As-Is dei processi, la definizione degli obiettivi specifici di progetto e dei KPI di valutazione delle performance, la progettazione della piattaforma software ed infine alcune valutazioni relative ai rischi ed alle alternative dell'implementazione.
Resumo:
In questo elaborato viene sperimentato un iter processuale che consenta di utilizzare i sensori termici affiancati a fotocamere digitale in ambito fotogrammetrico al fine di ottenere prodotto dal quale sono estrapolabili informazioni geometriche e termiche dell’oggetto di studio. Il rilievo fotogrammetrico è stato svolto mediante l’utilizzo di un drone con equipaggiamento multisensoriale, termico e digitale, su una porzione di territorio soggetto ad anomalie termiche nei pressi di Medolla (MO). Per l’analisi termica e geometrica sono stati posizionati sul campo 5 target termici di cui ne sono state misurate le coordinate per la georeferenziazione delle nuvole dense di punti e la temperatura. In particolare sono state eseguite due riprese aeree dalle quali sono stati estratti i frame necessari per i processi di restituzione fotogrammetrica. Le immagini sono state sottoposte ad una fase di trattamento che ha prodotto immagini rettificate prive di delle distorsioni impresse dall’obbiettivo. Per la creazione degli elaborati vettoriali e raster a colori e termici sono stati impiegati inizialmente software di fotogrammetria digitale in grado di fornire scene tridimensionali georeferenziate dell’oggetto. Sono state sviluppate sia in un ambiente open-source, sia sfruttando programmi commerciali. Le nuvole dense sono state successivamente trattate su una piattaforma gratuita ad interfaccia grafica. In questo modo è stato possibile effettuare dei confronti tra i diversi prodotti e valutare le potenzialità dei software stessi. Viene mostrato come creare un modello tridimensionale, contenente sia informazioni geometriche che informazioni termiche, partendo dalla nuvola termica e da quella a colori. Entrambe georeferenziate utilizzando gli stessi punti fotogrammetrici d’appoggio. Infine i prodotti ottenuti sono stati analizzati in un ambiente GIS realizzando sovrapposizioni grafiche, confronti numerici, interpolazioni, sezioni e profili.
Resumo:
La Cartella Clinica Elettronica è lo strumento d’eccellenza per la condivisione e il recupero dei dati clinici e per la gestione organica e strutturata dei dati riferiti alla storia clinica di un paziente. Garantisce il supporto dei processi clinici (diagnostico-terapeutici) e d’assistenza nei singoli episodi di cura e favorisce la continuità di cura. In questo nuovo scenario acquista rilevanza il contributo degli infermieri ai processi sanitari e al percorso diagnostico-terapeutico di competenza medica, nonché l’affermarsi del processo assistenziale di specifica competenza infermieristica. Nasce l’esigenza di progettare e sviluppare un valido sistema informativo, indispensabile per documentare sistematicamente ogni attività infermieristica, ottenere informazioni utili per la pianificazione, la gestione e la valutazione dei percorsi assistenziali e per migliorare l’assistenza. Il seguente progetto di tesi sperimentale ha come obiettivo la digitalizzazione delle documentazione infermieristica,in accordo con le esigenze del personale clinico in un ambito realmente operativo di reparto ospedaliero, al fine di realizzare uno strumento informativo semplice ma efficace, in grado di rendere agevole la registrazione dell’attività clinica quotidiana. Per iniziare la trattazione, sono forniti elementi introduttivi e propedeutici ad una comprensione più esaustiva del sistema che verrà integrato con le schede infermieristiche digitali. Si procede con la descrizione delle fasi di sviluppo che hanno portato all’informatizzazione delle schede infermieristiche, analizzando sia gli studi preliminari che gli strumenti utilizzati per la loro realizzazione. Il lavoro si conclude con la presentazione e discussione di un prototipo al personale infermieristico referente, così da mostrare al cliente l’effettiva funzionalità della cartella infermieristica e il flusso di utilizzo per avere un riscontro preliminare su leggibilità ed organicità dei documenti.
Resumo:
Il lavoro di indagine che è stato sviluppato nella presente tesi è volto a valutare, attraverso metodi FEM, ossia tecniche numeriche computazionali, le sollecitazioni e le deformazioni che agiscono sul telaio di uno "Stampo", macchina che realizza l'operazione di calandratura della lamiera nella produzione di tubi di acciaio a saldatura elicoidale. In particolare l’analisi riportata in questo documento può ritenersi uno studio preliminare che ha lo scopo di creare un simulatore tenso-deformativo che permetta di realizzare un futuro lavoro di validazione del modello, quindi esso è stato realizzato nel modo più flessibile possibile, in modo che sia agevole, anche in un secondo tempo, introdurvi delle modifiche. Il Software utilizzato per la realizzazione dell'analisi FEM è Salomé-Meca accompagnato dal risolutore Code Aster. Oltre all'analisi sul Telaio dello Stampo si è effettuato uno studio preliminare, di validità generale, in cui si riportano in dettaglio le operazioni da effettuare per lo studio degli Assembly. In particolare è stato utilizzato il software Efficient per la creazione del file di comando.
Resumo:
Movimentazione, da parte di un braccio robotico, di un recipiente riempito con un liquido nello spazio tridimensionale. Sistema di trasferimento liquidi basato sul KUKA youBot, piattaforma open source per la ricerca scientifica. Braccio robotico a 5 gradi di libertà con struttura ortho-parallel e cinematica risolvibile in forma chiusa tramite l’applicazione di Pieper. Studio dei modi di vibrare dei liquidi e modellizzazione dei fenomeni ondosi tramite modello equivalente di tipo pendolo. Analisi delle metodologie di controllo di tipo feed-forward volte a sopprimere la risposta oscillatoria di un tipico sistema vibratorio. Filtraggio delle traiettorie di riferimento da imporre allo youBot, in modo tale da sopprimere le vibrazioni in uscita della massa d’acqua movimentata. Analisi e comparazione delle metodologie di input shaping e filtro esponenziale. Validazione sperimentale delle metodologie proposte implementandole sul manipolatore youBot. Misura dell’entità del moto ondoso basata su dati acquisiti tramite camera RGBD ASUS Xtion PRO LIVE. Algoritmo di visione per l’elaborazione offline dei dati acquisiti, con output l’andamento dell’angolo di oscillazione del piano interpolante la superficie del liquido movimentato.
Resumo:
In questo studio sono stati analizzati ed ottimizzati alcuni algoritmi proposti in letteratura per la detezione dei parametri temporali della corsa, con l'obiettivo di determinare quale, fra quelli proposti, sia il più affidabile per il suo utilizzo nell'analisi dello sprint. Per fare ciò, sono state condotte delle acquisizioni outdoor su cinque atleti differenti, utilizzando tre sensori inerziali IMU EXL-s3 (EXEL S.r.l., Bologna) con frequenza di acquisizione a 200 Hz, posizionati sul dorso dei due piedi e sul tronco (schiena, livello L1). Gli algoritmi confrontati sono stati sviluppati in ambiente MATLAB (MathWorks Inc., USA) e sono stati riferiti al gold standard di telecamera a 250 fps analizzando, per ciascuno, i limits of agreement. L'algoritmo implementato da Bergamini et al. (si veda l'articolo 'Estimation of temporal parameters during sprint running using a trunk-mounted inertial measurement unit') è risultato il migliore, con un bias di circa 0.005 s e limits of agreement entro gli 0.025 s fra i dati da sensore e il riferimento video, dati questi che confermano anche i risultati ottenuti da Bergamini et al.
Resumo:
Le metodologie per la raccolta delle idee e delle opinioni si sono evolute a pari passo con il progresso tecnologico: dalla semplice comunicazione orale si è passati alla diffusione cartacea, fino a che l'introduzione e l'evoluzione di internet non hanno portato alla digitalizzazione e informatizzazione del processo. Tale progresso ha reso possibile l'abbattimento di ogni barriera fisica: se in precedenza la diffusione di un sondaggio era limitata dall'effettiva possibilità di distribuzione del sondaggio stesso, lo sviluppo della rete globale ha esteso tale possibilità (virtualmente) a tutto il mondo. Nonostante sia un miglioramento non indifferente, è importante notare come la valorizzazione della diffusione di un sondaggio abbia inevitabilmente portato a trascurarne le proprietà e i vantaggi intrinsechi legati alla sua diffusione prettamente locale. Ad esempio, un sondaggio che mira a valutare la soddisfazione degli utenti riguardo alla recente introduzione di una nuova linea di laptop ottiene un guadagno enorme dall'informatizzazione, e dunque delocalizzazione, del processo di raccolta dati; dall'altro lato, un sondaggio che ha come scopo la valutazione dell'impatto sui cittadini di un recente rinnovamento degli impianti di illuminazione stradale ha un guadagno pressoché nullo. L'idea alla base di QR-VEY è la ricerca di un ponte tra le metodologie classiche e quelle moderne, in modo da poter sfruttare le proprietà di entrambe le soluzioni. Tale ponte è stato identificato nella tecnologia del QR-Code: è possibile utilizzare un generico supporto che presenti proprietà di localizzazione, come un foglio cartaceo, ma anche un proiettore di una conferenza, come base per la visualizzazione di tale codice, ed associare alla scansione dello stesso funzionalità automatizzate di raccolta di dati e opinioni.
Resumo:
Questo documento descrive gran parte del lavoro svolto durante un periodo di studio di sei mesi all’International Centre for Geohazards (ICG) di Oslo. Seguendo la linea guida dettata nel titolo, sono stati affrontati diversi aspetti riguardanti la modellazione numerica dei pendii quali l’influenza delle condizioni al contorno e delle proporzioni del modello, la back-analysis di eventi di scivolamento e l’applicazione delle analisi di stabilità monodimensionali. La realizzazione di semplici modelli con il programma agli elementi finiti PLAXIS (Brinkgreve et al., 2008) ha consentito di analizzare le prestazioni dei modelli numerici riguardo all’influenza delle condizioni al contorno confrontandoli con un calcolo teorico del fattore di amplificazione. Questa serie di test ha consentito di stabilire alcune linee guida per la realizzazione di test con un buon livello di affidabilità. Alcuni case-history, in particolare quello di Las Colinas (El Salvador), sono stati modellati allo scopo di applicare e verificare i risultati ottenuti con i semplici modelli sopracitati. Inoltre sono state svolte analisi di sensitività alla dimensione della mesh e ai parametri di smorzamento e di elasticità. I risultati hanno evidenziato una forte dipendenza dei risultati dai parametri di smorzamento, rilevando l’importanza di una corretta valutazione di questa grandezza. In ultima battuta ci si è occupati dell’accuratezza e dell’applicabilità dei modelli monodimensionali. I risultati di alcuni modelli monodimensionali realizzati con il software Quiver (Kaynia, 2009) sono stati confrontati con quelli ottenuti da modelli bidimensionali. Dal confronto è risultato un buon grado di approssimazione accompagnato da un margine di sicurezza costante. Le analisi monodimensionali sono poi state utilizzate per la verifica di sensitività. I risultati di questo lavoro sono qui presentati e accompagnati da suggerimenti qualitativi e quantitativi per la realizzazione di modelli bidimensionali affidabili. Inoltre si descrive la possibilità di utilizzare modelli monodimensionali in caso d’incertezze sui parametri. Dai risultati osservati emerge la possibilità di ottenere un risparmio di tempo nella realizzazione di importanti indagini di sensitività.
Resumo:
Viene presentato un sito web per definire e somministrare questionari clinici per la reumatologia. In particolare viene definito il questionario PRO-CLARA creato dal prof. Fausto Salaffi.
Resumo:
La trasformazione di glicerolo ad acido acrilico può essere un fattore importante per la valorizzazione del processo di produzione di biodiesel, il quale prevede la coproduzione di enormi quantità di glicerolo. La sintesi di acido acrilico in un unico step è stata studiata attraverso vari catalizzatori solidi bifunzionali di diversa natura, contenenti proprietà acide e redox. I catalizzatori devono avere un’adeguata acidità di Brønsted per promuovere la trasformazione di glicerolo ad acroleina, mentre le proprietà ossidanti, necessarie per la sintesi di acido acrilico sono ottenute mediante l’inserimento di un metallo ossidante nella struttura. Si vuole quindi sintetizzare e testare una serie di catalizzatori che mostrino questa bifunzionalità in grado di soddisfare requisiti di attività e selettività nei confronti della reazioni . Per questo studio sono stati sintetizzati e caratterizzati ossidi misti di W/V, nella forma di aggregati dispersi sulla titania ed ossidi misti di Zr/Nb/V in struttura bulk. Sono stati quindi eseguiti dei test di reattività in fase gas ed in presenza di ossigeno utilizzando un reattore tubolare in quarzo a letto fisso.
Resumo:
Questa tesi si propone di indagare l'impatto di alcuni scenari di sviluppo aeroportuale legati alla prevista implementazione di un sistema di trasporto APM - People Mover, in termini di performance del terminal passeggeri dell'Aeroporto `G.Marconi' di Bologna, per fornire soluzioni efficaci alla mobilità. Il background teorico è rappresentato dai risultati ottenuti dalla ricerca sperimentale e ormai acquisiti dalla trattazione classica per code markoviane avanzate (bulk queus), mentre il metodo messo a punto, del tutto generale,parte dagli arrivi schedulati e attraverso una serie di considerazioni econometriche costruisce una serie di scenari differenti,implementati poi attraverso la simulazione dinamica con l'utilizzo del software ARENA. Le principali grandezze di stato descrittive dei processi modellizzati ottenute in output vengono confrontate e valutate nel complesso, fornendo in prima approssimazione previsioni sull'efficacia del sistema previsto. Da ultimo, vengono proposti e confrontati i due approcci forniti tanto dalla manualistica di settore quanto da contributi di ricerca per arrivare a definire un dimensionamento di massima di strutture per la mobilità (una passerella di collegamento del terminal alla stazione APM) e una verifica della piattaforma per l'attesa ad essa contigua.
Resumo:
Nell’ambito del presente lavoro sperimentale sono state prese in considerazione differenti tecniche, tradizionali ed innovative, per la determinazione del contenuto di acqua presente negli oli extravergine di oliva. Seppur presente nell'olio in quantità limitata, l'acqua é in grado di favorire la dissoluzione e veicolare componenti minori idrofilici (come le molecole a struttura fenolica e polifenolica) all'interno di micelle inverse che si creano nella matrice lipidica quando alla superficie acqua-olio si aggregano composti anfifilici (come i digliceridi, i monogliceridi, gli acidi grassi liberi, i fosfolipidi etc.) che danno luogo alla formazione di aggregati colloidali. I risultati ottenuti su un set di 60 campioni hanno evidenziato come esistano correlazioni positive e soddisfacenti tra le diverse metodiche analitiche tradizionali quali la titolazione titrimetrica di Karl Fisher e quelle gravimetriche per essiccamento in stufa o mediante termobilancia. La migliore correlazione in termini di R2 con valore pari a circa 0,82 è stata ottenuta tra i metodi Karl Fisher ed essiccamento in stufa, mentre per esempio quella tra i due metodi gravimetrici (stufa e termobilancia) ha fatto registrare un valore inferiore (0,70). Pur essendosi verificate delle soddisfacenti correlazioni tra le tre tecniche tradizionali, i valori del contenuto in acqua dei campioni si sono presentati variabili in funzione dell'utilizzo di una modalità di misurazione rispetto all'altra. Tale variabilità é funzione di diversi fattori: la difficoltà di determinare l'acqua fortemente legata nel caso dei metodi per essiccamento; la perdita in peso causata anche da altri componenti in grado di volatilizzare alle condizioni analitiche adottate; la possibilità di formazione di composti non originariamente presenti come risultato di modificazioni chimiche indotte dall'elevata temperatura. Il contenuto di acqua è stato quindi stimato anche mediante una tecnica innovativa a basso costo basata su misure dielettriche. Considerato che l’olio extravergine di oliva è noto essere un ottimo isolante, il fenomeno dielettrico osservato risulta essere di natura capacitiva. Il risultato di correlazione ottenuto su un set di 23 oli extravergini di oliva applicando in parallelo questa tecnica rapida e la misura gravimetrica con stufa (che é un metodo ISO), è da considerarsi soddisfacente, con un R2 pari anche in questo caso a 0,82. In conclusione, le tecniche attualmente utilizzate per la determinazione del contenuto di acqua in oli extravergine di oliva risultano tra loro correlate. Considerando che tali tecniche tradizionali sono dispendiose o in termini di tempo (gravimetrico mediante stufa) o in termini di consumo di reagenti e solventi (titrimetrico con reattivo di Karl Fischer), il nuovo approccio sperimentato mediante misure capacitive può essere considerato molto interessante anche se, sicuramente, sarà da applicare ad un numero più ampio di campioni per rendere l'evidenza sperimentale più robusta.