5 resultados para I Jornada sobre formación de grado
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
ABSTRACT Il presente lavoro vuole introdurre la problematica del rigonfiamento del terreno a seguito di grandi scavi in argilla. Il sollevamento del terreno dopo lo scavo può passare inosservato ma sono numerosi i casi in cui il rigonfiamento dura per molti anni e addirittura decenni, Shell Centre, London, Lion Yard, Cambridge, Bell Common, London, ecc. Questo rigonfiamento il più delle volte è impedito dalla presenza di fondazioni, si genera quindi una pressione distribuita che se non considerata in fase di progetto può portare alla fessurazione della fondazione stessa. L’anima del progetto è la modellazione e l’analisi del rigonfiamento di grandi scavi in argilla, confrontando poi i risultati con i dati reali disponibili in letteratura. L’idea del progetto nasce dalla difficoltà di ottenere stime e previsioni attendibili del rigonfiamento a seguito di grandi scavi in argilla sovraconsolidata. Inizialmente ho esaminato la teoria e i fattori che influenzano il grado e la velocità del rigonfiamento, quali la rigidezza, permeabilità, fessurazione, struttura del suolo, etc. In seguito ho affrontato lo studio del comportamento rigonfiante di argille sovraconsolidate a seguito di scarico tensionale (scavi), si è evidenziata l’importanza di differenziare il rigonfiamento primario e il rigonfiamento secondario dovuto al fenomeno del creep. Il tema centrale del progetto è l’analisi numerica tramite Flac di due grandi scavi in argilla, Lion Yard, Cambridge, e, Bell Common, London. Attraverso una dettagliata analisi parametrica sono riuscito a trovare i migliori parametri che modellano il comportamento reale nei due casi in esame, in questo modo è possibile arrivare a stime e previsioni attendibili del fenomeno rigonfiante del terreno a seguito di grandi scavi. Gli scavi modellati Lion Yard e Bell Common sono rispettivamente in Gault Clay e London Clay, grazie a famosi recenti articoli scientifici sono riuscito a evidenziare la principali propietà che diversificano i due terreni in esame, tali propietà sono estremamente differenti dalle normali caratteristiche considerate per la progettazione in presenza di terreno argilloso; sono così riuscito a implementare i migliori parametri per descrivere il comportamento dei due terreni nei diversi modelli. Ho inoltre studiato l’interazione terreno-struttura, la pressione esercitata dal rigonfiamento del terreno è strettamente funzione delle caratteristiche di connesione tra fondazione superficiale e muro di sostegno, tale pressione non deve essere ignorata in fase progettuale poichè può raggiungere importanti valori. Nello scavo di Lion Yard, considerando la presenza delle fondazioni profonde ho evidenziato il fatto che il rigonfiamento crea una forza distribuita di taglio tra i pali di fondazione ed il terreno, anche tale sollecitazione dovrebbe essere considerata ai fini della progettazione. La problematica non si ferma solo sull’interazione terreno-fondazioni, infatti durante gli scavi di importanti fondazioni londinesi lo scarico tensionale ha creato uno spostamento significativo positivo verso la superfice di tratti di tunnel della metropolita, questo fenomeno può creare seri problemi di sicurezza nella rete dei trasporti pubblici. Infine sono stati messi a confronto i risultati del programma Flac con quelli di metodi semplificati, ho trovato che utilizzando il metodo iterativo di O’Brien i risultati sono simili alla realtà e il tempo di calcolo è molto inferiore di quello richiesto utilizzando Flac, 2-3 giorni. In conclusione posso affermare che grazie ad una dettagliata analisi parametrica è stato possibile stimare il rigonfiamento del terreno, argilla sovraconsolidata, nei due casi analizzati.
Resumo:
Il video streaming in peer-to-peer sta diventando sempre più popolare e utiliz- zato. Per tali applicazioni i criteri di misurazione delle performance sono: - startup delay: il tempo che intercorre tra la connessione e l’inizio della ripro- duzione dello stream (chiamato anche switching delay), - playback delay: il tempo che intercorre tra l’invio da parte della sorgente e la riproduzione dello stream da parte di un peer, - time lag: la differenza tra i playback delay di due diversi peer. Tuttavia, al giorno d’oggi i sistemi P2P per il video streaming sono interessati da considerevoli ritardi, sia nella fase di startup che in quella di riproduzione. Un recente studio su un famoso sistema P2P per lo streaming, ha mostrato che solitamente i ritardi variano tra i 10 e i 60 secondi. Gli autori hanno osservato anche che in alcuni casi i ritardi superano i 4 minuti! Si tratta quindi di gravi inconvenienti se si vuole assistere a eventi in diretta o se si vuole fruire di applicazioni interattive. Alcuni studi hanno mostrato che questi ritardi sono la conseguenza della natura non strutturata di molti sistemi P2P. Ogni stream viene suddiviso in blocchi che vengono scambiati tra i peer. A causa della diffusione non strutturata del contenuto, i peer devono continuamente scambiare informazioni con i loro vicini prima di poter inoltrare i blocchi ricevuti. Queste soluzioni sono estremamente re- sistenti ai cambiamenti della rete, ma comportano una perdita notevole in termini di prestazioni, rendendo complicato raggiungere l’obiettivo di un broadcast in realtime. In questo progetto abbiamo lavorato su un sistema P2P strutturato per il video streaming che ha mostrato di poter offrire ottimi risultati con ritardi molto vicini a quelli ottimali. In un sistema P2P strutturato ogni peer conosce esattamente quale blocchi inviare e a quali peer. Siccome il numero di peer che compongono il sistema potrebbe essere elevato, ogni peer dovrebbe operare possedendo solo una conoscenza limitata dello stato del sistema. Inoltre il sistema è in grado di gestire arrivi e partenze, anche raggruppati, richiedendo una riorganizzazione limitata della struttura. Infine, in questo progetto abbiamo progettato e implementato una soluzione personalizzata per rilevare e sostituire i peer non più in grado di cooperare. Anche per questo aspetto, l’obiettivo è stato quello di minimizzare il numero di informazioni scambiate tra peer.
Resumo:
"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.
Resumo:
Il lavoro discusso in questa tesi è lo sviluppo di un metodo sintetico basato sulla catalisi asimmetrica che consente di ottenere precursori di alcuni alcaloidi dell’Ergot in forma enantioarricchita. La reazione sviluppata consiste in un processo domino Friedel-Crafts/nitro-Michael fra indoli sostituiti in posizione 4 con un accettore di Michael e nitroetene. I catalizzatori utilizzati sono in grado di attivare il nitroetene per la Friedel-Crafts mediante legami a idrogeno e di indurre stereoselezione nella successiva ciclizzazione di Michael intramolecolare. Mediante la procedura ottimizzata è possibile ottenere una serie di indoli policiclici, potenziali precursori sintetici di alcaloidi dell’Ergot, con buone rese ed enantioselezioni.
Resumo:
Un sistema mobile di comunicazione è un sistema di telecomunicazioni in cui è possibile mantenere la connessione o legame tra due o più utenti, anche nelle situazioni di mobilità totale o parziale degli stessi utenti. I sistemi radiomobili si stanno evolvendo dalla creazione del 1G (prima generazione) al 4G (quarta generazione). I telefoni di ogni generazione si differenziano in quattro aspetti principali : accesso radio, velocità di trasmissione dati, larghezza di banda e sistemi di commutazione. In questa tesi si affronta il tema dei sistemi 5G , negli ambienti terrestri e satellitari , in quanto sono l'ultima evoluzione dei sistemi mobili . Si introduce il passaggio dalla prima alla connessione di quarta generazione , al fine di capire perché 5G sta per cambiare la nostra vita . Quello che mi colpisce è il sito italiano www.Repubblica.it che dice : " con la nuova generazione 5 possiamo affidare le intere porzioni nette di vita". La tecnologia cellulare , infatti , ha cambiato radicalmente la nostra società e il nostro modo di comunicare . In primo luogo è cambiata la telefonia vocale , per poi trasferirsi all' accesso dati , applicazioni e servizi. Tuttavia , Internet non è stato ancora pienamente sfruttato dai sistemi cellulari. Con l'avvento del 5G avremo l'opportunità di scavalcare le capacità attuali di Internet . Il sistema di comunicazione di quinta generazione è visto come la rete wireless reale , in grado di supportare applicazioni web wireless a livello mondiale ( wwww ). Ci sono due punti di vista dei sistemi 5G : evolutivo e rivoluzionario. Dal punto di vista evolutivo, i sistemi 5G saranno in grado di supportare wwww permettendo una rete altamente flessibile come un Adhoc rete wireless dinamica ( DAWN ) . In questa visione tecnologie avanzate, tra cui antenna intelligente e modulazione flessibile , sono le chiavi per ottimizzare le reti wireless ad hoc. Dal punto di vista rivoluzionario, i sistemi 5G dovrebbe essere una tecnologia intelligente in grado di interconnettere tutto il mondo senza limiti . Un esempio di applicazione potrebbe essere un robot wireless con intelligenza artificiale .