132 resultados para Di Meglio, Gabriel
Resumo:
In uno scenario in cui il tema dell’emergenza abitativa recita un ruolo da protagonista nelle politiche europee per la casa, il recupero del patrimonio edilizio esistente si pone come una delle strategie più efficaci per rispondere alla problematica dell’abitare sociale. Nel contesto di grave crisi economica ed emergenza energetica che caratterizza la società contemporanea, il valore del retrorfit sta rapidamente trasformando l’approccio progettuale tradizionale, definendo un concetto basilare per la sostenibilità del domani: “fare meglio con meno”. L’oggetto di questa tesi è la riqualificazione energetica e funzionale di un edificio popolare situato a Bologna, nel quartiere Navile, zona Bolognina. Il fabbricato si innesta in un isolato a corte che contraddistingue questa zona, caratterizzato da una pianta ad “L” e da sistemi costruttivi tipici della ricostruzione del primo periodo del secondo dopoguerra. L’ipotesi presentata è il risultato dell’interazione di strategie progettuali mirate alla risoluzione delle problematiche di tipo funzionale ed energetico che affliggono il complesso. L’intervento è caratterizzato dall’ampio impiego di tecnologie leggere a “secco”, utilizzate sia per l’integrazione dell’edificio con aggiunte volumetriche, che per la realizzazioni di elementi progettuali ex-novo.
Resumo:
Il passo preliminare del presente elaborato è quello di mettere a punto un metodica solida e riproducibile per la sovraespressione della subunità α di D. radiodurans per via eterologa. L’ospite ideale per realizzare la sovraespressione è E. coli, microorganismo ampiamente discusso e impiegato per via della sua semplice manipolazione. Per realizzare la sovraespressione il ceppo di E. coli prescelto è stato trasformato con il plasmide pBAD-dnaE e la proteina in esame è stata ottenuta come corpi di inclusione (biologicamente inattiva). Successivamente alla fase di rinaturazione e alla purificazione tramite cromatografia liquida dell’enzima è stato possibile ottenere quantità sufficienti di proteina pura e biologicamente attiva con la quale condurre saggi spettrofotometrici di attività enzimatica per valutare il comportamento dell’enzima in vitro simulando le condizioni di substrato attese in vivo. È proprio in quest’ultimo frangente che si condensa lo scopo di questo lavoro. La conduzione dei saggi di attività enzimatica in condizioni ricombinative e non ricombinative (quindi in presenza o meno di RecAEc nell’ambiente di reazione) ci ha consentito di comprendere meglio il comportamento della pol III-α durante la fase di strand invasion mediata dalla ricombinasi e la successiva sintesi del neofilamento, contribuendo a chiarire alcuni aspetti dei meccanismi che intervengono lungo la via di riparazione del genoma danneggiato in D. radiodurans ancora poco discussi. Inoltre l’elaborazione di un sistema di espressione per la singola subunità α getterebbe le basi per sviluppare un sistema di co-espressione più complesso ove siano coinvolte anche altre subunità dell’oloenzima (τ-δ-δ’), in modo da poter verificare la tipologia di subassemblaggio che spontaneamente avverrebbe in vivo e gli stimoli relativi tra le diverse subunità che ne migliorerebbero l’efficienza.
Resumo:
Il presente lavoro di tesi riguarda l’analisi della vulnerabilità sismica di serbatoi atmosferici in acciaio. I serbatoi sono strutture di varie forme e dimensioni, utilizzate per lo stoccaggio di liquidi come l’acqua, il petrolio e il gas naturale. La loro importanza non deriva solamente dal loro valore economico e da quello della sostanza contenuta, ma anche dalle conseguenze disastrose causate da un loro collasso strutturale. Risulta quindi fondamentale progettare sistemi che siano efficienti ed affidabili, soprattutto nei confronti di azioni sismiche. In questo campo, in particolare negli ultimi decenni, sono state condotte numerose campagne sperimentali, grazie alle quali si è compreso meglio il comportamento dei serbatoi. Le normative, inoltre, hanno introdotto al loro interno indicazioni riguardo all’analisi dinamica, fornendo un valido strumento per i progettisti. In questo lavoro di tesi si è analizzata la vulnerabilità sismica di varie tipologie di serbatoi e si sono confrontati i risultati ottenuti. Sono stati studiati in particolare due modelli: il primo considera il serbatoio come rigido, il secondo, invece, come deformabile. L’analisi è stata automatizzata creando degli script che permettono, variando solamente alcuni parametri (caratteristiche del serbatoio, del liquido contenuto e del terreno presente), di giungere in tempi rapidi ad una soluzione accettabile per verificare le possibili rotture. Per modellare il problema si è scelto di seguire l’approccio fornito dalle raccomandazioni neozelandesi NZSEE, mentre per le verifiche di instabilità sono state prese in considerazione anche le normative europee. L’obiettivo è dunque quello di analizzare, attraverso un modello semplificato ed automatizzato, la vulnerabilità di serbatoi cilindrici in acciaio contenenti liquido sottoposti ad un’azione sismica.
Resumo:
Il framework in oggetto, è un ambiente ideato con lo scopo di applicare tecniche di Machine Learning (in particolare le Random Forest) alle funzionalità dell'algoritmo di stereo matching SGM (Semi Global Matching), al fine di incrementarne l'accuratezza in versione standard. Scopo della presente tesi è quello di modificare alcune impostazioni di tale framework rendendolo un ambiente che meglio si adatti alla direzionalità delle scanline (introducendo finestre di supporto rettangolari e ortogonali e il training di foreste separate in base alla singola scanline) e ampliarne le funzionalità tramite l'aggiunta di alcune nuove feature, quali la distanza dal più vicino edge direzionale e la distintività calcolate sulle immagini Left della stereo pair e gli edge direzionali sulle mappe di disparità. Il fine ultimo sarà quello di eseguire svariati test sui dataset Middlebury 2014 e KITTI e raccogliere dati che descrivano l'andamento in positivo o negativo delle modifiche effettuate.
Resumo:
La tesi, come da titolo, progettazione e sviluppo di un ecosistema per la gestione di studi dentistici, tratta propriamente di un insieme di programmi software per gestire al meglio uno studio dentistico. Uno dei due software dell'ecosistema, consente al medico dentista di effettuare una gestione dei pazienti e dei relativi trattamenti svolti all'interno dello studio dentistico dal personale medico. I dati sono conseguentemente salvati all'interno di un database centrale. Il secondo software, più nello specifico un sito web, consente ai pazienti, mediante username e password, di accedere all'area riservata e monitorare i propri dati personali ed i trattamenti effettuati dal personale medico all'interno dello studio. Il software in uso nello studio del dentista consente quindi sia lettura che scrittura dei dati sul database. Il sito consente solamente la lettura dei dati stessi.
Resumo:
La sostituzione totale di caviglia o artroplastica totale di caviglia (Total Ankle Replacement - TAR) è un'operazione eseguita per sostituire le superfici di contatto delle ossa di tibia e astragalo mediante componenti protesiche e sta diventando una comune procedura chirurgica per il trattamento dell’ultimo stadio di osteoartrite di caviglia. La morfologia articolare della caviglia e la relativa cinematica sono molto complesse. Gli attuali dispositivi per TAR soffrono ancora di alti tassi di insoddisfazione e fallimento, probabilmente a causa dei relativi disegni protesici non pienamente rispettosi della normale morfologia di caviglia e del normale trasferimento dei carichi articolari. Recentemente, è stato proposto un nuovo disegno basato su un originale postulato che approssima la superficie articolare talare in modo maggiormente fisiologico, come un tronco di cono a sella con apice diretto lateralmente. L'obiettivo di questa tesi di laurea è di valutare sperimentalmente, mediante il supporto del navigatore chirurgico, il comportamento cinematico derivante dall’impianto del dispositivo TAR basato sul nuovo postulato e di confrontarlo con la cinematica derivante dalla caviglia intatta e derivante da modelli protesici basati sui disegni più comunemente utilizzati. Dieci arti inferiori da cadavere con caviglie intatte e normali, sono state scansionati via CT. Le immagini di caviglia sono state poi segmentate per la produzione dei modelli virtuali articolari. Questi sono stati prodotti sia basandosi sul nuovo postulato sia su quelli standard, e successivamente stampati in materiale plastico via 3D-printing. I risultati ottenuti a seguito di elaborazioni confermano che il nuovo dispositivo sembra riprodurre meglio rispetto agli altri, il fisiologico comportamento funzionale della caviglia, presentando valori prossimi a quelli della caviglia naturale.
Resumo:
Lo scopo di questo l'elaborato è l'analisi,lo studio e il confronto delle tecnologie per l'analisi in tempo reale di Big Data: Apache Spark Streaming, Apache Storm e Apache Flink. Per eseguire un adeguato confronto si è deciso di realizzare un sistema di rilevamento e riconoscimento facciale all’interno di un video, in maniera da poter parallelizzare le elaborazioni necessarie sfruttando le potenzialità di ogni architettura. Dopo aver realizzato dei prototipi realistici, uno per ogni architettura, si è passati alla fase di testing per misurarne le prestazioni. Attraverso l’impiego di cluster appositamente realizzati in ambiente locale e cloud, sono state misurare le caratteristiche che rappresentavano, meglio di altre, le differenze tra le architetture, cercando di dimostrarne quantitativamente l’efficacia degli algoritmi utilizzati e l’efficienza delle stesse. Si è scelto quindi il massimo input rate sostenibile e la latenza misurate al variare del numero di nodi. In questo modo era possibile osservare la scalabilità di architettura, per analizzarne l’andamento e verificare fino a che limite si potesse giungere per mantenere un compromesso accettabile tra il numero di nodi e l’input rate sostenibile. Gli esperimenti effettuati hanno mostrato che, all’aumentare del numero di worker le prestazioni del sistema migliorano, rendendo i sistemi studiati adatti all’utilizzo su larga scala. Inoltre sono state rilevate sostanziali differenze tra i vari framework, riportando pro e contro di ognuno, cercando di evidenziarne i più idonei al caso di studio.
Resumo:
L'evoluzione della tecnologia allo stato solido e il fiorire di nuove applicazioni determinano una forte spinta verso la miniaturizzazione dei convertitori elettronici di potenza. Questa riduzione di pesi ed ingombri è particolarmente sentita anche in quei convertitori di media potenza che necessitano di un trasformatore d'isolamento. In quest'ambito assume importante rilievo l'utilizzo di una architettura circuitale a ponte intero e di tecniche in grado di spingere la frequenza di commutazione il più in alto possibile. Questa tesi si propone quindi di studiare a fondo il funzionamento dei convertitori DC/DC isolati di tipo Full-Bridge e pilotati con la tecnica di modulazione Phase-Shifted che ben si presta all'impiego di commutazioni risonanti del tipo Zero-Voltage-Switching. L'analisi teorica sarà corroborata da simulazioni condotte su LTspice e sarà orientata all'individuazione di una metodologia di progetto generale per questo tipo di convertitori. Al fine di formalizzare meglio il progetto si è individuata una possibile applicazione nell'alimentazione di un DC-bus per telecomunicazioni (48 Volt DC sostenuti da batterie) a partire da una fonte di energia fotovoltaica quale una stringa di pannelli operanti con tensioni variabili da 120 a 180 Volt DC. Per questo particolare tipo di applicazione in discesa può avere senso l'impiego di un rettificatore del tipo a duplicazione di corrente, che quindi si provvederà a studiare e ad implementare a secondario del trasformatore d'isolamento. Infine particolare cura sarà dedicata alla parte di controllo che si ha intenzione di integrare all'interno di LTspice così da riuscire a simulare il comportamento dinamico del convertitore e verificare quanto predetto in via teorica mediante l'impiego della procedura che utilizza il K-Factor per la realizzazione della rete compensatrice.
Resumo:
L'elaborato tratterà, in linea teorica e successivamente con un esempio pratico, il tema della strategia di costo basata sulla leadership di costo. La prima parte vedrà partirà da una linea ampia, al fine di chiarire al meglio cosa sia una strategia aziendale e come essa vada implementata,si restringerà poi andandosi a focalizzare con particolare attenzione su come applicare tale strategia nei mercati di beni durevoli, beni il cui consumo viene ripetuto nel tempo. L'analisi vedrà in particolare, li strumenti, i metodi aziendali e la filosofia per far si che tale strategia diventi più che competitiva nei mercati individuati. Si analizzerà inoltre brevemente il caso di Ikea, leader mondiale della produzione e distribuzione di mobili, la quale ha posto il suo modello di business proprio sulla Leadership di costo. La seconda parte vedrà un caso pratico: come tale strategia è stata implementata e utilizzata nel contesto del business game, una simulazione di un mercato proprio di beni durevoli, lavatrici e asciugabiancherie. L'analisi verterà sulla squadra Freedinelli che ha conseguito buoni risultati attraverso tale strategia. Infine verranno tratte delle conclusioni sulla convenienza ad utilizzare tale strategia, in quali casi sia più conveniente farlo e come farlo al meglio.
Resumo:
Fino a pochi anni fa l’economia dei paesi più sviluppati non teneva in nessun conto l’esauribilità delle risorse del pianeta. La crescita dei paesi cosiddetti emergenti ci ha messo di fronte ad un problema enorme: ciò che la terra produce non è più sufficiente per i consumi di tutti. In particolare è aumentato a dismisura il fabbisogno energetico di questi paesi: per soddisfarlo ogni risorsa viene utilizzata senza tenere conto degli effetti inquinanti. Si cominciano già a vederne i primi, di cui il più evidente è il cambiamento climatico, che può portare a veri e propri scompensi ambientali anche nel breve periodo fino a vere e proprie catastrofi (se l’aumento di temperatura supererà i 3°C). Questo problema non è risolvibile istantaneamente ma è fondamentale cominciare a fare qualcosa: un sistema di incentivi che promuova il rinnovabile e adottare nuovi sistemi di sfruttamento dell’energia. In tale ambito sono stati fatti grandi passi, ma bisogna continuare in questo senso. Risulta quindi fondamentale l’utilizzo di energie rinnovabili, che hanno il grande vantaggio di non essere inquinanti ma allo stesso tempo, non essendo programmabili, per poterle sfruttare al meglio e in modo istantaneo necessitano di sistemi di accumulo che permettano all’utente di soddisfare immediatamente la richiesta. Studiamo quindi il comportamento di un sistema di approvvigionamento alimentato da fonte rinnovabile non programmabile per la produzione di idrogeno, che permette un semplice stoccaggio in bombole a una pressione relativamente bassa (10 bar), consentendone l’utilizzo sia come idrogeno purissimo che in un metanatore. In particolare verificheremo il comportamento del sistema di accumulo a gel di piombo; per ottenerne il miglior rendimento, ricercandone la migliore efficienza e le curve di funzionamento. Per ottenere la migliore efficienza del sistema occorre che i componenti vengano progettati, studiati ed utilizzati nelle più performanti condizioni di lavoro.
Resumo:
Lo scopo del lavoro di tesi è l’analisi stratigrafica e vulcanologica dei depositi della successione piroclastica di Rocche Rosse relativi all’ultima fase di attività esplosiva in età olocenica dell’isola di Lipari (Isole Eolie). L’attività di Rocche Rosse si caratterizza per l’emissione di una colata riolitica ossidianacea ben nota nella letteratura vulcanologica, che viene preceduta da un episodio di attività esplosiva a bassa magnitudo tale da costituire un basso cratere piroclastico sulla sommità dell’edificio di Monte Pilato, nel settore NE di Lipari (Forni et al., 2013). L’attività eruttiva di Rocche Rosse è datata in età Medievale (1220 AD). Recentemente è stata proposta la correlazione con l’unità di Rocche Rosse di un tefra affiorante all’interno della sequenza stratigrafica del cono di La Fossa di Vulcano, utilizzato come elemento cronostratigrafico per la ricostruzione della storia eruttiva di tale edificio (Fusillo et al, 2015). Anche alla luce di questa ipotesi, l’analisi stratigrafica e vulcanologica di dettaglio della successione piroclastica di Rocche Rosse può consentire di evidenziarne lo stile eruttivo, i meccanismi di trasporto e deposizione e la capacità di dispersione. Lo studio è stato effettuato in tre sezioni stratigrafiche puntuali descritte in aree prossimali e medio-prossimali, in corrispondenza del bordo del cratere di Rocche Rosse, sul bordo ed all’esterno del cratere di Monte Pilato. Sono state inoltre effettuate diverse osservazioni in altre sezioni lungo gran parte del settore centro-settentrionale dell’isola di Lipari, evidenziando l’assenza di depositi riconducibili alla successione di Rocche Rosse. Nell’insieme si propone uno studio stratigrafico della successione di Rocche Rosse suddivisa in diverse unità deposizionali ed una valutazione generica della dispersione di questi depositi.
Resumo:
Il grafene, allotropo del carbonio costituito da un reticolo bidimensionale, è uno dei nanomateriali più promettenti allo stato attuale della ricerca nei campi della Fisica e della Chimica, ma anche dell'Ingegneria e della Biologia. Isolato e caratterizzato per la prima volta nel 2004 dai ricercatori russi Andre Geim e Konstantin Novoselov presso l'Università di Manchester, ha aperto la via sia a studi teorici per comprendere con gli strumenti della Meccanica Quantistica gli effetti di confinamento in due dimensioni (2D), sia ad un vastissimo panorama di ricerca applicativa che ha l'obiettivo di sfruttare al meglio le straordinarie proprietà meccaniche, elettriche, termiche ed ottiche mostrate da questo materiale. Nella preparazione di questa tesi ho personalmente seguito presso l'Istituto per la Microelettronica e i Microsistemi (IMM) del CNR di Bologna la sintesi mediante Deposizione Chimica da Fase Vapore (CVD) di grafene "tridimensionale" (3D) o "poroso" (denominato anche "schiuma di grafene", in inglese "graphene foam"), ossia depositato su una schiuma metallica dalla struttura non planare. In particolare l'obiettivo del lavoro è stato quello di misurare le proprietà di conduttività elettrica dei campioni sintetizzati e di confrontarle con i risultati dei modelli che le descrivono teoricamente per il grafene planare. Dopo un primo capitolo in cui descriverò la struttura cristallina, i livelli energetici e la conduzione dei portatori di carica nel reticolo ideale di grafene 2D (utilizzando la teoria delle bande e l'approssimazione "tight-binding"), illustrerò le differenti tecniche di sintesi, in particolare la CVD per la produzione di grafene poroso che ho seguito in laboratorio (cap.2). Infine, nel capitolo 3, presenterò la teoria di van der Pauw su cui è basato il procedimento per eseguire misure elettriche su film sottili, riporterò i risultati di conduttività delle schiume e farò alcuni confronti con le previsioni della teoria.
Resumo:
Con l’aumento del consumo mondiale di risorse energetiche del pianeta, è diventato sempre più necessario utilizzare sistemi energetici che sfruttino al meglio la fonte di energia che li alimenta. Una delle soluzioni in questo ambito è quella proposta dagli Organic Rankine Cycle (ORC). Questi sistemi recuperano energia termica altrimenti non utilizzabile per le temperature troppo basse e sfruttano sorgenti termiche con ampi range di temperatura. L’elaborato volge all’analisi sperimentale delle prestazioni di un sistema Micro-ORC di piccola taglia, con rendimento termodinamico massimo dichiarato dal costruttore del 10 %. Inizialmente vengono descritti i fluidi organici e i sistemi che ne fanno uso, descrivendo anche esempi bibliografici di banchi prova per interpretare al meglio i risultati ottenuti con quello disponibile, che viene poi descritto, comprendendo i circuiti di asservimento dell’acqua calda e fredda, i punti di misura e il programma di acquisizione dati. Ci si concentra poi sulla descrizione e l’utilizzo dei codici implementati per l’elaborazione dei dati acquisiti. Questi hanno permesso di osservare gli andamenti temporali delle grandezze fondamentali per il sistema e valutarne la ripetibilità del comportamento nel corso di differenti prove. Vengono proposte infine le mappe di funzionamento per l’intero impianto e per i vari sotto-sistemi, offrendone un’interpretazione e inquadrandone i punti di lavoro ottimali. Attraverso la loro osservazione si sono dedotte le condizioni necessarie per avere un funzionamento ritenuto stabile del sistema ed è stato possibile ottimizzare le procedure svolte durante le fasi di test e di acquisizione dati. Sarà oggetto di studi futuri l’ottimizzazione dell’impianto, prolungando i tempi di esercizio a parità di carico elettrico e frequenza imposta alla pompa, con il fine di ottenere delle curve di prestazioni confrontabili con quelle presenti in bibliografia per altri sistemi ORC.
Resumo:
Gli ammassi di galassie sono le strutture più grandi che possiamo osservare nell’Universo. La loro formazione deriva direttamente dalla crescita delle perturbazioni primordiali di densità e dal loro conseguente collasso gravitazionale indotto appunto dalla gravità. Gli ammassi di galassie sono molto importanti in Astrofisica in quanto possono essere considerati come dei laboratori per lo studio di molti aspetti fisici legati al gas, all’ICM e all’evoluzione delle galassie. Lo studio degli ammassi di galassie è molto importante anche per la Cosmologia in quanto è possibile effettuare delle stime sui parametri cosmologici ed ottenere dei vincoli sulla geometria dell’Universo andando a valutare la loro massa e la loro distribuzione nell’Universo. Diventa quindi fondamentale l’utilizzo di algoritmi che ci permettano di utilizzare i dati ottenuti dalle osservazioni per cercare ed individuare gli ammassi di galassie in modo tale da definire meglio la loro distribuzione nell’Universo. Le più recenti survey di galassie ci forniscono molteplici informazioni a riguardo delle galassie, come ad esempio la loro magnitudine in varie bande osservative, il loro colore, la loro velocità ecc. In questo lavoro abbiamo voluto testare la performance di un algoritmo Optimal Filtering nella ricerca degli ammassi di galassie utilizzando prima solo l’informazione della magnitudine delle galassie e successivamente anche l’informazione sul loro colore. Quello che abbiamo voluto fare, quindi, è stato valutare se l’utilizzo combinato della magnitudine delle galassie e del loro colore permette all’algoritmo di individuare più facilmente, e in numero maggiore, gli ammassi di galassie.
Resumo:
La diffusione di smartphone con GPS si è rilevata utile per lo studio di modelli di scelta del percorso da parte di utenti che si muovono in bicicletta. Nel 2012 è stata ideata la ‘European Cyclinq Challenge’ (ECC), che consiste in una “gara” europea tra città: vince quella nella quale i rispettivi abitanti registrano il maggior numero di chilometri effettuati in bicicletta. In questo modo è possibile conoscere in forma anonima i percorsi realmente seguiti dai partecipanti alla gara: nel caso in esame, sono state fornite le tracce GPS registrate a Bologna sotto forma di punti catalogati ogni 10-15 secondi, a cui sono associate informazioni di coordinate, codice identificativo e istante di registrazione. Una fase di map-matching associa tali punti alla rete stradale di Bologna, descritta nel caso in esame dalla rete di Open Street Maps (OSM). Un elemento che garantisce al meglio la comprensione relativa alle scelte dei ciclisti, è quello di confrontarle con l’alternativa più breve, per capire quanto un utente sia disposto a discostarsi da essa per privilegiare ad esempio la sicurezza personale, il fatto di evitare pendenze elevate o incroci pericolosi. A partire dai punti GPS, che rappresentano l’origine e la destinazione di ogni viaggio, è possibile individuare sulla rete il percorso più corto che li congiunge, eseguendo sulla stessa rete tramite l’algoritmo di Dijkstra, considerando come unico attributo di costo la lunghezza. È stato possibile, mediante questi dati, effettuare un confronto nei tre anni di studio, relativamente alla distribuzione statistica delle lunghezze dei viaggi percorsi dagli utenti, a quanto questi si discostino dal percorso più breve ed infine come varia la percentuale dei viaggi effettuati nelle diverse tipologie stradali. Un’ultima analisi evidenzia la possibile tendenza degli utenti che si spostano in bicicletta nella città di Bologna, a utilizzare percorsi caratterizzati dalla presenza di numerosi incroci semaforizzati.