902 resultados para Linee Guida per la progettazione delle opere di sostegno rinforzate con geosintetici
Resumo:
Soluzione usando Stunnel per la confidenzialità e autenticazione degli utenti nel Mobile Remote Monitor sviluppato all'interno del progetto euroepeo Internet Of Energy. Essa è utilizzabile anche per la sola piattaforma Smart-M3 sulla quale il progetto risulta fondato.
Resumo:
Le successioni quaternarie di ambiente marino profondo di ampie zone del Mar Mediterraneo orientale sono caratterizzate dalla ciclica presenza di livelli scuri notevolmente ricchi di materia organica denominati Sapropel. Il sapropel più recente (S1), deposto nel tardo olocene, è considerato uno strato guida per la sua deposizione sincrona e per la sua notevole estensione areale. Questa tesi si propone di approfondire l’analisi delle associazioni a foraminiferi planctonici e bentonici entro il sapropel S1 di una successione del Mar Ionio, in cui questo livello sia interessato da interruzioni confrontabili con quelle torbiditiche analizzate in altri recenti studi, per valutare quale contributo possa fornire la micropaleontologia a foraminiferi nelle ricerche su queste particolari successioni sapropelitiche.
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.
Resumo:
La conoscenza e la determinazione dell’equazione cinetica è indispensabile per lo studio, la progettazione e l’ottimizzazione di qualsiasi reattore chimico. Normalmente l’analisi cinetica viene eseguita con reattori che operano in maniera quanto più prossima a condizioni ideali in modo da rendere più facile e meno affetta da errori l’interpretazione dei risultati sperimentali. In fotocatalisi è invece di fatto impossibile realizzare, anche in presenza di una perfetta miscelazione, un sistema ideale in cui si abbia un’uniforme distribuzione di tutti i parametri che influenzano la velocità di reazione. Infatti in un reattore fotocatalitico il campo di radiazione è intrinsecamente non uniforme poiché l’assorbimento della radiazione e quindi la sua attenuazione sono necessari per l’attivazione della reazione. Pertanto l’impossibilità di realizzare un sistema fotocatalitico che operi in condizioni quanto più possibile prossime all’idealità e l’incapacità di misurare sperimentalmente i valori locali di velocità di reazione e di velocità di assorbimento dei fotoni possono rendere complessa una corretta analisi cinetica. In questo lavoro vengono studiate le modalità con cui condurre comunque una rigorosa analisi cinetica di un sistema fotocatalitico slurry, nel quale il fotocalizzatore è disperso come polvere fine in sospensione nella soluzione reagente. La reazione studiata è quella di mineralizzazione dell’acido formico. Sono stati impiegati due reattori con geometrie ed illuminazioni differenti: un reattore piano illuminato con luci LED ed un reattore anulare con lampada lineare fluorescente blacklight. È stata verificata la validità di una particolare equazione cinetica, che tiene conto dell’effetto non lineare della velocità specifica (cioè per unità di massa di catalizzatore) di assorbimento dei fotoni e delle concentrazioni del reagente, dell’ossigeno e del fotocatalizzatore. Sono state inoltre determinate le condizioni critiche che possono portare ad errori nell’analisi cinetica ed è stata dimostrata l’utilità di un modello matematico che tiene conto dei bilanci di energia raggiante, di materia nonché del campo di moto. Il modello matematico, in cui compare un solo parametro aggiustabile (il tempo caratteristico di reazione od equivalentemente la costante cinetica), è in grado di riprodurre molto soddisfacentemente i risultati sperimentali in tutte le diverse condizioni operative: diversa geometria di reattore, diversa illuminazione, differente spessore ottico, diverse contrazioni di substrato e di fotocatalizzatore. Infine è stato mostrato come l’equazione cinetica ad una sola costante cinetica, che è stata adottata, descriva meglio la cinetica della reazione fotocatalitica in esame di altre equazioni a due o più costanti cinetiche spesso utilizzate in fotocatalisi e basate sulla teoria di Langmuir-Hinshelwood, a dimostrazione di un diverso meccanismo di reazione.
Resumo:
Uno dei comparti industriali più importanti nel mondo è senz’altro il settore automobilistico, il quale è oggetto di particolare attenzione da parte dei governi mondiali. Infatti l’automobile è il mezzo sia urbano che extraurbano che è stato perfezionato nel tempo in base alle esigenze dell’uomo, ma bisogna anche evidenziare che in generale il settore dei trasporti è un settore industriale che negli anni non ha portato grandi innovazioni, in quanto presenta ancora la stessa tecnologia di trent’anni fa. Attualmente, grazie alle nuove normative Europee riguardanti la tutela dell’ambiente e le riduzioni di emissioni, si sta passando a nuove forme di alimentazione per ridurre le emissioni di CO2 ed evitare di utilizzare i combustibili fossili. Una valida soluzione è stata attuata attraverso i veicoli completamente elettrici (EV), dato il rendimento energetico nettamente superiore e l’assente emissione di gas inquinanti. Purtroppo gli utenti hanno ancora timore ad utilizzare i veicoli elettrici (EV): ciò avviene soprattutto per mancanza/scarsità di infrastrutture e servizi a supporto degli utenti, provocando nell’utente un’insicurezza che viene più comunemente chiamata “range anxiety” (timore che il EV non abbia autonomia sufficiente per arrivare a destinazione) e generando l’infondata idea che i EV siano utilizzabili solo in città o per i tragitti brevi. In questo documento è proposta un’applicazione la quale sarà in grado di ridurre i problemi relativi a “Driving without anxiety”. In particolare tale applicazione è in grado di rilevare la velocità media e l’accelerazione sul tratto di strada che si sta percorrendo. Attraverso il servizio di Google Direction si richiede la velocità media stimata sul medesimo tratto. L’applicazione confronta il valore reale ed il valore medio stimato, ed in base a quello fornisce una classificazione dello stile di guida dell’utente (es. Aggressivo); fornisce una stima dell’energia consumata sul tratto percorso, inserendo nel calcolo dell’energia un parametro che consente di tener conto dello stile di guida, determinato al passo precedente.
Resumo:
Questo elaborato tratta alcuni dei più noti framework di programmazione avanzata per la costruzione di piattaforme distribuite che utilizzano il linguaggio di programmazione avanzata Scala come fulcro principale per realizzare i propri protocolli. Le tecnologie analizzate saranno Finagle, Akka, Kafka e Storm. Per ciascuna di esse sarà presente una sezione di introduzione, documentazione e un esempio di codice. L’obiettivo dell’elaborato è l’analisi approfondita delle tecnologie sopraelencate per comprendere a fondo le tecniche di programmazione che le rendono uniche nel loro genere. Questo percorso fornisce una chiave di lettura obiettiva e chiara di ciascuna tecnologia, sarà cura del lettore proseguire nello studio individuale della specifica tecnica che ritiene essere più efficace o interessante. Alla fine della tesi è presente un aperto dibattito in cui le quattro tecnologie vengono messe a confronto e giudicate in base alle loro caratteristiche. Inoltre vengono ipotizzate realtà in cui si possa trovare collaborazione tra i vari framework ed, infine, è presente una mia personale opinione basata sulla mia esperienza in merito.
Resumo:
Una tracciato anormale della rotula può provocare dolore anteriore al ginocchio dopo un’artroplastica e può condurre al fallimento dell’intervento stesso. È importante quindi valutare questo tracciato sia intra che post-operatoriamente, anche per validare disegni protesici innovativi e supportare il chirurgo per le più critiche decisioni chirurgiche al momento dell’impianto. Ad oggi però le valutazioni in-vivo della cinematica femoro-rotulea sono poche e poco attendibili; è per questi motivi che abbiamo deciso di analizzare l’articolazione con la tecnica video-fluoroscopica, appositamente adattata allo scopo di tale studio, a sei mesi di follow-up dall’intervento. Per lo studio abbiamo esaminato, tramite video-fluoroscopia 3D, sette pazienti che hanno subito l’impianto di una protesi totale al ginocchio con ricopertura della rotula. Successivamente le immagini sono state elaborate con un apposito software per ricostruire la cinematica 3D, e sono stati ottenuti i grafici per ogni grado di libertà dell’articolazione. Dall’analisi dei risultati, la tecnica utilizzata è risultata fattibile ed affidabile, infatti dai grafici si nota come la normale cinematica delle articolazioni studiate sia stata ripristinata. Questo studio, oltre a validare l’applicazione della tecnica video-fluoroscopica all’articolazione femoro-rotulea oltre che a quella tibio-femorale, dopo un confronto con i dati derivanti dalla navigazione chirurgica, ha consentito di validare anche questa tecnica intra-operatoria. Questo risultato potrà condurre ad una maggiore precisione nell’allineamento delle componenti protesiche da parte del chirurgo, con conseguente riduzione del rischio di fallimento dell’impianto.
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.
Resumo:
In questo lavoro viene trattata l'elaborazione di segnali audio per la localizzazione di sorgenti sonore. Di certo gli elementi che concorrono maggiormente nella localizzazione del suono sono le nostre orecchie: esse sono separate dalla testa, che funge da ostacolo acustico. E' importante distinguere se la sorgente si trova davanti agli occhi dell'ascoltatore, ossia nel piano interaurale, o se altrimenti occupa una posizione più o meno laterale. In tali due casi i segnali audio raggiungeranno in modo diverso le due orecchie: avremo rispettivamente che essi, in un caso, raggiungeranno le due orecchie contemporaneamente; nell'altro una delle due orecchie riceverà un segnale ritardato ed attenuato. Tale elaborato si propone di ricreare uno scenario di classe virtuale in cui, attraverso l'utilizzo di MATLAB, vengono riprodotti i vari segnali cercando di fornire la sensazione di un ascolto reale, andando ad operare su di essi.
Resumo:
L’acqua è una delle risorse critiche del pianeta e l’acqua dolce accessibile all’uomo rappresenta meno dell’1% delle risorse idriche; da questi numeri si capisce quanto siano importanti la prevenzione dell’inquinamento ambientale e i processi di depurazione delle acque reflue. A partire dagli anni ’70, grazie anche al miglioramento delle tecniche analitiche, sono iniziati monitoraggi degli inquinanti nelle acque superficiali e sotterranee e sono state riscontrate concentrazioni di inquinanti, i cui effetti di tossicità cronica sull’uomo e l’ecosistema non sempre sono trascurabili. Inoltre si è rilevato che alcune molecole di sintesi sono difficilmente biodegradabili e non sono mineralizzate con i trattamenti convenzionali di depurazione; perciò l’Unione Europea ha emanato delle direttive per preservare le risorse idriche in cui è contenuto un elenco di sostanze prioritarie, per le quali sono stati fissati gli standard di qualità ambientale. Nel 2013 è stata anche istituita una watch list che contiene dieci sostanze sulle quali raccogliere dati di monitoraggio ambientale e effetti sugli ecosistemi. Di qui la ricerca costante di nuovi trattamenti di depurazione delle acque, tra i quali i processi di ossidazione avanzata attirano molto interesse perché promettono di mineralizzare i composti bio-recalcitranti senza produrre fanghi da smaltire o sottoprodotti pericolosi. Oggetto della presente tesi sperimentale, svolta presso il Consiglio Nazionale delle Ricerche, nell’Istituto per la Sintesi Organica e la Fotoreattività, è stato lo studio della de-gradazione e mineralizzazione di una miscela di cinque molecole (diclofenac, carbama-zepina, triton X-100, benzofenone-3, benzofenone-4), scelte per le diverse caratteristiche chimico-fisiche, utilizzando radiazione ultravioletta e ultrasuoni, in presenza di biossido di titanio come fotocatalizzatore o perossido d'idrogeno come additivo per produrre radicali idrossile e avviare catene di reazioni ossidative. A partire dai fenomeni fotochimici o fotocatalitici così ottenuti, eventualmente assistiti da ultrasuoni, sono stati studiati gli effetti delle variazioni dei parametri operativi sulla degradazione dei componenti della miscela e sono stati valutati i consumi energetici della strumentazione prototipale per unità di massa del contaminante degradato. La parte sperimentale è stata preceduta da un’accurata ricerca bibliografica riguardo gli effetti di tossicità degli inquinanti ritrovati nelle acque, la legislazione europea ed italiana in materia ambientale e delle acque e i processi di ossidazione avanzata.
Resumo:
La TC perfusionale (TCp) è un valido strumento per l'imaging funzionale dei tumori. Tale tecnica consente di misurare in modo oggettivo la perfusione tissutale, attraverso l'analisi matematica dei dati ottenuti effettuando scansioni TC ripetute nel tempo, dopo la somministrazione di un mezzo di contrasto iodato. Il principale obiettivo degli studi perfusionali in oncologia è la valutazione precoce dell’efficacia delle terapie anti-angiogenetiche utilizzate per bloccare la vascolarizzazione che alimenta le lesioni tumorali. Infatti, sin dal primo ciclo di terapie, è possibile rilevare se la vascolarizzazione tumorale si riduce, senza dover attendere i cambiamenti dimensionali che, in genere, avvengono tardivamente. Questa Tesi si focalizza sullo studio del carcinoma polmonare e perviene alla costruzione di un catalogo, completo di mappe colorimetriche, che sintetizza i casi analizzati, i dati relativi al paziente e alle lesioni. L'obiettivo è quindi quello di fornire uno strumento di facile consultazione che consenta di valutare vari aspetti relativi alla malattia, tra cui il tasso di accrescimento, il grado di malignità, presenza di invasione vascolare, al fine di andare sempre più verso una cura personalizzata e più efficace per i pazienti che, attualmente, sono sottoposti a soluzione terapeutica standard. Questa è, senza dubbio, la nuova frontiera della ricerca per tutte i tipi di neoplasie negli anni futuri.
Resumo:
L’H2 è un vettore energetico di elevato interesse, utilizzato nell’industria chimica per la produzione di NH3 e CH3OH, oltre che per le reazioni di idrogenazione ed HDS. Un importante processo nella produzione di H2 è la reazione di Water Gas Shift (WGS), usata nel trattamento delle correnti uscenti dal reattore di Steam Reforming (SR) del metano: CO + H2O CO2 + H2 ∆H0298K = -41,2 KJ/mol. Sulla base di precedenti lavori, sono stati sviluppati nuovi catalizzatori per la reazione WGS ad alta temperatura (HTS), alternativi ai tradizionali sistemi a base di Fe/Cr, in considerazione dei vincoli economici (elevati valori del rapporto vapore/gas secco o S/DG) ed ambientali (formazione di CrVI) di questi sistemi. Partendo da sistemi Cu/Zn/Al con un basso contenuto di rame, ottenuti da precursori tipo idrotalcite (HT), stato studiato l’effetto dell’aggiunta di piccole quantità di alcuni promotori sull’attività e stabilità dei catalizzatori ottenuti, osservando un effetto positivo sulle caratteristiche fisiche, come l’aumento dell’area superficiale e della dispersione della fase attiva. I campioni contenenti i promotori erano inoltre caratterizzati da una maggiore stabilità termica e, in alcuni casi, da un’attività catalitica superiore a quella del catalizzatore di riferimento privo di promotori. L’aggiunta di piccole quantità di alcali alla formulazione con la migliore attività portava ad un ulteriore aumento di attività e di stabilità, attribuibile ad una minore formazione di coke sulla superficie. I sistemi più interessanti potevano operare anche a bassi valori del rapporto S/DG, interessanti dal punto di vista industriale. Lo studio dell’adsorbimento di CO mediante FT-IR ha permesso di ipotizzare la possibile natura della fase attiva nei sistemi. Infine, lo studio è stato esteso a sistemi per la reazione di WGS a media temperatura (MTS), osservando anche in questo caso un positivo effetto legato all’aggiunta di promotori, con un aumento dell’attività catalitica e della stabilità con il tempo di reazione.
Resumo:
Gli oceani coprono quasi il 75% della superficie della terra ed esercitano una grande influenza sulla vita di tutte le specie viventi e sull’evoluzione del clima a livello planetario. I repentini cambiamenti climatici hanno reso sempre piú importante studiarne i comportamenti. L’analisi della salinitá degli oceani é estremamente importante per gli studi sull’ambiente marino; puó essere usata per tracciare le masse d’acqua, descrivendone i flussi e svelandone la correlazione con i processi climatici, puó essere di aiuto ai biologi per studiare gli organismi marini e costituisce un parametro fondamentale per una vasta gamma di sensori. Un sistema autonomo che misuri conducibilitá e temperatura é il primo strumento per determinare la salinitá dell’acqua, sul mercato sono presenti sí numerosi sensori a elevata accuratezza ma necessitano di ingombranti strumenti di laboratorio per funzionare. Sistemi di ridotte dimensioni non sono invece altrettanto accurati ed affidabili. Questa tesi mira a sviluppare un'interfaccia che permetta di analizzare conducibilitá e temperatura con un elevato livello di accuratezza. Particolare attenzione sará posta all’elaborazione delle misure effettuate e alla caratterizzazione degli errori e dell’accuratezza del sistema. Partendo da queste basi in futuro si potrá creare un sistema autonomo a bassissima potenza, alimentato da batterie, che, basandosi sull’iterazione fra il chip impedenziometrico e il PIC, permetta di fare misure per un ciclo di vita di qualche anno.
Resumo:
L’installazione di smorzatori viscosi sulle strutture permette di dissipare l’energia che il sisma trasmette, senza provocare danni o rotture degli elementi strutturali principali. Questi dispositivi sono stati l'oggetto di numerosi lavori di ricerca dal 1980 fino ad oggi e l'efficacia nel mitigare gli effetti dell’azione sismica su strutture edilizie è stata ampiamente dimostrata. La maggior parte delle teorie scientifiche per la progettazione e l'ottimizzazione degli smorzatori si basano sofisticati algoritmi, portando talvolta a complessi procedure. L'applicazione di tali algoritmi richiede spesso competenze computazionali e di tempo eccessive. Il fine della tesi è quello di proporre un metodo pratico, cioè diretto e immediato per aiutare gli ingegneri per effettuare analisi sismiche su strutture intelaiate dotate di smorzatori viscosi e di dimensionare tali dispositivi. Tale metodo è stato l’oggetto del lavoro di ricerca scientifica trattato nell’articolo: “Equivalent Static Analyses of framed structures with added viscous dampers” di Palermo et al., 2015. Si riesce così ad estendere così il concetto di analisi statica equivalente anche per strutture dotate di smorzatori viscosi, definendo in maniera intuitiva sia le configurazioni di idealizzazione della strutture durante il sisma sia l’ idealizzazione dell’effetto del sisma sulla struttura. In questi anni di lavoro di ricerca, sono stati proposti vari metodi per il dimensionamento degli smorzatori viscosi. Tra questi, il prof. Ing. Silvestri (Silvestri et al., 2010) ha proposto un approccio progettuale diretto, chiamato "five step procedure” che mira a guidare l'ingegnere professionista, dalla scelta del target di prestazioni alle identificazioni della caratteristiche meccaniche di smorzatori viscosi trovabili in commercio. La procedura originale (Silvestri et al., 2010, Silvestri et al., 2011, Palermo et al., 2013), anche se per lo più basata su espressioni analitiche, richiede ancora lo sviluppo di analisi numeriche Time-History di modelli FEM, al fine di valutare le forze massime negli smorzatori aggiunti. Verrà spiegato e proposto un metodo semplificato (“Direct five step procedure for the dimensioning of added viscous dampers” Palermo et al., 2015) che consente ottenere direttamente, tramite una semplice formula, le forze massime degli smorzatori (spesso un parametro chiave della valutazione del costo degli smorzatori), senza eseguire simulazioni numeriche. Infine, si è applicato il metodo semplificato proposto di analisi statica equivalente per strutture equipaggiate di smorzatori viscosi ad un edificio reale.
Resumo:
La continua e crescente esigenza da parte dei gestori delle reti stradali ed autostradali di contenere i costi di gestione e manutenzione, ha da tempo impegnato l'industria delle pavimentazioni nell'individuazione di metodi innovativi, in grado di aumentare la redditività dei budget predisposti per il ripristino della sede stradale. Il presente lavoro di tesi si propone di approfondire tale argomento e in particolare di indagare l’impiego di terre decoloranti esauste all'interno di miscele bituminose drenanti per strati di usura. Il riutilizzo di queste terre porterebbe a risparmiare risorse naturali come il filler calcareo e diminuire i volumi che vengono smaltiti in discarica. È stato osservato che il filler bentonitico digestato può essere utilizzato nel confezionamento di miscele bituminose per strati di usura drenanti e fonoassorbenti con prestazioni simili o addirittura superiori alle equivalenti con filler calcareo tradizionale. Le prove condotte non hanno evidenziato nessun deterioramento delle caratteristiche meccaniche. Si ricorda che sono necessari studi circa il drenaggio del legante e il comportamento a fatica delle miscele bituminose in relazione alle fasi di esercizio dei materiali. Sulla base delle considerazioni elaborate si può affermare che nel caso in esame l'impiego del filler bentonitico digestato consente di risparmiare una risorsa naturale come il filler calcareo, a parità di inerti e legante nella miscela. Inoltre, si ha un vantaggio dal punto di vista economico, poiché meno volumi di questo materiale vengono smaltiti in discarica.