917 resultados para cambiamento organizzativo, riprogettazione dei processi aziendali, ERP, BPR, Business Net
Resumo:
La rivelazione dei neutroni gioca un ruolo fondamentale sia nel campo della fisica nucleare di base che in diversi ambiti applicativi quali la produzione di energia in reattori a fissione, la sicurezza nazionale alle frontiere, la terapia e la diagnostica mediche. Negli anni passati la rivelazione di neutroni di bassa energia (nell'intervallo termico) si è basata principalmente sull'utilizzo di contatori proporzionali a $^3$He. Il grosso vantaggio di questi strumenti è la loro quasi totale inefficienza nella rivelazione di radiazione elettromagnetica, consentendo una caratterizzazione pulita dei flussi neutronici di bassa energia, anche quando, come spesso succede, sono accompagnati da un intenso fondo di raggi X e raggi gamma. La scarsa disponibilità di $^3$He ed il conseguente incremento del suo costo hanno stimolato, negli ultimi anni, numerosi programmi di sviluppo di nuovi rivelatori per neutroni termici in grado di rimpiazzare i troppo costosi contatori a $^3$He. In questo contesto si sono sviluppati da una parte il progetto ORIONE/HYDE dell'Istituto Nazionale di Fisica Nucleare (INFN), che punta allo sviluppo di scintillatori organici a matrice siliconica in grado di rivelare sia neutroni veloci che termici, dall'altra l'applicazione di tali sviluppi ad attività connesse con il Progetto SPES nell'ambito del PRIN intitolato Sviluppo di Rivelatori e tecniche d'analisi per la sperimentazione con i fasci radioattivi dei Laboratori Nazionali dell'INFN, con particolare riferimento a SPES. All'interno di una matrice scintillante organica (ricca quindi di nuclei di Idrogeno e Carbonio) opportunamente drogata per favorire il processo di scintillazione, viene disperso un ulteriore dopante ad alta sezione d'urto di cattura neutronica (tipicamente $^{10}$B o $^6$Li). Questo scintillatore risulta sensibile alla radiazione neutronica veloce che viene rivelata tramite i processi di urto elastico ed il successivo rinculo dei nuclei che causa l'emissione di luce di scintillazione. Inoltre grazie alle grandi sezioni d'urto dei processi di cattura neutronica da parte del materiale dopante e la successiva emissione di particelle cariche anche la sensibilità ai neutroni di bassa energia (lenti e termici) viene garantita. La matrice utilizzata (polifenil-dimetil silossano) ha ottime proprietà meccaniche e, a differenza di altri materiali utilizzati per la realizzazione di scintillatori per neutroni, non risulta tossica o dannosa per l'ambiente. Inoltre il costo del materiale utilizzato è notevolmente competitivo rispetto alle alternative attualmente in commercio. In questo lavoro di tesi verranno caratterizzati alcuni di questi nuovi scintillatori drogati con $^6$Li. Verrà analizzata la loro risposta in termini di resa di luce quando esposti a flussi di particelle cariche e raggi gamma e a flussi neutronici di bassa energia. I risultati verranno paragonati a quelli ottenuti con uno scintillatore commerciale standard a matrice vetrosa.
Resumo:
Questo elaborato tratta la convalida di un metodo per l’analisi delle sostanze correlate presenti in un preparato farmaceutico. Il prodotto analizzato è il propranololo HCL 160 mg dose. Le prove sono state effettuate nel laboratorio di controllo qualità della Valpharma International (Pennabilli (RN) Italia). Il metodo studiato era già stato convalidato dalla farmacopea europea, di conseguenza ci si aspettava che risultasse idoneo all’uso per cui è stato creato. Tuttavia le variabili che entrano in gioco durante l’esecuzione di una procedura sono numerose e non tutte prevedibili. Nasce da qui l’esigenza di riconvalidare il metodo anche all’interno dei laboratori aziendali.
Resumo:
Per lo sviluppo di un modello realistico di formazione ed evoluzione delle galassie è necessario un confronto sistematico con le osservazioni in modo da verificare che i dati vengano ben riprodotti.
Lo scopo che si prefigge questo lavoro di Tesi è un confronto tra le caratteristiche delle galassie presenti nei cataloghi simulati (mock), costruiti sulla base di alcuni modelli, e quelle evinte dai dati osservativi di campioni di galassie (surveys) con l'obbiettivo di far luce su quali siano le maggiori discrepanze e quindi sulla direzione in cui i modelli andrebbero perfezionati.
Per far questo, si è scelto di far uso della funzione di massa stellare delle galassie (MF), in quanto strumento statistico più indicativo di una popolazione di galassie, considerando sia la totalità delle galassie, sia separatamente le star-forming e le quiescenti.
Questo lavoro di Tesi attua un confronto tra le MF a 0
Resumo:
L’occhio è l’organo di senso responsabile della visione. Uno strumento ottico il cui principio di funzionamento è paragonabile a quanto avviene in una macchina fotografica. Secondo l’Organizzazione mondiale della sanità (WHO 2010) sulla Terra vivono 285 milioni di persone con handicap visivo grave: 39 milioni sono i ciechi e 246 milioni sono gli ipovedenti. Si evince pertanto la necessità di tecnologie in grado di ripristinare la funzionalità retinica nelle differenti condizioni fisiopatologiche che ne causano la compromissione. In quest’ottica, scopo di questa tesi è stato quello di passare in rassegna le principali tipologie di sistemi tecnologici volti alla diagnosi e alla terapia delle fisiopatologie retiniche. La ricerca di soluzioni bioingegneristiche per il recupero della funzionalità della retina in condizioni fisiopatologiche, coinvolge differenti aree di studio, come la medicina, la biologia, le neuroscienze, l’elettronica, la chimica dei materiali. In particolare, sono stati descritti i principali impianti retinali tra cui l’impianto di tipo epiretinale e subretinale, corticale e del nervo ottico. Tra gli impianti che ad oggi hanno ricevuto la certificazione dell’Unione Europea vi sono il sistema epiretinale Argus II (Second Sight Medical Products) e il dispositivo subretinale Alpha IMS (Retina Implant AG). Lo stato dell’arte delle retine artificiali, basate sulla tecnologia inorganica, trova tuttavia limitazioni legate principalmente a: necessità di un’alimentazione esterna, biocompatibilità a lungo termine, complessità dei processi di fabbricazione, la difficoltà dell’intervento chirurgico, il numero di elettrodi, le dimensioni e la geometria, l’elevata impedenza, la produzione di calore. Approcci bioingegneristici alternativi avanzano nel campo d’indagine della visione artificiale. Fra le prospettive di frontiera, sono attualmente in fase di studio le tecnologie optogenetiche, il cui scopo è la fotoattivazione di neuroni compromessi. Inoltre, vengono annoverate le tecnologie innovative che sfruttano le proprietà meccaniche, optoelettroniche e di biocompatibilità delle molecole di materiali organici polimerici. L’integrazione di funzioni fotoniche nell’elettronica organica offre nuove possibilità al campo dell’optoelettronica, che sfrutta le proprietà ottiche e elettroniche dei semiconduttori organici per la progettazione di dispositivi ed applicazioni optoelettronici nel settore dell’imaging e del rilevamento biomedico. La combinazione di tecnologie di tipo organico ed organico potrebbe aprire in prospettiva la strada alla realizzazione di dispositivi retinici ed impianti di nuova generazione.
Resumo:
Il TiO2 è probabilmente il fotocatalizzatore maggiormente studiato in letteratura a partire già dagli anni settanta. Le applicazioni più rilevanti dei dispositivi fotocatalitici sono in campo ambientale (depurazione delle acque da inquinanti quali coloranti, microbatteri e residui metallici) e nella produzione di "solar fuel" (combustibili solari), fra questi l'idrogeno. L'idrogeno come vettore energetico è eco-compatibile e può essere utilizzato come carburante il cui prodotto di scarto è vapor d'acqua. Il biossido di titanio è uno dei materiali più promettenti per la costruzione di celle fotocatalitiche, grazie alla sua biocompatibilità e resistenza alla corrosione in ambiente acquoso. Il limite principale di questo materiale è legato allo scarso assorbimento nel visibile dovuto al band gap troppo elevato (circa 3.2 eV). Fra le varie strategie per superare questo problema, è stato mostrato che opportuni droganti permettono di incrementare la "Visible Light Activity", portando ai cosiddetti fotocatalizzatori di 2a generazione. I droganti più promettenti sono il vanadio e l'azoto che possono essere utilizzati singolarmente o in co-doping. L'inserimento di questi materiali nella matrice di TiO2 porta a un notevole miglioramento dei dispositivi abbassando il valore di band gap e permettendo un maggiore assorbimento nello spettro solare. Scopo di questa tesi è lo studio dei processi di crescita di film nanoparticellari di TiO2 drogato con vanadio. La tecnica di crescita usata è la Condensazione in Gas Inerte (IGC), mentre per l'indagine di morfologia e composizione ci si è serviti della microscopia elettronica. Con l'ausilio della diffrazione di raggi X è stato possibile controllare lo stato di cristallizzazione e determinare a quali temperature di trattamento in atmosfera ossidante avviene quest'ultima. Tramite le misure micro-Raman effettuate presso i laboratori dell'Università di Trento è stato possibile monitorare l'andamento della cristallizzazione di campioni depositati con parametri di evaporazione differenti (presenza di ossigeno o meno nell'atmosfera di evaporazione), evidenziando un maggior controllo sulla fase cristallina ottenuta per i campioni cresciuti in atmosfera ricca di ossigeno. Sono state effettuate analisi strutturali avanzate presso i laboratori ESRF di Grenoble, dove sono state portate avanti misure di assorbimento di raggi X di tipo EXAFS e XANES sulla soglia del titanio e del vanadio, evidenziando il carattere sostituzionale del vanadio all'interno della matrice di TiO2 e le diverse fasi di cristallizzazione.
Resumo:
Il crescente fabbisogno energetico mondiale, dovuto essenzialmente al rapido incremento di popolazione originatosi nel secolo scorso, unitamente alla necessità di ridurre le emissioni di anidride carbonica, porta a ricercare continuamente nuove fonti primarie di energia nonché metodi innovativi per il recupero di quest’ultima da materiali di scarto. I Cicli Rankine a fluido Organico (Organic Rankine Cycle) rappresentano in questo senso una tecnologia emergente capace di rivoluzionare il concetto di risparmio energetico. In questa tesi viene effettuato uno studio dettagliato della tecnologia ORC, che mira ad identificarne i principali vantaggi e le maggiori problematiche, con particolare riferimento ad un caso di studio concreto, riguardante l’installazione di un impianto di recupero energetico da fumi di combustione all’interno di uno stabilimento di produzione di nero di carbonio. Il cuore della tesi è rappresentato dall’individuazione e dall’analisi dettagliata delle alternative impiantistiche con cui il recupero energetico può essere realizzato. Per ognuna di esse, dopo una breve spiegazione, viene effettuato il calcolo dell’energia elettrica prodotta annualmente con l’ausilio un simulatore di processo. Successivamente vengono esposte le proposte ricevute dai fornitori interpellati per la fase di progettazione di base dell’impianto di recupero energetico. Nell’ultima parte della tesi viene presentata la simulazione fluidodinamica del camino di una delle linee di produzione dell’impianto di Ravenna, effettuata utilizzando un codice CFD e mirata alla verifica dell’effettiva quantità di calore recuperato dai fumi e dell’eventuale presenza di condense lungo la ciminiera. I risultati ottenuti mostrano che la tecnologia ORC, utilizzata per il recupero energetico in ambito industriale, possiede delle grosse potenzialità. La massimizzazione dei vantaggi derivanti dall’utilizzo di questi sistemi è tuttavia fortemente condizionata dalla capacità di gestire al meglio l’integrazione degli impianti di recupero all’interno dei processi produttivi esistenti.
Resumo:
Questa tesi ha permesso di osservare e analizzare le strategie risolutive che gli studenti italiani utilizzano quando si cimentano nello svolgimento delle prove di matematica nazionali INVALSI (Sistema Nazionale per la Valutazione del Sistema dell'Istruzione). L'osservazione è stata svolta durante le ore di tirocinio curriculare effettuate nell'anno accademico 2014/2015 presso il liceo scientifico e delle scienze umane "Albert Bruce Sabin" di Bologna. L'interesse per l'esperimento è nato dalla constatazione dei risultati deludenti degli studenti italiani nelle prove di matematica rispetto all'andamento internazionale. Pertanto,in collaborazione con il prof Giorgio Bolondi, relatore dell'elaborato, e della prof.ssa Valeria Vesi insegnante di matematica delle classi prime seguite durante il tirocinio, è stato realizzato un test di domande estrapolate dalle prove INVALSI svolte negli anni precedenti, sottoposto a un campione di 12 studenti (14-15 anni) frequentanti le classi 1M, 1O e 1R.Il lavoro d'indagine è stato realizzato in due diverse fasi: soluzione del test e intervista-colloquio registrata. Le registrazioni, apparse fin da subito molto interessanti, rivelano importanti informazioni che permettono di evidenziare le diverse difficoltà che i nostri studenti incontrano nel risolvere le prove di matematica. Per meglio interpretare i loro comportamenti durante la messa in atto dei processi risolutivi è stato svolto uno studio e una ricerca riguardanti gli studi e le teorie che interessano il problem-solving, oltre a fornire una panoramica sulle ricerche nel campo della valutazione.
Resumo:
In questa tesi viene esposto il modello EU ETS (European Union Emission Trading Scheme) per la riduzione delle emissoni di gas serra, il quale viene formalizzato matematicamente da un sistema di FBSDE (Forward Backward Stochastic Differential Equation). Da questo sistema si ricava un'equazione differenziale non lineare con condizione al tempo finale non continua che viene studiata attraverso la teoria delle soluzioni viscosità. Inoltre il modello viene implementato numericamente per ottenere alcune simulazioni dei processi coinvolti.
Resumo:
La tomografia ad emissione di positroni (PET) è una tecnica di imaging di medicina nucleare, utilizzata oggi diffusamente in ambito clinico. Essa fornisce immagini e informazioni fisiologiche dei processi funzionali all’interno del corpo. La PET si basa sulla rilevazione di fotoni di annichilazione prodotti in seguito al decadimento di un radio farmaco iniettato nel paziente. I rilevatori convenzionali sono costituiti da un materiale scintillatore accoppiato ad un fotomoltiplicatore, solitamente un PMT o SiPM. Uno sviluppo della PET è la Time of Flight PET (ToF PET), attualmente già in commercio ed utilizzata con prestazioni eccellenti. Un’ulteriore modifica, che potenzialmente permetterebbe di ottenere una migliore risoluzione temporale, è la ToF PET basata sulla rilevazione di fotoni tramite radiazione Cherenkov, invece che luce di scintillazione. Questo lavoro di tesi è incentrato dunque su questa tecnica specifica. Si illustra una rassegna di pubblicazioni scientifiche degli ultimi anni riguardo ad essa con i relativi risultati ottenuti e i possibili sviluppi futuri. Infine si propone un approfondimento personale, nel quale, tramite un programma scritto in ROOT, si è realizzata una geometria di un sistema di rilevazione ToF PET. Esso prevede la rilevazione dei fotoni di annichilazione tramite un radiatore Cherenkov accoppiato ad un SiPM. In futuro questo potrà essere implementato e utilizzato per simulare il processo fisico della PET, verificando la validità e le prestazioni del sistema così sviluppato.
Resumo:
L'accrescimento è un processo fondamentale in astrofisica data la sua grandissima efficienza. Nel 1959 venne individuato il primo Quasar (pur non sapendo realmente di cosa si trattasse) e nel 1963 l'astronomo tedesco Maarten Schmidt scoprì che tale oggetto, di magnitudine apparente 13 (si credeva fosse una stella), aveva un redshift z = 0:37. Stelle di magnitudine 13 non dovrebbero avere un redshift così grande. Tale oggetto doveva trovarsi a grande distanza ed emettere una luminosità molto alta, superiore anche a quella di un'intera galassia. Processi termonucleari non erano sufficientemente efficienti per spiegare un'emissione di questo tipo: si capì presto che tale emissione dovesse avere origine gravitazionale, fosse cioè dovuta all'accrescimento di materia su un buco nero. In questa tesi, dopo aver spiegato come l'accrescimento rappresenti un'importante fonte di energia in astrofisica, presenterò, nel Capitolo 1, il modello di Bondi, presentato nel 1952 da Hermann Bondi. Tale modello è il più semplice modello di accrescimento e, pur essendo basato su ipotesi (che vedremo) che trascurano diversi aspetti importanti, risulta comunque un modello fondamentale, perché permette di ricavare quantità rilevanti in astrofisica. Successivamente, nel Capitolo 2, ricaverò il valore della Luminosità di Eddington, che esprime la massima luminosità che può emettere un corpo in simmetria sferica. Anche questo risultato verrà ricavato imponendo ipotesi abbastanza restrittive, quindi non andrà interpretato come un limite invalicabile. Nel Capitolo 3 parlerò (più qualitativamente, e senza la pretesa di entrare nei dettagli) di come si formano i dischi di accrescimento, che si originano quando la materia che va ad accrescere ha un momento angolare non nullo: quindi non siamo più nel caso di accrescimento a simmetria sferica. Infine, parlerò dei processi che originano gli spettri osservati degli AGN, riferendomi prevalentemente a quei processi che originano il continuo dello spettro.
Resumo:
La branca della ricerca impegnata sul fronte riguardante lo studio della proliferazione dei tumori, si è confrontato negli ultimi anni con una forma di patologia in crescente diffusione a livello mondiale. In particolare si è messo in evidenza che, per quanto riguarda la popolazione femminile, la tipologia più diffusa di tumore colpisce il seno e, se non individuata in tempo, rende molto difficile la sopravvivenza dei soggetti in cui si manifesta. Tutto questo ha portato gli studiosi a sviluppare metodologie di intervento sempre più accurate e specifiche nel tentativo di far fronte a queste complesse situazioni. In particolare, un ruolo molto importante per la diagnosi, è ricoperto dalla Mammografia Digitale ( Digital Mammography): una tecnologia biomedicale principalmente deputata allo screening preventivo, in grado di individuare il tumore al suo stato iniziale e di aumentare quindi la probabilità di una completa guarigione. Tale tecnica si è evoluta di pari passo con i grandi progressi nell’ambito dell’ingegneria biomedicale e dell’informatizzazione dei processi all’interno delle strutture ospedaliere. Questa tesi si propone di descrivere il funzionamento e le normative che regolamento la Digital Mammography, seguendone il processo di integrazione all’interno del panorama clinico sanitario. Si propone inoltre di mettere in evidenza le grandi potenzialità che essa è in grado di presentare a scopo diagnostico se correttamente interfacciata agli altri sistemi che attualmente caratterizzano il parco clinico nelle strutture ospedaliere. L’analisi è stata condotta partendo dagli aspetti che riguardano la trasmissione delle informazioni e delle immagini digitali, passando attraverso la necessità di un ambiente omogeno e funzionale all’interno del quale tali dati possano essere condivisi, fino ad arrivare all’esaminazione degli standard che rendono possibile una condivisione il più possibile diffusa delle informazioni in ambito ospedaliero. L’ultima parte della trattazione intende valutare una tecnica per l’allineamento dei profili del seno relativi ad una stessa paziente, ma provenienti da acquisizioni temporalmente distinte, con lo scopo di fornire uno strumento di diagnosi più efficace e funzionale.
Resumo:
La tecnologia MdP odierna risente di grosse limitazioni a causa di una inadeguata divulgazione, soprattutto a livello universitario, delle conoscenze sulle teorie dei processi e della progettazione di impianti ad essa legati. La conseguenza è l’accentramento del know-how all’interno delle aziende del settore (progettazione presse e impianti di sinterizzazione, sviluppo materie prime, progettazione stampi e cicli produttivi…) le quali, nel tempo, hanno creato al loro interno tecnici specializzati, laboratori di ricerca e sofisticati reparti R&D. Nonostante il risultato evidente oggi in Europa sia una buona preparazione tecnica da parte delle aziende operanti nel settore, la scarsa diffusione di conoscenze anche negli altri ambiti dell’ingegneria e della progettazione meccanica rende spesso difficile l’incontro tra due realtà che potrebbero invece aprire nuovi settori di produzione e/o il miglioramento di progetti noti. Questo lavoro è fondato sulla base di tali considerazioni e svolto interamente all’interno di una delle più importanti realtà industriali nazionali in questo campo: Sinteris S.p.A. (Bologna). Dopo una descrizione del processo classico, si passerà ad analizzare, tramite prove in laboratorio, il processo di calibratura di rotori pompa per circuiti lubrificanti in campo automotiv. Lo studio riguarda il rilievo e il confronto delle variazioni dimensionali ottenute a diverse percentuali di calibratura su rotori di diverse altezze (entro e oltre i limiti progettuali fino ad oggi realizzati in Sinteris) allo scopo di far luce sulle deformazioni plastiche che condizionano la conformità dei pezzi sinterizzati sottoposti a calibratura entro stampi rigidi di dimensioni note. Lo scopo ideale di questa ricerca è trovare una legge su base empirica che consenta all’Engineering di progettare stampi di calibratura e percentuali di schiacciamento che garantiscano, ad ogni montaggio, la conformità dimensionale di attuali e futuri progetti di pompe a lobi.
Resumo:
Progettazione del nuovo layout per un nuovo stabilimento produttivo, in cui il gruppo Fiorini Industries S.r.l., in un'ottica di espansione e miglioramento dei parametri tecnici e dei flussi aziendali, si insedia lasciando la sua storica sede produttiva. Questo bisogno nasce dall'impossibilità di espansione dello stabilimento odierno e dalla necessità di ridurre i costi di movimentazione dei materiali durante il ciclo di produzione. La tesi si colloca in questo contesto di necessità di verificare le prestazioni del lay-out attuale, valutandone le problematiche e le criticità al fine di potere identificare delle valide soluzioni di layout per la nuova sede produttiva dal punto di vista tecnico-economico e ambientale. Il CAPITOLO1 è volto ad inquadrare il problema affrontato nella situazione odierna; mettendo in evidenza la rilevanza del lay-out. Viene poi spiegato in maniera approfondita l'approccio di progettazione seguito. Al CAPITOLO 2 spetta la presentazione dell'azienda, della sua storia, della sua gamma di prodotti e dei suoi reparti di lavorazione. L'inquadramento aziendale è necessario al fine di capire le esigenze aziendali di cui si dovrà tenere conto durante lo svolgimento del lavoro. Nel CAPITOLO 3 si procede con l'analisi della situazione attuale, recuperando i dati di input necessari alla determinazione del mix produttivo offerto al mercato, quindi con l'analisi dei cicli produttivi, dei flussi e delle risorse impiegate per le movimentazioni. Il CAPITOLO 4 illustra il nuovo polo industriale del gruppo e presenta le alternative di lay-out individuate, che vengono analizzate dal punto di vista economico per individuare il possibile saving economico annuo rispetto alla situazione attuale. Per completezza di informazione vengono presentate anche aree che non vengono progettate tramite l'analisi tecnico economica (Blocco 2 e Uffici). Il capitolo termina con la scelta del nuovo layout per la nuova sede, dove vengono studiati i saving annui in base ai mezzi di movimentazioni attuali e quelli implementabili. L'ultima parte dell'elaborato valuta le emissioni di anidride carbonica dovute alle movimentazioni interne e valuta la possibile riduzione di emissioni di CO2 con il nuovo layout.
Resumo:
Poiché i processi propri del sistema nervoso assumono una funzione fondamentale nello svolgimento della vita stessa, nel corso del tempo si è cercato di indagare e spiegare questi fenomeni. Non solo infatti il suo ruolo è di primaria importanza, ma le malattie che lo colpiscono sono altamente invalidanti. Nell’ultimo decennio, al fine di far luce su questi aspetti profondamente caratterizzanti la vita dell’uomo, hanno avuto luogo diversi studi aventi come strumento d’esame la stimolazione transcranica a corrente continua. In particolare questo lavoro si propone di analizzare gli ambiti di interesse dell’applicazione della tDCS, soffermandosi sulla capacità che ha questa metodica di indagare i meccanismi propri del cervello e di proporre terapie adeguate qualora questi meccanismi fossero malfunzionanti. L’utilizzo di questa stimolazione transcranica unitamente ai più moderni metodi di neuroimaging permette di costruire, o quanto meno cercare di delineare, un modello delle strutture di base dei processi cognitivi, quali ad esempio il linguaggio, la memoria e gli stati di vigilanza. A partire da questi primi promettenti studi, la tDCS è in grado di spostare le proprie ricerche nell’ambito clinico, proponendo interessanti e innovative terapie per le malattie che colpiscono il cervello. Nonostante patologie quali il morbo di Parkinson, l’Alzheimer, la dislessia ed l’afasia colpiscano una grande percentuale della popolazione non si è ancora oggi in grado di garantire ai pazienti dei trattamenti validi. E’ in questo frangente che la tDCS assume un ruolo di primaria importanza: essa si presenta infatti come una tecnica alternativa alle classiche cure farmacologie e allo stesso tempo non invasiva, sicura e competitiva sui costi.
Resumo:
La linea ferroviaria Bologna-Porretta mostra evidenze deformative nel tratto ad EST della stazione di Silla, già da metà del secolo scorso. Il fenomeno si manifesta in una zona delimitata a SUD da un grande deposito di frana quiescente e a NORD dal corso del fiume Reno. In questo contesto, è stato possibile seguire le indagini geognostiche commissionate da RFI, finalizzate alla caratterizzazione geologico-tecnica del problema deformativo e all’installazione di alcuni strumenti di monitoraggio. L’obiettivo principale è quello di ricostruire le dinamiche dei processi in atto, valutando quale sia la causa primaria del cedimento del rilevato ferroviario. Il lavoro ha inizialmente previsto una fase di attività sul campo. Successivamente, prove di laboratorio sono state svolte su cinque campioni rimaneggiati ottenuti da spezzoni di carota. Le stratigrafie di sondaggio, le osservazioni di campo e i risultati delle prove di laboratorio sono stati elaborati assieme ad altri dati a disposizione, quali dati di interferometria radar, dati di monitoraggio e risultati di prove di laboratorio esterne, così da produrre il modello geologico-tecnico dell’area. Nel modello, la superficie di scorrimento si trova a circa 10 m di profondità, coerentemente con le misure degli inclinometri, mentre la falda oscilla tra i 2,0 m e gli 0,5 m di profondità da piano campagna. Infine, le analisi di stabilità sono state divise in una fase di back-analysis e in una fase previsionale che ipotizzasse alcuni interventi di sistemazione. Dal lavoro è stato possibile concludere che il versante destro del fiume Reno è attualmente soggetto a movimenti gravitativi. Le simulazioni effettuate hanno portato a determinare due meccanismi di rottura plausibili. Una batteria di dreni suborizzontali permetterebbe di stabilizzare le superfici di scorrimento critiche con un buon incremento del Fattore di Sicurezza, mentre trincee drenanti e pali rappresentano soluzioni meno efficaci.