148 resultados para diagnostica energetica, diagnostica strutturale, prove non distruttive, edifici storici


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli eventi sismici che hanno colpito l’Emilia Romagna nel corso del 2012, hanno mostrato come le strutture in muratura qui presenti siano particolarmente sensibili alle azioni di forze dinamiche. Questa vulnerabilità deriva principalmente dal fatto che gran parte del patrimonio edilizio italiano è stato realizzato prima dell’introduzione di apposite normative antisismiche e, in secondo luogo, dalla qualità dei materiali utilizzati e dalle tecniche “artigianali” di realizzazione. La valutazione della vulnerabilità degli edifici è pertanto un punto fondamentale per poterne stimare il livello di sicurezza in caso di terremoto. In particolare, i parametri fondamentali da studiare sono: Resistenza caratteristica a compressione (f_k): parametro importante per la stima della resistenza alla rottura in corrispondenza di variazioni delle forze verticali, per effetto di un’azione sismica; Resistenza a taglio in assenza di sforzo normale (f_vk0): valore che stima la capacità resistente della muratura quando essa è soggetta a sole azioni taglianti. Gli obbiettivi principali di questa tesi sono: Determinare i parametri medi di resistenza sopra descritti per le murature site in Emilia Romagna; Confrontare valori ottenuti mediante prove semi-distruttive e distruttive al fine di verificare la loro affidabilità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi che si presenta si è determinata la riduzione percentuale di vulnerabilità sismica di un edificio residenziale, sito a Reggiolo (RE), in seguito ad interventi di riabilitazione e miglioramento sismico con l'introduzione di setti e travi di coronamento in cemento armato. Il punto di partenza è l'analisi delle caratteristiche geometriche dell'edificio, ottenute mediante gli elaborati originali, e le caratteristiche meccaniche dei materiali che compongono la struttura, ottenute mediante prove in situ distruttive e non distruttive. Il punto successivo è stato la creazione di un modello numerico dell'edificio pre-intervento utilizzando il programma commerciale PROSAP, su cui si è eseguita un'analisi dinamica lineare con spettro di progetto da cui si sono determinare le principali criticità e inadeguatezze della struttura nei confronti di un carico sismico. Lo studio è passato alla struttura post-intervento modellando la presenza dei setti verticali e delle travi di coronamento. Dal confronto fra l'analisi dinamica lineare pre e post-intervento si è dedotto un elevato miglioramento sismico con passaggio da un indice di vulnerabilità iniziale pari a 0.02 ad un indice post-intervento pari a 1. Per validare numericamente questi risultati si è eseguita una analisi statica non lineare (pushover) dell'edificio pre-intervento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La diagnostica strutturale è un campo in continuo sviluppo e attualmente sono numerosi gli studi tendenti alla definizione di tecniche e metodi in grado di fornire parametri che possano identificare, in modo sempre più accurato, lo stato di sicurezza di una struttura. Stato di sicurezza è un termine globale che si riferisce alla capacità portante di una struttura e alla sua resistenza alle sollecitazioni esterne, siano esse statiche o dinamiche. Per tanto, un qualsiasi danneggiamento strutturale potrebbe in varia misura influenzare tale stato. Per quanto riguarda i ponti stradali, negli ultimi anni l’attenzione è stata focalizzata allo studio di metodi di individuazione del danno a partire dai risultati ottenuti dal monitoraggio delle vibrazioni mediante accelerometri. Questo è stato possibile grazie agli avanzamenti raggiunti nell’identificazione modale e nei sensori per il monitoraggio strutturale. Questo lavoro si pone come obiettivo quello di proporre una nuova metodologia di analisi dei dati ottenuti da indagini sperimentali che possono essere svolte in sito. La definizione di tale metodologia è affidata a simulazioni numeriche volte a rappresentare stati di danneggiamento avanzati su elementi strutturali. In una prima fase verranno analizzati elementi semplificati rappresentativi di strutture esistenti, come ad esempio travi da ponte in calcestruzzo armato. In una seconda fase, il metodo verrà testato su modelli più complessi che tengano conto della tridimensionalità del problema, oltre alle variazioni sezionali e di materiali degli elementi che lo compongono.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomografia a coerenza ottica (Optical Coherence Tomography, OCT) rappresenta fondamentalmente una nuova modalità di diagnostica per immagini non invasiva e ad alta risoluzione. L’OCT fornisce immagini, sotto forma di sezioni trasversali o tomografiche, delle microstrutture dei tessuti biologici tramite la misura del ritardo dell’eco e dell’intensità della luce retrodiffusa o riflessa dal campione in analisi. L’OCT è una potente tecnica poiché fornisce in tempo reale immagini in situ delle strutture tissutali normali o patologiche, con una risoluzione da 1 a 15 micron, che è da uno a due ordini di grandezza maggiore rispetto alle tecniche per immagini convenzionali come ultrasuoni, risonanza magnetica o tomografia computerizzata. Tutto questo senza la necessità di ottenere e analizzare un campione tramite biopsia e studio istopatologico. Sin dall’inizio della sua utilizzazione nel 1991, l’OCT è stata impiegata in un vasto spettro di applicazioni cliniche, principalmente l'oftalmologia. In strutture non trasparenti, diverse da quelle oculari, la profondità massima esplorabile è limitata a 2-3 mm a causa dei fenomeni di attenuazione secondari e alla dispersione della luce. Inoltre, i numerosi sviluppi fatti dalla tecnologia OCT hanno portato ad alte velocità di acquisizione e, grazie all’utilizzo di sorgenti laser di ultima generazione, risoluzioni assiali dell’ordine di 1 micrometro. Dunque, la tomografia a coerenza ottica può essere sfruttata: - Quando la biopsia escissionale è pericolosa o impossibile. - Quando si rischiano errori di campionamento, come guida alla biopsia in modo da ridurre errori nel prelievo del campione. - Come guida alla procedura d’intervento, in associazione alle procedure di cateterismo, endoscopia e laparoscopia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro è volto allo studio di soluzioni di rinforzo strutturale di edifici storici in muratura mediante materiali compositi innovativi a matrice inorganica FRCM (Fiber Reinforced Cementitious Matrix). E' stato effettuato un confronto tra due sistemi di rinforzo con compositi SRG (Steel Reinforced Grout) in fibre d'acciaio ad altissima resistenza, nell'ottica di un progetto di miglioramento sismico del teatro Pavarotti di Modena, in particolare della parete di fondo retrostante il palcoscenico. Ipotizzati alcuni meccanismi di collaso della parete, la vulnerabilità sismica della stessa, nei confronti di ciascun meccanismo, è stata valutata attraverso l'analisi cinematica lineare. Successivamente per ogni meccanismo è stato studiato un sistema di rinforzo SRG al fine di incrementare la capacità sismica della parete e il moltiplicatore di collasso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio affrontato riguarda la tecnica della ristilatura armata dei giunti, quale metodologia di intervento atta a ripristinare la resistenza della muratura, depauperata dalla continua azione esercitata dal peso proprio delle strutture massive. La presenza di forze di compressione ha causato la creazione di fessure diffuse su tutta la muratura, che ha danneggiato oltre che la vita stessa dell’opera e quindi la sicurezza delle persone, anche l’aspetto architettonico come fonte di bellezza e ricordo di antiche civiltà. In questa ottica si inserisce la Tecnica di Repointing perchè riesca a soddisfare i requisiti richiesti di autenticità strutturale, durabilità, compatibilità e bassa invasività dell'intervento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’azienda GGP, leader europeo nella produzione di rasaerba e prodotti per il giardinaggio, ha avviato, in collaborazione con il Laboratorio di aerodinamica sperimentale della Facoltà di ingegneria dell’Università di Bologna, uno studio atto alla valutazione delle prestazioni dei rasaerba commercializzati, al fine di comprendere quali siano le vie percorribili per ottenere un miglioramento delle prestazioni associate. Attualmente il metodo utilizzato per compiere tali valutazioni consiste nel far percorrere al rasaerba un percorso di lunghezza prestabilita e valutare il peso dell’erba raccolta nel sacco. Tale approccio presenta delle forti limitazioni in quanto le prove non sono per loro natura ripetibili. Si pensi ad esempio alla non uniformità del terreno e all’altezza dell’erba. È pertanto necessario un approccio in grado di definire con maggior precisione e ripetibilità le prestazioni dei macchinari rasaerba. Tra le diverse prestazioni c’è la capacità della macchina di trattare una portata di aria più elevata possibile garantendo un’elevata aspirazione dell’erba tagliata. Da questo punto vista la geometria della lama riveste un’importanza particolare. Per valutare le prestazioni della singola lama, è stato realizzato un “test-rig lame”, uno strumento con cui è possibile trattare il flusso per renderlo misurabile e valutare la portata d’aria attraverso semplici misure di pressione. Una volta costruito il “test-rig”, sono stati individuati i parametri geometrici delle lame che influenzano la portata, quali apertura, corda e calettamento del flap della lama. Lo studio svolto si limita a valutare gli effetti causati dalla sola geometria della lama prescindendo dalla forma della voluta, in quanto la sua interazione con la lama risulta di grande complessità. Si è quindi avviata una campagna di test sperimentali effettuati su lame caratterizzate da diversi valori dei parametri, che l’azienda stessa ha prodotto e fornito al laboratorio, al fine di trovare relazioni funzionali tra la portata elaborata e la geometria delle lame.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Lago di Cavazzo (o dei Tre Comuni) è il più esteso lago naturale del Friuli Venezia Giulia. Situato nelle Prealpi Carniche, in provincia di Udine, è ubicato in un’antica valle scavata in epoca pre – glaciale dal fiume Tagliamento, che oggi scorre circa 3 km ad Est. A partire dagli anni ’40, la S.A.D.E. (ora Edipower) ottenne le concessioni per la costruzione di una serie di impianti idroelettrici in tutto il Friuli Venezia Giulia che nel 1954 portò alla realizzazione della Centrale idroelettrica di Somplago, costruita in caverna lungo la sponda Nord – occidentale del lago. La Centrale turbina le acque di scarico provenienti dai bacini di accumulo superiori («Lumiei», «Ambiesta») e da altre prese minori sul Tagliamento, immettendo a sua volta le acque turbinate all’interno del lago di Cavazzo tramite galleria. Dai dati disponibili in letteratura, dalle cronache e dai resoconti riportati dalla popolazione locale, l’attività della Centrale ha notevolmente influenzato l’equilibrio di questo ambiente, in termini geologici, biologici ed idrologici, soprattutto a causa dell’enorme volume di acqua fredda (e relativi sedimenti) scaricata, delle continue variazioni di livello dell’acqua per regolarne il volume di invaso e dello scavo del canale emissario, localizzato nell’estremità meridionale. Nel Maggio 2015 l’ISMAR – CNR di Bologna ha effettuato un rilievo geofisico del lago, tramite tecniche non distruttive di ecografia e sismica a riflessione, in grado di analizzare la stratigrafia superficiale e la distribuzione degli apporti sedimentari, con lo scopo di quantificare da questo punto di vista l’impatto della Centrale sul lago. I dati acquisiti, che comprendono profili sismici ad alta risoluzione, profili batimetrici single/multi – beam ed immagini side – scan sonar, sono stati successivamente elaborati per realizzare varie mappe tematiche (morfobatimetria, riflettività, gradiente topografico e spessore dei sedimenti penetrabili dal segnale sismico) che hanno permesso di descrivere l’attuale assetto deposizionale del lago. Sono stati inoltre effettuati alcuni carotaggi in vari punti della conca lacustre, al fine di quantificare il tasso di sedimentazione e le caratteristiche fisiche dei depositi. Scopo di questo lavoro di Tesi è stato analizzare, interpretare e discutere in una prospettiva di evoluzione ambientale del lago i dati geofisici e geologici raccolti nell’ambito della campagna del Maggio 2015 e reperiti in bibliografia.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il monitoraggio delle vibrazioni e del rumore per la diagnosi delle condizioni di funzionamento dei macchinari ha acquisito un’enorme importanza dovuta alla sempre maggiore accessibilità, in termini di costo e di facilità di utilizzo, delle strumentazioni per l’acquisizione del comportamento vibratorio. L’investimento viene ampiamente giustificato dai vantaggi sia in termini di efficacia nell’individuazione preventiva di difetti e cause di guasto, che di caratterizzazione oggettiva della qualità di funzionamento della macchina. Il presente lavoro relaziona dell’analisi vibro-acustica applicata ad un riduttore epicicloidale prodotto da STM spa attraverso gli strumenti per l’analisi recentemente introdotti nella sala prove dell’azienda, poichè esso presenta, allo stato attuale di produzione e commercializzazione, una rumorosità troppo elevata di cui non si conoscono le cause. Le modifiche introdotte sono state scelte sulla base dell’esperienza tecnica dell’azienda, con l’intento di ridurre il livello di emissione acustica del riduttore. Gli effetti di tali modifiche sono stati valutati in riferimento ai livelli di emissione acustica e di severità di vibrazione, due valutazioni di tipo globale poi affiancate e confrontate con l’analisi spettrale, allo scopo di giustificare e comprendere meglio i risultati ottenuti.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La mole di reperti e manufatti definiti, al momento, dalla legge come “bene culturale” è immensa e in continua espansione. La definizione di bene culturale copre un'infinità di oggetti, di variabili datazioni, materiali e dimensioni ed è ovvio immaginare che la quantità di manufatti da conservare e restaurare andrà, col tempo, ampliandosi essendo logico supporre che, con l'evolversi del genere umano, gli oggetti attualmente di uso e consumo andranno ad aggiungersi a quanto già viene conservato e tutelato diventando anch'essi reperti storici. La necessità di conoscere quanto più possibile del bene e di massimizzarne la durata mantenendo al contempo la sua integrità e una sua accessibilità al pubblico ha portato alla ricerca di soluzioni sempre più efficaci per adempiere allo scopo. Il fortunato evolversi della tecnologia ha ben risposto a questa richiesta permettendo l'utilizzo di una grande quantità di strumenti per far fronte alle più varie necessità del restauratore, dello studioso e del conservatore che cercano risposte sull'oggetto in esame volendo al contempo incidere il meno possibile sul bene stesso. Al momento di questa trattazione ci troviamo di fronte ad un'enorme quantità di dati ottenibili dalle più svariate forme di indagine. Ciò che tuttavia accomuna molti degli strumenti di indagine non distruttiva utilizzati da chi lavora nel campo dello studio, della conservazione e del restauro è il basarsi sull'impiego delle onde elettromagnetiche nelle diverse bande spettrali. Questa trattazione ha quindi lo scopo di fare il punto su quali tipologie, con quali metodi e con quali risultati le onde elettromagnetiche rispondono alle esigenze della conservazione e dello studio dei beni culturali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’angiotermografia dinamica (DATG) è una tecnica diagnostica per il tumore al seno non invasiva e che non richiede l'utilizzo di radiazioni ionizzanti. La strumentazione fornisce immagini della vascolarizzazione della mammella rilevate e visualizzate da tre placche a cristalli liquidi. Le immagini, sulla base della teoria della neoangiogenesi, permettono la diagnosi anche precoce del tumore al seno. Inoltre, la DATG può essere impiegata su donne di ogni età e grazie al suo basso costo può coadiuvare le altre tecniche per lo screening. Scopo di questo lavoro è la caratterizzazione della strumentazione e lo studio di un nuovo metodo di elaborazione che permetta di ottenere immagini tridimensionali della vascolarizzazione. Poiché le immagini fornite dalla DATG sono a colori, si è elaborato il calcolo della tonalità (hue) per poter avere un valore da mettere in relazione con la temperatura misurata con una termocamera. Sperimentalmente è stato osservato che le placche rispondono a temperature comprese rispettivamente tra 31,5°C e 34,0°C per quella con cornice bianca, con una risoluzione tra 0,50 e 1,50 mm, tra 32,5oC e 34,5°C per quella con cornice grigia, che è in grado di rivelare dettagli con dimensioni minime dell'ordine di 0,50-2,50 mm e tra 34,0°C e 36,5°C per quella con cornice nera, con una risoluzione compresa tra 0,25 mm e 1,50 mm. Le immagini fornite dalla DATG sono bidimensionali. Per ricavare l’informazione sulla profondità di provenienza del segnale, è stata acquisita una sequenza dinamica angiotermografica in vivo. Per ottenere la distribuzione spaziale della vascolarizzazione in tre dimensioni, sulla base dell’equazione del trasporto del calore di Fourier, è stata ipotizzata una relazione esponenziale tra contributo temporale nella formazione dell’immagine e profondità di provenienza del segnale. I primi test sperimentali mostrano con buona approssimazione che è possibile ottenere immagini tridimensionali angiotermografiche, anche se il metodo andrà ulteriormente affinato. In futuro si cercherà di realizzare dei fantocci dedicati che consentano di verificare ulteriormente la modalità con cui si formano le immagini e di sfruttare i dati raccolti per conoscere con maggior accuratezza la profondità da cui proviene il segnale. Si spera, infine, che questo studio possa contribuire a diffondere la conoscenza di tale metodica e il suo utilizzo sia per la diagnosi che per lo screening del tumore al seno.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Le macchine automatiche per il confezionamento sono sistemi complessi composti da molte parti soggette a usura. Con ritmi di produzione di migliaia di pezzi l’ora, l’eventualità di un guasto e del conseguente fermo macchina, può avere ripercussioni economiche considerevoli per un’azienda. Sempre più risorse, per tale motivo, vengono dedicate allo sviluppo di tecniche per incrementare l’affidabilità dei macchinari, e che riducano al contempo, il numero e la durata degli interventi manutentivi. In tal senso, le tecniche di manutenzione predittiva permettono di prevedere, con un certo grado di accuratezza, il tempo di vita residuo dei componenti delle macchine; consentendo l’ottimizzazione della programmazione degli interventi di manutenzione. Appositi sensori installati sui macchinari permettono l’acquisizione di dati, la cui analisi è alla base di tali tecniche. L'elaborato descrive il progetto e la realizzazione di un’infrastruttura software, nell’ambiente di sviluppo Matlab, per l’elaborazione automatizzata di dati di vibrazione. Il sistema proposto, attraverso il monitoraggio dei parametri rms e kurtosis, consiste in strumento di ausilio per la diagnostica di cuscinetti. Il progetto è stato realizzato sulla base di veri dati storici messi a disposizione da un'azienda del settore. L’elaborato affronta inizialmente il problema dell’accuratezza e affidabilità dei campioni, proponendo soluzioni pratiche per la valutazione della qualità e selezione automatica dei dati. Segue la descrizione del processo di estrapolazione dei parametri sopraccitati, nel caso di cuscinetti in moto non stazionario, con profilo di velocità periodico. Nella terza parte è discussa la metodologia con cui istruire il sistema affinché possa, attraverso la redazione di report sullo stato dei componenti, fungere da strumento di diagnosi. L’ultimo capitolo descrive gli strumenti del toolbox per l’analisi dati che è stato realizzato allo scopo di aumentare potenzialità del sistema di diagnostica.