358 resultados para PXI MXI SCXI controllo acquisizione monitoraggio sala prove
Resumo:
Lo scopo della tesi e quello di giungere alla realizzazione di un prototipo, che si basi su tecnologie specifiche quali GPS, Android e Bluetooth, per l'infrastruttura di un sistema che può essere visto come l'unione di tre macro parti distinte, centrale di controllo, dispositivo mobile e pulsossimetro. Concentrandosi in particolare sugli ultimi due componenti citati e realizzando un sistema di comunicazione che si basa su un Web Service ispirato al modello REST, si giungerà, attraverso un attento processo logico dettato dai canoni dell'ingegneria del software, al prototipo finale. Il prototipo che sarà realizzato rappresenterà oltre che un primo sistema funzionante e operativo, un punto di partenza per estensioni future, con lo scopo di perfezionare le funzionalità già esistenti o di fornirne di aggiuntive.
Resumo:
Il sistema di acquisizione dati del nuovo layer IBL di ATLAS conta attualmente 15 schede ROD attive sull’esperimento. In ognuna di queste schede sono presenti due catene JTAG per la programmazione e il test. La prima catena è facilmente accessibile da remoto tramite uno standard VME o Ethernet, mentre la seconda è accessibile solo tramite un programmatore JTAG. Accedere alla catena secondaria di tutte 15 le ROD è in primo luogo sconveniente poiché sarebbero necessari 15 programmatori diversi; in secondo luogo potrebbe risultare difficoltoso doverli gestire tutti da un unico computer. Nasce così l’esigenza di sviluppare un’elettronica aggiuntiva con funzione di controllo che riesca, tramite un unico programmatore, a distribuire un segnale JTAG in ingresso a 15 uscite selezionabili in maniera esclusiva. In questa tesi vengono illustrati i vari passaggi che hanno portato alla realizzazione del progetto ponendo attenzione alla scelta, al funzionamento e all’eventuale programmazione dei componenti elettronici che lo costituiscono. Per ogni parte è stato realizzato un ambiente hardware di prototipazione che ne ha garantito il test delle funzionalità. La scheda, basata su un microcontrollore ATmega 328-P, è attualmente in fase di completamento nel laboratorio di progettazione elettronica dell’INFN di Bologna. Il prototipo studiato e realizzato tramite il lavoro di questa tesi verrà anche utilizzato in ambiente CERN una volta che ne sarà convalidata l’affidabilità e potrà anche essere facilmente adattato a tutti gli esperimenti che usano un protocollo JTAG per la programmazione di dispositivi remoti.
Resumo:
L’esperimento ATLAS al CERN di Ginevra ha un complesso sistema di rivelatori che permettono l’acquisizione e il salvataggio di dati generati dalle collisioni di particelle fondamentali. Il rivelatore per cui trova una naturale applicazione il lavoro di questa tesi è il Pixel Detector. Esso è il più vicino alla beam pipe e si compone di più strati, il più interno dei quali, l’Insertable B-Layer (IBL), aggiunto in seguito allo shut down dell’LHC avvenuto nel 2013, ha apportato diverse innovazioni per migliorare la risoluzione spaziale delle tracce e la velocità di acquisizione dei dati. E’ stato infatti necessario modificare il sistema di acquisizione dati dell’esperimento aggiungendo nuove schede chiamate ROD, ReadOut Driver, e BOC, Back Of Crate. Entrambe le due tipologie di schede sono montate su un apparato di supporto, chiamato Crate, che le gestisce. E’ evidente che avere un sistema remoto che possa mostrare in ogni momento il regime di funzionamento del crate e che dia la possibilità di pilotarlo anche a distanza risulta estremamente utile. Così, tramite il linguaggio di programmazione LabVIEW è stato possibile progettare un sistema multipiattaforma che permette di comunicare con il crate in modo da impostare e ricevere svariati parametri di controllo del sistema di acquisizione dati, come ad esempio la temperatura, la velocità delle ventole di raffreddamento e le correnti assorbite dalle varie tensioni di alimentazione. Al momento il software viene utilizzato all’interno dell’Istituto Nazionale di Fisica Nucleare (INFN) di Bologna dove è montato un crate W-Ie-Ne-R, speculare a quello presente al CERN di Ginevra, contenente delle schede ROD e BOC in fase di test. Il progetto ed il programma sviluppato e presentato in questa tesi ha ulteriori possibilità di miglioramento e di utilizzo, dal momento che anche per altri esperimenti dell’LHC le schede di acquisizione vengono montate sullo stesso modello di crate.
Resumo:
Il progetto è il proseguimento di una tesi di laurea1 in cui si è studiato un metodo di analisi della salute della pelle non invasivo. A tale scopo si è approfondito il tema della spettroscopia d'impedenza ed è stato realizzato un sistema per la loro misura. Questo sistema prevede l'utilizzo di una parte analogica formata da un generatore di segnale sinusoidale a frequenza variabile e la circuiteria per estrarre i valori efficaci di tensione e corrente e il valore di fase. La parte digitale, invece, condiziona il segnale del blocco analogico agendo su trimmer digitali, acquisisce i dati e li trasmette tramite la UART. Lo strumento effettuava le misurazioni ed inviava continuamente i dati grezzi al computer, tramite un convertitore UART/USB, risultando poco versatile. L'obiettivo del progetto è realizzare una piattaforma software che comunichi con l'hardware, permettendo la configurazione dello strumento e la manipolazione dei dati grezzi ricevuti, svincolando quindi l'utente dai problemi di basso livello. Si è studiato un protocollo di comunicazione che permette la trasmissione di maggiore informazione e sono stati scelti dei comandi mnemonici che lo strumento possa facilmente interpretare. Il progetto prevede quindi una prima fase di modifica del vecchio firmware, in modo che il microcontrollore possa leggere e comprendere i dati ricevuti tramite la UART. Nella seconda fase si è sviluppato il software utilizzando il linguaggio di programmazione Java. Lo sviluppo comprende lo studio delle librerie grafiche offerte da JavaFX (soprattutto per la rappresentazione dei dati grezzi in grafici a due assi), di un metodo di gestione e salvataggio su disco delle impostazioni del sistema, della comunicazione seriale e infine del sistema software nella sua completezza. Alcune prove sperimentali sono infine state svolte per verificare la funzionalità dei due sistemi, firmware e software.
Resumo:
Il presente lavoro si riferisce ad una delle attività di monitoraggio topografico più diffuse e consolidate: il controllo altimetrico per mezzo della livellazione geometrica di precisione, finalizzato alla determinazione dei dislivelli – e della loro variazione nel tempo – tra capisaldi appositamente istituiti sulla struttura. Va ricordato infatti che in Topografia non è possibile determinare direttamente la quota assoluta di un punto, ma solamente il dislivello, ossia la differenza di quota fra punti della superficie fisica. Il caso di studio si riferisce nello specifico ad un oggetto di grandissimo interesse: le Due Torri di Bologna. La Torre degli Asinelli e la Torre Garisenda di Bologna sono infatti soggette da lungo tempo ad una attività di monitoraggio altimetrico con la tecnica della livellazione geometrica di precisione, oggi realizzata con strumentazione digitale. L’attività viene condotta dall’area di Geomatica del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Università di Bologna in collaborazione con il Comune di Bologna. Scopo della tesi è illustrare gli aspetti teorici alla base della tecnica della livellazione geometrica e le operazioni che sono state eseguite sul campo ed in laboratorio, in affiancamento a quanto effettuato dal DICAM con il coordinamento del Prof. G. Bitelli. Nel Capitolo 1 viene descritta la metodologia di rilevamento mediante livellazione geometrica di precisione e la tecnica di elaborazione dei dati tramite la compensazione per osservazioni indirette secondo il principio dei minimi quadrati. Nel Capitolo 2 viene presentato il caso di studio e descritto il rilievo che è stato effettuato durante il periodo della tesi. Vengono illustrate le fasi operative sul campo e la successiva fase di predisposizione dei dati per la compensazione. Infine si illustra l’elaborazione numerica realizzata per la determinazione delle quote nel sistema di riferimento locale utilizzato.
Resumo:
In questo elaborato si tratterà il metodo di analisi e modellazione post-sismica del terreno attraverso l’utilizzo dei dati GPS e dati SAR. Si prenderanno in esame due eventi sismici: il grande terremoto di Tohoku in Giappone del marzo 2011, con particolare attenzione alla conseguente formazione di un grande tsunami, e la sequenza sismica umbro-marchigiana del settembre/ottobre 1997. In tale contesto verranno descritti i diversi strumenti di monitoraggio e i modelli delle sorgenti sismiche, i quali hanno il compito di determinare importanti informazioni per la più rapida valutazione possibile del rischio sismico e per la corretta pianificazione delle attività umane e del territorio. Obiettivo della tesi è descrivere l’efficacia dell’utilizzo congiunto della tecnica di monitoraggio GPS e l’Interferometria Differenziale SAR. Grazie all’analisi ed alla conseguente modellazione dei dati raccolti nei due eventi sismici descritti in questo lavoro si dimostra l’importanza di tali tecniche per comprendere al meglio i fenomeni sismici. Nel primo capitolo verranno descritte le tecniche di monitoraggio GPS e SAR e le successive tecniche di analisi e modellazione dei dati al fine di avere una previsione dell’evento preso in considerazione. Nel secondo capitolo si esamineranno le peculiarità dell’evento sismico giapponese (2011) e delle elaborazioni condotte per caratterizzare lo tsunami provocato dalla rottura del fondale oceanico. Nel terzo capitolo si analizzerà la sequenza sismica umbro-marchigiana del 1997 prestando attenzione allo sviluppo della rete geodetica del territorio nazionale italiano con riferimenti allo sviluppo della Rete Integrata Nazionale GPS (RING). Nel quarto capitolo verrà descritto in modo introduttivo la struttura del software Bernese GNSS v. 5.2; un software di elaborazione dati usato in ambito scientifico per l’analisi di reti GNSS per il controllo delle deformazioni.
Resumo:
Il presente lavoro consiste nella realizzazione di un'interfaccia utente adibita all'assegnamento di missioni e al monitoraggio remoto di un rover agricolo autonomo. Sfruttando l'informatica per la sua implementazione, tale interfaccia trova invece applicazione nel campo dell'automazione e dell'agricoltura di precisione. L'utilizzatore ha perciò la facoltà di muovere il rover in campo aperto e di demandargli missioni specifiche, ricevendo allo stesso tempo un feedback continuo sul suo operato. L'applicativo software comunica quindi in maniera bidirezionale con il veicolo controllato ed è predisposto per sfruttare diversi canali di comunicazione (antenne seriali, pacchetti udp, socket tcp). La scrittura del codice è stata seguita da una serie di prove di comunicazione con il veicolo, effettuate indoor, e infine da alcuni test completi effettuati outdoor, con il rover in movimento.
Resumo:
La risalita capillare di umidità nelle murature storiche è la principale responsabile del degrado dei materiali. La metodologia ad oggi più utilizzata in tale campo è quella basata sull’iniezione di prodotti chimici in grado di formare barriere artificiali che blocchino il flusso ascendente dell’acqua, ma è ancora in fase di perfezionamento. Per potere svolgere tale perfezionamento, è utile disporre di una metodologia attendibile per la valutazione dell’esito dei trattamenti, ossia un metodo standardizzato che possa garantire una corretta misurazione del contenuto di umidità nelle murature pre e post iniezioni. Nella presente tesi, che ha lo scopo di valutare l’efficacia di alcuni prodotti per barriere chimiche nelle murature, si è utilizzato un metodo di laboratorio standardizzato proposto dai ricercatori del LASTM (DICAM), che permette di riprodurre in laboratorio il processo di risalita dell’umidità e, allo stesso tempo, permette di potere svolgere le misurazioni del contenuto d’acqua interno ai materiali con il metodo diretto. I trattamenti, svolti in collaborazione con la Azienda inglese “Safeguard”, produttrice di resine impermeabilizzanti, sono stati effettuati su vari modelli, costituiti di laterizi e malta, preventivamente sottoposti a differenti condizioni ambientali. Successivamente si è svolto un monitoraggio periodico per potere determinare sia l’efficacia dell’intervento che l’attendibilità del modello. Dopo avere studiato un sistema di controllo delle condizioni di laboratorio, si è ritenuto opportuno svolgere anche alcune prove di caratterizzazione dei materiali utilizzati nella costruzione dei vari modelli, per conoscerne appieno le caratteristiche e potere valutare con maggiore attendibilità i risultati dei trattamenti. Infine, per approfondire le dinamiche di diffusione dei formulati chimici all’interno dei materiali, si sono svolte prove su travetti di malta.
Resumo:
In questa tesi si è voluta porre l’attenzione sulla suscettibilità alle alte temperature delle resine che li compongono. Lo studio del comportamento alle alte temperature delle resine utilizzate per l’applicazione dei materiali compositi è risultato un campo di studio ancora non completamente sviluppato, nel quale c’è ancora necessità di ricerche per meglio chiarire alcuni aspetti del comportamento. L’analisi di questi materiali si sviluppa partendo dal contesto storico, e procedendo successivamente ad una accurata classificazione delle varie tipologie di materiali compositi soffermandosi sull’ utilizzo nel campo civile degli FRP (Fiber Reinforced Polymer) e mettendone in risalto le proprietà meccaniche. Considerata l’influenza che il comportamento delle resine riveste nel comportamento alle alte temperature dei materiali compositi si è, per questi elementi, eseguita una classificazione in base alle loro proprietà fisico-chimiche e ne sono state esaminate le principali proprietà meccaniche e termiche quali il modulo elastico, la tensione di rottura, la temperatura di transizione vetrosa e il fenomeno del creep. Sono state successivamente eseguite delle prove sperimentali, effettuate presso il Laboratorio Resistenza Materiali e presso il Laboratorio del Dipartimento di Chimica Applicata e Scienza dei Materiali, su dei provini confezionati con otto differenti resine epossidiche. Per valutarne il comportamento alle alte temperature, le indagini sperimentali hanno valutato dapprima le temperature di transizione vetrosa delle resine in questione e, in seguito, le loro caratteristiche meccaniche. Dalla correlazione dei dati rilevati si sono cercati possibili legami tra le caratteristiche meccaniche e le proprietà termiche delle resine. Si sono infine valutati gli aspetti dell’applicazione degli FRP che possano influire sul comportamento del materiale composito soggetto alle alte temperature valutando delle possibili precauzioni che possano essere considerate in fase progettuale.
Resumo:
La tesi tratta di strumenti finalizzati alla valutazione dello stato conservativo e di supporto all'attività di manutenzione dei ponti, dai più generali Bridge Management Systems ai Sistemi di Valutazione Numerica della Condizione strutturale. Viene proposto uno strumento originale con cui classificare i ponti attraverso un Indice di Valutazione Complessiva e grazie ad esso stabilire le priorità d'intervento. Si tara lo strumento sul caso pratico di alcuni ponti della Provincia di Bologna. Su un ponte in particolare viene realizzato un approfondimento specifico sulla determinazione approssimata dei periodi propri delle strutture da ponte. Si effettua un confronto dei risultati di alcune modellazioni semplificate in riferimento a modellazioni dettagliate e risultati sperimentali.
Resumo:
CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.
Resumo:
In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.
Resumo:
Il progresso nella tecnica di recupero e di rinforzo nelle strutture metalliche con i polimeri fibro-rinforzati FRP (fibre reinforced polymers). 1.1 Introduzione nelle problematiche ricorrenti delle strutture metalliche. Le strutture moderne di una certa importanza, come i grattacieli o i ponti, hanno tempi e costi di costruzione molto elevati ed è allora di importanza fondamentale la loro durabilità, cioè la lunga vita utile e i bassi costi di manutenzione; manutenzione intesa anche come modo di restare a livelli prestazionali predefiniti. La definizione delle prestazioni comprende la capacità portante, la durabilità, la funzionalità e l’aspetto estetico. Se il livello prestazionale diventa troppo basso, diventa allora necessario intervenire per ripristinare le caratteristiche iniziali della struttura. Strutture con una lunga vita utile, come per la maggior parte delle strutture civili ed edilizie, dovranno soddisfare esigenze nuove o modificate: i mezzi di trasporto ad esempio sono diventati più pesanti e più diffusi, la velocità dei veicoli al giorno d'oggi è aumentata e ciò comporta anche maggiori carichi di tipo dinamico.