604 resultados para Modelli, MyJourney, Analisi, Collaudo, Controller
Resumo:
La mobilitazione di polveri radioattive nel caso di un incidente di perdita di vuoto (LOVA) all’interno di ITER (International Thermonuclear Experimental Reactor), è uno dei problemi di sicurezza che si sono posti durante la costruzione di tale reattore. Le polveri vengono generate dalla continua erosione da parte del plasma del materiale di contenimento. Ciò porta ad un accumulo delle stesse all’interno della camera di vuoto. Nel caso di un incidente LOVA il rilascio di tali polveri in atmosfera rappresenta un rischio per la salute di lavoratori e della popolazione circostante. Per raccogliere dati su tale tipo di incidente è stata costruita presso il laboratorio dell’università di Tor Vergata una piccola facility, STARDUST, in cui sono stati eseguiti vari esperimenti con delle condizioni iniziali simili a quelle presenti all’interno di ITER. Uno di questi esperimenti in particolare simula la rottura della camera di vuoto mediante l’ingresso di aria in STARDUST, inizialmente posto a 100 Pa, con un rateo di pressurizzazione di 300 Pa s−1. All’interno del serbatoio sono presenti delle polveri che, in differente percentuale, vengono portate in sospensione dal flusso di fluido entrante. In particolare le polveri sono composte da tungsteno (W), acciaio inossidabile (SS – 316 ) e carbonio ( C ). Scopo del presente lavoro è quello di riprodurre il campo di velocità che si genera all’interno di STARDUST nel caso dell’esperimento appena descritto e valutare il moto delle particelle portate in sospensione e la loro successiva deposizione. Ciò viene fatto mediante l’utilizzo di una geometria bidimensionale creata con Salome. Su tale geometria sono costruite differenti mesh strutturate in base al tipo di simulazione che si vuole implementare. Quest’ultima viene poi esportata nel solutore utilizzato, Code_Saturne. Le simulazioni eseguite possono essere suddivise in tre categorie principali. Nella prima (Mesh A) si è cercato di riprodurre i risultati numerici presentati dagli autori della parte sperimentale, che hanno utilizzato il software commerciale Fluent. Nella seconda si è riprodotto il campo di velocità interno a STARUDST sulla base dei dati sperimentali in possesso. Infine nell’ultima parte delle simulazioni si è riprodotto il moto delle particelle sospese all’interno del fluido in STARDUST, valutandone la deposizione. Il moto del fluido pressurizzante è stato considerato come compressibile. Il regime di moto è stato considerato turbolento viste le elevate velocità che provocavano elevati valori del numero di Reynolds per l’aria. I modelli con cui si è trattata la turbolenza sono stati di tre tipi. Il campo di velocità ottenuto è stato leggermente differente nei tre casi e si è proceduto ad un confronto per valutare le cause che hanno portato a tali differenze. Il moto delle particelle è stato trattato mediante l’utilizzo del modello di tracciamento lagrangiano delle particelle implementato in Code_Saturne. Differenti simulazioni sono state eseguite per tenere in considerazione i vari modelli di turbolenza adottati. Si è dunque proceduto ad analizzare similitudini e differenze dei risultati ottenuti.
Resumo:
Allosaurus fragilis (Theropoda: Carnosauria) è tra i dinosauri del Giurassico Superiore meglio conosciuti grazie a numerosi scheletri rinvenuti a partire dal secolo scorso. Le collezioni del Museo Universitario Paleontologico del Dipartimento di Scienze Chimiche e Geologiche dell'Università di Modena e Reggio Emilia ospitano uno scheletro costituito da reperti originali provenienti dal Cleveland-Lloyd Dinosaur Quarry (Utah) ad oggi non descritto in dettaglio. Il temporaneo disallestimento dello scheletro per la realizzazione di una nuova struttura museale ha permesso di esaminare in dettaglio i singoli elementi scheletrici. La storia di come e quando il materiale sia giunto a Modena rimane incerta, e per questo lavoro si è raccolta tutta la documentazione storica per completare le informazioni relative all'esemplare. In questa tesi vengono inoltre descritti alcuni degli elementi più diagnostici al fine di verificare se lo scheletro rappresenta uno o più individui di Allosaurus fragilis, la specie più abbondante e meglio documentata del Cleveland-Lloyd Dinosaur Quarry. Per questo obiettivo le ossa sono state confrontate con esemplari di riferimento in letteratura e inquadrate all'interno del contesto tafonomico del sito di ritrovamento. Durante le fasi di studio, i reperti esaminati sono stati acquisiti come modelli tridimensionali ad alta risoluzione mediante tecniche fotogrammetriche. Questo per garantire fruibilità ai singoli elementi anche in seguito al riallestimento dello scheletro per fini espositivi. I dati raccolti in questa tesi, ed in particolare 1. l’analisi del contesto tafonomico e tassonomico del Cleveland-Lloyd Dinosaur Quarry; 2. il confronto morfometrico tra le ossa presenti a Modena e quelle descritte in letteratura, e 3. le caratteristiche specifiche dei reperti esaminati, permettono di chiarire numerosi aspetti legati alla storia del reperto e al numero di individui rappresentati dallo scheletro di Allosaurus fragilis del Museo di Modena.
Resumo:
In questa tesi sono stati simulati i modelli circuitali relativi alle tecniche di estrazione SECE, Q-SECE e SSHI. Sono state graficate e analizzate le caratteristiche di trasferimento di potenza. Tramite simulazioni LTspice, è stata calcolata l'energia estratta con tecnica SECE e Q-SECE ed è stato ricavato un miglioramento delle prestazioni di energia di +30% con la tecnica Q-SECE. Un'analisi simile è stata fatta per il calcolo dell'energia in uscita anche per il modello SSHI-parallel.
Resumo:
L’installazione di smorzatori viscosi sulle strutture permette di dissipare l’energia che il sisma trasmette, senza provocare danni o rotture degli elementi strutturali principali. Questi dispositivi sono stati l'oggetto di numerosi lavori di ricerca dal 1980 fino ad oggi e l'efficacia nel mitigare gli effetti dell’azione sismica su strutture edilizie è stata ampiamente dimostrata. La maggior parte delle teorie scientifiche per la progettazione e l'ottimizzazione degli smorzatori si basano sofisticati algoritmi, portando talvolta a complessi procedure. L'applicazione di tali algoritmi richiede spesso competenze computazionali e di tempo eccessive. Il fine della tesi è quello di proporre un metodo pratico, cioè diretto e immediato per aiutare gli ingegneri per effettuare analisi sismiche su strutture intelaiate dotate di smorzatori viscosi e di dimensionare tali dispositivi. Tale metodo è stato l’oggetto del lavoro di ricerca scientifica trattato nell’articolo: “Equivalent Static Analyses of framed structures with added viscous dampers” di Palermo et al., 2015. Si riesce così ad estendere così il concetto di analisi statica equivalente anche per strutture dotate di smorzatori viscosi, definendo in maniera intuitiva sia le configurazioni di idealizzazione della strutture durante il sisma sia l’ idealizzazione dell’effetto del sisma sulla struttura. In questi anni di lavoro di ricerca, sono stati proposti vari metodi per il dimensionamento degli smorzatori viscosi. Tra questi, il prof. Ing. Silvestri (Silvestri et al., 2010) ha proposto un approccio progettuale diretto, chiamato "five step procedure” che mira a guidare l'ingegnere professionista, dalla scelta del target di prestazioni alle identificazioni della caratteristiche meccaniche di smorzatori viscosi trovabili in commercio. La procedura originale (Silvestri et al., 2010, Silvestri et al., 2011, Palermo et al., 2013), anche se per lo più basata su espressioni analitiche, richiede ancora lo sviluppo di analisi numeriche Time-History di modelli FEM, al fine di valutare le forze massime negli smorzatori aggiunti. Verrà spiegato e proposto un metodo semplificato (“Direct five step procedure for the dimensioning of added viscous dampers” Palermo et al., 2015) che consente ottenere direttamente, tramite una semplice formula, le forze massime degli smorzatori (spesso un parametro chiave della valutazione del costo degli smorzatori), senza eseguire simulazioni numeriche. Infine, si è applicato il metodo semplificato proposto di analisi statica equivalente per strutture equipaggiate di smorzatori viscosi ad un edificio reale.
Resumo:
In questo elaborato sono state messe a confronto differenti procedure per la creazione di file in formato STL a partire da dati tomografici. Questo tipo di formato di dati è attualmente molto richiesto in quanto è adottato dalle stampanti 3D. I tre software presi in analisi, nello specifico, sono: DEVIDE, un programma open source, compatibile sia con Windows che con Linux, sviluppato presso la Delft University of Technology, nei Paesi Bassi; Imagej, un programma informatico di elaborazione digitale delle immagini, accessibile a tutti, basato su Sun-Java e sviluppato dal National Institutes of Health negli Stati Uniti; e infine VGStudioMax, un software sviluppato in Germania dalla VolumeGraphics GmbH. Un confronto diretto di questi software ha portato ad evidenziare i pregi ed i difetti d’ognuno di questi programmi, prendendo come criteri svariati fattori, tra cui la possibilità di scelta di uno o più soglie per i livelli di grigio, la velocità di esecuzione, il fatto che sia open-source o meno, ecc. I risultati ottenuti tramite l’utilizzo di slice filtrate riguardanti una Cera Anatomica e un Feticcio Africano, sono stati molto soddisfacenti, in quanto hanno permesso la realizzazione di modelli virtuali 3D di entrambi i reperti nel formato richiesto.
Resumo:
Questo lavoro di tesi nasce per fornire un contributo originale alle ricerche già portate avanti dal gruppo di didattica della fisica volte a rispondere a tre principali esigenze evidenziate dai report europei: rendere la cittadinanza sempre più attiva e sensibile verso azioni di mitigazione e adattamento ai cambiamenti climatici, orientare i giovani verso professioni in settori denominati dall’acronimo STEM (Scienza, Tecnologia, Ingegneria e Matematica), colmare il divario tra le competenze possedute da chi entra nel mondo del lavoro e quelle richieste dalle aziende che operano in campo tecnologico per affrontare le sfide dello sviluppo e dell’innovazione. Per integrare le tre esigenze, il gruppo di ricerca ha avviato nell’ultimo anno una collaborazione con l’Area della Ricerca dell’Università di Bologna (ARIC) al fine di individuare modalità per fare entrare gli strumenti di progettazione noti come Project Cycle Management (PCM) e Goal Oriented Project Planning (GOPP) nelle scuole e sviluppare competenze progettuali a partire dall’analisi di tipo logico dei problemi in situazioni complesse. La collaborazione ha portato alla produzione di nuovi materiali sui cambiamenti climatici finalizzati a guidare gli studenti ad analizzare documenti di sintesi dei report dell’IPCC con tecniche di analisi per problemi e obiettivi tipiche del PCM e del GOPP e, quindi, a progettare azioni di mitigazione o adattamento. Il lavoro di tesi si colloca in questo contesto e si è concretizzato nell’analisi di una sperimentazione realizzata in una classe IV del Liceo Scientifico “A. Einstein” di Rimini tra aprile e maggio, 2015.
Resumo:
Il presente lavoro di tesi è stato stilato dopo aver svolto un tirocinio curriculare presso l’azienda Robopac S.p.A. nello stabilimento di Villa Verucchio (Rn). Sono partito dal lavoro di raccolta e sintesi degli indici di produzione e delle scorte di magazzino fatto nel periodo di tirocinio, focalizzandomi poi sull’aspetto della gestione delle scorte. Da quest’ultima analisi è emerso che la gestione delle merci ha portato ad avere un alto valore economico del magazzino per cui l’obbiettivo di questo lavoro di tesi è stato fornire un modello per la determinazione della scorta ottimale che porti ad una riduzione del valore totale del magazzino. Inizialmente è stato affrontato il tema generale della logistica industriale, in particolare analizzando il sistema logistico attraverso le sue caratteristiche e funzioni e sono state descritte le tipologie di magazzini industriali secondo i diversi sistemi di stoccaggio. Successivamente è stato introdotto l’argomento principale, ossia i problemi e i modelli di gestione delle scorte. E' stata dapprima descritta e classificata la scorta, per poi analizzarne i modelli di gestione come il modello di Wilson, utilizzato per il questo lavoro, con particolare attenzione alla scorta di sicurezza. Infine è stato formulato l’indice di rotazione e l’analis ABC di Lorentz-Pareto. L'ultimo capitolo descrive l’azienda Robopac con attenzione sul magazzino, attraverso la rappresentazione del percorso delle merci all’interno dello stabilimento e della fase di estrazione del materiale, aprendo una finestra sulla gestione degli approvvigionamenti dell’azienda Robopac. Nella seconda parte si arriva ad affrontare l’argomento centrale di tale elaborato, la definizione di un modello per determinare la scorta ottimale a magazino e vengono evidenziati i risultati ottenuti.
Resumo:
La Bioacustica marina studia gli aspetti “acustici” riguardanti gli animali marini tra cui le capacità uditive, la produzione del suono e la comunicazione attraverso i suoni. Ad oggi, un crescente livello di suoni introdotti negli oceani dalle attività umane sta causando una serie di effetti sull’ecosistema marino ed in particolare su specie che svolgono molteplici funzioni attraverso l’impiego attivo e passivo dei suoni, primi fra tutti i mammiferi marini. Il monitoraggio acustico passivo è uno dei metodi principali e popolari usati per aiutare gli scienziati a indagare e capire i modelli comportamentali degli animali marini. L'area di studio d’interesse si trova nel Canale di Sicilia, nel tratto di mare antistante Capo Granitola (Sicilia sud-occidentale), dove troviamo tra le specie più abbondanti di mammiferi marini: il tursiope, la stenella e il delfino comune. Questo tratto di mare è monitorato acusticamente dal 2012 dal laboratorio di bioacustica dell’IAMC-CNR attraverso un sistema di registrazione subacqueo autonomo. Il lavoro di tesi ha avuto l’obiettivo di analizzare 9 mesi di registrazioni al fine di studiare la presenza di delfinidi. Gli obiettivi specifici di questa tesi sono stati: •La verifica di interazioni tra delfini e attività antropiche attraverso l’analisi della presenza contemporanea di rumori prodotti da imbarcazioni e disegnali sonori prodotti da delfinidi; •Studiare gli andamenti circadiani e stagionali dei vocalizzi dei delfinidi e eventuali variazioni nei principali parametri acustici che caratterizzano i segnali di ecolocalizzazione. Grazie all’analisi dei dati acustici si sono ottenute informazioni sugli andamenti temporali della presenza/vocalizzazioni di delfinidi e sulla possibile interazione con le barche da pesca.
Resumo:
L’interruzione dell’attività di formazione stellare nelle galassie attraverso l’azione di venti guidati dalla potenza dell’AGN e/o dall’attività di starburst è una fase prevista da tutti i modelli di coevoluzione tra i buchi neri super massicci e la galassia ospite. La recente scoperta di venti molecolari massivi in alcune ULIRG locali ha fornito una prova forte a favore dell’esistenza del meccanismo di feedback negativo nelle galassie. Ad oggi non è chiaro il ruolo che l'attività di AGN e di starburst hanno nella produzione dei venti: tuttavia, la maggior parte delle ULIRG in cui sono stati osservati i venti molecolari presentano elevati tassi e velocità di outflow, suggerendo che l'AGN giochi un ruolo principale. IRAS 13120-5453 rappresenta un caso particolare: la sua attività e dominata dalla formazione stellare, ma sembra anche ospitare un AGN oscurato al suo interno. Tuttavia, non presenta elevati tassi di outflow e velocità dei venti: non è quindi chiaro quale dei due fenomeni vi sia all'origine. In questo lavoro di tesi si è operata un'analisi multibanda di questa sorgente con lo scopo di studiarne le principali proprietà fisiche. Lo studio in banda X attraverso l'analisi dei dati provenienti dai satelliti XMM-Newton, Chandra e NuSTAR ha permesso di conoscere parametri importanti come il grado di oscuramento della sorgente e la potenza dell'AGN. Con l'analisi in banda IR, è stato possibile conoscere il contributo dell'AGN e della starburst alla luminosità IR e i principali parametri fisici di questa galassia. L’obiettivo di tale lavoro è quello di capire il ruolo svolto da questi due principali fenomeni e quale possa essere la connessione con i venti molecolari.
Resumo:
L’anguilla europea, Anguilla anguilla, è una specie gravemente minacciata, sia da impatti diretti legati al sovrasfruttamento della specie a tutti gli stadi del ciclo vitale, che indiretti come l’urbanizzazione costiera e la perdita di habitat lagunari. Negli ultimi 45 anni è stata documentata una riduzione del tasso di reclutamento di anguilla europea del 90%. Lo scopo di questo studio è stato approfondire le modalità riproduttive di A. anguilla per via indiretta, attraverso un’analisi di paternità. Il Centro di ricerca universitario di Cesenatico (Laboratori di Acquacoltura ed Igiene delle Produzioni Ittiche – Università di Bologna) ha avviato le prime sperimentazioni su A. anguilla, al fine di mettere a punto un protocollo di riproduzione artificiale. Nell’estate 2015 i ricercatori hanno ottenuto sette riproduzioni spontanee in ambiente controllato, da queste sono state campionate casualmente e genotipizzate circa 40 larve per ogni mandata riproduttiva e i relativi riproduttori per condurre l’analisi di paternità. In ogni riproduzione è stata utilizzata sempre e soltanto una femmina e tre o quattro maschi; le analisi genetiche, condotte utilizzando 9 loci microsatelliti, si sono focalizzate sull’individuazione dei padri e l’assegnamento di paternità è avvenuto con un livello di confidenza medio dell’89%. Dalle analisi effettuate è emerso che: 1) i maschi di questa specie, precedentemente sottoposti a stimolazioni ormonali per indurne la riproduzione e la fertilità, sono in grado di partecipare con successo a più di una riproduzione; 2) più esemplari riescono a fecondare gli ovociti di una sola femmina e sembrano stabilirsi modelli gerarchici di dominanza in quanto si è osservato generalmente che un maschio prevale sugli altri, generando da solo più del 50% della prole. Questo studio pilota rappresenta, quindi, un punto di partenza per approfondimenti futuri sulle modalità riproduttive dell’anguilla europea.
Resumo:
Le colate detritiche sono manifestazioni parossistiche con trasporto impulsivo di sedimenti lungo la rete idrografica minore che presentano un elevato potere distruttivo. In questo lavoro di tesi si è cercato di descrivere inizialmente le caratteristiche tipiche delle colate di detrito, e le condizioni climatiche e geomorfologiche che tendono a favorirne l’innesco. Verranno poi analizzati, i casi relativi all’Appennino bolognese, prendendo come riferimento le colate rapide di detrito avvenute in località Serraglio (Baragazza) nei pressi del comune di Castiglione dei Pepoli. Nello specifico verrà indagato il fenomeno avvenuto il 31/01/2014, per il quale sono stati effettuati numerosi rilievi morfometrici che hanno portato ad individuare una geometria di dettaglio del canale di flusso e della nicchia di frana, per poter ricostruire i volumi di materiale mobilizzato. In contemporanea alle misure morfometriche si sono effettuate delle indagini sismiche volte a stimare lo spessore della coltre di alterazione presente all’interno del canale prima dell’evento, e a monte della nicchia di frana. Successivamente si è cercato di correlare le misure H/V con le prove MASW effettuate ,senza successo, ciò è probabilmente dovuto dalla difficoltà di indagare spessori così sottili con le MASW. Perciò utilizzando le indagini H/V si è tentato di ricostruire il modello geologico – tecnico alla scala del versante. Infine si è cercato di modellizzare il fenomeno utilizzando il software Dan-W con il quale si sono testati vari modelli reologici fra i quali si sono dimostrati più realistici, in riferimento al caso in esame, il modello frizionale ed il modello di Voellmy. Per questi due modelli è stata quindi effettuata la calibrazione dei parametri, in riferimento dei quali si è visto che, con il modello di Voellmy si è ottenuto un buon valore della distanza percorsa dalla colata, ma una stima delle velocità abbastanza elevate. Il modello frizionale invece ha portato ad una buona stima degli spessori dei depositi, ma sottostimando la distanza che avrebbe potuto percorrere la colata se non avesse incontrato ostacoli.
Resumo:
Il presente lavoro di tesi riguarda l’analisi della vulnerabilità sismica di serbatoi atmosferici in acciaio. I serbatoi sono strutture di varie forme e dimensioni, utilizzate per lo stoccaggio di liquidi come l’acqua, il petrolio e il gas naturale. La loro importanza non deriva solamente dal loro valore economico e da quello della sostanza contenuta, ma anche dalle conseguenze disastrose causate da un loro collasso strutturale. Risulta quindi fondamentale progettare sistemi che siano efficienti ed affidabili, soprattutto nei confronti di azioni sismiche. In questo campo, in particolare negli ultimi decenni, sono state condotte numerose campagne sperimentali, grazie alle quali si è compreso meglio il comportamento dei serbatoi. Le normative, inoltre, hanno introdotto al loro interno indicazioni riguardo all’analisi dinamica, fornendo un valido strumento per i progettisti. In questo lavoro di tesi si è analizzata la vulnerabilità sismica di varie tipologie di serbatoi e si sono confrontati i risultati ottenuti. Sono stati studiati in particolare due modelli: il primo considera il serbatoio come rigido, il secondo, invece, come deformabile. L’analisi è stata automatizzata creando degli script che permettono, variando solamente alcuni parametri (caratteristiche del serbatoio, del liquido contenuto e del terreno presente), di giungere in tempi rapidi ad una soluzione accettabile per verificare le possibili rotture. Per modellare il problema si è scelto di seguire l’approccio fornito dalle raccomandazioni neozelandesi NZSEE, mentre per le verifiche di instabilità sono state prese in considerazione anche le normative europee. L’obiettivo è dunque quello di analizzare, attraverso un modello semplificato ed automatizzato, la vulnerabilità di serbatoi cilindrici in acciaio contenenti liquido sottoposti ad un’azione sismica.
Resumo:
Le osservazioni e i risultati proposti in questo elaborato si inseriscono all'interno di un progetto più vasto frutto della collaborazione tra SRM e il Dipartimento di Trasporti dell'Università di Bologna. Infatti in occasione del European Cycling Challenge del 2013, SRM ha raccolto per la sola area di Bologna un dataset di 1,050,000 punti GPS registrati da ciclisti volontari durante l'interno mese di Maggio attraverso l'applicazione Endomondo. Ai ciclisti che partecipavano volontariamente all’iniziativa è stato chiesto di registrare i proprio viaggi nella città di Bologna effettuati con la bici, attraverso l’ applicazione, gratuitamente scaricabile sul proprio smartphone: all’inizio di ciascun viaggio, i partecipanti dovevano attivare l’applicazione, e quindi il sistema GPS del loro smartphone, e registrare lo spostamento. Questo campione è stato dunque utilizzato come punto di partenza per questo progetto che rappresenta il primo caso studio italiano in cui i modelli di scelta del percorso ciclabile si sono basati su un ampio campione di dati GPS raccolti mediante sondaggio RP. In questo elaborato quindi si è analizzato il campione dei percorsi in termini di singoli spostamenti, del confronto con il percorso di minor lunghezza e all'interno di un set di alternative compiute. Infine si sono indagati due parametri che hanno influenzato la scelta del percorso ciclabile da parte degli utenti.
Resumo:
Dall'analisi dei big data si possono trarre degli enormi benefici in svariati ambiti applicativi. Uno dei fattori principali che contribuisce alla ricchezza dei big data, consiste nell'uso non previsto a priori di dati immagazzinati in precedenza, anche in congiunzione con altri dataset eterogenei: questo permette di trovare correlazioni significative e inaspettate tra i dati. Proprio per questo, il Valore, che il dato potenzialmente porta con sè, stimola le organizzazioni a raccogliere e immagazzinare sempre più dati e a ricercare approcci innovativi e originali per effettuare analisi su di essi. L’uso fortemente innovativo che viene fatto dei big data in questo senso e i requisiti tecnologici richiesti per gestirli hanno aperto importanti problematiche in materia di sicurezza e privacy, tali da rendere inadeguati o difficilmente gestibili, gli strumenti di sicurezza utilizzati finora nei sistemi tradizionali. Con questo lavoro di tesi si intende analizzare molteplici aspetti della sicurezza in ambito big data e offrire un possibile approccio alla sicurezza dei dati. In primo luogo, la tesi si occupa di comprendere quali sono le principali minacce introdotte dai big data in ambito di privacy, valutando la fattibilità delle contromisure presenti all’attuale stato dell’arte. Tra queste anche il controllo dell’accesso ha riscontrato notevoli sfide causate dalle necessità richieste dai big data: questo elaborato analizza pregi e difetti del controllo dell’accesso basato su attributi (ABAC), un modello attualmente oggetto di discussione nel dibattito inerente sicurezza e privacy nei big data. Per rendere attuabile ABAC in un contesto big data, risulta necessario l’ausilio di un supporto per assegnare gli attributi di visibilità alle informazioni da proteggere. L’obiettivo di questa tesi consiste nel valutare fattibilità, caratteristiche significative e limiti del machine learning come possibile approccio di utilizzo.
Resumo:
In questo lavoro si è tentato di fornire un metodo per la calibrazione di modelli numerici in analisi dinamiche spettrali. Attraverso una serie di analisi time history non lineari sono stati ottenuti gli spostamenti relativi orizzontali che nascono, in corrispondenza della connessione trave-pilastro di tipo attritivo, quando una struttura prefabbricata monopiano viene investita dalla componente orizzontale e verticale del sisma. Con un procedimento iterativo su varie analisi spettrali sono state calibrate delle rigidezze equivalenti che hanno permesso di ottenere, con buona approssimazione, gli stessi risultati delle analisi time history. Tali rigidezze sono state poi restituite in forma grafica. Per riprodurre gli spostamenti relativi orizzontali con un’analisi dinamica spettrale è quindi possibile collegare le travi ai pilastri con degli elementi elastici aventi rigidezza Kcoll. I valori di rigidezza restituiti da questo studio valgono per un’ampia gamma di prefabbricati monopiano (periodo proprio 0.20s < T < 2.00s) e tre differenti livelli di intensità sismica; inoltre è stata data la possibilità di considerare la plasticizzazione alla base dei pilastri e di scegliere fra due diverse posizioni nei confronti della rottura di faglia (Near Fault System o Far Fault System). La diminuzione di forza d’attrito risultante (a seguito della variazione dell’accelerazione verticale indotta dal sisma) è stata presa in considerazione utilizzando un modello in cui fra trave e pilastro è posto un isolatore a pendolo inverso (opportunamente calibrato per funzionare come semplice appoggio ad attrito). Con i modelli lineari equivalenti si riescono ad ottenere buoni risultati in tempi relativamente ridotti: è possibile così compiere delle valutazioni approssimate sulla perdita di appoggio e sulle priorità d’intervento in una determinata zona sismica.