827 resultados para Sismicità, pericolosità, bolognese, sisma, scossa, terremoto, magnitudo, meccanismo focale
Resumo:
Servizio di valorizzazione del territorio appenninico bolognese e di sensibilizzazione verso le disabilità sensoriali, attraverso attività sensoriali applicate in particolare nei comuni di Castiglione dei Pepoli e San Benedetto val di Sambro.
Resumo:
L’elaborato è incentrato sullo studio di una bicicletta pieghevole innovativa attraverso i metodi dell’Ingegneria Industriale. All’interno del moderno contesto urbano, la bicicletta pieghevole rappresenta una soluzione valida per quegli utenti che cercano un mezzo versatile, autonomo, economico, compatto e adatto alla nuova mobilità intermodale. Negli ultimi anni i costruttori di pieghevoli si trovano a dover soddisfare le richieste di una clientela sempre più consapevole e attenta, cercando di proporre prodotti che siano in grado di combinare praticità e prestazioni, con particolare attenzione al dettaglio e all’immagine. Lo scopo di questo progetto è quello di disegnare un mezzo a propulsione muscolare che sia in grado di offrire la migliore esperienza d’uso possibile. Attraverso un’attenta analisi di mercato tramite il metodo del Quality Function Deployment si individuano le caratteristiche chiave del prodotto e si indirizza la fase di progettazione, portata avanti attraverso l’impostazione tecnica del prodotto il disegno di un meccanismo di piega inedito. Successivamente si passa alla definizione delle geometrie e alla realizzazione dello stile tramite la costruzione di un modello 3D al CAD, a cui segue una fase di analisi strutturale col Metodo degli Elementi Finiti, secondo le prove previste dalla normativa europea per la sicurezza delle biciclette, che porta al re-design alla validazione del prodotto finale.
Resumo:
The thesis is the result of work conducted during a period of six months at the Strategy department of Automobili Lamborghini S.p.A. in Sant'Agata Bolognese (BO) and concerns the study and analysis of Big Data relating to Lamborghini's connected cars. The Big Data is a project of Connected Car Project House, that is an inter-departmental team which works toward the definition of the Lamborghini corporate connectivity strategy and its implementation in the product portfolio. The Data of the connected cars is one of the hottest topics right now in the automotive industry; in fact, all the largest automotive companies are investi,ng a lot in this direction, in order to derive the greatest advantages both from a purely economic point of view, because from these data you can understand a lot the behaviors and habits of each driver, and from a technological point of view because it will increasingly promote the development of 5G that will be an important enabler for the future of connectivity. The main purpose of the work by Lamborghini prospective is to analyze the data of the connected cars, in particular a data-set referred to connected Huracans that had been already placed on the market, and, starting from that point, derive valuable Key Performance Indicators (KPIs) on which the company could partly base the decisions to be made in the near future. The key result that we have obtained at the end of this period was the creation of a Dashboard, in which is possible to visualize many parameters and indicators both related to driving habits and the use of the vehicle itself, which has brought great insights on the huge potential and value that is present behind the study of these data. The final Demo of the project has received great interest, not only from the whole strategy department but also from all the other business areas of Lamborghini, making mostly a great awareness that this will be the road to follow in the coming years.
Resumo:
Questo elaborato presenta e discute le osservazioni svolte durante il rilevamento geologico dell’area di Passo Rolle, compilate in una carta geologica corredata di due sezioni geologiche, e alcune ricostruzioni del paleosforzo elaborate a partire dall’evidenza mesostrutturale della deformazione fragile che caratterizza l’area. Queste analisi consentono una migliore comprensione della sequenza litostratigrafica permo-triassica delle Dolomiti e forniscono informazioni sull’evoluzione strutturale della zona. La stratigrafia affiorante rappresenta un intervallo temporale che si estende dal Permiano, con il Piastrone Porfirico Atesino, le Arenarie di Val Gardena e la Formazione a Bellerophon, fino al tetto del Triassico inferiore, con la Formazione di Werfen. La sequenza è tagliata da un fascio di faglie normali subverticali orientate NNW-SSE che ribassano le unità triassiche ad est rispetto alle unità permiane ad ovest. Queste strutture appartengono alla Linea di Passo Rolle, una faglia plurichilometrica orientata N-S, tagliata dal Sovrascorrimento neogenico della Valsugana. La faglia di Passo Rolle si localizzò inizialmente nel Permiano ed è stata successivamente riattivata nel Mesozoico e nel Cenozoico. Dalla carta e dalle sezioni geologiche prodotte risulta evidente tale riattivazione. Sulla base di analisi mesostrutturali sono state identificate due fasi deformative che hanno coinvolto l’area: entrambi transpressive con direzione di raccorciamento principale NNW-SSE e WNW-ESE. Il software Wintensor ha permesso una ricostruzione quantitativa dei regimi dei paleosforzi, sia in termini di tensore di stress ridotto che di magnitudo relativa. Conoscendo la deformazione post-collisionale neoalpina che ha caratterizzato il settore orientale delle Alpi Meridionali e sulla base delle osservazioni durante il rilevamento geologico, è stato possibile collegare le evidenze misurate con le fasi deformative Valsuganese (Miocene) e Schio-Vicenza (Messiniano-Pliocene).
Resumo:
I CFRP laminati sono materiali dalle eccellenti proprietà meccaniche specifiche che hanno, però, il grande svantaggio di essere soggetti a delaminazione. Essa è una problematica che può seriamente comprometterne l’affidabilità in vita d’uso e va, perciò, contrastata cercando di prevenirla o cercando di ridurne gli effetti negativi. Lo scopo del presente elaborato di tesi è stato quello di produrre, mediante elettrofilatura, membrane polimeriche che, integrate in laminati compositi, abbiano funzione di rendere il composito delaminato in grado di “autoripararsi” tramite meccanismo di self-healing. È stato condotto uno studio di ottimizzazione di tutti i parametri riguardanti la soluzione ed il processo di elettrofilatura che conducesse all’ottenimento di membrane con una morfologia fibrosa esente da difetti e, contemporaneamente, ad una buona maneggiabilità delle stesse. Le membrane sono state caratterizzate morfologicamente tramite analisi SEM e analisi DSC.
Resumo:
La valorizzazione di biomasse lignocellulosiche rappresenta la strada che la chimica può percorrere per svincolarsi dalle fonti fossili e virare verso un futuro incentrato sulla sostenibilità ambientale. In quest’ottica, l’acido levulinico (AL) e i suoi esteri, detti alchil levulinati, ottenibili dalla valorizzazione di biomasse di scarto, rappresentano una classe di composti di grande interesse industriale. Infatti, dalla loro riduzione è possibile ottenere g-valerolattone (GVL), un’importante molecola piattaforma per l’industria chimica, o alchil valerati, composti interessanti per diverse branche dell’industria chimica e per la formulazione di bio-carburanti. Già da tempo è nota la possibilità di effettuare la riduzione di AL in fase liquida in presenza di alcoli come H-Donor secondo un meccanismo detto Catalytic Transfer Hydrogenation che può essere promosso da ossido di zirconio (ZrO2). Recentemente, è stato ottimizzato un processo che impiega i reagenti appena citati in un reattore continuo operante in fase gassosa con ZrO2 come catalizzatore. In questo lavoro, si è dopato tale sistema catalitico con palladio, al fine di promuovere le reazioni di riduzione consecutiva al GVL e si sono ottimizzati i parametri operativi come tempo di contatto, temperatura e rapporto tra substrato e H-Donor.
Resumo:
Questa tesi vuole riassumere il percorso di tirocinio che ho intrapreso all’ interno dell’azienda Curti. L'azienda, situata a Castel Bolognese, nasce nel 1955 e opera in svariati settori. Si occupa della produzione di macchine automatiche per il packaging, per la produzione di cavi elettrici e per il settore tessile; inoltre produce componenti per l'industria aerospaziale. L’azienda è votata ad una filosofia kaizen e fonda il processo produttivo su due forti pilastri: il WCM e la Lean Production. In questa esperienza sono stato assegnato all’ ufficio di pianificazione della produzione della divisione TetraPak. Qui ho potuto osservare da vicino come funziona un’azienda e imparare diversi compiti tipici di questo ruolo. Fra le attività che ho svolto c’è la gestione delle distinte sul gestionale Alnus e su Excel e la preparazione della documentazione per la spedizione. Successivamente ho concentrato la mia attenzione su un progetto specifico, denominato “Tethered”, interfacciandomi con il reparto ricambi. Secondo una recente normativa europea, dal 2024 tutti i packaging per il beverage con capacità inferiore ai 3 litri avranno l’obbligo di mantenere i tappi attaccati al contenitore. Il reparto ricambi riceve quindi molti ordini VCK Tethered, ovvero casse con i componenti per attuare i cambiamenti necessari per conformarsi alla normativa. Qui si concentra il mio lavoro di analisi della situazione as-is e lo studio di possibili azioni migliorative. Le azioni individuate sono l’acquisto di strumentazione, la disposizione di una scaffalatura dedicata (studiando una disposizione efficiente dei componenti), l’adozione di etichette informative sui contenitori e l'ottimizzazione delle spedizioni. Sono stati creati due OPL riguardanti il prelievo e l’imballaggio dei componenti. Infine, non è stata possibile applicarla, ma è comunque stata individuata la possibilità di implementare il metodo delle 5s, in modo da ottenere postazioni di lavoro più ordinate e pulite.
Resumo:
Gli Appennini sono una regione tettonicamente attiva che è stata luogo di forti terremoti storici in passato, tra i quali il recente L’Aquila (2009) e le sequenze di Amatrice-Visso-Norcia (2016-2017). Una densità di stazioni GPS sempre maggiore permette di stimare il tasso di deformazione orizzontale con più risoluzione spaziale che in passato. In questa tesi studio la correlazione tra tassi di deformazione geodetica orizzontale e tassi di sismicità negli Appennini, esaminando possibili implicazioni per valutazioni del potenziale sismogenico. Uso un nuovo dataset di velocità GPS analizzando lo stato di deformazione attraverso il calcolo dello strain rate geodetico. Per questo calcolo utilizzo tre algoritmi, tra quelli presenti in letteratura scientifica, e discuto punti di forza e limitazioni di ciascuno. Seleziono poi una mappa di strain rate tra le altre e sviluppo un’analisi seguendo l’approccio di uno studio recente per investigare la relazione tra tassi di sismicità e tassi di deformazione lungo la catena Appenninica. Per farlo, verifico se le ipotesi che sostengono l’approccio sono verificate. Calcolo la sismicità di background a partire da un nuovo catalogo sismico per l’Italia e testo se gli eventi indipendenti seguono un processo di Poisson nel tempo. Infine, divido la regione di studio in aree a diversa deformazione sulla base dei tassi di deformazionee analizzado la distribuzione della sismicità di background in questi eventi e analizzando la relazione tra tassi di deformazione e tassi sismicità. Mostro che vi è una relazione è approssimativamente lineare ma con una dipendenza importante dalla risoluzione della mappa di strain rate. Descrivo poi alcune implicazioni che questa relazione avrebbe su stime di due quantità che concorrono a definire il potenziale sismogenico analizzando quali sono i parametri all’interno dell’approccio che possono influenzare maggiormente dette stime.
Resumo:
In questo lavoro di tesi è stato approfondito il modello di coalescenza, ampiamente utilizzato in letteratura per descrivere la formazione di (anti)nuclei leggeri in collisioni ad alta energia negli acceleratori e di antinuclei cosmici, con applicazioni alle ricerche indirette di materia oscura nell’universo. Nello specifico, è stato studiato il parametro di coalescenza per (anti)nuclei con numero di massa A ≤ 4; utilizzando un fit ai dati dell’esperimento ALICE a LHC sulla dimensione della sorgente di protoni in collisioni pp a √s = 13 TeV, si è cercato di esplicitare la dipendenza del parametro di coalescenza dall’impulso trasverso. Dal confronto delle previsioni del modello così ottenuto con le misure del parametro di coalescenza raccolte da ALICE, si osserva che il parametro di coalescenza di d e 3He non segue l’andamento previsto. Questo risultato evidenzia quindi la necessità di rivedere il modello di sorgente adottato o i suoi limiti di applicazione a diversi sistemi di collisione. In vista della possibilità di implementare il meccanismo di formazione per coalescenza nei generatori Monte Carlo per la simulazione degli antinuclei, si è tentato di caratterizzare la sorgente di protoni attraverso l’utilizzo del generatore PYTHIA 8.3. In particolare, è stata effettuata un’analisi delle coordinate spaziali, della quantità di moto e del tempo di produzione dei protoni a rapidità centrale generati in 10^5 collisioni pp. I grafici ottenuti mostrano che la sorgente è sostanzialmente isotropa.
Resumo:
Introduzione: Il COVID-19 colpisce vari apparati e il meccanismo di diffusione non è noto. La quarantena durante la malattia inoltre costringe alla sedentarietà con ripercussioni fisiche e psicologiche. Lo studio indaga se il COVID-19 possa avere un’influenza sugli infortuni e sulla performance sportiva dei podisti e il ruolo della fisioterapia nella riabilitazione post infortunio. Materiali e metodi: La raccolta dati è avvenuta tramite distribuzione di questionari cartacei e digitali nelle società podistiche italiane dal 2 Marzo al 15 Aprile 2022. I criteri di inclusione erano l’essere maggiorenni, allenarsi almeno 1-2 volte a settimana e comprendere la lingua italiana. Risultati: 245 podisti rispettavano i criteri di inclusione. Negli ultimi 3 anni l’81,63% è incorso in infortunio; per la riabilitazione la maggior parte degli atleti si è rivolta a un fisioterapista e il grado di soddisfazione della riabilitazione è molto alto. Il 45,31% ha contratto il COVID-19 e di questi il 47,74% ha riferito una percezione di diminuzione della performance dopo la malattia, la quale non è influenzata dalla durata dell’interruzione degli allenamenti. Il 48,65% è incorso in infortunio dopo il COVID-19 e il tasso d’infortunio è maggiore rispetto al periodo antecedente al contagio. Non vi è invece differenza tra l’incidenza di infortunio di chi ha contratto il COVID-19 e il restante campione. Conclusione: Il COVID-19 potrebbe non predisporre maggiormente l’atleta a infortunio rispetto alla popolazione generale, ma potrebbe aumentare la sua suscettibilità rispetto al periodo antecedente al contagio. Il percorso riabilitativo più efficace per il recupero è quello intrapreso affidandosi a professionisti sanitari del settore. La malattia per molti ha un impatto molto negativo sulla propria performance, ma questo non dipende dall’interruzione prolungata degli allenamenti e quindi potrebbe non essere dovuto al deallenamento ma a qualche aspetto non ancora indagato in letteratura.
Resumo:
Il mondo delle macchine automatiche è in costante evoluzione, ed è in questo contesto che si colloca l’attività di analisi e progettazione oggetto di questo studio. Tutto questo è stato svolto presso l’azienda G.D S.p.A. All’interno dell’Ufficio Tecnico dell’azienda, in collaborazione con l’Ufficio Calcolo, è stata analizzata la resistenza dei componenti, il comportamento deformativo e lo stato tensionale di una testa di taglio principalmente per filtri e cannucce, con lo scopo di sviluppare una nuova soluzione a velocità incrementata, già presente in diverse macchine automatiche e che verrà implementata in molte altre ancora in fase di produzione e progettazione. A tale scopo vengono effettuate diverse verifiche sui componenti, confrontando continuamente i risultati con la situazione attuale di funzionamento e con innovative simulazioni dinamiche e FEM, sull’intero assieme, con lo scopo di prendere in considerazione il maggior numero di contributi alle sollecitazioni, alle deformazioni ed alle vibrazioni possibili, che potrebbero causare criticità o malfunzionamenti del sistema, modellando nel modo più realistico possibile il funzionamento e la movimentazione del meccanismo. L’attuale produttività massima della macchina si attesta su 5000 pz/min con una velocità di rotazione della testa di taglio di 2500 rpm. L’analisi e il miglioramento del sistema ha l’obiettivo di aumentare la velocità di produzione, e quindi di rotazione, a 6000 pz/min e 3000 rpm. Viene infine analizzata la nuova soluzione, verificando anche con prove di funzionamento la validità delle simulazioni e della riprogettazione effettuati. Sono stati studiati e presi in considerazione tutti gli aspetti fondamentali della testa di taglio, nel suo assieme e di ogni suo componente, con lo scopo di migliorarne le prestazioni e la produttività garantendo la sicurezza del meccanismo e al tempo stesso un funzionamento ottimale con la creazione di un prodotto di ottima qualità.
Resumo:
L’emissione di Compton Inverso (IC) rientra nei processi di radiazione detti di diffusione (o di scattering) e riguarda l’interazione tra elettroni relativistici ad alta energia e fotoni molto meno energetici. Il meccanismo di interazione viene approssimato ad un semplice urto tra le due particelle, in seguito al quale il fotone acquista parte dell’energia cinetica dell’elettrone, venendo diffuso ed osservato a frequenza più alta e con direzione di propagazione diversa rispetto a quanto possedeva prima dell’urto. Il Compton Inverso è il meccanismo contrario della diffusione Compton, dove il fotone perde energia in seguito all’urto con l’elettrone e viene osservato a frequenze inferiori a quelle originarie. L’IC viene osservato in ambito astrofisico soprattutto in combinazione con l’emissione di sicrotrone – nella quale elettroni relativistici presenti in regioni magnetizzate vengono accelerati dal campo magnetico ed emettono radiazione – in un fenomeno detto Synchrotron Self-Compton. Esso avviene solitamente in sorgenti molto compatte nelle quali i fotoni prodotti per sincrotrone hanno maggiore possibilità di interagire nuovamente con gli elettroni che li hanno generati, venendo diffusi ad energie più elevate. L’IC viene inoltre osservato in combinazione alla diffusione Compton in un processo detto Comptonizzazione. Ciò si verifica in plasmi molto caldi e abbastanza rarefatti, nei quali si hanno innumerevoli scambi di energia tra le particelle che li compongono. La tesi comprende una prima parte introduttiva nella quale viene presentato il contesto storico di inizio Novecento nel quale si inserisce, tra gli altri, il fisico Arthur H. Compton. Successivamente, vengono spiegati nel dettaglio i principali meccanismi di diffusione con particolare attenzione all’IC. Infine, sono illustrate le applicazioni astrofisiche del Compton Inverso e alcune delle sorgenti nelle quali l’IC viene osservato in combinazione con altri processi di radiazione.
Resumo:
Con l’avvento dell’Industry 4.0, l’utilizzo dei dispositivi Internet of Things (IoT) è in continuo aumento. Le aziende stanno spingendo sempre più verso l’innovazione, andando ad introdurre nuovi metodi in grado di rinnovare sistemi IoT esistenti e crearne di nuovi, con prestazioni all’avanguardia. Un esempio di tecniche innovative emergenti è l’utilizzo dei Digital Twins (DT). Essi sono delle entità logiche in grado di simulare il reale comportamento di un dispositivo IoT fisico; possono essere utilizzati in vari scenari: monitoraggio di dati, rilevazione di anomalie, analisi What-If oppure per l’analisi predittiva. L’integrazione di tali tecnologie con nuovi paradigmi innovativi è in rapido sviluppo, uno tra questi è rappresentato dal Web of Things (WoT). Il Web of Thing è un termine utilizzato per descrivere un paradigma che permette ad oggetti del mondo reale di essere gestiti attraverso interfacce sul World Wide Web, rendendo accessibile la comunicazione tra più dispositivi con caratteristiche hardware e software differenti. Nonostante sia una tecnologia ancora in fase di sviluppo, il Web of Thing sta già iniziando ad essere utilizzato in molte aziende odierne. L’elaborato avrà come obiettivo quello di poter definire un framework capace di integrare un meccanismo di generazione automatica di Digital Twin su un contesto Web of Thing. Combinando tali tecnologie, si potrebbero sfruttare i vantaggi dell’interoperabilità del Web of Thing per poter generare un Digital Twin, indipendentemente dalle caratteristiche hardware e software degli oggetti da replicare.
Resumo:
Il fine di questo elaborato riguarda lo studio di soluzioni per il contrasto di giocatori baranti controllati da algoritmi presenti nel videogioco online Team Fortress 2. Dopo una breve introduzione alla storia degli sparatutto online, si descriverà il funzionamento di tutti i componenti che sviluppano l'ambiente di gioco, oltre a definire termini e sistemi vitali per la comprensione dell'elaborato ed una breve introduzione a Team Fortress 2. Si procederà alla discussione del cheat e dei software e/o environment sfruttati dagli attacanti in partita, andando a cercare di spiegare il meccanismo e l'origine di questi elementi, nonché introdurre il concetto dei bot baranti implementati usando il programma open source cathook. Una volta spiegata la minaccia si andrà a spiegare la difesa da parte del gioco e degli sviluppatori attraverso il software di anticheat Valve Anti-Cheat (VAC) presente sul gioco, definendo le terminologie e alcune caratteristiche comuni rispetto agli altri, per poi introdurre le nuove tecnologie di contrasto sviluppati per Counter Strike: Global Offensive, ovvero Overwatch, Trust Factor e l'anticheat con deep learning VACNET. Infine, dopo aver definito più approfonditamente il funzionamento degli algoritmi baranti, verranno suggerite delle possibili soluzioni implementabili e del motivo per cui non riescono a risolvere completamente il problema. Concluderemo spiegando cosa stanno facendo i sviluppatori, per poi descrivere come effettivamente il problema possiede come l'unica soluzione di evitare di giocare nei server ufficiali di gioco, mantenendo comunque gli algoritmi liberi nei server ufficiali.
Resumo:
Nel 1932 l'ingegnere e fisico Karl Jansky progettò un’antenna in grado di rilevare onde radio alla frequenza di 20.5 MHz, con la quale notò un'emissione diffusa che proveniva da ogni zona del cielo e si intensificava verso la costellazione del Sagittario. Oggi sappiamo che quella osservata da Jansky è radiazione di sincrotrone. Il meccanismo di emissione di sincrotrone affonda le sue radici nelle leggi dell'elettromagnetismo: quando una particella carica attraversa una regione di spazio in cui è presente un campo magnetico, viene accelerata dalla forza di Lorentz e comincia ad irraggiare in virtù dell'accelerazione subita, come previsto dalla formula di Larmor. A seconda che il moto avvenga a velocità non relativistiche, relativistiche o ultrarelativistiche, l’emissione è chiamata rispettivamente radiazione di ciclotrone, ciclotrone relativistico e sincrotrone. L’emissione diffusa osservata da Jansky, allora, può essere interpretata come radiazione di sincrotrone prodotta dall’interazione delle particelle ultrarelativistiche dei raggi cosmici con il campo magnetico che permea la Via Lattea, mentre l’emissione più intensa nel Sagittario è oggi identificata con la radiosorgente Sagittarius A*, localizzata in corrispondenza del buco nero supermassiccio al centro della Galassia. L’emissione di sincrotrone rappresenta uno dei processi di emissione più rilevanti in Astrofisica ed è in grado di spiegare l’origine di gran parte della radiazione osservata nella banda radio, tanto di quella diffusa quanto di quella generata da radiosorgenti individuali, come radiogalassie e resti di supernova. Le proprietà e la peculiare distribuzione spettrale della radiazione di sincrotrone consentono di ricavare una serie di informazioni sulla sorgente da cui è stata emessa. Per via dello stretto legame con il campo magnetico, inoltre, la radiazione di questo tipo è uno strumento d’indagine fondamentale per la ricostruzione del campo magnetico galattico ed extragalattico.