975 resultados para Kinect, Calcolo degli Eventi, EC, ECE


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obbiettivo ultimo di questo elaborato è quello di valutare il rischio per un evento sismico e un evento idrogeologico di tre reti di condotte per la distribuzione dell’acqua, per poter assegnare ai vari gradi di rischio un opportuno intervento. Le condotte delle reti sono identificate con: ID, materiale, pressione nominale, diametro nominale, portata, spessore, tipologia di giunti, rivestimento, protezione catodica, anno di posa, collocazione. Noti i dati, si possono calcolare le classi dei fattori vulnerabilità, esposizione e pericolosità, relativa ad ogni singola condotta e all’intera rete. La vulnerabilità valuta i fattori di suscettibilità e resilienza di una condotta, l’esposizione valuta i costi ad essa associati e la pericolosità valuta la possibilità degli eventi scelti in base alla collocazione fisica della condotta. Le classi sono successivamente combinate per conoscere il rischio della condotta rispetto l’intera rete. Valutato il livello di rischio abbinato al livello di vulnerabilità della condotta, si ottiene l’intervento opportuno per la condotta analizzata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato ha come oggetto l’analisi e lo studio delle teorie di calcolo degli stati tensionali e deformativi delle lastre in calcestruzzo e dei metodi di progettazione delle pavimentazioni rigide aeroportuali, le quali sono state applicate al caso specifico degli interventi di riqualifica e adeguamento delle infrastrutture di volo dell’Aeroporto “Marco Polo” di Tessera – Venezia. Sono state descritte le principali fasi realizzative della pavimentazione rigida dell’Apron Sud del suddetto aeroporto ed analizzati i risultati delle prove di caratterizzazione del calcestruzzo, in fase preliminare e in corso d’opera, e delle prove di valutazione della capacità portante della sovrastruttura ultimata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Edizione critica del volgarizzamento fiorentino trecentesco dell'"Estoire d'Eracles", contenuto nel ms. Plut. LXI.45 della Biblioteca Medicea Laurenziana, ancora inedito. Si tratta della traduzione in antico francese dell'opera di Guglielmo di Tiro "Historia rerum in partibus transamarinis gestarum", corredata di continuazioni svincolate all'opera latina e in stretto legame con la "Chronique d'Ernoul et de Bernard le Trésorier", che proseguono la narrazione degli eventi in Terrasanta. Il testo fiorentino riporta i fatti d'Oltremare dalla Prima Crociata a circa il 1231. La sua edizione è preceduta da una introduzione letterario-filologica, dalla descrizione del manoscritto e dall'analisi linguistica; seguono un glossario, l'indice dei nomi e dei luoghi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si inserisce nell’ambito del progetto WA104-NESSiE al CERN per il quale era richiesto lo sviluppo di un tracciatore di particelle cariche da utilizzare in presenza di campi magnetici e avente una risoluzione sulla posizione ricostruita di 1-2 mm. Il lavoro di tesi ha riguardato l'analisi dei dati raccolti con un prototipo del tracciatore composto da barre di scintillatori a sezione triangolare, accoppiati a SiPM i cui segnali sono acquisiti in modalità analogica. Il prototipo è stato esposto a particelle cariche presso la linea di fascio T9 del PS del CERN nel maggio 2016. La catena di analisi è stata validata con dati provenienti da una simulazione Monte Carlo basata su Geant4 che fornisce la risposta del tracciatore al passaggio di particelle cariche (pioni e muoni) a diversi impulsi (1-10 GeV/c). Successivamente, è stata fatta un'analisi preliminare dei dati reali e un confronto con la simulazione Monte Carlo. La risoluzione ottenuta per pioni di 5 GeV è di ∼ 2 mm, compatibile con il valore ottenuto dalla simulazione Monte Carlo di ∼ 1.5 mm. Questi risultati sono stati ricavati analizzando una frazione degli eventi acquisiti durante il test beam. Una misura più accurata della risoluzione del tracciatore può essere ottenuta introducendo alcune correzioni, come ad esempio l’allineamento dei piani, la ricalibrazione dei segnali dei singoli canali e, infine, analizzando l’intero campione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli autovalori giocano un ruolo fondamentale in moltissimi fenomeni fisici. La localizzazione degli autovalori di una certa matrice nel piano complesso, ad esempio, è fondamentale nello studio della stabilità degli aerei. Le frequenze delle vibrazioni dei fasci sono sostanzialmente gli autovalori di una matrice di dimensione infinita. Questo rende il calcolo degli autovalori un problema notevolmente importante. Tra i metodi iterativi noti per l'approssimazione degli autovalori vi è il metodo delle potenze, utilizzato per il calcolo dell'autovalore dominante (autovalore di modulo massimo) di una matrice data e del relativo autovettore associato. Affinchè l'algoritmo converga è necessario che ci sia un autovalore dominante e, in particolare, più l'autovalore dominante è staccato dal resto dello spettro, maggiore sarà la sua velocità di convergenza. Il metodo delle potenze e le sue varianti (metodo delle potenze inverse e metodo delle potenze inverse shiftate) sono molto usati nelle applicazioni, in cui spesso non si è interessati ad approssimare tutti gli autovalori dello spettro, ma solo alcuni. Le equazioni del moto in dinamica strutturale, problemi di ingegneria strutturale e problemi relativi all'informatica (come l'algoritmo di PageRank di Google) sono solo alcuni esempi di applicazioni possibili di tale metodo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi descriviamo due teorie, la MOND e la TeVeS, che si pongono come alternativa all’ipotesi dell’esistenza della materia oscura. Seguendo l’ordine storico degli eventi, nel primo capitolo presentiamo i dati sperimentali e le considerazioni teoriche che hanno convinto gli scienziati del ’900 che la massa osservata nell’Universo sia minore della massa dinamica inferita dalla fisica newtoniana e dalla Relatività Generale. Il primo tentativo di risolvere questo problema è consistito nell’ipotizzare l’esistenza di una materia non ancora osservata, divenuta nota come “materia oscura”. Affrontando le questioni sollevate dalle curve di rotazione delle galassie a spirale, dalla relazione di Tully-Fisher, dalla legge di Freeman e dalle fluttuazioni della radiazione cosmica di fondo, vedremo come questa ipotesi si sia evoluta per tenere conto dei risultati sperimentali, a partire dal modello della sfera isoterma fino al modello ΛCDM, e i problemi che essa non risolve. Nel secondo capitolo descriviamo la MOND, una modifica della dinamica newtoniana nata con l’obiettivo di ridurre la quantità di materia oscura necessaria per descrivere l’Universo. Il problema della massa nascosta può, infatti, essere dovuto a un’incompleta comprensione delle leggi della fisica e, confrontando la MOND con i dati sperimentali presentati nel primo capitolo, vedremo come essa riesca a descrivere la dinamica su scale galattiche ed extragalattiche. Concluderemo il capitolo mostrando una densità di lagrangiana capace di riprodurre la formula fenomenologica della MOND. Per affrontare le questioni cosmologiche è necessario disporre di una teoria relativistica che recuperi la MOND nel limite di campo debole. Nel terzo capitolo trattiamo quindi la TeVeS, riportando le azioni che permettono di derivare le equazioni dei campi di tale teoria. Dopo averne studiato i limiti relativistici e non relativistici, accenneremo a come essa permetta di estendere il paradigma MOND in campo cosmologico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Viaggiare da un punto all'altro dell'universo muovendosi in uno spazio-tempo piatto richiede tempi talmente colossali da risultare impossibile per la nostra razza; pertanto, un viaggio interstellare potrebbe essere realizzato solo per mezzo di topologie relativistiche in grado di accorciare la distanza fra i punti dell'universo. Dopo aver dato una serie di motivazioni per cui i buchi neri ed il ponte di Einstein-Rosen non sono adatti ad essere impiegati viene introdotta una particolare classe di soluzioni, presentata per la prima volta da Michael S. Morris e Kip S. Thorne, delle equazioni di Einstein: essa descrive wormholes i quali, almeno in linea di principio, risultano attraversabili dagli esseri umani in quanto non presentano un orizzonte degli eventi sulla gola. Quest'ultima proprietà, insieme alle equazioni di campo di Einstein, pone dei vincoli piuttosto estremi sul tipo di materiale in grado di dar luogo alla curvatura spazio-temporale del wormhole: nella gola del wormhole la materia deve possedere una tensione radiale di enorme intensità, dell'ordine di quella presente nel centro delle stelle di neutroni più massive per gole con un raggio di appena qualche kilometro. Inoltre, questa tensione dev'essere maggiore della densità di energia del materiale: ad oggi non si conosce alcun materiale con quest'ultima proprietà, la quale viola entrambe le "condizioni sull'energia" alla base di teoremi molto importanti e verificati della relatività generale. L'esistenza di questa materia non può essere esclusa a priori, visto che non esiste prova sperimentale o matematica della sua irrealisticità fisica, ma non essendo mai stata osservata è importante assicurarsi di impiegarne il meno possibile nel wormhole: questo ci porterà a mostrare che i wormholes in cui il materiale esotico presenta una densità di energia negativa per gli osservatori statici sono i più adatti al viaggio interstellare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato esplora l’attitudine delle organizzazioni nei confronti dei processi di business che le sostengono: dalla semi-assenza di struttura, all’organizzazione funzionale, fino all’avvento del Business Process Reengineering e del Business Process Management, nato come superamento dei limiti e delle problematiche del modello precedente. All’interno del ciclo di vita del BPM, trova spazio la metodologia del process mining, che permette un livello di analisi dei processi a partire dagli event data log, ossia dai dati di registrazione degli eventi, che fanno riferimento a tutte quelle attività supportate da un sistema informativo aziendale. Il process mining può essere visto come naturale ponte che collega le discipline del management basate sui processi (ma non data-driven) e i nuovi sviluppi della business intelligence, capaci di gestire e manipolare l’enorme mole di dati a disposizione delle aziende (ma che non sono process-driven). Nella tesi, i requisiti e le tecnologie che abilitano l’utilizzo della disciplina sono descritti, cosi come le tre tecniche che questa abilita: process discovery, conformance checking e process enhancement. Il process mining è stato utilizzato come strumento principale in un progetto di consulenza da HSPI S.p.A. per conto di un importante cliente italiano, fornitore di piattaforme e di soluzioni IT. Il progetto a cui ho preso parte, descritto all’interno dell’elaborato, ha come scopo quello di sostenere l’organizzazione nel suo piano di improvement delle prestazioni interne e ha permesso di verificare l’applicabilità e i limiti delle tecniche di process mining. Infine, nell’appendice finale, è presente un paper da me realizzato, che raccoglie tutte le applicazioni della disciplina in un contesto di business reale, traendo dati e informazioni da working papers, casi aziendali e da canali diretti. Per la sua validità e completezza, questo documento è stata pubblicato nel sito dell'IEEE Task Force on Process Mining.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato si propone di analizzare i moderni sistemi d’isolamento sismico. In particolare si studiano il funzionamento e le procedure di calcolo degli isolatori a pendolo scorrevole, facendo riferimento alle prescrizioni dell’attuale normativa tecnica e si analizza l’affidabilità sismica di una struttura isolata con tali dispositivi. Nell’ottica di voler introdurre i concetti base della progettazione antisismica, nel primo capitolo, vengono descritte le origini del fenomeno sismico, per arrivare alla definizione di accelerogramma di un terremoto. Per comprendere il passaggio da accelerogramma a spettro dell’azione sismica, si introduce la dinamica dei sistemi ad un grado di libertà per poi arrivare a definire gli spettri di risposta previsti dall’attuale normativa. Nel secondo capitolo vengono illustrati gli scopi e le funzionalità dell’isolamento sismico per poi passare in rassegna le principali tipologie di dispositivi antisismici attualmente in commercio. Nel terzo capitolo si analizza nel dettaglio il funzionamento degli isolatori a pendolo scorrevole, studiandone la modellazione matematica alla base e le procedure di calcolo previste dall’Eurocodice 8 e dalle NTC 08. Nello stesso capitolo viene progettato un dispositivo di isolamento a pendolo scorrevole, secondo l'analisi lineare equivalente. Nel quarto capitolo viene illustrata l’analisi sismica effettuata dagli ingegneri Castaldo, Palazzo e Della Vecchia, dell’università di Salerno, i cui risultati sono riportati nella rivista scientifica Engeneering structures, n. 95, 2015, pp. 80-93. Lo studio è effettuato sul modello strutturale tridimensionale di un edificio in calcestruzzo armato, isolato alla base con dispositivi a pendolo scorrevole.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si introduce il concetto di buco nero acustico come l’analogo sonoro di ciò che rappresenta un buco nero in relatività generale. In primo luogo verrà quindi illustrata la teoria della gravitazione di Einstein, per poi entrare nel dettaglio della soluzione di Schwarzschild e della nozione di buco nero. In secondo luogo si dimostrerà come alcuni sistemi, i fluidi disomogenei in movimento, riescano a riprodurre effetti gravitazionali sotto certe condizioni. In particolare si osserverà come il suono che si propaga in questi fluidi lo faccia lungo delle geodetiche determinate da una "metrica acustica" dipendente da velocità e densità del fluido, che verrà ricavata. Ciò che permetterà di stabilire l’analogia sarà un’estensione analitica della soluzione di Schwarzschild, quella di Painlevé-Gullstrand: si potrà infatti identificare (formalmente) l’elemento di linea acustico con l’elemento di linea di Painlevé-Gullstrand. Si troverà che portando la velocità del fluido a una velocità maggiore di quella del suono, nella zona supersonica le onde acustiche non potranno propagarsi controcorrente ma verranno trascinate nella direzione opposta, come i raggi luminosi vengono trascinati verso la singolarità all’interno dell’orizzonte degli eventi di un buco nero. La zona supersonica verrà quindi chiamata buco nero acustico.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di tesi affronta diverse tematiche riguardanti la valutazione della vulnerabilità sismica del centro storico di Sansepolcro, con particolare riferimento all’analisi di fonti storiche perlopiù inedite e a indagini morfologiche sui tessuti edilizi. La zona della Valtiberina toscana è stata interessata da numerosi eventi sismici che spesso hanno raggiunto intensità elevate e che hanno provocato molti danni. Il susseguirsi di tali eventi ha fatto si che si sviluppasse una certa esperienza nell’affrontare le conseguenze dell’evento sismico. Ne sono testimonianza i documenti conservati presso l’Archivio Storico Comunale di Sansepolcro che riguardano gli eventi sismici del 1781 e del1789. Dalla corrispondenza tra le autorità di Firenze e di Sansepolcro è stato possibile ricostruire la cronologia delle azioni principali compiute nella gestione dell’emergenza. Tra le lavorazioni eseguite, molti furono i presidi antisismici utilizzati. Nell’ambito dell’analisi delle fonti di archivio si sono analizzati anche documenti più recenti, in particolare gli elaborati del Genio Civile conservati presso l’Archivio di Stato di Arezzo riguardanti gli eventi sismici del 1917 e 1919. Parallelamente alle ricerche archivistiche si è cercato di stabilire una correlazione tra la morfologia dei tessuti e la vulnerabilità sismica degli aggregati edilizi in relazione al loro processo evolutivo e al loro periodo storico di formazione. Una volta stabilita, per ogni aggregato, la fase di impianto, ci si è avvalsi del metodo di calcolo speditivo dell’indice di vulnerabilità in pianta (TPS). Lo scopo è quello di elaborare delle considerazioni generali per singoli aggregati campione, per poi estenderle agli aggregati omogenei. A conclusione del lavoro si è preso in considerazione il caso del Palazzo Aloigi-Luzzi e se ne sono calcolati gli indici analitici globali di vulnerabilità sismica, per avere un riscontro concreto di un singolo caso.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Nell’attuale contesto di aumento degli impatti antropici e di “Global Climate Change” emerge la necessità di comprenderne i possibili effetti di questi sugli ecosistemi inquadrati come fruitori di servizi e funzioni imprescindibili sui quali si basano intere tessiture economiche e sociali. Lo studio previsionale degli ecosistemi si scontra con l’elevata complessità di questi ultimi in luogo di una altrettanto elevata scarsità di osservazioni integrate. L’approccio modellistico appare il più adatto all’analisi delle dinamiche complesse degli ecosistemi ed alla contestualizzazione complessa di risultati sperimentali ed osservazioni empiriche. L’approccio riduzionista-deterministico solitamente utilizzato nell’implementazione di modelli non si è però sin qui dimostrato in grado di raggiungere i livelli di complessità più elevati all’interno della struttura eco sistemica. La componente che meglio descrive la complessità ecosistemica è quella biotica in virtù dell’elevata dipendenza dalle altre componenti e dalle loro interazioni. In questo lavoro di tesi viene proposto un approccio modellistico stocastico basato sull’utilizzo di un compilatore naive Bayes operante in ambiente fuzzy. L’utilizzo congiunto di logica fuzzy e approccio naive Bayes è utile al processa mento del livello di complessità e conseguentemente incertezza insito negli ecosistemi. I modelli generativi ottenuti, chiamati Fuzzy Bayesian Ecological Model(FBEM) appaiono in grado di modellizare gli stati eco sistemici in funzione dell’ elevato numero di interazioni che entrano in gioco nella determinazione degli stati degli ecosistemi. Modelli FBEM sono stati utilizzati per comprendere il rischio ambientale per habitat intertidale di spiagge sabbiose in caso di eventi di flooding costiero previsti nell’arco di tempo 2010-2100. L’applicazione è stata effettuata all’interno del progetto EU “Theseus” per il quale i modelli FBEM sono stati utilizzati anche per una simulazione a lungo termine e per il calcolo dei tipping point specifici dell’habitat secondo eventi di flooding di diversa intensità.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La presente tesi si pone l’obiettivo di analizzare le principali metodologie per la stima delle conseguenze degli scenari incidentali propri degli stabilimenti che producono, operano o sono oggetto di stoccaggio di materiale esplosivo. Le sostanze esplosive sono utilizzate in innumerevoli attività civili, industriali e militari e considerando la loro intrinseca pericolosità, derivante dalla capacità di generare in uno spazio ridottissimo e in un tempo brevissimo una enorme quantità di energia, sono soggetti a tutta una serie di norme. Tali norme non solo classificano gli esplosivi ma ne regolamentano ogni utilizzo, dalla produzione, ai vari impieghi, allo stoccaggio fino allo smaltimento. Gli stabilimenti che detengono esplosivi possono essere classificati come a rischio di incidente rilevante e in quanto tali si trovano a dover sottostare alle varie direttive Seveso, da questo punto di vista si analizzano le caratteristiche a livello nazionale e regionale degli stabilimenti R.I.R. che operano con esplosivi. All’interno della tesi viene svolta un’analisi storica degli incidenti che hanno interessato gli stabilimenti che detengono esplosivi negli ultimi anni a livello mondiale, in modo tale da poter valutare quali eventi incidentali possano riguardare questa specifica classe di stabilimenti. Vengono poi presentati i principali approcci metodologici utilizzati per poter valutare le conseguenze degli scenari incidentali. Nello specifico vengono descritte le metodologie della normativa italiana T.U.L.P.S., del documento francese Sècuritè Pirotecnique, dell’Air Force Manual americano e alcuni metodi basati sull’equivalenza al TNT rintracciabili nella letteratura specifica. Le metodologie elencate precedentemente vengono poi applicate ad un caso di studio costituito da uno stabilimento fittizio caratterizzato da specifiche quantità di esplosivi suddivise in vari locali, localizzati in un ipotetico territorio. Dalla valutazione dei risultati ottenuti dall’applicazione dei vari approcci metodologici al caso studio è emerso un auspicabile proseguimento delle indagini relative alle metodologie relative alla quantificazione delle conseguenze degli scenari incidentali propri degli stabilimenti che detengono esplosivi con l’obiettivo di giungere ad una maggior standardizzazione dei metodi di calcolo che possa poi riflettersi anche in indicazioni uniformi a livello normativo.