631 resultados para Miccoli, Giovanni: I dilemmi e i silenzi di Pio XII


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabiliintenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacidi resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa si riportano i risultati di uno studio di rosoluzione temporale di un fotomoltiplicatore al Silicio (SiPM)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Bitcoin è una moneta digitale decentralizzata e parzialmente anonima. Viene scambiata tramite un software open source che utilizza la crittografia per garantire l'integrità e l'autenticità delle transazioni. Permette di inviare denaro digitale in maniera rapida, sicura ed economica attraverso Internet. La tesi si propone di analizzarne il fenomeno, partendo dalla sua storia fino alle possibili evoluzioni future. Vengono introdotte le basi di crittografia per comprenderne i concetti ed i meccanismi di funzionamento. In seguito viene analizzata l'implementazione del software e vengono discussi i principali vantaggi e criticità. La tesi esplora le possibili conseguenze di una sua adozione dal punto di vista economico e politico, e le innovazioni che potrebbe portare al sistema finanziario. Vengono infine mostrati alcuni esempi di software ispirati a Bitcoin che ne estendono ed ampliano le funzionalità nell'ambito dei sistemi distribuiti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’argomento trattato in questo elaborato riguarda una nuova tecnologia che si sta sviluppando nell’ambito dell’ingegneria dei tessuti: il Bioprinting. Tale rivoluzionario approccio completamente automatizzato, grazie all’utilizzo dell’elaborazione automatica delle immagini CAD (Computer Aided Design) e la fabbricazione assistita al calcolatore CAM (Computer Aided Manufacturing), si propone di ricreare tessuti e/o organi. In particolare nel seguito ne verrà data una definizione e ne verranno definiti i campi di applicazione, per poi proseguire con un’analisi del processo dal punto di vista delle fasi che lo compongono e la speciale tecnologia utilizzata. Infine verrà proposto qualche studio fatto in merito ai tessuti vascolari e alla cartilagine per poi concludere con i pionieri che tuttora contribuiscono al suo sviluppo e con Organovo, una delle aziende leader del settore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La verifica di vulnerabilità sismica di un edificio esistente è un procedimento volto a stabilire se questa è in grado o meno di resistere alla combinazione sismica di progetto. La vulnerabilità sismica di una struttura dipende da molteplici fattori quali la mancanza di requisiti fondamentali degli elementi strutturali, considerando che la maggior parte delle strutture presenti sul territorio italiano sono state progettate sulla base di normative che non consideravano l’azione sismica. Nel presente lavoro verranno analizzati tutti fattori necessari per effettuare una verifica di vulnerabilità sismica, determinando i fattori di sicurezza per ogni tipologia di verifica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente lavoro di tesi è finalizzato alla realizzazione dell’elettronica di controllo per una vettura prototipo, Nel Capitolo 1 della tesi viene descritto più nel dettaglio il progetto Formula SAE, introducendo gli aspetti peculiari della competizione; successivamente segue una breve descrizione del team UniBo Motorsport. Il Capitolo 2 descrive l’elettronica implementata nella stagione 2013 evidenziandone i punti di forza e le debolezze al fine di poter trarre delle conclusioni per comprendere la direzione intrapresa con questo lavoro di tesi. Nel Capitolo 3 viene presentata la soluzione proposta,motivandone le scelte e la necessidi suddividere il lavoro in più unidistinte, mantenendo le peculiarità tecniche del già eccellente lavoro effettuato nel corso degli anni da chi mi ha preceduto ed aggiungendo quelle funzionalità che permettono di mantenere la soluzione in una posizione dominante nel panorama della Formula Student. La progettazione dell’hardware che compone la soluzione proposta è descritta nel Capitolo 4, introducendo dapprima la metodologia adottata per la progettazione partendo dalle specifiche fino ad arrivare al prodotto finito ed in seguito ne viene descritta l’applicazione ad ogni unità oggetto del lavoro. Sono state progettate da zero tre unità: una centralina di controllo motore (ECU), una di controllo veicolo (VCU) ed un controller lambda per la gestione di sonde UEGO. Un aiuto fondamentale nella progettazione di queste tre unità è stato dato da Alma Automotive, azienda che fin dal principio ha supportato, anche economicamente, le varie evoluzioni dell’hardware e del software della vettura. Infine viene descritto nel capitolo 5 il software che verrà eseguito sulle unidi controllo, ponendo particolare risalto al lavoro di adattamento che si è reso necessario per riutilizzare il software in uso negli anni precedenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo elaborato è descrivere alcuni dei meccanismi di produzione dell’energia studiati nel campo astrofisico. Essendo questi piuttosto numerosi, sono stati trascurati i processi ritenuti di sola conversione di energia da una forma ad un’altra, come, per esempio,l’emissione da parte di una particella accelerata. In questo modo si è potuto dedicare più spazio ad altri fenomeni, molto comuni ed efficienti, che saranno qui anticipatamente elencati. Nel Capitolo 1 vengono descritti i processi di fusione nucleare che alimentano le stelle; per ognuno sono state riportate la quantidi energia prodotta e i tempi scala. Si è scelto inoltre di dare maggiore importanza a quei fenomeni che caratterizzano le fasi principali dell’evoluzione stellare, essendo questi anche i più efficienti, mentre le reazioni secondarie sono state solamente accennate. Nella Sezione 1.4 vengono descritti i meccanismi alla base dell’esplosione di supernova, essendo un’importante fase evolutiva nella quale la quantidi energia in gioco è considerevole. Come conclusione dell’argomento vengono riportare le equazioni che descrivono la produzione energetica nei processi di fusione descritti precedentemente. Nella seconda parte dell’elaborato, viene descritto il fenomeno dell’accrescimento gravitazionale utilizzando come oggetto compatto di riferimento un buco nero. Si è scelto di porre l’accento sull’efficienza della produzione energetica e sul limite di luminosidi Eddington.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo spazio fra le stelle nelle galassie non è vuoto, ma è composto da gas rarefatto, particelle di polvere, un campo magnetico, elettroni, protoni e altri nuclei atomici relativistici; spesso questi elementi possono essere considerati come un’unica entidi- namica: il mezzo interstellare o più semplicemente ISM. Nel primo capitolo vedremo come il mezzo si distribuisce generalmente all’interno delle galassie a spirale, in fasce di temperatura sempre minore man mano che ci si allontana dal centro (HIM, WIM, WNM, CNM). La conoscenza della distribuzione del mezzo è utile per poter comprendere maggiormente i processi di emissione e le varie zone in cui questi avvengono in una tipica galassia a spirale, che è lo scopo di questa tesi. L’ISM infatti entra in gioco in quasi tutti i processi emissivi, in tutte le bande di emis- sione dello spettro elettromagnetico che andremo ad analizzare. Il nostro modo di vedere le galassie dell’universo è molto cambiato infatti nel corso dell’ultimo secolo: l’utilizzo di nuovi telescopi ci ha permesso di andare ad osservare le galassie anche in bande dello spettro diverse da quella visibile, in modo da raccogliere informazioni impossibili da ottenere con la sola banda ottica. Nel secondo capitolo andremo ad analizzare cinque bande di emissione (banda X, ot- tica, radio, gamma e infrarossa) e vedremo come appaiono tipicamente le galassie a spirale a lunghezze d’onda differenti, quali sono i processi in gioco e come il mezzo interstellare sia fondamentale in quasi ogni tipo di processo. A temperature elevate, esso è responsabile dell’emissione X della galassia, mentre re- gioni più fredde, formate da idrogeno ionizzato, sono responsabili delle righe di emis- sione presenti nello spettro ottico. Il campo magnetico, tramite le sue interazioni con elettroni relativistici è la principale fonte dell’emissione radio nel continuo di una galas- sia a spirale, mentre quella in riga è dovuta a idrogeno atomico o a gas freddo. Vedremo infine come raggi cosmici e polvere, che fanno sempre parte del mezzo inter- stellare, siano rispettivamente la causa principale dell’emissione gamma e infrarossa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La radiazione elettromagnetica è una singola entità, come si deduce dall’universalità delle leggi di Maxwell, nonostante lo spettro elettromagnetico sia caratterizzato da regioni a cui si associano nomi differenti. Questo implica l’esistenza di un meccanismo fondamentale comune alla base di tutti i processi di radiazione, che si identifica in una carica in moto non uniforme. Infatti una carica stazionaria ha un campo elettrico costante e un campo magnetico nullo, quindi non irradia; lo stesso vale per una carica in moto uniforme. La radiazione di Bremsstrahlung, che avviene nel continuo, spaziando dal radio ai raggi gamma, fu scoperta negli anni ’30 del secolo scorso, in seguito all’osservazione che la perdita di energia che subisce un elettrone attraversando la materia non è data unicamente dalla ionizzazione: l’elettrone, accelerato dal nucleo ionizzato, irradia e, di conseguenza, viene frenato. Letteralmente “Bremsstrahlung“ significa “radiazione di frenamento” e in astrofisica rappresenta il principale meccanismo di raffreddamento di un plasma a temperature molto elevate; nel seguente elaborato tale plasma sarà considerato monoatomico e completamente ionizzato. Dall’analisi dello spettro di Bremsstrahlung si possono rilevare la temperatura e la misura di emissione della nube di gas osservato, che consentono di ricavare la densità, la massa e la luminosità della nube stessa. Nel capitolo 1 vengono riportate la descrizione di questo processo di radiazione e le principali formule che lo caratterizzano, illustrate in ambiente semiclassico (Bremsstrahlung termica) e in ambiente relativistico (Bremsstrahlung relativistica). Nel capitolo 2 segue la trattazione di alcuni esempi astrofisici: le regioni HII; il gas intergalattico degli ammassi di galassie ed emettono principalmente nella banda X; le galassie Starburst; le binarie X; la componente elettronica dei raggi cosmici e i brillamenti solari; infine un accenno agli oggetti di Herbig-Haro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi vengono trattati i fenomeni di urto tra fotoni e elettroni, nella fattispecie si riconoscono tre urti differenti: lo scattering Thomson, Compton e Compton Inverso (IC). L'attenzione viene focalizzata sull'effetto IC. Una volta riportati i risultati sui tre processi sopracitati, il testo prosegue con la trattazione del problema di interesse astrofisico, ovvero la Comptonizzazione. La Comptonizzazione è il caso più generale in cui IC e effetto Compton competono, e stabilisce come lo spettro fotonico viene modificato a causa delle interazioni col plasma. Vengono in seguito trattati due interessanti applicazioni astrofisiche della Comptonizzazione: l' effetto Sunyaev-Zel'Dovich e il Synchrotron-self-Compton.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si occupa dell’integrazione di misure NMR e microscopiche per la descrizione quantitativa degli effetti di stress esterni su colture cellulari. Una maggiore comprensione dei dati ricavati tramite NMR potrebbe consentire di interpretare la vitalità e funzionalità cellulare attraverso la localizzazione spaziale degli idrogeni. L'ipotesi di partenza è che la compartimentazione degli idrogeni (associati a molecole di acqua) nel citoplasma possa fornire una stima del numero di cellule vitali (e quindi in grado di mantenere l'acqua al proprio interno mediante processi attivi). I risultati NMR, prodotti dal gruppo di ricerca del Dipartimento di Fisica e Astronomia dell’Universidi Bologna della Prof.ssa Fantazzini, sono stati comparati con le informazioni acquisite dal candidato tramite metodologie di conteggio cellulare (sia vive che morte) presenti in un campione sottoposto a forte e prolungato stress (assenza di terreno di coltura e di bilanciamento del sistema tampone tramite CO2 per 400 ore). Cellule da una linea di glioblastoma multiforme (T98G) mantenute in condizioni di coltura standard sono state preparate secondo lo stesso protocollo per entrambe le tecniche di indagine, e monitorate per intervalli di tempo paragonabili. Le immagini delle cellule ottenute al microscopio ottico in modalità “contrasto di fase” sono state acquisite e utilizzate per l’analisi. Una volta definito un metodo di conteggio sperimentale, è stato possibile dedurre il comportamento delle concentrazioni di cellule sopravvissute in funzione del tempo di campionamento. Da una serie ripetuta di esperimenti è stato caratterizzato un andamento nel tempo di tipo esponenziale decrescente per il numero di cellule vive, permettendo la stima della costante di decadimento in buon accordo tra i vari esperimenti. Un analogo modello esponenziale è stato utilizzato per la descrizione dell'aumento del numero di cellule morte. In questo caso, la difficoltà nell'individuare cellule morte integre (per la frammentazione delle membrane cellulari dopo la morte) ha contribuito a determinare una sistematica sottostima nei conteggi. Il confronto dei risultati NMR e microscopici indica che la diminuzione del numero di cellule vive corrisponde ad una analoga diminuzione degli H1 compartimentalizzati fino ad un tempo specifico di circa 50-60 ore in tutti gli esperimenti. Oltre questo tempo, i dati di NMR mostrano invece un incremento di H1 compartimentalizzati, quando invece il numero di cellule vive continua a diminuire in modo monotono. Per interpretare i risultati ottenuti, è stato quindi ipotizzato che, a partire da cellule morte frammentate, strutture micellari e liposomiali formate dai lipidi di membrana in soluzione possano intrappolare gli H1 liberi, aumentando il segnale di risposta della componente compartimentalizzata come evidenziato in NMR.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con l'aumento del numero di sensori e ricevitori presenti sui dispositivi mobili attuali, è possibile lo sviluppo di nuove applicazioni in grado di fornire dati utili sul contesto in cui si trova un utente in un determinato momento. In questa tesi viene descritta la realizzazione di un servizio per dispositivi Android in grado di riconoscere il tipo di mobilità dell'utente. La motivazione principale di questo progetto è stata la scarsidi soluzioni specifiche per questo tipo di riconoscimento contestuale. Sono state quindi realizzate una libreria Java e un'applicazione Android in grado di fornire tale funzionalità. La tecnica impiegata per il riconoscimento è derivata da una ricerca dei dottori Luca Bedogni e Marco Di Felice e del professore Luciano Bononi, dell'Universidi Bologna. Tale tecnica sfrutta le misurazioni di accelerometro e giroscopio del dispositivo per rilevare pattern di movimento e associarli ai vari tipi di mobilità dell'utente. Per mostrare un possibile impiego di questo servizio, è stata realizzata un'applicazione che sfrutta i dati forniti dal servizio di riconoscimento per la gestione dello stato di alcune funzionalità del dispositivo. Inoltre, è stata effettuata una analisi statistica della precisione effettiva di questo sistema di riconoscimento, per evidenziarne i punti di forza e i limiti rispetto alle soluzioni già esistenti. E' stato osservato che il consumo energetico di questo sistema è minore rispetto ad applicazioni basate su servizi di geolocalizzazione, e che la sua precisione è accettabile rispetto ad altre soluzioni già esistenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi si arriva a classificare le varietà di Seifert, particolari 3-varietà che ammettono una fibrazione in cerchi. Dopo un'introduzione sulla topologia delle varietà e sulla classificazione delle superfici, vengono presentate le 3-varietà e la decomposizione in fattori primi. Con l'esposizione della decomposizione JSJ vengono introdotte le varietà di Seifert. Infine vengono classificati i fibrati di Seifert, tramite la superficie di base e le pendenze delle fibre singolari.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I sistemi di navigazione inerziale, denominati INS, e quelli di navigazione inerziale assistita, ovvero che sfruttano anche sensori di tipo non inerziale come ad esempio il GPS, denominati in questo caso INS/GPS, hanno visto un forte incremento del loro utilizzo soprattutto negli ultimi anni. I filtri complementari sfruttano segnali in ingresso che presentano caratteristiche complementari in termine di banda. Con questo lavoro di tesi mi sono inserito nel contesto del progetto SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), un progetto europeo, coordinato dall'Universidi Bologna, che prevede di mettere a punto una piattaforma robotica in grado di aiutare i soccorritori che operano in ambienti ostili, come quelli del soccorso alpino, le guardie forestali, la protezione civile. In particolare è prevista la possibilidi lanciare i droni direttamente da un elicottero di supporto, per cui potrebbe essere necessario effettuare l'avvio del sistema in volo. Ciò comporta che il sistema di navigazione dovrà essere in grado di convergere allo stato reale del sistema partendo da un grande errore iniziale, dal momento che la fase di inizializzazione funziona bene solo in condizioni di velivolo fermo. Si sono quindi ricercati, in special modo, schemi che garantissero la convergenza globale. Gli algoritmi implementati sono alla base della navigazione inerziale, assistita da GPS ed Optical Flow, della prima piattaforma aerea sviluppata per il progetto SHERPA, soprannominata DreamDroneOne, che include una grande varietà di hardware appositamente studiati per il progetto, come il laser scanner, la camera termica, ecc. Dopo una panoramica dell'architettura del sistema di Guida, Navigazione e Controllo (GNC) in cui mi sono inserito, si danno alcuni cenni sulle diverse terne di riferimento e trasformazioni, si descrivono i diversi sensori utilizzati per la navigazione, si introducono gli AHRS (Attitude Heading Rference System), per la determinazione del solo assetto sfruttando la IMU ed i magnetometri, si analizza l'AHRS basato su Extended Kalman Filter. Si analizzano, di seguito, un algoritmo non lineare per la stima dell'assetto molto recente, e il sistema INS/GPS basato su EKF, si presenta un filtro complementare molto recente per la stima di posizione ed assetto, si presenta un filtro complementare per la stima di posizione e velocità, si analizza inoltre l'uso di un predittore GPS. Infine viene presentata la piattaforma hardware utilizzata per l'implementazione e la validazione, si descrive il processo di prototipazione software nelle sue fasi e si mostrano i risultati sperimentali.