1000 resultados para misure, strumentali, variabilità, stabilità, cammino, indice, rischio, caduta, anziani
Resumo:
Tra tutti i fenomeni naturali osservabili, ne era presente uno particolarmente interessante e con il quale si aveva diretto contatto quotidianamente: la gravità. Dopo le innumerevoli osservazioni astronomiche effettuate da Galileo, fu Newton nel diciassettesimo secolo a capire che il moto dei pianeti era governato dalle medesime leggi che descrivono la caduta dei gravi sulla Terra e fu quindi lui che ci fornì una prima teoria della gravità con la quale si spiegarono le orbite dei pianeti con ottima precisione. Grazie al contributo di Einstein, la teoria si rinnovò e si arricchì, ma rimase pur sempre lontana dall' essere completa, tant' è che ancora oggi sono presenti molte domande a cui non siamo in grado di rispondere. In questo articolo ci occuperemo di tali quesiti, provando a formulare una teoria che sia in accordo con le attuali evidenze sperimentali. Nella prima parte, tratteremo le ragioni che hanno spinto i ricercatori ad introdurre le nuove teorie della gravità f(R); in particolare vedremo la peculiarità delle curve di rotazione delle galassie e perché ci sia il bisogno di tirare in ballo la materia oscura. Discuteremo anche alcuni problemi derivanti dall' evoluzione cosmica e altre incongruenze riguardanti la stabilità delle stelle di neutroni. In seguito mostreremo come ricavare l' equazione di Einstein partendo dai principi variazionali di Hamilton, e estenderemo tale ragionamento con lo scopo di ottenere un' equazione corrispondente ad una gravità modificata. Infine, verranno introdotte le teorie della gravità f(R), per mezzo delle quali cercheremo di discutere alcune possibili spiegazioni alle problematiche mosse nella parte introduttiva.
Resumo:
L'isolamento gravitazionale delle sonde dello spazio profondo durante le loro fasi di crociera ed i loro esigui livelli di vibrazioni, le rendono la migliore collocazione possibile per mini-laboratori automatici di fisica fondamentale da installare su di esse come strumenti scientifici. Date le note difficoltà di misurazione della costante di gravitazione universale, probabilmente dovute alla collocazione terrestre dei laboratori, si propone di dedicare un mini-laboratorio alla misurazione del valore locale ed istantaneo della costante G ed alla sua stabilità spazio-temporale durante il moto della sonda. La misurazione di G nel mini-laboratorio può essere effettuata rilasciando con attuatori elettrostatici, senza velocità relativa, due masse campione, preferibilmente due sfere d’oro da 1Kg, a distanza di 1 mm, e monitorando il loro libero moto, dominato dall’attrazione gravitazionale reciproca, con un sensore di spostamento laser interferometrico multicanale. Dopo il congiungimento le masse dovrebbero essere riposizionate e rilasciate nuovamente per una misurazione quasi continua della costante. Un meccanismo dorrebbe invece bloccare le masse durante le fasi dinamiche della sonda. Un sensore di spostamento interferometrico a fibre ottiche, FPS3010 della Attocube, appariva adatto ed un esperimento è stato realizzato per provarlo in un apparato simulante il mini-laboratorio. In una campana del vuoto isolata dalle vibrazioni, due cilindri in tungsteno da 1Kg sono stati sospesi orizzontante tramite micro-Dyneema a piastre in allumino movimentate da nanoposizionatori piezoelettrici dotati di encoder ottico nanometrico. Il sensore ha monitorato il moto radiale dei cilindri, le cui basi combacianti sono state posizionate a distanze di separazione variabili da 10 micron a 5000 micron. Malgrado il rumore meccanico ed una sorgente ignota di errore sistematico, un moto attrattivo è stato riscontrato differenzialmente o direttamente in molte misurazioni e nessuna ha mostrato un moto repulsivo. In alcune misurazioni è direttamente visibile la rotazione dell’asse di oscillazione dei cilindri sospesi. Il sensore si è comportato egregiamente.
Resumo:
La tesi analizza l'estensione del calcolo classico, il calcolo frazionario, descrivendone le proprietà principali e dandone esempi concreti. Si procede con la definizione di indice di Hurst e di moto Browniano frazionario. Si vede poi come è possibile estendere il calcolo frazionario al calcolo stocastico rispetto ad un moto Browniano frazionario. Infine, si richiamano alcuni concetti di teoria della probabilità.
Resumo:
Questa tesi si prefigge lo scopo di rendere possibile la comprensione ad un pubblico italiano dello spettacolo teatrale in lingua slovacca Michelangelo – Freska o ceste umelca (Michelangelo – Affresco sul cammino di un artista) attraverso la sopratitolazione. Il regista della rappresentazione teatrale, Peter Weinciller, oltre a dirigere la compagnia Teatro Colorato sul territorio slovacco, è riuscito a portare le opere di successo anche all’estero, per cui si è reso necessario l’ausilio di un mezzo che potesse renderlo possibile. Per poter compiere questa mediazione, ci si è avvalsi dei sopratitoli, uno strumento di recente introduzione nel mondo della traduzione audiovisiva. Questa tecnica, che deriva dalla più conosciuta sottotitolazione, permette di rendere accessibile ad un pubblico mondiale rappresentazioni teatrali in lingua originale. Durante il lavoro si è cercato di capire a fondo il testo di partenza per poter rendere nella miglior maniera possibile il contenuto e le emozioni che include e che intende suscitare. Nonostante le difficoltà incontrate nella traduzione dal punto di vista linguistico, si è cercato di rendere fruibile al pubblico la migliore mediazione possibile dalla lingua slovacca, essendo comunque consapevoli che il soggetto e la collocazione temporale e spaziale dell’opera abbiano avvantaggiato un pubblico italiano. In conclusione, si è riusciti a proporre un lavoro che ha permesso una perfetta mediazione di uno spettacolo che altrimenti non avrebbe avuto la possibilità di essere rappresentato su territorio non slovacco.
Resumo:
Studio, a livello preliminare, di un sistema a pilotaggio remoto che permetta la sorveglianza e il monitoraggio di zone aeree e marine ad alto rischio e in contemporanea di compiere una raccolta di dati che possa essere inviata in tempo reale ad un utente a terra. Negli ultimi anni si è sviluppato notevolmente il settore dei velivoli a pilotaggio remoto sia ad ala fissa sia ad ala rotante, per la videoripresa e la fotografia aerea a bassa quota, che è utilizzata in molti ambiti tra i quali la fotogrammetria, la geologia e l’archeologia, nonché per studi scientifici e per la sicurezza. Nel presente lavoro di tesi è stata studiata la fattibilità di un UAV capace di effettuare la sua missione, previa pianificazione, in due ambienti completamente diversi fra loro: l’aria e l’acqua. Così facendo si ha la possibilità di acquistare un solo mezzo con costi minori e con un profilo di missione molto più vasto. Lo sviluppo di questo drone, pensato per operazioni di protezione civile, si è articolato in più fasi: anzitutto si è cercato di stabilire quale fosse il suo ambito di utilizzo e quali caratteristiche avrebbe dovuto avere. Successivamente si è iniziato a valutare l’equipaggiamento del velivolo con tutti i sistemi necessari per compiere la sua attività ed infine si è realizzato un disegno CAD semplificato della sua struttura. La seconda parte del lavoro è stata incentrata sullo studio preliminare della stabilità del velivolo sia in configurazione aerea sia in quella marina andando dapprima a calcolare la posizione del baricentro dell’UAV in modo da avere un velivolo aereo staticamente stabile e a simularne il volo. Successivamente si è modificato un modello Simulink di un UAV disponibile in rete, adattandolo opportunamente a questo caso per simulare parte della missione e si è potuto constatare che il velivolo risulta essere stabile; per far questo sono state calcolate diverse derivate aerodinamiche in modo da poter simulare il comportamento dinamico del velivolo. Anche per la configurazione marina sono state calcolate le derivate aerodinamiche più significative ed è stata realizzata una simulazione per valutare la stabilità del ROV, sempre a comandi fissi. In ultima analisi si è studiata una missione tipica che potrebbe effettuare questo UAV multi-modale: per fare ciò si è tracciata in Google Earth una traiettoria cui sono stati aggiunti alcuni modelli CAD nelle fasi principali del volo per far capire come varia la forma del mezzo durante la missione. Lo scenario della missione è in un contesto di disastro ambientale dovuto ad un incidente in una centrale nucleare vicina al mare, caso che ben si presta alla applicazione di questo mezzo a pilotaggio remoto.
Resumo:
Il presente lavoro di tesi per la Laurea Specialistica in Geologia e Territorio è stato concepito come ricostruzione, approfondimento e verifica dell’insieme di interventi finalizzati alla stabilizzazione di versante che hanno coinvolto il tratto della ferrovia Porretta-Pistoia ubicato tra la progressiva 50 + 730 e la progressiva 50 + 650. In quest’area, alle prime ore del giorno 5 Gennaio 2014, è avvenuto l’innesco di un evento franoso che ha coinvolto il rilevato su cui transita la via ferrata: la causa della mobilizzazione è stata ricondotta fin da subito all’intenso evento piovoso occorso nei giorni precedenti la mobilizzazione. La zona coinvolta nel dissesto è situata nei pressi della frazione di Corbezzi, in località Casciano, nel territorio nord-orientale della provincia di Pistoia: il bacino idrografico è quello del torrente Brana, tributario del Fiume Ombrone. L’urgenza e l’importanza della realizzazione di questi interventi non era da attribuirsi alla pericolosità nei confronti delle vite dei residenti, ma piuttosto al fatto che l’opera ferroviaria è da considerarsi come un bene di importanza strategica non solo per la provincia di Pistoia, ma anche per le regioni Toscana ed Emilia-Romagna, in quanto mezzo efficace di collegamento e spostamento di pendolari e merce tra le due. L’elaborato che viene proposto è il risultato delle analisi dei dati acquisiti in fase di progettazione, dello studio effettuato direttamente in campo e di una fase finale di verifica sulla stabilità del versante a seguito della realizzazione delle opere e sulla correttezza del dimensionamento previsto per le stesse. Infine, ma non di minor importanza, viene proposto un approfondimento della coerenza dell’intervento nei confronti del contesto paesaggistico.
Resumo:
Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura
Resumo:
Siracusa, importante città della Sicilia sud orientale, si affaccia sul Mar Ionio ed è situata in una zona altamente esposta al pericolo di tsunami, di tipo locale e non: fra i numerosi eventi che hanno colpito quest’area si ricordano i maremoti dell’11 gennaio 1693 e del 28 dicembre 1908. L’obiettivo di questa Tesi è studiare la vulnerabilità sociale, esposizione e rischio legati a un’eventuale inondazione di Siracusa dovuta a tsunami. Il presente lavoro è strutturato come segue. Innanzitutto, si fornisce una descrizione della regione interessata illustrandone gli aspetti geografici e geologici e tracciando una breve sintesi della sequenza degli tsunami che l’hanno colpita. Successivamente si prende in esame la vulnerabilità, in particolare la vulnerabilità sociale, facendo un breve excursus dei concetti e delle metodologie di analisi. Nella Tesi lo studio della vulnerabilità sociale sarà diviso in tre fasi che si differenziano sia per l’approccio utilizzato che per le dimensioni dell’area in esame. Nella prima fase viene studiata tutta la costa orientale della Sicilia con l’obiettivo di calcolare la vulnerabilità sociale su base comunale. Per ogni comune della costa verrà calcolato un indice di vulnerabilità noto nella letteratura specialistica come SoVI (Social Vulnerability Index). Nella seconda fase ci si concentra sul comune di Siracusa e si stima il numero di persone potenzialmente colpite da tsunami sulla base di dati statistici disponibili a livello municipale. La terza fase consiste in un’analisi ancora più dettagliata che studia puntualmente le strutture che si trovano nella zona inondata e quantifica il danno sia per le persone che per le costruzioni considerando per queste ultime anche il loro valore economico.
Resumo:
L'indagine ha riguardato il profilo del vento nei primi 30 metri dello strato limite atmosferico stabile nell'ambito della teoria di similarità locale. Ad oggi, diversi esperimenti hanno confermato la validità della teoria per strati-limite su terreni livellati e superfici omogenee. Tali condizioni ideali sono però infrequenti nella realtà ed è perciò importante capire quali siano i limiti della similarità locale per strati-limite su terreni complessi e superfici disomogenee. Entrambe le condizioni sono presenti a Ny-Alesund (Svalbard, Norvegia) dove il Consiglio Nazionale delle Ricerche (CNR), nel 2009, ha installato una torre di 30 m, la Amudsen-Nobile Climate Change Tower (CCT), per lo studio dello strato-limite artico. Il lavoro di tesi ha riguardato misure di vento e turbolenza acquisite sulla CCT da maggio 2012 a maggio 2014. Il confronto tra le velocità del vento misurate dagli anemometri installati sulla CCT, ha rivelato criticità nel dato sonico manifestatesi con sovrastime sistematiche e maggiore erraticità rispetto alle misure provenienti dagli anemometri a elica. Un test condotto fra diversi metodi per il calcolo dei gradienti verticali della velocità del vento ha rivelato scarsa sensibilità dei risultati ottenuti al particolare metodo utilizzato. Lo studio ha riguardato i gradienti verticali adimensionali della velocità del vento nei primi 30-m dello strato limite stabile. Deviazioni significative tra i tra le osservazioni e i valori predetti dalla similarità locale sono state osservate in particolare per i livelli più distanti dal suolo e per valori crescenti del parametro di stabilità z/L (L, lunghezza di Obukhov locale). In particolare, si sono osservati gradienti adimensionali inferiori a quelli predetti dalle più usate relazioni di flusso-gradiente. Tali deviazioni, presenti perlopiù per z/L>0.1, sono state associate ad un effetto di accentuazione della turbolenza da parte delle irregolarità del terreno. Per condizioni meno stabili, z/L<0.1, scarti positivi tra i gradienti osservati e quelli attesi sono stati attribuiti alla formazione di strati limite interni in condizioni di vento dal mare verso la costa. Sono stati proposti diversi metodi per la stima dell'effetto della self-correlazione nella derivazione delle relazioni di flusso-gradiente, dovuta alla condivisione della variabile u*. La formula per il coefficiente lineare di self correlazione e le sue distribuzioni di probabilità empiriche sono state derivate e hanno permesso di stimare il livello di self-correlazione presente nel dataset considerato.
Resumo:
Questo lavoro di Tesi, svolto nell’ambito dell’esperimento BEC3 presso il LENS, costituisce il primo approccio al problema della stabilizzazione del campo magnetico di bias in una trappola per atomi ultra-freddi. Stabilizzare il campo magnetico generato da una coppia di bobine si traduce nello stabilizzare la corrente che le attraversa e il primo passo verso la soluzione di questo problema consiste nello stimare lo spettro di potenza del rumore in corrente del circuito. A questo scopo è stata misurata la PSD (Power Spectral Density) del segnale ai capi di diversi sensori per alcuni valori di corrente erogata da due diversi alimentatori. La PSD è stata misurata sia in maniera diretta, che indiretta, attraverso la trasformata di Fourier della Funzione di Autocorrelazione del segnale, misurata nelle stesse condizioni descritte. I dati raccolti costituiscono la base da cui partire per la progettazione e la realizzazione del circuito di stabilizzazione.
Resumo:
Tramite i sensori inerziali sono stati analizzati 17 bambini (10-16 mesi) durante i primi 2 mesi di cammino indipendente. Sono stati acquisiti i parametri temporali e analizzata la simmetria del passo differenziando i parametri su gamba destra e su gamba sinistra. Si è riscontrato che gli andamenti dei parametri sono in linea generale in accordo con la letteratura. Analizzando la simmetria si è evidenziato che la differenza tra Stance- time destro e Stance- time sinistro per alcuni soggetti è più bassa e per altri più alta. Tali studi saranno importanti per approfondire ulteriormente in futuro aspetti sulle strategie del passo nei primi due mesi di cammino indipendente.
Resumo:
Per “effetto domino” si intende uno scenario incidentale in cui un evento primario si propaga ad apparecchiature contigue tramite un vettore di impatto, con innesco di eventi incidentali secondari ed amplificazione delle conseguenze finali dell’incidente. Nei casi di maggior gravità gli effetti di scenari incidentali di questo tipo possono danneggiare contemporaneamente più impianti appartenenti allo stesso stabilimento oppure addirittura coinvolgere più stabilimenti. Gli incidenti dovuti ad effetto domino sono tra i più severi e complessi che possono avere luogo nell’industria di processo; la complessità che contraddistingue l’effetto domino influenza anche la definizione stessa del fenomeno e ne rende difficoltosa l’individuazione delle caratteristiche principali. È comunque condivisa l’idea che, perché uno scenario incidentale evolva con effetto domino, sia necessario l’elemento “propagazione”, ovvero lo sviluppo di uno o più scenari secondari causati dall’incidente iniziale con un aggravio dell’area di danno rispetto a quella connessa allo scenario incidentale iniziale. L’effetto domino è un argomento di grande interesse nell’ambito della valutazione del rischio di incidente rilevante, sia a causa dell’elevato rischio connesso alla sequenza di eventi incidentali che esso comporta, sia dell’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. La Direttiva Europea 2012/18/UE (la cosiddetta Direttiva Seveso III) ed il suo recente recepimento italiano, il D.Lgs. 105/2015, stabiliscono la necessità di valutare l’effetto domino tra stabilimenti, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. Tuttavia anche la valutazione dell’effetto domino all’interno dei singoli stabilimenti è importante, potendo essa rappresentare, da un certo punto di vista, il completamento dell’analisi di sicurezza dello stabilimento. In un contesto come quello dell’analisi del rischio di incidente rilevante, in corrispondenza dell’aggiornamento quinquennale del Rapporto di Sicurezza di stabilimento richiesto dalle norme di legge, nel presente lavoro di tesi è stata effettuata la valutazione dell’effetto domino intra-stabilimento per un sito a rischio di incidente, applicando la metodologia proposta nell’Allegato E del D.Lgs. 105/2015.
Resumo:
In questa tesi si introduce l'analisi della stabilità delle orbite periodiche mostrandone un risultato fondamentale: il Teorema di Poinaré. A tal fine sono preliminarmente riportati alcune definizioni e risultati riguardanti la stabilità delle soluzioni e l'esistenza di soluzioni periodiche
Resumo:
A partire dal 1° giugno 2015 è stato adottato ufficialmente in Europa il Regolamento 1272/2008/CE relativo alla classificazione, all'etichettatura e all'imballaggio delle sostanze e miscele pericolose, noto con il termine di Regolamento CLP. La data del 1° giugno 2015 coincide anche con il termine ultimo prescritto per il recepimento da parte degli Stati membri dell’Unione Europea della Direttiva 2012/18/UE sul controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose. Dunque, come recepimento della sopracitata direttiva, il 29 luglio 2015 è stato emanato in Italia il D.Lgs. 105/2015, che ha introdotto numerose novità indotte non solo dalla direttiva da cui discende, ma anche e soprattutto dal fatto che il Legislatore italiano ha colto l’occasione per legiferare su alcuni aspetti attuativi della direttiva, così da produrre quello che viene identificato in ambito nazionale come Testo Unico per il rischio di incidente rilevante. La variazione più evidente apportata dal D.Lgs. 105/2015 rispetto alla norma precedente è l’adeguamento dell’allegato 1 al Regolamento CLP; l’allegato 1 elenca le sostanze e le categorie di sostanze pericolose con i corrispondenti valori soglia da utilizzare per valutare l’assoggettabilità degli stabilimenti al Decreto. A fronte dell’emanazione del D.Lgs. 105/2015, l’impatto dell’adeguamento è controverso e non noto a priori: nonostante la classificazione degli stabilimenti assoggettabili si mantenga sempre su due livelli, non è da escludersi il possibile passaggio di uno stabilimento da una situazione a rischio basso ad una a rischio alto o viceversa oil suo ingresso o la sua fuoriuscita dal campo di applicazione del Decreto. Altri elementi innovativi introdotti dal D.Lgs. 105/2015 sono relativi ai contenuti del Rapporto di Sicurezza, che deve essere redatto e trasmesso dai Gestori degli stabilimenti a maggior rischio: viene disposta per generici stabilimenti la possibilità di adottare per l’analisi preliminare del rischio metodologie alternative al metodo ad indici finora esclusivamente previsto dalla norma italiana. Inoltre, nel testo del D.Lgs. 105/2015 vengono ufficialmente indicati i riferimenti a due metodi semplificati (uno per il suolo e sottosuolo e uno per le acque superficiali) per la valutazione del rischio di contaminazione ambientale causato da rilasci rilevanti di idrocarburi liquidi e/o sostanze eco-tossiche da depositi. Per quanto riguarda il rischio di incidenti tecnologici innescati da fenomeni naturali (rischio NaTech), la nuova norma sancisce la libertà di scelta da parte dei Gestori della metodologia di valutazione da adottare con riferimento allo stato dell’arte in materia. Al fine di applicare una prima valutazione delle novità introdotte dal D.Lgs. 105/2015, si è considerata l’applicazione di alcune valutazioni previste dal Decreto a due casi di studio reali: come primo caso si è scelto uno Stabilimento che effettua principalmente l’attività di produzione e deposito nel settore degli esplosivi e come secondo caso uno Stabilimento che produce e confeziona prodotti per la nutrizione e difesa vegetale rappresentati per lo più da fertilizzanti organo-minerali e agrofarmaci.
Resumo:
Questa tesi illustra il teorema di decomposizione delle misure e come questo viene applicato alle trasformazioni che conservano la misura. Dopo aver dato le definizioni di σ-algebra e di misura ed aver enunciato alcuni teoremi di teoria della misura, si introducono due differenti concetti di separabilità: quello di separabilità stretta e quello di separabilità, collegati mediante un lemma. Si descrivono poi la funzione di densità relativa e le relative proprietà e, dopo aver definito il concetto di somma diretta di spazi di misura, si dimostra il teorema di decomposizione delle misure, che permette sotto certe ipotesi di esprimere uno spazio di misura come somma diretta di spazi di misura. Infine, dopo aver spiegato cosa significa che una trasformazione conserva la misura e che è ergodica, si dimostra il teorema di Von Neumann, per il quale le trasformazioni che conservano la misura risultano decomponibili in parti ergodiche.