30 resultados para Aptidão fisica
Resumo:
Questa tesi è volta a fornire un contributo conoscitivo alla quantificazione delle interferenze idrogeologiche causate dalla nuova stazione sotterranea del nodo di penetrazione ferroviaria urbana AV di Firenze, situata nei pressi dell’attuale stazione di superficie di Santa Maria Novella, e della verifica del dimensionamento delle opere di mitigazione in progetto. La tesi è effettuata in collaborazione e con il supporto tecnico di ARPAT (Agenzia Regionale per la Protezione Ambientale della Toscana), Sede di Firenze, Direzione Tecnica – Settore VIA/VAS (Valutazione d’Impatto Ambientale/Valutazione Ambientale Strategica). ARPAT è l’organo di supporto tecnico dell’Osservatorio Ambientale costituito per l’opera. La tesi sfrutta, come dati di base, tutti quelli raccolti dai progettisti nelle varie fasi, compresa la determinazione dei parametri idraulici dell’acquifero, ed i dati del monitoraggio ambientale. Il proponente dell’opera è RFI (Rete Ferroviaria Italiana) ed è realizzata e progettata dal consorzio Nodavia (General Contractor). Per l’analisi dell’interferenza idrogeologica causata dal camerone della stazione dell’alta velocità di Firenze è stato utilizzato un duplice approccio: un modello fisico ricostruito in laboratorio; un modello numerico alla differenze finite tramite codice Modflow.. Il modello fisico di laboratorio ha cercato di ricostruire, semplificandolo, il modello concettuale del problema idrogeologico di studio: l’inserimento di una diga totalmente impermeabile, trasversalmente al flusso in un mezzo poroso, attraversata da dreni orizzontali di collegamento monte-valle idrologico. Tale configurazione, anche se non strettamente in scala, ha permesso di definire preliminarmente le condizioni al contorno del sistema ed ha guidato la successiva implementazione del modello numerico. Il modello numerico fa riferimento a condizioni stazionarie. Prima è stato implementato per simulare l’andamento della falda nelle condizioni stazionarie ante-operam (I fase); successivamente è stato utilizzato per simulare l’effetto diga del camerone (II fase) e, come terza fase, per simulare l’effetto delle opere di mitigazione dell’effetto diga rappresentate da dreni sub-orizzontali.
Resumo:
In questa tesi si sono studiati e sviluppati i rivelatori di fotoni x per l’esperimento FAMU (Fisica degli Atomi Muonici gruppo 3 dell’INFN) che indaga sulla natura e la struttura del protone. I rivelatori sono stati assemblati e testati con elementi che rappresentano lo stato dell’arte nel campo dei rivelatori di radiazione (scintillatori LaBr3(Ce) e fotomoltiplicatori Hamamatsu™ Ultra Bi-Alcali). È stata anche studiata e sviluppata parte della catena di formatura del segnale. Questa è stata implementata su un chip FPGA dell’ALTERA™ con buoni risultati per quanto riguarda la qualità del filtro; le performance dell’FPGA non hanno consentito di raggiungere la velocità di 500MHz richiesta dall’esperimento costringendo l’implementazione ad una velocità massima di 320MHz.
Resumo:
In questo lavoro si parla di un particolare comportamento emergente nei sistemi complessi: il flocking. Dopo aver dato una panoramica generale di come sia stato affrontato finora lo studio della formazione degli stormi, vengono portati come esempio un modello matematico e uno studio empirico particolare, il quale fonda le basi del flocking su un’interazione topologica. Il modello matematico, basato su un’interazione metrica, viene dapprima presentato, cercando di darne una parziale spiegazione tramite le proprietà delle matrici laplaciane, per poi essere testato attraverso delle simulazioni numeriche. Lo studio empirico, invece, viene presentato nei dettagli fornendo risultati e ipotesi atte a spiegarli. Infine prendendo spunto da questi due lavori, nell’ultima parte vengono posti a confronto due modelli, uno metrico e uno topologico, tramite simulazioni al calcolatore. L’esito di queste simulazioni conferma le ipotesi avanzate per spiegare i risultati empirici.
Resumo:
In questo lavoro di tesi sono state studiate le caratteristiche di una macchina per tomosintesi Fujifilm AMULET Innovality in uso presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) di Meldola. Le valutazioni sono state fatte utilizzando diversi fantocci, uno dei quali costruito durante il lavoro di tesi. Per la valutazione delle immagini di mammografia digitale e di tomosintesi sono state seguite le linee guida della International Electrotechnical Commission (IEC) e della European Reference Organisation for Quality Assured Breast Screening and Diagnostic Services (EUREF). Per lo studio delle mammografie digitali sono stati valutati, utilizzando i software COQ e ImageJ, i parametri di NPS, MTF e DQE. Per lo studio delle immagini di tomosintesi sono stati appositamente sviluppati degli algoritmi in linguaggio Java, integrati poi all'interno del software COQ. Il programma sviluppato ha permesso di valutare ASF, MTF, NPS e omogeneità delle immagini ricostruite.
Resumo:
L'accrescimento è un processo fondamentale in astrofisica data la sua grandissima efficienza. Nel 1959 venne individuato il primo Quasar (pur non sapendo realmente di cosa si trattasse) e nel 1963 l'astronomo tedesco Maarten Schmidt scoprì che tale oggetto, di magnitudine apparente 13 (si credeva fosse una stella), aveva un redshift z = 0:37. Stelle di magnitudine 13 non dovrebbero avere un redshift così grande. Tale oggetto doveva trovarsi a grande distanza ed emettere una luminosità molto alta, superiore anche a quella di un'intera galassia. Processi termonucleari non erano sufficientemente efficienti per spiegare un'emissione di questo tipo: si capì presto che tale emissione dovesse avere origine gravitazionale, fosse cioè dovuta all'accrescimento di materia su un buco nero. In questa tesi, dopo aver spiegato come l'accrescimento rappresenti un'importante fonte di energia in astrofisica, presenterò, nel Capitolo 1, il modello di Bondi, presentato nel 1952 da Hermann Bondi. Tale modello è il più semplice modello di accrescimento e, pur essendo basato su ipotesi (che vedremo) che trascurano diversi aspetti importanti, risulta comunque un modello fondamentale, perché permette di ricavare quantità rilevanti in astrofisica. Successivamente, nel Capitolo 2, ricaverò il valore della Luminosità di Eddington, che esprime la massima luminosità che può emettere un corpo in simmetria sferica. Anche questo risultato verrà ricavato imponendo ipotesi abbastanza restrittive, quindi non andrà interpretato come un limite invalicabile. Nel Capitolo 3 parlerò (più qualitativamente, e senza la pretesa di entrare nei dettagli) di come si formano i dischi di accrescimento, che si originano quando la materia che va ad accrescere ha un momento angolare non nullo: quindi non siamo più nel caso di accrescimento a simmetria sferica. Infine, parlerò dei processi che originano gli spettri osservati degli AGN, riferendomi prevalentemente a quei processi che originano il continuo dello spettro.
Resumo:
In questa tesi sono stati analizzati i dati raccolti nella sperimentazione di un percorso di fisica quantistica in una quinta liceo scientifico – indirizzo musicale, svolta nel periodo Marzo-Giugno 2015. Il percorso, progettato dai ricercatori in Didattica della Fisica del DIFA di Bologna, comprende una parte “genuinamente” quantistica sviluppata a partire dall’“Esperimento più bello della Fisica”. Il percorso è stato progettato sulla base dei criteri che definiscono l’appropriazione, costrutto che esprime un particolare tipo di apprendimento attraverso cui lo studente “fa proprio” un concetto. L’analisi è stata condotta con l’obiettivo di osservare casi di appropriazione tra gli studenti e di rifinire il costrutto di appropriazione, valutando in particolare l’efficacia del questionario sociometrico, uno strumento appositamente progettato dall’autore di questa tesi per valutare una delle dimensioni di cui si compone il costrutto di appropriazione. I principali dati analizzati per dare risposta agli obiettivi della tesi riguardano le risposte degli studenti a interviste realizzate alla fine del percorso scolastico, nonché gli esiti di altre attività appositamente progettate: svolgimento di un compito in classe, elaborazione di un tema scientifico, compilazione di questionari. I risultati mostrano come si siano ritrovati tre punti molto delicati che possono ostacolare l’appropriazione: il tempo a disposizione, le dinamiche di classe e soprattutto il rapporto che hanno avuto gli studenti con i concetti quantistici del percorso. Tali fattori hanno portato reazioni molto diverse: chi è stato stimolato e questo ha favorito l’appropriazione, chi ha compreso la fisica quantistica ma non l’ha accettata, chi l’ha compresa e accettata senza troppi problemi, chi si è rifiutato di studiarla perché “troppo grande per sé”.
Resumo:
Questo elaborato presenta una descrizione del fenomeno dell’accrescimento di materia su oggetti compatti, esponendo i principali modelli fisici a riguardo. Dopo un’introduzione, in cui viene mostrato come l’accrescimento rappresenti la più importante fonte di energia in astrofisica, si discute nel capitolo 1 il più semplice modello di accresci- mento, dovuto ad Hermann Bondi (1952). Tale modello, proprio per la sua semplicità, risulta molto importante, nonostante trascuri importanti aspetti fisici. Nel capitolo 2 si studia la fisica dei dischi di accrescimento, analizzando sia il caso generale che alcuni casi particolari, come quello stazionario o a viscosità costante. L’elaborato si conclude con una breve analisi dell’emissione termica da parte del disco di accrescimento.
Resumo:
Questa tesi, svolta nell’ambito dell’esperimento BEC3 presso il LENS di Firenze, si propone di studiare i problemi connessi alla variazione improvvisa di corrente in elementi induttivi, come sono le bobine utilizzate per generare campi magnetici. Nell’esperimento BEC3, come in molti esperimenti di atomi freddi, vi è spesso la necessità di compiere operazioni di questo genere anche in tempi brevi. Verrà analizzato il sistema di controllo incaricato di invertire la corrente in una bobina, azione che va effettuata in tempi dell’ordine di qualche millisecondo ed evitando i danni dovuti alle alte tensioni che si sviluppano ai capi della bobina. Per questa analisi sono state effettuate simulazioni del circuito e misure sperimentali, allo scopo di determinare il comportamento e stimare la durata dell’operazione.
Resumo:
La simulazione computerizzata è uno strumento per prevedere il comportamento di un sistema quando il sistema non è indagabile. Molti sono gli ambiti in cui viene utilizzata. Uno fra questi è l'evacuazione di folle. Le numerose tragedie, conseguenti a situazioni o eventi in presenza di folle, che hanno luogo in ogni parte del mondo a causa dell'incapacità di reagire in maniera coordinata a situazioni di emergenza, rendono necessario un innalzamento della comprensione delle dinamiche che emergono durante l'evacuazione. Molti studi hanno analizzato quelli che sono gli aspetti psicologici dell'essere umano che entrano in gioco in situazioni di panico. Ma è anche necessario considerare che cosa accade a un livello fisico. Questo contributo ha come obiettivo l'introduzione, all'interno del simulatore Alchemist, di elementi di micro-interazione fisica che possano fare da ponte a ciò che accade a livello cognitivo, così che sia possibile far emergere caratteristiche osservabili, come spinte e cadute, nell'ottica di aumentare il realismo nelle simulazioni di evacuazione di folle.
Resumo:
L’accrescimento è un fenomeno di assoluta rilevanza in astrofisica per il fatto di essere uno dei meccanismi di produzione energetica più efficienti conosciuti. Inoltre esso riveste un ruolo fondamentale sia nella caratterizzazione di oggetti astronomici noti come AGN, che per la descrizione di sistemi binari in cui una stella è nella condizione di trasferire parte della propria massa alla compagna. Nell’Introduzione è messa in risalto l’elevata efficienza del processo di accrescimento, soprattutto se confrontata con una delle reazioni termonucleari più celebri come la catena protone-protone. Sono poi mostrati alcuni aspetti qualitativi riguardanti gli AGN e il modo in cui alcune loro particolarità possono essere giustificate proprio grazie ai fenomeni di accrescimento. Il Capitolo 2 è dedicato alla determinazione della luminosità di Eddington, ovvero quel valore limite di luminosità che un corpo in accrescimento può raggiungere e che, se superato, determinata l’innescarsi di processi che portano l’accrescimento a rallentare. All’interno del Capitolo 3 è analizzato il modello di Bondi per l’accrescimento di un oggetto compatto immerso in una distribuzione infinita di gas. Il modello preso in considerazione rappresenta la versione più semplice del modello di Bondi, che fornisce una soluzione idrodinamica e che, tuttavia, presenta ipotesi molto stringenti. Per tale motivo a fine capitolo è stato aggiunto un primo sguardo al problema di Bondi in presenza di electron scattering, andando a vedere il modo in cui questo influenza i risultati classici precedentemente ottenuti. Infine, nel Capitolo 4 è introdotto il problema dell’accrescimento all’interno di sistemi binari in modo da mettere in luce i principali meccanismi che possono dare vita all’accrescimento e le ipotesi sotto le quali questi possono avvenire.
Resumo:
I raggi cosmici sono una fonte naturale di particelle ad alta energia di origine galattica e extragalattica. I prodotti della loro interazione con l’atmosfera terrestre giungono fino alla superficie terrestre, dove vengono rilevati dagli esperimenti di fisica delle particelle. Si vuole quindi identificare e rimuovere questo segnale. Gli apparati sperimentali usati in fisica delle particelle prevedono dei sistemi di selezione dei segnali in ingresso (detti trigger) per rigettare segnali sotto una certa soglia di energia. Il progredire delle prestazioni dei calcolatori permette oggi di sostituire l’elettronica dei sistemi di trigger con implementazioni software (triggerless) in grado di selezionare i dati secondo criteri più complessi. TriDAS (Triggerless Data Acquisition System) è un sistema di acquisizione triggerless sviluppato per l’esperimento KM3NeT e utilizzato recentemente per gestire l’acquisizione di esperimenti di collisione di fascio ai Jefferson Lab (Newport News, VA). Il presente lavoro ha come scopo la definizione di un algoritmo di selezione di eventi generati da raggi cosmici e la sua implementazione come trigger software all’interno di TriDAS. Quindi si mostrano alcuni strumenti software sviluppati per costruire un ambiente di test del suddetto algoritmo e analizzare i dati prodotti da TriDAS.
Resumo:
La malattia policistica epatorenale autosomica dominante (ADPKD), patologia genetica ereditaria che coinvolge primariamente il rene, è una condizione cronica, caratterizzata dalla crescita lenta, graduale e progressiva di cisti nei reni, in concomitanza a diverse comorbidità renali ed extrarenali. Colpisce 12,5 milioni di persone di ogni etnia nel mondo e causa di più del 10% di tutte le insufficienze renali croniche terminali (ESRD). Lo studio prende in esame dietoterapia, attività fisica e qualità di vita, tre aspetti di fondamentale importanza nella gestione dei pazienti affetti da ADPKD. L’obiettivo è quello di capire quali sono le evidenze più recenti in materia, approfondire le relazioni tra questi differenti ambiti e come questi possano influenzare la gestione clinica e terapeutica dei pazienti affetti dalla patologia. Per raggiungere questo obiettivo molteplici ricerche sono state svolte interrogando i database di Scopus, Pubmed e Google Scholar. I risultati della ricerca ribadiscono l’importanza del trattamento multidisciplinare nell’ADPKD in cui il ruolo del dietista assume una grande importanza poiché emergono interessanti prospettive riguardo alle potenzialità date dall’adozione e dal mantenimento di specifici regimi alimentari e di uno stile di vita attivo in ADPKD nel contrasto dello sviluppo cistico, il tutto senza mai trascurare la condizione psicologica e sociale del paziente, fattore fondamentale per il mantenimento della compliance sia alla terapia medica che ad una corretta alimentazione e stile di vita.
Resumo:
Nel modo in cui oggigiorno viene intrapresa la ricerca, l’interdisciplinarità assume una posizione di sempre maggior rilievo in pressoché ogni ambito del sapere. Questo è particolarmente evidente nel campo delle discipline STEM (Scienza, Tecnologia, Ingegneria, Matematica), considerando che i problemi a cui esse fanno fronte (si pensi agli studi sul cambiamento climatico o agli avanzamenti nel campo dell’intelligenza artificiale) richiedono la collaborazione ed integrazione di discipline diverse. Anche nella ricerca educativa, l’interdisciplinarità ha acquisito negli ultimi anni una notevole rilevanza ed è stata oggetto di riflessioni teoriche e di valutazioni sulle pratiche didattiche. Nell’ampio contesto di questo dibattito, questa tesi si focalizza sull’analisi dell’interdisciplinarità tra fisica e matematica, ma ancora più nel dettaglio sul ruolo che la matematica ha nei modelli fisici. L’aspetto che si vuole sottolineare è l’esigenza di superare una concezione banale e semplicistica, sebbene diffusa, per la quale la matematica avrebbe una funzione strumentale rispetto alla fisica, a favore invece di una riflessione che metta in luce il ruolo strutturale della formalizzazione matematica per l’avanzamento della conoscenza in fisica. Per fare ciò, si prende in esame il caso di studio dell’oscillatore armonico attraverso due lenti diverse che mettono in luce altrettanti temi. La prima, quella dell’anchor equation, aiuterà a cogliere gli aspetti fondamentali del ruolo strutturale della matematica nella modellizzazione dell’oscillatore armonico. La seconda, quella degli epistemic games, verrà utilizzata per indagare materiale didattico, libri di testo e tutorial, per comprendere come diverse tipologie di risorse possano condurre gli studenti ad intendere in modi diversi la relazione di interdisciplinarità tra fisica e matematica in questo contesto.
Resumo:
La Degenerazione è un determinato stato della materia causato da particolari condizioni di temperatura e densità. E' un fenomeno che è necessario valutare quando la fisica che descrive un sistema non può fare a meno di considerare la trattazione quantistica per caratterizzare le sue proprietà. Proprio per questo motivo è necessario abbandonare l'approccio deterministico della Meccanica Classica e abbracciare quello probabilistico della Meccanica Quantistica, che vede le particelle dividersi in due categorie: Fermioni e Bosoni. Per entrambe le specie, la materia, mediante specifiche condizioni, può dunque ritrovarsi ad essere in uno stato degenere, presentando diversi fenomeni a seconda della tipologia di particelle che compongono un gas in analisi. Tale fisica della materia degenere, in particolare dei Fermioni degeneri, ha importanti applicazioni nel campo dell'astrofisica: il regime che domina il comportamento del gas interno ad una struttura stellare determina completamente lo sviluppo della sua evoluzione, per via dei differenti contributi di pressione che ogni stato apporta al sostenimento di questi corpi celesti. La degenerazione della materia riveste un ruolo fondamentale anche negli stadi evolutivi finali delle stelle: é il caso delle Nane Bianche e delle Stelle di Neutroni, nelle quali la sola pressione di degenerazione fermionica, entro certi limiti, contrasta la pressione gravitazionale che guida la loro contrazione, mantenendo così l'Equilibrio Idrostatico di queste strutture stellari.
Resumo:
Il Parmigiano Reggiano è un formaggio a Denominazione d’Origine Protetta (DOP), a pasta dura, cotta, granulosa, a lunga stagionatura, prodotto con latte crudo, parzialmente scremato, proveniente da vacche alimentate prevalentemente con foraggi della zona d’origine. La trasformazione del latte in questo formaggio DOP è ancora basata su una tecnologia artigianale legata all’esperienza empirica dei casari e tutelata dal Consorzio del Parmigiano Reggiano. L’obiettivo della tesi è stato quello di analizzare l’attività dell’acqua e la texture di 14 punte di formaggio “Parmigiano Reggiano”, provenienti da diverse realtà casearie nelle provincie di Parma, Reggio Emilia, Modena, Bologna alla sinistra del fiume Reno e Mantova, alla destra del fiume Po aderenti al consorzio di tutela; al fine di trarre conclusioni sulla struttura di tali campioni. In dettaglio, per valutare in modo sistematico e comprensivo la texture dei campioni è stata valutata mediante i test di Taglio, Texture Profile Analysis (TPA) e Three Point Bending. Al fine di valutare l’effetto della temperatura, le medesime analisi di texture sono state anche effettuate su alcuni campioni di formaggio condizionati alle temperature di 8, 20, 25 e 30°C. I campioni di Parmigiano Reggiano provenienti da diversi caseifici hanno presentato alcune differenze significative in termini di attività dell’acqua, durezza di taglio, elasticità, coesività, gommosità, forza massima, distanza lineare e fratturabilità. Queste variabilità potrebbero essere attribuite a diversità e peculiarità nel processo produttivo e nell’esperienza dei singoli caseari. Inoltre, è stato evidenziato un ruolo significativo delle temperature dei campioni alla quale si effettuano le analisi di texture. In particolare, i campioni condizionati a 8°C rispetto alle altre temperature hanno presentato differenze significative in tutti i parametri di texture analizzati eccetto che per quelli di elasticità e gommosità determinati con il test TPA.