971 resultados para Fisica della materia


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dopo gli indubbi sviluppi politici e legali tendenti all’uniformazione è inevitabile non sostenere che anche il mercato della gestione delle infrastrutture e del trasporto aereo a terra costituisce un fattore determinante del trasporto aereo con una più stretta necessità di uniformazione del quadro regolamentare. La gestione aeroportuale e i servizi connessi è collocata all’interno del diritto aereo. Perché si configuri il “trasporto aereo” (nozione dinamica base che caratterizza il diritto del trasporto aereo) si ha la necessità di un accordo tra due paesi – un permesso di volo designato – una finestra di orario di decollo e atterraggio e la regolamentazione delle relative attività connesse, affinché si svolgano in situazione di safety, quale conditio sine qua non di tutte le attività di aviazione. Tuttavia, la migliore dottrina sente il bisogno di una trattazione separata della materia diritto aereo in senso stretto e quella della disciplina aeroportuale, benché i due ambiti sono tra di loro contigui. Questo è legittimato da esigenze contrapposte fra gli operatori dei due settori. In ultima considerazione possiamo sostenere che gli sviluppi legislativi, sia nel diritto aeronautico e in quello marittimo, portano all’abbraccio della impostazione di un diritto dei trasporti inclusivo di ogni forma dell’attuazione del fenomeno trasporto, scollegandosi al solo fenomeno dell’esercizio nautico quale elemento caratterizzante della disciplina. Quale futuro legislativo si prospetta per la gestione del bene aeroporto? Quale sarà la sua dimensione legale su questioni importanti sulle quali esiste una normazione europea come l’allocazione delle bande orarie, tasse aeroportuali e assistenza a terra oppure su quelle che hanno un carattere prevalentemente nazionale? E infine, quale sarebbe la strada da seguire per regolare il nuovo mercato aeroportuale che è passato dalla idea della competizione per il mercato esplorando anche la competizione nel mercato, con aeroporti che si comportano come operatori in concorrenza tra loro?

Relevância:

90.00% 90.00%

Publicador:

Resumo:

̀ qui presentato lo studio della produzione della risonanza K∗0 in collisioni p-Pb con l’esperimento ALICE presso LHC. L’elaborato si compone di una introduzione sulla natura del fenomeno studiato: la formazione del Quark Gluon Plasma (QGP), uno stato della materia fortemente interagente ad alte temperatura e densità d’energia. Vengono descritte le segnature studiate ai fini di identificare il suddetto fenomeno, riportando come esempio concreto i risultati sperimentali. Successivamente l’acceleratore di particelle, LHC, e l’esperimento, ALICE, vengono brevemente introdotti. Più in dettaglio ven- gono descritti i rivelatori di ALICE effettivamente usati per l’analisi, a cui sono dedicate sezioni approfondite. Viene infine introdotta l’analisi e le sue motivazioni. Il metodo utilizzato e lo studio degli errori da associare alla misura sono illustrati in ogni loro passo e supportati dai risultati ottenuti. La discussione finale dei risultati include il confronto con i risultati preceden- temente ottenuti da ALICE in collisioni pp e Pb-Pb e da altri esperimenti.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’ictus è un importante problema di salute pubblica, è causa di morte e disabilità nella popolazione anziana. La necessità di strategie di prevenzione secondaria e terziaria per migliorare il funzionamento post-ictus e prevenire o ritardare altre condizioni disabilitanti, ha portato l’Italia a sviluppare un intervento di Attività Fisica Adattata (AFA) per l’ictus, che permettesse di migliorare gli esiti della riabilitazione. Obiettivo dello studio è di valutare se l’AFA unita all’Educazione Terapeutica (ET), rispetto al trattamento riabilitativo standard, migliora il funzionamento e la qualità di vita in pazienti con ictus. Studio clinico non randomizzato, in cui sono stati valutati 229 pazienti in riabilitazione post-ictus, 126 nel gruppo sperimentale (AFA+ET) e 103 nel gruppo di controllo. I pazienti sono stati valutati al baseline, a 4 e a 12 mesi di follow-up. Le misure di esito sono il cambiamento a 4 mesi di follow-up (che corrisponde a 2 mesi post-intervento nel gruppo sperimentale) di: distanza percorsa, Berg Balance Scale, Short Physical Performance Battery, e Motricity Index. Le variabili misurate a 4 e a 12 mesi di follow-up sono: Barthel Index, Geriatric Depression Scale, SF-12 e Caregiver Strain Index. La distanza percorsa, la performance fisica, l’equilibrio e il punteggio della componente fisica della qualità di vita sono migliorate a 4 mesi nel gruppo AFA+ET e rimasti stabili nel gruppo di controllo. A 12 mesi di follow-up, il gruppo AFA+ET ottiene un cambiamento maggiore, rispetto al gruppo di controllo, nell’abilità di svolgimento delle attività giornaliere e nella qualità di vita. Infine il gruppo AFA+ET riporta, nell’ultimo anno, un minor numero di fratture e minor ricorso a visite riabilitative rispetto al gruppo di controllo. I risultati confermano che l’AFA+ET è efficace nel migliorare le condizioni cliniche di pazienti con ictus e che gli effetti, soprattutto sulla riabilitazione fisica, sono mantenuti anche a lungo termine.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Ad oggi, grazie al progresso tecnologico, sono stati realizzati accuratissimi rivelatori di radiazione infrarossa, rendendo possibili misure altamente precise. L’impiego massiccio dell’indagine termografica infrarossa è basato sull’emissione termica da parte della materia. Tutta la materia a temperatura superiore dello zero assoluto emette radiazione elettromagnetica con una certa distribuzione spettrale, dipendente dalla temperatura e dalle caratteristiche costitutive. Le capacità emissive di un corpo sono quantificate da un parametro, l’emissività, che confronta i corpi reali con il corpo nero, modellizzazione matematica di un perfetto emettitore. I corpi a temperatura ambiente emettono principalmente nell’infrarosso. Poichè la radiazione infrarossa non è percepibile dall’occhio umano, i corpi a temperature ordinarie non appaiono luminosi e sono visti brillare unicamente di luce riflessa. Solo fornendo calore al sistema, aumentandone cioè la temperatura, l’emissione di picco si sposta verso le frequenze del visibile ed i corpi appaiono luminosi; si pensi ad esempio alle braci della legna bruciata. La possibilità di rivelare la radiazione infrarossa con opportuni dispositivi permette quindi di vedere la “luce” emessa da corpi relativamente freddi. Per questo motivo la termografia trova applicazione nella visione o videoregistrazione notturna o in condizioni di scarsa visibilità. Poichè la distribuzione spettrale dipende dalla temperatura, oltre al picco di emissione anche la quantità di radiazione emessa dipende dalla teperatura, in particolare è proporzionale alla quarta potenza della temperatura. Rilevando la quantità di radiazione emessa da un corpo se ne può dunque misurare la temperatura superficiale, o globale se il corpo è in equilibrio termico. La termometria, ovvero la misura della temperatura dei corpi, può dunque sfruttare la termografia per operare misure a distanza o non invasive.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Il lavoro svolto in questa tesi s’inserisce e sviluppa soprattutto nel campo dell’analisi della vulnerabilità relativa agli tsunami ed è centrato sull’analisi della vulnerabilità di strutture ed edifici. Per la precisione si è focalizzata l’attenzione su un’area geografica specifica, cioè si è considerata l’ipotesi che un maremoto colpisca le coste orientali della Sicilia ed in particolare della città di Siracusa. Questo lavoro di tesi prenderà in considerazione due modelli distinti per la stima della vulnerabilità: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) che prende il nome dal progetto europeo in cui è stato sviluppato e il modello PTVA (Papathoma Tsunami Vulnerability Assessment) introdotto da Papathoma et al. (2003) e successivamente modificato da Dominey-Howes et al. (2007) e da Dall’Osso et al. (2009). Tali modelli sono esempi dei due possibili approcci (quantitativo e qualitativo). Nei seguenti capitoli si sono trattate le curve di fragilità e di danno, in particolare seguendo la metodologia di Koshimura et al. (2009) ed il lavoro di Valencia et al. (2011). A seguire sono stati descritti i due metodi utilizzati per lo studio della vulnerabilità (SCHEMA, PTVA) ed il lavoro che è stato condotto nell’area di Siracusa. Il lavoro di tesi si è concluso mostrando i risultati della classificazione di vulnerabilità evidenziando e discutendo differenze e similarità delle mappe risultanti dai due metodi applicati.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La disintegrazione dei nuclei atomici si traduce in una emissione di vari tipi di radiazioni e particelle tra cui neutroni e raggi gamma. La rivelazione dei neutroni comporta l’utilizzo di rivelatori a scintillazione e tecniche di analisi per poter identificare e ottenere informazioni sull’energia dei neutroni. Il processo di scintillazione per la rivelazione dei neutroni consiste nell’interazione con i nuclei del materiale e successiva emissione luminosa dovuta a ionizzazione degli atomi del rivelatore. La luce e in seguito convertita in impulsi elettrici, i quali possono essere analizzati con opportune tecniche. L’emissione di neutroni `e accompagnata da emissione di raggi gamma e quindi `e necessario identificare i neutroni. Rivelatori basati su scintillatori organici vengono spesso impiegati nella spettrometria neutronica ad energie superiori di 0.5 MeV ed in una vasta gamma di applicazioni come la medicina, l’industria e la radioprotezione. La rilevazione dei neutroni `e molto importante nello studio delle reazioni nucleari di bassa energia e nello studio della materia nucleare lontano dalla valle di stabilita. In questo lavoro abbiamo studiato tre algoritmi: Zero Crossing, Charge Comparison e Pulse Gradient Analysis. Questi algoritmi sono stati in seguito applicati all’analisi di un insieme di dati provenienti dalla reazione nucleare 7Li(p,n)7Be. E stato utilizzato uno scintillatore organico liquido BC501. Si `e effettuato un confronto tra le varie tecniche utilizzate per determinare il grado di discriminazione ottenuto con ognuna di esse. I risultati ottenuti permettono di decidere in seguito quale algoritmo si presta ad essere utilizzato anche in altri esperimenti futuri. Il metodo Pulse Gradient Analysis `e risultato il piu` prometente, essendo anche possibile l’utilizzo on-line.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Il suolo, oltre a rappresentare la base su cui si sviluppa la vita, è anche il luogo in cui si sviluppano l’industrializzazione, le reti viarie, i commerci; è quindi sottoposto a continue pressioni di tipo antropico che inducono modificazioni chimiche, biologiche della sua composizione. I metalli pesanti sono tra i più importanti inquinanti del suolo, sebbene siano presenti all’interno di esso come materiale costituente, le loro concentrazioni possono aumentare a causa di immissioni antropiche, modificando quindi la struttura del suolo rendendolo inquinato. In questo lavoro di tesi, avente come area d’interesse una porzione della provincia di Mantova precisamente ad est della città e parte della provincia di Verona e Rovigo si è voluto analizzare le caratteristiche composizionali dei suoli, al fine di determinare situazioni di arricchimento imputabili o all’uso del suolo o all’origine del sedimento. A questo proposito si è ritenuto opportuno impostare un confronto tra le concentrazioni totali dei metalli in superficie e quelle in profondità, questo non è stato sempre possibile in quanto la litologia dell’area non ha permesso, in alcuni casi, il prelievo del campione profondo. I suoli sono stati sottoposti ad analisi per il contenuto totale degli elementi maggiori e in traccia tramite analisi XRF, è stata poi eseguita la Loi per determinare la percentuale di perdita della materia organica, applicato l’indice di geoaccumolo ed infine sono state create grazie all’ausilio del software Qgis mappe di concentrazione di metalli pesanti quali Cromo, Nichel, Rame, Zinco, Piombo, Arsenico e Vanadio relative all’area di interesse di questo lavoro di tesi.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’armonizzazione fiscale è una importante sfida che l’Unione Europea si trova ad affrontare per la completa realizzazione del mercato interno. Le istituzioni comunitarie, tuttavia, non dispongono delle competenze legislative per intervenire direttamente negli ordinamenti tributari degli Stati membri. Svolgendo una analisi del contesto legislativo vigente, ed esaminando le prospettive de iure condendo della materia fiscale dell’Unione, il presente lavoro cerca di comprendere le prospettive di evoluzione del sistema, sia dal punto di vista della normativa fiscale sostanziale, che procedimentale. Mediante la disciplina elaborata a livello comunitario che regola la cooperazione amministrativa in materia fiscale, con particolare riferimento alle direttive relative allo scambio di informazioni e all’assistenza alla riscossione (dir. 2011/16/UE e dir. 2010/24/UE) si permette alle Amministrazioni degli Stati membri di avere accesso ai reciproci ordinamenti giuridici, e conoscerne i meccanismi. L’attuazione di tali norme fa sì che ciascun ordinamento abbia l’opportunità di importare le best practices implementate dagli altri Stati. L’obiettivo sarà quello di migliorare il proprio procedimento amministrativo tributario, da un lato, e di rendere più immediati gli scambi di informazione e la cooperazione alla riscossione, dall’altro. L’armonizzazione fiscale all’interno dell’Unione verrebbe perseguita, anziché mediante un intervento a livello europeo, attraverso un coordinamento “dal basso” degli ordinamenti fiscali, realizzato attraverso l’attività di cooperazione delle amministrazioni che opereranno su un substrato di regole condivise. La maggiore apertura delle amministrazioni fiscali dei Paesi membri e la maggiore spontaneità degli scambi di informazioni, ha una efficacia deterrente di fenomeni di evasione e di sottrazione di imposta posti in essere al fine di avvantaggiarsi delle differenze dei sistemi impositivi dei vari paesi. Nel lungo periodo ciò porterà verosimilmente, gli Stati membri a livellare i sistemi impositivi, dal momento che i medesimi non avranno più interesse ad utilizzare la leva fiscale per generare una concorrenza tra gli ordinamenti.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Sviluppo di un modello che fornisce l'analisi numerica dei parametri che definiscono il profilo del laminato a caldo piano e il relativo output grafico. Il modello è utilizzato per indagare l'incidenza del difetto "canale di laminazione" e per identificare le specifiche di acquisto della materia prima per l'azienda. Vengono infine proposte alcune tecniche di controllo statistico di processo, per tenere monitorate le caratteristiche della materia prima in ingresso.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La cosmologia ha come scopo lo studio di origine ed evoluzione dell’Universo, per averne una comprensione generale attraverso le leggi fisiche conosciute. Il modello del Big Bang, di cui si dà la descrizione teorica nel capitolo 1, è una delle formulazioni più recenti di teoria che mira a spiegare l’inizio e la successiva evoluzione dell’Universo, fino ad avanzare anche ipotesi sul suo destino futuro; è inoltre il modello generalmente accettato dalla comunità scientifica in quanto, di tutti i modelli proposti nel corso degli anni, è quello con più riscontri sperimentali e che meglio si trova in accordo con le osservazioni. I principali successi del modello vengono trattati nel capitolo 2. In particolare: si tratterà di redshift e legge di Hubble, collegati all’espansione dell’Universo, importante prova dell’attendibilità del modello del Big Bang; della radiazione cosmica di fondo, scoperta negli anni ’60 quasi per caso e poi ricondotta a ipotesi teoriche già avanzate anni prima nelle prime formulazioni del modello; della nucleosintesi primordiale, che spiega l’abbondanza attuale dei principali costituenti dell’Universo, H ed He, cosa che altrimenti non sarebbe spiegabile se si considerasse soltanto la formazione di tali elementi nelle stelle. Ovviamente anche questo modello, come si vede nel capitolo 3, non manca di problemi, a cui si è trovata una risoluzione parziale o comunque non definitiva; in questa sede tuttavia, per ragioni di spazio, tali problemi e la loro soluzione verranno soltanto accennati. Si accennerà al problema dell’Universo piatto e al problema dell’orizzonte, e a come essi possano essere spiegati introducendo il concetto di inflazione. Infine, nel capitolo 4, si accenna anche alla materia oscura, soprattutto per quanto riguarda le evidenze sperimentali che ne hanno permesso la scoperta e le prove successive che ne confermano l’esistenza. Tuttora ne ignoriamo natura e composizione, visto che a differenza della materia ordinaria non emette radiazione elettromagnetica, ma i suoi effetti gravitazionali sono evidenti ed è estremamente difficile che la sua esistenza possa essere messa in discussione.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La tesi si propone di descivere in generale i processi di produzione di neutroni e le tecniche per l’indagine della materia mediante scattering di neutroni. Si elucidano le potenzialità e i vantaggi dell’utilizzo dei neutroni nell’indagine della materia, descrivendo in modo basilare i concetti teorici della diffusione dei neutroni e le tecniche di scattering, in modo particolare lo scattering a piccolo angolo. Di questa tecnica si riporta un esperimento realizzato presso l’Institut Laue-Langevin, il quale posside gli sturmenti tra i più sofisticati al mondo per lo small-angle neutron scattering.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In questo elaborato sono discusse le proprietà morfologiche delle galassie, ponendo particolare attenzione alla Via Lattea, della quale verranno descritte le caratteristiche intrinseche, come la struttura e i moti delle stelle; infine attraverso le costanti di Oort e l'emissione dell'idrogeno neutro, è possibile ricavare la curva di rotazione e introdurre la presenza della materia oscura.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Analisi dei costi di esercizio dell'impianto Romagna Compost di Cesena e ottimizzazione della logistica dei trasporti in uscita. Calcolo dell'incidenza della qualità della materia prima in ingresso sui costi di smaltimento.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L'obbiettivo di questa tesi è svolgere una trattazione semplice ma esauriente degli aspetti essenziali per lo studio delle configurazioni di equilibrio di semplici sistemi meccanici. In particolare l'analisi è volta a far parte del 'Progetto Matematica'; un portale del Dipartimento di Matematica dell'Università di Bologna, il cui scopo, attraverso le tesi di chi vi partecipa, è ''presentare la Matematica del primo biennio delle facoltà scientifiche in maniera interattiva, graduale, multimediale: in una parola, nel modo più amichevole possibile''. L'analisi, dopo alcuni richiami su elementi di base di calcolo vettoriale, si apre con un capitolo che enuncia nozioni e risultati fondamentali di meccanica classica, indispensabili per affrontare il problema dell'equilibrio nell'ambito della statica. Con il secondo capitolo inizia la trattazione delle configurazioni di equilibrio partendo dalla statica del punto materiale per poi passare ai sistemi più complessi costituiti da un numero arbitrario di punti. Per la parte di applicazioni vengono illustrati i due metodi classici di risoluzione: quello basato sulle equazioni cardinali della statica, che oltre ad individuare le configurazioni di equilibrio del sistema consente di determinare anche i corrispondenti valori delle reazioni vincolari, e quello basato sul principio dei lavori virtuali. Vengono poi riportati tre problemi standard la cui risoluzione è svolta attraverso entrambi i metodi per cercare di garantire una più completa comprensione della materia. Per l'esposizione degli argomenti analizzati si è fatto riferimento principalmente ai Trattati: D. Graffi, 'Elementi di Meccanica Razionale', Patron, Bologna 1973; S. Graffi, 'Appunti dalle lezioni di Fisica Matematica II'; a cui si rinvia per ogni ulteriore approfondimento (sulla materia),in particolare riguardo ai dettagli che, per necessità di sintesi, si sono dovuti omettere.