155 resultados para Invetebrata (Sistematica)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La "paralisi agitante", come �e stata de�finita da James Parkinson nel 1817, �è la seconda malattia neurodegenerativa pi�ù comune dopo la malattia di Alzheimer, con una frequenza che varia tra 8 e 18 per 100000 persone all'anno. L'esordio è raro prima dei 50 anni con un aumento dell'incidenza attorno ai 60. Ad oggi, non esiste una cura per la malattia di Parkinson ed una via, assieme al trattamento farmacologico, per fornire un sollievo dai sintomi è la riabilitazione. Nel primo capitolo dell'elaborato vengono descritti l'eziopatogenesi e i sintomi principali della malattia; nel secondo viene presentata una descrizione sistematica delle tecnologie applicate oggi a fini riabilitativi. La terza parte unisce le prime due e rappresenta l'obiettivo della tesi: vengono presi in considerazione i principali sintomi della malattia e, per ognuno di essi, viene mostrato come le tecnologie vengono impiegate per fornire un supporto ed un aiuto alla rieducazione motoria e cognitiva

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Richiamo di elementi di algebra, tra cui: polinomi, ordini monomiali e base di Gröbner per ideali e sottomoduli con anche algoritmo FGLM. Descrizione dei codici, dei codici lineari, codifica e decodifica, matrice generatrice, matrice forma standard, matrice di controllo parità, codici ciclici con corrispondenza con ideali e polinomi generatori. Codice Reed-Solomon caso particolare di codice ciclico. Codici ciclici m-dimensionali e codifica sistematica con basi di Gröbner. Algoritmo di decodifica per Reed-Solomon con soluzione chiave e utilizzando basi di Gröbner sui sottomoduli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni l'utilizzo di ciclotroni per la produzione di radionuclidi, impiegati nell'ambito della Medicina Nucleare, è diventato un processo sempre più diffuso e numerosi sono i modelli commercialmente disponibili. L'impiego di questo tipo di apparecchiature porta a considerare questioni rilevanti legate alla radioprotezione che coinvolgono una serie di aspetti complessi sia nella fase progettuale del sistema, sia nell'ottenimento delle necessarie autorizzazioni. In particolare, uno dei problemi radioprotezionistici da affrontare è legato alla dispersione in ambiente di aeriformi radioattivi, prodotti dall'interazione di flussi di particelle secondarie con l'aria. In questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria dell'Ospedale Sant'Orsola di Bologna, si è cercato di caratterizzare l'emissione di tali gas radioattivi considerando l'effetto del sistema di ventilazione. E' stata eseguita un'estesa campagna di misurazioni in diversi punti di campionamento, collocati lungo il percorso di estrazione dell'aria: dal bunker fino all'immissione in ambiente. Sono stati ideati e realizzati dei compatti sistemi di campionamento che hanno permesso di definire, attraverso un sistema di spettrometria gamma equipaggiato con rivelatore al HPGe, una sistematica procedura per la determinazione di concentrazione di attività. I risultati ottenuti mostrano come, durante la routine di produzione di 18F mediante ciclotrone, il processo più rilevante di attivazione dell'aria sia la produzione di 41Ar (T1/2=109.34 minuti), unico radionuclide identificato in tutte le misurazioni. Infine, sulla base dei dati sperimentali ottenuti, è stata effettuata una valutazione della dose rilasciata alla popolazione locale. Il risultato, pari a 0.19 µSv/anno, può essere considerato trascurabile rispetto alla soglia di "non rilevanza radiologica", a dimostrazione di come le tipiche procedure in ambito di Medicina Nucleare possano essere considerate del tutto giustificate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para una correcta visualización del material: Extraer la carpeta "web" y seleccionar el archivo "index.html".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le peculiarità del contesto competitivo attuale richiedono alle aziende di muoversi con la massima velocità per rispondere il più rapidamente possibile al soddisfacimento delle richieste dei clienti. La ricerca di massima flessibilità non può prescindere dall’esigenza di mantenere alti livelli di efficienza produttiva e di tendere ad un continuo miglioramento dei flussi interni. L’elaborato ripercorre i passaggi fondamentali di un progetto di miglioramento delle performance di un impianto svolto nel primo semestre 2016 presso Philip Morris Manufacturing & Technology Bologna S.p.A. La metodologia utilizzata riprende strumenti, modelli e metodi dai principi alla base del Focus Improvement, primo pilastro del tempio della Total Productive Maintenance. Attraverso l’applicazione sistematica di tecniche tipiche del problem solving (ciclo di Deming) e di approcci analitici per la determinazione delle cause di guasto (curva di Pareto, Diagramma di Ishikawa), è stato possibile identificare i principali tipi di perdite (tempo, performance, difetti qualitativi) di una macchina industriale e mettere in atto gli interventi migliorativi necessari. L’analisi si conclude con la valutazione dei futuri sviluppi dello scenario, proponendo diverse alternative a seconda dell’abilità dell’organizzazione di sostenere i risultati raggiunti o addirittura di superarli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il paesaggio attuale è un'eredità del passato.Solo chi conosce e capisce il passato è in grado di gestire il futuro.Lo studio dell'evoluzione naturale passata è utile quindi non solo per la comprensione dell'origine del nostro ambiente,ma anche per la pianificazione della gestione futura.Solo da pochi decenni si è per esempio riusciti a capire che gli estesi castagneti del Sud delle Alpi non hanno origine naturale,ma sono dovuti alla mano dell'uomo,che, al tempo della colonizzazione romana,ha iniziato a coltivare il castagno in maniera sistematica. Ma come è possibile ricostruire vicende della natura tanto remote? Sul fondo dei laghi e nelle torbiere i resti fossili di vegetali (p.es.polline e microcarboni) e di animali si sono accumulati nel corso dei millenni, rimanendo inalterati a causa della mancanza di ossigeno e quindi di organismi distruttori. Attraverso la trivellazione e l'analisi in laboratorio degli strati di questi sedimenti è possibile ricostruire il tipo di polline (e per analogia di vegetazione) e la frequenza di microcarboni (e quindi di incendi di bosco) che si sono succeduti nel corso dei millenni. E' quanto è stato fatto nel corso dell'ultimo decennio da parte dell'Università di Berna nei Laghi di Origlio e di Muzzano,ottenendo risultati interessanti e per certi versi anche inaspettati. A partire dal 5.500 a.C.la frequenza degli incendi è aumentata a causa dell'azione dell'uomo:i primi contadini delle nostre terre utilizzavano infatti il fuoco come mezzo per eliminare la foresta e guadagnare spazi aperti per l'agricoltura e l'allevamento del bestiame.Una pratica che nel corso dei millenni ha provocato anche una forte selezione della vegetazione arborea,distruggendo le foreste originali. La trasformazione del paesaggio forestale da parte dell'uomo non è quindi un fenomeno limitato agli ultimi 2.000 anni,ma ha le proprie radici nel Neolitico,oltre 7.000 anni orsono.Nel periodo del Ferro (800-15 a.C.),l'utilizzo del fuoco nella gestione del paesaggio diventa una pratica molto ricorrente, come dimostrano i picchi estremi della frequenza dei microcarboni.Bisognerà attendere l'introduzione del castagno durante l'Epoca Romana per assistere a un netto cambiamento di approccio:i castagneti diventano boschi di reddito da gestire senza l'aiuto del fuoco. A partire da questo momento,la frequenza degli incendi diminuisce drasticamente. Grazie a questi studi è stato quindi possibile capire l'origine della nostra attuale copertura boschiva e intuire quali sarebbero senza l'intervento dell'uomo le specie dominanti nei nostri boschi. Informazioni di estrema importanza per una futura gestione selvicolturale in sintonia con la natura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Edited by Pietro Notarbartolo, duca di Villarosa. cf. Narbone, Bibl. sicola sistematica, v. 4, p. 89.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mode of access: Internet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contribution from Bureau of Biological Survey.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'Italia è spesso sede di eventi d'intensa precipitazione, frequentemente associati ad alluvioni con conseguente perdita di vite umane e gravi danni economici. È quindi di fondamentale importanza poter prevedere questi eventi con un adeguato anticipo. Allo stato attuale, i modelli meteorologici non permettono sempre di raggiungere tale obbiettivo e, di conseguenza, è in atto un'intensa attività di ricerca al fine di di renderne più accurata la previsione, sia attraverso il miglioramento dei modelli stessi, sia sviluppando l'assimilazione dati, la quale riduce l'incertezza della condizione iniziale da cui parte la previsione. All'interno di questo contesto, la tesi si prefigge l'obiettivo di studiare gli effetti dell'assimilazione di dati di precipitazione, effettuata mediante uno schema di nudging, nel modello non idrostatico MOLOCH. Al fine di ottimizzare lo schema e di valutarne l'impatto, sono stati simulati tutti gli eventi di maltempo di ottobre e novembre del 2014 che hanno interessato la Liguria, area frequentemente soggetta ad alluvioni. Dalla sistematica verifica dei risultati, effettuata sia qualitativamente che mediante numerosi metodi statistici (tra cui la tecnica SAL basata sull'individuazione dei nuclei di precipitazione), si riscontra un generale miglioramento della previsione della precipitazione anche se limitato alle prime ore dopo la fine del periodo di assimilazione. L'impatto dello schema di nudging varia a seconda dell'evento e, in particolare, si osserva una certa correlazione tra il miglioramento ottenuto e la tipologia di evento, come descritto dalla teoria dell'equilibrio convettivo e come riportato in alcuni studi analoghi recentemente comparsi in letteratura. La ricaduta del miglioramento della previsione meteorologica è stata valutata anche in termini di impatti al suolo accoppiando il modello meteorologico con il modello idrologico utilizzato dal Centro Funzionale della Regione Liguria, con risultati abbastanza positivi.