854 resultados para indirizzo :: 790 :: Curriculum D: Fisica della terra


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi è presentato un metodo per lo studio della compartimentalizzazione dell’acqua in cellule biologiche, mediante lo studio dell’autodiffusione delle molecole d’acqua tramite uno strumento NMR single-sided. Le misure sono state eseguite nel laboratorio NMR all’interno del DIFA di Bologna. Sono stati misurati i coefficienti di autodiffusione di tre campioni in condizione bulk, ottenendo risultati consistenti con la letteratura. È stato poi analizzato un sistema cellulare modello, Saccharomyces cerevisiae, allo stato solido, ottimizzando le procedure per l’ottenimento di mappe di correlazione 2D, aventi come assi il coefficiente di autodiffusione D e il tempo di rilassamento trasversale T2. In questo sistema l’acqua è confinata e l’autodiffusione è ristretta dalle pareti cellulari, si parla quindi di coefficiente di autodiffusione apparente, Dapp. Mediante le mappe sono state individuate due famiglie di nuclei 1H. Il campione è stato poi analizzato in diluizione in acqua distillata, confermando la separazione del segnale in due distinte famiglie. L’utilizzo di un composto chelato, il CuEDTA, ha permesso di affermare che la famiglia con il Dapp maggiore corrisponde all’acqua esterna alle cellule. L’analisi dei dati ottenuti sulle due famiglie al variare del tempo lasciato alle molecole d’acqua per la diffusione hanno portato alla stima del raggio dei due compartimenti: r=2.3±0.2µm per l’acqua extracellulare, r=0.9±0.1µm per quella intracellulare, che è probabilmente acqua scambiata tra gli organelli e il citoplasma. L’incertezza associata a tali stime tiene conto soltanto dell’errore nel calcolo dei parametri liberi del fit dei dati, è pertanto una sottostima, dovuta alle approssimazioni connesse all’utilizzo di equazioni valide per un sistema poroso costituito da pori sferici connessi non permeabili. Gli ordini di grandezza dei raggi calcolati sono invece consistenti con quelli osservabili dalle immagini ottenute con il microscopio ottico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro è dedicato all'analisi fisica e alla modellizzazione dello strato limite atmosferico in condizioni stabili. L'obiettivo principale è quello di migliorare i modelli di parametrizzazione della turbulenza attualmente utilizzati dai modelli meteorologici a grande scala. Questi modelli di parametrizzazione della turbolenza consistono nell' esprimere gli stress di Reynolds come funzioni dei campi medi (componenti orizzontali della velocità e temperatura potenziale) usando delle chiusure. La maggior parte delle chiusure sono state sviluppate per i casi quasi-neutrali, e la difficoltà è trattare l'effetto della stabilità in modo rigoroso. Studieremo in dettaglio due differenti modelli di chiusura della turbolenza per lo strato limite stabile basati su assunzioni diverse: uno schema TKE-l (Mellor-Yamada,1982), che è usato nel modello di previsione BOLAM (Bologna Limited Area Model), e uno schema sviluppato recentemente da Mauritsen et al. (2007). Le assunzioni delle chiusure dei due schemi sono analizzate con dati sperimentali provenienti dalla torre di Cabauw in Olanda e dal sito CIBA in Spagna. Questi schemi di parametrizzazione della turbolenza sono quindi inseriti all'interno di un modello colonnare dello strato limite atmosferico, per testare le loro predizioni senza influenze esterne. Il confronto tra i differenti schemi è effettuato su un caso ben documentato in letteratura, il "GABLS1". Per confermare la validità delle predizioni, un dataset tridimensionale è creato simulando lo stesso caso GABLS1 con una Large Eddy Simulation. ARPS (Advanced Regional Prediction System) è stato usato per questo scopo. La stratificazione stabile vincola il passo di griglia, poichè la LES deve essere ad una risoluzione abbastanza elevata affinchè le tipiche scale verticali di moto siano correttamente risolte. Il confronto di questo dataset tridimensionale con le predizioni degli schemi turbolenti permettono di proporre un insieme di nuove chiusure atte a migliorare il modello di turbolenza di BOLAM. Il lavoro è stato compiuto all' ISAC-CNR di Bologna e al LEGI di Grenoble.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

̀ qui presentato lo studio della produzione della risonanza K∗0 in collisioni p-Pb con l’esperimento ALICE presso LHC. L’elaborato si compone di una introduzione sulla natura del fenomeno studiato: la formazione del Quark Gluon Plasma (QGP), uno stato della materia fortemente interagente ad alte temperatura e densità d’energia. Vengono descritte le segnature studiate ai fini di identificare il suddetto fenomeno, riportando come esempio concreto i risultati sperimentali. Successivamente l’acceleratore di particelle, LHC, e l’esperimento, ALICE, vengono brevemente introdotti. Più in dettaglio ven- gono descritti i rivelatori di ALICE effettivamente usati per l’analisi, a cui sono dedicate sezioni approfondite. Viene infine introdotta l’analisi e le sue motivazioni. Il metodo utilizzato e lo studio degli errori da associare alla misura sono illustrati in ogni loro passo e supportati dai risultati ottenuti. La discussione finale dei risultati include il confronto con i risultati preceden- temente ottenuti da ALICE in collisioni pp e Pb-Pb e da altri esperimenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell’autunno del 2011 due eventi meteorologici estremi caratterizzati da intense precipitazioni hanno interessato la Liguria. Nella giornata del 25 ottobre si è verificato sul Levante ligure un evento alluvionale di rilevante entità, determinato dalla formazione di un intenso sistema convettivo che ha coinvolto l’area compresa tra il Tigullio, le Cinque Terre ed il bacino del Magra. Un altro episodio di forte maltempo si è verificato tra il 3 e il 9 novembre 2011, e in particolare il forte sistema convettivo che ha interessato Genova la mattina del 4 novembre, in cui avvenne l’esondazione in alcuni punti del torrente Bisagno e del rio Fereggiano. Tuttavia, nel corso del lungo periodo perturbato si sono registrati vari episodi di esondazione, localizzati principalmente in zone golenali agricole, anche sui versanti padani della regione, oltre a numerosi casi di smottamenti e frane. I casi sopra citati sono stati studiati facendo innanzitutto un’accurata analisi meteorologica a scala sinottica e alla mesoscala, esaminando in particolar modo i meccanismi che hanno portato l’innesco dei due sistemi temporaleschi. In secondo luogo, utilizzando anche dati osservativi disponibili, si è voluto mettere in evidenza la reale e significativa evoluzione nel tempo e nello spazio dei dati pluviometrici delle stazioni al suolo, e dei parametri fisici più importanti, come ad esempio la direzione e l’intensità del vento. Infine, utilizzando simulazioni numeriche dei modelli sviluppati all’ISAC-CNR di Bologna (BOLAM e MOLOCH), ci si è posti l’obiettivo di verificare la loro sensibilità alla risoluzione e ad altri aspetti numerici e fisici, in particolare per quanto riguarda i dati relativi alla precipitazione. I modelli, oltre a riprodurre la dinamica degli eventi in maniera fisicamente coerente anche se non del tutto accurata, sono stati utilizzati, previo confronto con le osservazioni, per verificare alcune ipotesi formulate relative ai processi fisici responsabili dell’intensità della precipitazione, come ad esempio la presenza del flusso (outflow) di aria fredda proveniente dalla cold pool in relazione con le correnti caldo-umide negli strati più bassi (Low Level Jet, LLJ), e la formazione di una zona di convergenza nella quale è più alta la probabilità che si sviluppino sistemi convettivi organizzati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Argomento del presente lavoro è l’analisi di dati fMRI (functional Magnetic Resonance Imaging) nell’ambito di uno studio EEG-fMRI su pazienti affetti da malattia di Parkinson idiopatica. L’EEG-fMRI combina due diverse tecniche per lo studio in vivo dell’attività cerebrale: l'elettroencefalografia (EEG) e la risonanza magnetica funzionale. La prima registra l’attività elettrica dei neuroni corticali con ottima risoluzione temporale; la seconda misura indirettamente l’attività neuronale registrando gli effetti metabolici ad essa correlati, con buona risoluzione spaziale. L’acquisizione simultanea e la combinazione dei due tipi di dati permettono di sfruttare i vantaggi di ciascuna tecnica. Scopo dello studio è l’indagine della connettività funzionale cerebrale in condizioni di riposo in pazienti con malattia di Parkinson idiopatica ad uno stadio precoce. In particolare, l’interesse è focalizzato sulle variazioni della connettività con aree motorie primarie e supplementari in seguito alla somministrazione della terapia dopaminergica. Le quattro fasi principali dell’analisi dei dati sono la correzione del rumore fisiologico, il pre-processing usuale dei dati fMRI, l’analisi di connettività “seed-based “ e la combinazione dei dati relativi ad ogni paziente in un’analisi statistica di gruppo. Usando ’elettrocardiogramma misurato contestualmente all’EEG ed una stima dell’attività respiratoria, è stata effettuata la correzione del rumore fisiologico, ottenendo risultati consistenti con la letteratura. L’analisi di connettività fMRI ha mostrato un aumento significativo della connettività dopo la somministrazione della terapia: in particolare, si è riscontrato che le aree cerebrali maggiormente connesse alle aree motorie sono quelle coinvolte nel network sensorimotorio, nel network attentivo e nel default mode network. Questi risultati suggeriscono che la terapia dopaminergica, oltre ad avere un effetto positivo sulle performance motorie durante l’esecuzione del movimento, inizia ad agire anche in condizioni di riposo, migliorando le funzioni attentive ed esecutive, componenti integranti della fase preparatoria del movimento. Nel prossimo futuro questi risultati verranno combinati con quelli ottenuti dall’analisi dei dati EEG.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Alcune osservazioni sperimentali portano ad affermare che la maggior parte della massa dell'universo è costituita da un tipo di materia definita oscura, cioè materia che interagisce solo gravitazionalmente e debolmente. I candidati più promettenti sono tipicamente identificati con le WIMP (Weakly Interacting Massive Particle). L'esperimento XENON1T per la rivelazione di materia oscura, in fase di costruzione nei Laboratori Nazionali del Gran Sasso, sfrutta uno spessore di 1.4 km di roccia schermante. Il rivelatore è una Time Projection Chamber contenente circa 2 tonnellate di xeno e avrà sensibilità per sezioni d’urto WIMP-nucleo spin-indipendent pari a circa 2x10-47 cm2 (per WIMP di massa 50 GeV/c2), due ordini di grandezza al di sotto degli attuali limiti. Per raggiungere tale sensibilità la TPC sarà inserita in una tank cilindrica riempita di acqua ultrapura, che fungerà sia da schermo passivo contro la radiazione esterna (gamma e neutroni di bassa energia), sia da veto per i muoni cosmici. I muoni possono infatti produrre neutroni di energia tale da raggiungere la TPC e simulare segnali tipici delle WIMP. Essi sono identificati per via della radiazione Cherenkov, emessa in seguito al loro passaggio in acqua, rivelata per mezzo di 84 fotomoltiplicatori (PMT) 8'' Hamamatsu R5912ASSY HQE. Lo studio delle prestazioni e delle caratteristiche dei PMT utilizzati nel sistema di veto di muoni sono lo scopo di questo lavoro di tesi. In particolare è stato preparato un opportuno setup per i test dei fotomoltiplicatori e sono state effettuate misure di guadagno, dark rate ed afterpulse. In una prima fase sono stati testati in aria 50 PMT presso la Sezione INFN di Bologna, nel periodo compreso tra Novembre 2012 e Marzo 2013 ed in una seconda fase sono stati testati in acqua 90 PMT presso i Laboratori Nazionali del Gran Sasso, nel periodo compreso tra Aprile e Settembre 2013.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si mostrano i passi seguiti nello sviluppo di un modello matematico e simulativo che mira a ricostruire il campo di flusso veicolare della rete stradale della regione Emilia Romagna. Si descrivono le fonti di dati utilizzate per la ricostruzione: dispositivi GPS a bassa capillarità e spire induttive su strada; si discute delle caratteristiche dei dati e dei problemi intrinseci e contingenti da cui sono affetti, nonché delle metodologie adottate nel tentativo di risolvere questi problemi. Si illustra l’idea centrale alla base delle ricostruzioni, e si descrive un criterio di validazione del modello. Si mostrano i risultati dei vari algoritmi ideati, ognuno affiancato dal parametro di validità, evidenziando quale metodo produca risultati migliori. Si conclude discutendo delle potenzialità del modello in termini di applicabilità in altre regioni o zone geografiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le tecniche di next generation sequencing costituiscono un potente strumento per diverse applicazioni, soprattutto da quando i loro costi sono iniziati a calare e la qualità dei loro dati a migliorare. Una delle applicazioni del sequencing è certamente la metagenomica, ovvero l'analisi di microorganismi entro un dato ambiente, come per esempio quello dell'intestino. In quest'ambito il sequencing ha permesso di campionare specie batteriche a cui non si riusciva ad accedere con le tradizionali tecniche di coltura. Lo studio delle popolazioni batteriche intestinali è molto importante in quanto queste risultano alterate come effetto ma anche causa di numerose malattie, come quelle metaboliche (obesità, diabete di tipo 2, etc.). In questo lavoro siamo partiti da dati di next generation sequencing del microbiota intestinale di 5 animali (16S rRNA sequencing) [Jeraldo et al.]. Abbiamo applicato algoritmi ottimizzati (UCLUST) per clusterizzare le sequenze generate in OTU (Operational Taxonomic Units), che corrispondono a cluster di specie batteriche ad un determinato livello tassonomico. Abbiamo poi applicato la teoria ecologica a master equation sviluppata da [Volkov et al.] per descrivere la distribuzione dell'abbondanza relativa delle specie (RSA) per i nostri campioni. La RSA è uno strumento ormai validato per lo studio della biodiversità dei sistemi ecologici e mostra una transizione da un andamento a logserie ad uno a lognormale passando da piccole comunità locali isolate a più grandi metacomunità costituite da più comunità locali che possono in qualche modo interagire. Abbiamo mostrato come le OTU di popolazioni batteriche intestinali costituiscono un sistema ecologico che segue queste stesse regole se ottenuto usando diverse soglie di similarità nella procedura di clustering. Ci aspettiamo quindi che questo risultato possa essere sfruttato per la comprensione della dinamica delle popolazioni batteriche e quindi di come queste variano in presenza di particolari malattie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato viene studiato un nuovo strumento satellitare chiamato MIPAS2k: uno spettrometro a trasformata di Fourier, in grado di misurare gli spettri di emissione dei gas atmosferici attraverso la tecnica di misure al lembo. Lo scopo di MIPAS2k è quello di determinare la distribuzione spaziale di quantità atmosferiche tra cui il VMR delle specie chimiche: ozono, acqua, acido nitrico e protossido di azoto. La necessità di idearne un successore è nata dopo la perdita di contatto con lo strumento MIPAS da cui MIPAS2k, pur preservandone alcune caratteristiche, presenta differenze fondamentali quali: i parametri osservazionali, il tipo di detector utilizzato per eseguire le scansioni al lembo e la logica attraverso cui vengono ricavate le distribuzioni dei parametri atmosferici. L’algoritmo attraverso cui viene effettuata l’inversione dei dati di MIPAS2k, chiamato FULL2D, usa la stessa logica di base di quello utilizzato per MIPAS chiamato Geo-Fit. La differenza fondamentale tra i due metodi risiede nel modo in cui i parametri sono rappresentati. Il Geo-Fit ricostruisce il campo atmosferico delle quantità da determinare tramite profili verticali mentre il FULL2D rappresenta i valori del campo atmosferico all’interno degli elementi della discretizzazione bidimensionale dell’atmosfera. Non avendo a disposizione misure del nuovo strumento si è dovuto valutarne le performance attraverso l’analisi su osservati simulati creati ricorrendo al modello diretto del trasferimento radiativo e utilizzando un’atmosfera di riferimento ad alta risoluzione. Le distribuzioni bidimensionali delle quantità atmosferiche di interesse sono state quindi ricavate usando il modello di inversione dei dati FULL2D applicato agli osservati simulati di MIPAS2k. I valori dei parametri ricavati sono stati confrontati con i valori dell’atmosfera di riferimento e analizzati utilizzando mappe e quantificatori. Con i risultati di queste analisi e' stato possibile determinare la risoluzione spaziale e la precisione dei prodotti di MIPAS2k per due diverse risoluzioni spettrali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro è stato svolto presso la struttura di Radioterapia del Policlinico S. Orsola - Malpighi e consiste nella caratterizzazione di un sistema di acquisizione per immagini portali (EPID) come dosimetro relativo bidimensionale da usare nei controlli di qualità sui LINAC. L’oggetto di studio è il sistema di acquisizione di immagini portali OPTIVUE 1000ST (Siemens), dispositivo flat panel di silicio amorfo (a-Si) assemblato all’acceleratore lineare Siemens Oncor. La risposta dell’EPID è stata analizzata variando i parametri di consegna della dose, mantenendo fissa la distanza fuoco-rivelatore. Le condizioni di stabilità, ottimali per lavorare, si hanno intorno alle 50 U.M. Dalle curve dei livelli di grigio ottenute risulta evidente che in diverse condizioni d’irraggiamento il sistema risponde con curve di Dose-Risposta differenti, pur restando nello stesso range di dose. Lo studio include verifiche sperimentali effettuate con l’OPTIVUE e usate per espletare alcuni controlli di qualità di tipo geometrico come la coincidenza campo luminoso – campo radiante e la verifica del corretto posizionamento delle lamelle del collimatore multilamellare. Le immagini portali acquisite verranno poi confrontate con quelle ottenute irraggiando tradizionalmente una CR (computed radiography), per la coincidenza e una pellicola radiocromica EBT 3, per l’MLC. I risultati ottenuti mostrano che, per il primo controllo, in entrambi i modi, si è avuta corrispondenza tra campo radiante e campo luminoso; il confronto fra le due metodiche di misura risulta consistente entro i valori di deviazioni standard calcolati, l’OPTIVUE può essere utilizzato efficacemente in tale controllo di qualità. Nel secondo controllo abbiamo ottenuto differenze negli errori di posizionamento delle lamelle individuati dai due sistemi di verifica dell’ordine di grandezza dei limiti di risoluzione spaziale. L’OPTIVUE è in grado di riconoscere errori di posizionamento preesistenti con un’incertezza che ha come limite la dimensione del pixel. Il sistema EPID, quindi, è efficace, affidabile, economico e rapido.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro è parte integrante di un progetto di ricerca del Ministero della Salute ed è stato sviluppato presso la Fisica Sanitaria ed il reparto di Radioterapia Oncologica dell’Azienda Ospedaliero Universitaria di Modena. L’obiettivo è la realizzazione di modelli predittivi e di reti neurali per tecniche di warping in ambito clinico. Modifiche volumetrico-spaziali di organi a rischio e target tumorali, durante trattamenti tomoterapici, possono alterare la distribuzione di dose rispetto ai constraints delineati in fase di pianificazione. Metodologie radioterapiche per la valutazione di organ motion e algoritmi di registrazione ibrida permettono di generare automaticamente ROI deformate e quantificare la divergenza dal piano di trattamento iniziale. Lo studio si focalizzata sulle tecniche di Adaptive Radiation Therapy (ART) mediante la meta-analisi di 51 pazienti sottoposti a trattamento mediante Tomotherapy. Studiando il comportamento statistico del campione, sono state generate analisi predittive per quantificare in tempo reale divergenze anatomico dosimetriche dei pazienti rispetto al piano originale e prevedere la loro ripianificazione terapeutica. I modelli sono stati implementati in MATLAB, mediante Cluster Analysis e Support Vector Machines; l’analisi del dataset ha evidenziato il valore aggiunto apportabile dagli algoritmi di deformazione e dalle tecniche di ART. La specificità e sensibilità della metodica è stata validata mediante l’utilizzo di analisi ROC. Gli sviluppi del presente lavoro hanno aperto una prospettiva di ricerca e utilizzo in trattamenti multicentrici e per la valutazione di efficacia ed efficienza delle nuove tecnologie in ambito RT.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il vento di barriera (VB) è un fenomeno meteorologico a mesoscala che interessa il flusso nei bassi strati atmosferici ed è dovuto all'interazione con l'orografia. Se il numero di Froude upstream è sufficientemente piccolo si genera una deviazione orizzontale del flusso incidente. Si può raggiungere uno stato quasi-stazionario, nel quale un intenso vento soffia parallelo all'orografia nei bassi strati. Nel presente lavoro si è innanzitutto sviluppata una climatologia degli eventi di VB nella regione italiana su un periodo biennale. Gli eventi sono stati classificati per la velocità del flusso incidente e la velocità e direzione del VB a 950 hPa, e per il numero di Froude upstream. Si è poi studiata la distribuzione degli eventi rispetto al numero di Froude. La climatologia è risultata in buon accordo con la teoria idealizzata dei flussi sopra l'orografia. Tre casi di studio sono stati successivamente simulati utilizzando i modelli BOLAM e MOLOCH dell'istituto CNR-ISAC di Bologna. Per ciascun evento sono stati calcolati il numero di Froude upstream e i parametri principali, quali velocità, estensione, temperatura ecc. Per uno dei casi, riguardante le Alpi orientali, le simulazioni sono state confrontate con dati osservati di vento, pressione, temperatura e precipitazione. Sono poi stati condotti dei sensitivity tests con orografia diminuita su ognuno degli eventi. È stata così verificata l'importanza dell'effetto orografico e l'intensità del fenomeno del VB è stata associata al numero di Froude. Un indice, denominato Barrier Wind Index (BWI) è stato ideato a tale scopo. Le simulazioni hanno mostrato un buon accordo con la teoria, indicandone i limiti di applicabilità all'atmosfera reale. In particolare, il Barrier Wind Index tende ad aumentare linearmente al diminuire del numero di Froude. Le simulazioni hanno evidenziato l'elevata influenza del VB sulla circolazione atmosferica a mesoscala, sulla distribuzione e intensità della precipitazione e sull'avvezione di temperatura e umidità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ruolo della fisica della matrice extracellulare nello sviluppo del tumore