923 resultados para Progettazione, banco prova, motore ad alta prestazione, solidworks, container assemblati
Resumo:
Il progetto di tesi ha analizzato i processi erosivi in atto in quattro aree della costa emilianoromagnola settentrionale, situate davanti a importanti foci fluviali: Volano, Reno, F. Uniti e Savio. Il lavoro di tesi si colloca all’interno di un progetto più ampio, che prevede la collaborazione tra la Regione Emilia Romagna, Servizio Geologico, Sismico e dei Suoli e l’Istituto di Scienze Marine ISMAR-CNR, sede di Bologna. Quest’ultimo ha acquisito, durante la campagna ERO2010, 210 km di profili sismici ad alta risoluzione in un’area sotto-costa, posta tra i 2 e gli 8 metri di profondità. Il lavoro di tesi ha usufruito di una nuova strategia di analisi, la sismica ad alta risoluzione (Chirp sonar), che ha permesso di identificare ed esaminare l’architettura geologica riconoscibile nei profili ed approfondire la conoscenza dell’assetto sub-superficiale dei depositi, ampliando le conoscenze di base riguardanti la dinamica dei litorali. L’interpretazione dei dati disponibili è avvenuta seguendo differenti fasi di studio: la prima, più conoscitiva, ha previsto l’identificazione delle evidenze di erosione nelle aree in esame mediante l’analisi della variazione delle linee di riva, l’osservazione delle opere poste a difesa del litorale e lo studio dell’evoluzione delle principali foci. Nella fase successiva le facies identificate nei profili sismici sono state interpretate in base alle loro caratteristiche geometriche ed acustiche, identificando le principali strutture presenti e interpretando, sulla base delle informazioni storiche apprese e delle conoscenze geologiche a disposizione, i corpi sedimentari riconosciuti. I nuovi profili Chirp sonar hanno consentito la ricostruzione geologica mediante la correlazione dei dati a mare (database ISMAR-CNR, Bologna, Carta geologica dei mari italiani 1:250.000) con quelli disponibili a terra, quali Carta dell’evoluzione storica dei cordoni costieri (Servizio Geologico e Sismico dei Suoli, Bo) e Carta geologica 1:50.000 (Servizio Geologico d’Italia e Progetto CARG). La conoscenza dei termini naturali e antropici dello stato fisico dei sistemi costieri è il presupposto necessario per l'esecuzione di studi ambientali atti a una corretta gestione integrata della costa. L’analisi approfondita della geologia superficiale fornisce un’opportunità per migliorare il processo decisionale nella gestione dei litorali e nella scelta degli interventi da attuare sulla costa, che devono essere fatti consapevolmente considerando l’assetto geologico e prevedendo una strategia di manutenzione della costa a medio termine. Un singolo intervento di ripascimento produce effetti di breve durata e non sufficienti a sanare il problema e a mitigare il rischio costiero. Nei tratti costieri scarsamente alimentati, soggetti a persistenti fenomeni erosivi, occorre, pertanto, mettere in atto ripetuti interventi di ripascimento accompagnati da un idoneo piano di monitoraggio.
Resumo:
L'algoritmo di semplificazione proposto in questa tesi agisce in modo iterativo su due livelli, in una prima fase alla mesh viene applicato un operatore di smoothing e alla mesh così elaborata viene poi applicata la decimazione. L'alternanza di questi due operatori permette di avere mesh semplificate che mantengono però una qualità maggiore rispetto al risultato che si avrebbe invece applicando solo la decimazione. A partire da una mesh ad alta risoluzione, ad ogni iterazione viene quindi creata una mesh con una risoluzione inferiore fino all'ultima iterazione che produce la mesh coarse (a bassa risoluzione) desiderata. Si viene quindi a creare una struttura di semplificazione multilivello, utile in molte applicazioni di computer graphics.
Resumo:
Il presente lavoro di tesi si inserisce all’interno del progetto Europeo Theseus (Innovative technologies for European coasts in a changing climate), volto a fornire una metodologia integrata per la pianificazione sostenibile di strategie di difesa per la gestione dell’erosione costiera e delle inondazioni che tengano in conto non solo gli aspetti tecnici ma anche quelli sociali, economici e ambientali/ecologici. L'area oggetto di studio di questo elaborato di tesi è la zona costiera della Regione Emilia Romagna, costituita unicamente da spiagge sabbiose. In particolare si è focalizzata l’attenzione sulla zona intertidale, in quanto, essendo l’ambiente di transizione tra l’ambiente marino e quello terrestre può fornire indicazioni su fenomeni erosivi di una spiaggia e cambiamenti del livello del mare, unitamente alla risposta agli interventi antropici. Gli obiettivi della tesi sono sostanzialmente tre: un primo obiettivo è confrontare ecosistemi di spiagge dove sono presenti strutture di difesa costiera rispetto a spiagge che ne erano invece prive. Il secondo obiettivo è valutare l’impatto provocato sugli ecosistemi di spiaggia dall’attività stagionale del “bulldozing” e in ultimo proporre un sistema esperto di nuova concezione in grado di prevedere statisticamente la risposta delle comunità bentoniche a diversi tipi di interventi antropici. A tal fine è stato pianificato un disegno di campionamento dove sono stati indagati tre siti differenti per morfologia e impatto antropico: Cesenatico (barriere e pratica bulldozing), Cervia, dissipativa e non soggetta a erosione (assenza di barriere e ma con pratica del bulldozing) e Lido di Dante, tendenzialmente soggetta a erosione (senza barriere e senza pratica del bulldozing). Il campionamento è stato effettuato in 4 tempi (due prima del “bulldozing” e due dopo) nell’arco di 2 anni. In ciascun sito e tempo sono stati campionati 3 transetti perpendicolari alla linea di costa, e per ogni transetto sono stati individuati tre punti relativi ad alta, media e bassa marea. Per ogni variabile considerata sono stati prelevati totale di 216 campioni. Io personalmente ho analizzato i campioni dell’ultima campagna di campionamento, ma ho analizzato l’insieme dei dati. Sono state considerate variabili relative ai popolamenti macrobentonici quali dati di abbondanza, numero di taxa e indice di diversità di Shannon e alcune variabili abiotiche descrittive delle caratteristiche morfologiche dell’area intertidale quali granulometria (mediana, classazione e asimmetria), detrito conchigliare, contenuto di materia organica (TOM), pendenza e lunghezza della zona intertidale, esposizione delle spiagge e indici morfodinamici. L'elaborazione dei dati è stata effettuata mediante tecniche di analisi univariate e multivariate sia sui dati biotici che sulle variabili ambientali, “descrittori dell’habitat”, allo scopo di mettere in luce le interazioni tra le variabili ambientali e le dinamiche dei popolamenti macrobentonici. L’insieme dei risultati delle analisi univariate e multivariate sia dei descrittori ambientali che di quelli biotici, hanno evidenziato, come la risposta delle variabili considerate sia complessa e non lineare. Nonostante non sia stato possibile evidenziare chiari pattern di interazione fra “protezione” e “bulldozing”, sono comunque emerse delle chiare differenze fra i tre siti indagati sia per quanto riguarda le variabili “descrittori dell’habitat” che quelle relative alla struttura dei popolamenti. In risposta a quanto richiesto in contesto water framework directive e in maniera funzionale all’elevate complessità del sistema intertidale è stato proposto un sistema esperto basato su approccio congiunto fuzzy bayesiano (già utilizzato con altre modalità all’interno del progetto Theseus). Con il sistema esperto prodotto, si è deciso di simulare nel sito di Cesenatico due ripascimenti virtuali uno caratterizzato da una gralometria fine e da uno con una granulometria più grossolana rispetto a quella osservata a Cesenatico. Il sistema fuzzy naïve Bayes, nonostante al momento sia ancora in fase di messa a punto, si è dimostrato in grado di gestire l'elevato numero di interazioni ambientali che caratterizzano la risposta della componente biologica macrobentonica nell'habitat intertidale delle spiagge sabbiose.
Resumo:
Oggigiorno le richieste di rilievi tridimensionali e di rappresentazioni 3D ad alta qualità i sono sempre più frequenti, e coinvolgono un numero sempre maggiore di discipline e ambiti applicativi, quali quello industriale, medico, archeologico, forense, museale, ecc., con ulteriori prospettive di allargamento per quanto riguarda la natura ed il numero delle realizzazioni. Il lavoro di ricerca svolto, di natura prevalentemente applicata, vuole andare ad investigare un settore, quello degli oggetti di medie, medio-piccole e soprattutto piccole dimensioni, che, a parere dell’autore, non è stato ancora investigato a fondo;di questo d’altra parte dà riscontro il numero relativamente limitato di lavori presenti in letteratura su questo tema. Sebbene la metodologia di lavoro non sia concettualmente diversa da quella che si adotta comunemente in ambito close range, le problematiche che sono state incontrate nel corso dei diversi casi di studio analizzati nel periodo di dottorato hanno evidenziato la necessità di soluzioni tecniche e metodologiche specifiche, anche in funzione dei requisiti di precisione che competono ad oggetti di piccole dimensioni. Nel corso degli anni, si è visto un allargamento della base di utenti che trovano nel prodotto 3D un importante strumento di lavoro; si pensi alla cinematografia, alla computer grafica, alle simulazioni virtuali a partire da modelli 3D realistici, ecc. Questo trend sembra, al giorno d’oggi, non trovare ancora una battuta d’arresto. Considerando il settore dei Beni Culturali, per esempio, si tratta di un campo di applicazione delle tecniche geomatiche abbastanza ristretto e sostanzialmente nuovo, in quanto le problematiche di documentazione e visualizzazione di beni mobili ed immobili sono in genere indirizzate prevalentemente ad oggetti a scala di edificio, porzione di edificio o elementi quali bassorilievi e statue, comunque con un ordine di grandezza che va da qualche metro alla decina di metri. Qualora, come detto in precedenza, si volesse aumentare ulteriormente la scala di indagine e di rappresentazione, devono essere adottate delle tecniche di rilievo che possano fornire un'adeguata precisione, con strumenti e tecnologie che possano adattarsi alle diverse configurazioni e caratteristiche geometriche. Nella tesi viene dunque affrontata la problematica del rilievo e della modellazione tridimensionale, con alto livello di dettaglio, di oggetti di dimensioni che variano da qualche decina a pochi centimetri; una situazione di questo tipo può aversi in svariati ambiti, che vanno da quello industriale e del design a quello biologico e medico, dall’archeologia ed alla musealizzazione virtuale alle indagini forensi, ecc. Concentrando l’analisi al campo dei Beni Culturali, oggi oggetto di importanti ricerche applicative che trovano impulso anche dallo sviluppo delle nuove tecnologie, sono molto numerose e varie le occasioni in cui operare con oggetti di altissimo valore e dimensioni molto ridotte: un esempio immediato è quello fornito dal rilievo di reperti archeologici, ma nell’ambito del restauro, dell’analisi dei materiali, delle indagini non distruttive, le potenzialità sono di grandissimo interesse.. Comunemente, fino a poco tempo fa, e soprattutto in ambito museale, la documentazione geometrica di un bene culturale mobile di piccole dimensioni si è limitata ad una rappresentazione fotografica, riportante magari elementi metrici minimali, come un righello posto di fianco all’oggetto, in grado di fornire una scala di lettura. Ciò che si è in genere tenuto in scarsa considerazione, ma in grado invece di dare al contenuto informativo quel qualcosa in più rispetto alla semplice fotografia, è l’adozione di metodologie per un rilievo rigoroso e metrico, metodologie che possono essere di grandissimo interesse non solo a fini di studio e divulgazione dell’oggetto (si pensi alla problematica della virtualizzazione della fruizione di beni museali) ma anche per scopi diversi quali la duplicazione e riproduzione di copie dell’oggetto (a scala identica al vero o a scala diversa). Di frequente infatti ci si trova di fronte a problematiche legate alla salvaguardia e conservazione dell’oggetto, in termini di accesso e visione da parte del pubblico, di mantenimento in particolari condizioni microclimatiche, di difficoltà di manipolazione a fini di studio e misura, ecc. Nella tesi sono state prese in considerazione le due tecniche geomatiche che si prestano a soddisfare nel miglior modo possibile i requisiti di correttezza metrica e radiometrica che un rilievo ad elevata precisione richiede. Tali tecniche, rappresentate dalla fotogrammetria digitale con ottiche Macro e dal laser a scansione, in particolare del tipo a triangolazione, sono state sperimentate sul campo , in modo da poter valutarne le potenzialità, non solo alla luce dei risultati finali ottenuti, ma anche considerando i problemi al contorno che esse comportano. Nel corso di numerose sperimentazioni in laboratorio e sul campo sono stati analizzati problemi quali la calibrazione di obiettivi macro e la realizzazione di reticoli speciali atti allo scopo, la qualità dei DSM di origine laser e fotogrammetrica, l’estrazione di caratteristiche morfologiche di microrilievo, le conseguenze della compressione dei dati immagine, la calibrazione radiometrica ed il filtraggio delle immagini digitali, l’allineamento di nuvole di punti con algoritmi ICP.
Resumo:
In quest’ultimi decenni si è assistito ad un notevole miglioramento nella terapia delle Leucemie Acute (LA) pediatriche, nonostante tutto si assiste oggi ad una fase di plateau della curva di sopravvivenza e le leucemie continuano a costituire la principale causa di morte pediatrica per malattia. Ulteriori progressi nel trattamento delle LA potrebbero essere ottenuti mediante studi di farmacogenomica che, identificando le componenti genetiche associate alla risposta individuale ai trattamenti farmacologici, consentono il disegno di terapie personalizzate e tumore-specifiche, ad alta efficacia e bassa tossicità per ciascun paziente. Il lavoro svolto è stato, dunque, finalizzato allo studio della farmacogenomica del farmaco antitumorale Clofarabina (CLO) nel trattamento delle LA pediatriche al fine di identificare marcatori genetici predittivi di risposta delle cellule leucemiche al farmaco, delucidare i meccanismi di resistenza cellulare ed individuare nuovi bersagli verso cui indirizzare terapie più mirate ed efficaci. L’analisi in vitro della sensibilità alla CLO di blasti provenienti da pazienti pediatrici affetti da Leucemia Acuta Linfoblastica (LAL) e Mieloide (LAM) ha consentito l’identificazione di due sottopopolazioni di cellule LAL ad immunofenotipo T a diversa sensibilità alla CLO. Mediante DNA-microarrays, si è identificata la “signature” genetica specificamente associata alla diversa risposta delle cellule LAL-T al farmaco. Successivamente, la caratterizzazione funzionale dei geni differenziali e l’analisi dei pathways hanno consentito l’identificazione specifica di potenziali biomarcatori di risposta terapeutica aprendo nuove prospettive per la comprensione dei meccanismi di resistenza cellulare alla CLO e suggerendo un nuovo bersaglio terapeutico per le forme LAL-T a bassa sensibilità al farmaco. In conclusione, nel lavoro svolto si sono identificati set di geni e pathways di rilievo biologico per la risposta delle cellule LAL-T alla CLO suggerendo marcatori genetici in grado di identificare i soggetti eleggibili per il trattamento o verso cui disegnare terapie innovative. Il lavoro è paradigma per l’applicazione della farmacogenomica in altre neoplasie.
Resumo:
L’acquifero freatico costiero ravennate è intensamente salinizzato fino a diversi km nell’entroterra. Il corpo dell’acquifero è formato da sabbie che poggiano su un substrato argilloso ad una profondità media di 25 m, i depositi affioranti sono sabbie e argille. Il lavoro svolto consiste in una caratterizzazione dello stato di salinizzazione con metodologie indirette (geoelettrica) e metodologie dirette (letture dei parametri fisici delle acque in pozzo). I sondaggi elettrici verticali (V.E.S.) mostrano stagionalità dovuta alle differenti quantità di pioggia e quindi di ricarica, le aree con depositi superficiali ad alta conducibilità idraulica (sabbie) hanno una lente d’acqua dolce compresa tra 0,1 e 2,25 m di spessore, al di sotto della quale troviamo una zona di mescolamento con spessori che vanno da 1,00 a 12,00 m, mentre quando in superficie abbiamo depositi a bassa conducibilità idraulica (limi sabbiosi e argille sabbiose) la lente d’acqua dolce scompare e la zona di mescolamento è sottile. Le misure dirette in pozzo mostrano una profondità della tavola d’acqua quasi ovunque sotto il livello del mare in entrambi i mesi monitorati, Giugno e Dicembre 2010, presentando una profondità leggermente maggiore nel mese di Dicembre. Dalla ricostruzione litologica risulta un acquifero composto da 4×109 m3 di sabbia, per cui ipotizzando una porosità media del 30% sono presenti 1,2×109 m3 di acqua. Dalla modellazione numerica (Modflow-SEAWAT 2000) risulta che l’origine dell’acqua salata che si trova in falda trova più facilmente spiegazione ipotizzando la sua presenza fin dalla formazione dell’acquifero, residuo delle acque marine che regredivano. Un’altra problematica analizzata è valutare l’applicazione della metodologia a minifiltri in uno studio sulla salinizzazione delle acque di falda. É stata implementata la costruzione di un transetto sperimentale, che ha permesso la mappatura dell’interfaccia acqua dolce/salmastra/salata con una precisione finora non raggiungibile.
Resumo:
Sommario Il polo chimico di Ferrara, situato nella periferia nord occidentale del territorio comunale, rappresenta un’area ad alta concentrazione di stabilimenti, ai sensi dell’art. 13 del D.Lgs. 334/99 e s.m.i., ovvero un’area in cui sono presenti diversi stabilimenti a rischio di incidente rilevante, così definiti in base alle caratteristiche di pericolosità e dei quantitativi delle sostanze chimiche presenti. Per tali aree la norma di legge prevede la realizzazione di uno Studio di Sicurezza Integrato d’Area o SSIA. Allo SSIA del polo chimico ferrarese è stato dato avvio nel corso del 2012, in seguito ad un accordo tra la Regione Emilia Romagna, l’Agenzia Regionale di Protezione Civile, la Provincia di Ferrara, l’Ufficio Territoriale del Governo, il Comune di Ferrara, la Direzione Regionale dei Vigili del Fuoco, l’Agenzia Regionale Prevenzione e Ambiente e le stesse aziende presenti nel polo. La realizzazione dello SSIA prevede 6 fasi: 1) la definizione dei criteri metodologici da adottare per l’analisi del rischio; 2) la raccolta e l’analisi critica dei dati necessari all'analisi del rischio; 3) l’individuazione e la caratterizzazione delle sorgenti di rischio; 4) l’analisi delle conseguenze e la stima della frequenza di accadimento degli scenari incidentali che possono scaturire da ogni sorgente di rischio; 5) la ricomposizione, per tutti gli scenari di ogni sorgente e per tutte le sorgenti, delle frequenze e delle conseguenze negli indici di rischio; 6) l’analisi e la valutazione dei risultati ottenuti, al fine di interventi eventuali interventi per la riduzione e la mitigazione del rischio stesso. Il presente lavoro di tesi si inserisce nello Studio di Sicurezza Integrato d’Area del polo chimico di Ferrara ed in particolare nelle fasi 2), 3) e 4) sopra citate. Esso ha preso avvio durante un tirocinio svolto presso l’Agenzia Regionale di Protezione Civile ed ha avuto ad oggetto il trasporto di sostanze pericolose via strada e ferrovia nell'area dello SSIA. Il lavoro di tesi è così strutturato: a valle del capitolo 1 avente carattere introduttivo, si è descritta nel dettaglio l’area oggetto dello SSIA, con particolare riferimento alle vie di trasporto delle sostanze pericolose (capitolo 2). Successivamente (capitolo 3) si è illustrata la metodologia utilizzata per effettuare il censimento dei dati di trasporto delle sostanze pericolose forniti dalle aziende del polo e si sono presentati i risultati ottenuti. Infine (capitolo 4) si è eseguita l’analisi delle conseguenze degli scenari incidentali associati al trasporto di alcune delle sostanze movimentate per strada e ferrovia.
Resumo:
In questa tesi viene descritto il funzionamento delle sorgenti di luce LED (Light Emitting Diode) a confinamento quantico, che rappresentano la nuova frontiera dell'illuminazione ad alta efficienza e durata. Nei capitoli introduttivi è descritta brevemente la storia dei LEDs dalla loro invenzione agli sviluppi più recenti. Il funzionamento di tali dispositivi fotonici è spiegato a partire dal concetto di sorgente di luce per elettroluminescenza, con particolare riferimento alle eterostrutture a confinamento quantico bidimensionale (quantum wells). I capitoli centrali riguardano i nitruri dei gruppi III-V, le cui caratteristiche e proprietà hanno permesso di fabbricare LEDs ad alta efficienza e ampio spettro di emissione, soprattutto in relazione al fatto che i LEDs a nitruri dei gruppi III-V emettono luce anche in presenza di alte densità di difetti estesi, nello specifico dislocazioni. I capitoli successivi sono dedicati alla presentazione del lavoro sperimentale svolto, che riguarda la caratterizzazione elettrica, ottica e strutturale di LEDs a confinamento quantico basati su nitruri del gruppo III-V GaN e InGaN, cresciuti nei laboratori di Cambridge dal Center for Gallium Nitride. Lo studio ha come obiettivo finale il confronto dei risultati ottenuti su LEDs con la medesima struttura epitassiale, ma differente densità di dislocazioni, allo scopo di comprendere meglio il ruolo che tali difetti estesi ricoprono nella determinazione dell'effcienza delle sorgenti di luce LED. L’ultimo capitolo riguarda la diffrazione a raggi X dal punto di vista teorico, con particolare attenzione ai metodi di valutazioni dello strain reticolare nei wafer a nitruri, dal quale dipende la densità di dislocazioni.
Resumo:
Il fenomeno dello scattering diffuso è stato oggetto di numerosi studi nell’arco degli ultimi anni, questo grazie alla sua rilevanza nell’ambito della propagazione elettromagnetica così come in molti altri campi di applicazione (remote sensing, ottica, fisica, etc.), ma la compresione completa di questo effetto è lungi dall’essere raggiunta. Infatti la complessità nello studio e nella caratterizzazione della diffusione deriva dalla miriade di casistiche ed effetti che si possono incontrare in un ambiente di propagazione reale, lasciando intuire la necessità di trattarne probabilisticamente il relativo contributo. Da qui nasce l’esigenza di avere applicazioni efficienti dal punto di vista ingegneristico che coniughino la definizione rigorosa del fenomeno e la conseguente semplificazione per fini pratici. In tale visione possiamo descrivere lo scattering diffuso come la sovrapposizione di tutti quegli effetti che si scostano dalle classiche leggi dell’ottica geometrica (riflessione, rifrazione e diffrazione) che generano contributi del campo anche in punti dello spazio e direzioni in cui teoricamente, per oggetti lisci ed omogenei, non dovrebbe esserci alcun apporto. Dunque l’effetto principale, nel caso di ambiente di propagazione reale, è la diversa distribuzione spaziale del campo rispetto al caso teorico di superficie liscia ed omogenea in congiunzione ad effetti di depolarizzazione e redistribuzione di energia nel bilancio di potenza. Perciò la complessità del fenomeno è evidente e l’obiettivo di tale elaborato è di proporre nuovi risultati che permettano di meglio descrivere lo scattering diffuso ed individuare altresì le tematiche sulle quali concentrare l’attenzione nei lavori futuri. In principio è stato quindi effettuato uno studio bibliografico così da identificare i modelli e le teorie esistenti individuando i punti sui quali riflettere maggiormente; nel contempo si sono analizzate le metodologie di caratterizzazione della permittività elettrica complessa dei materiali, questo per valutare la possibilità di ricavare i parametri da utilizzare nelle simulazioni utilizzando il medesimo setup di misura ideato per lo studio della diffusione. Successivamente si è realizzato un setup di simulazione grazie ad un software di calcolo elettromagnetico (basato sul metodo delle differenze finite nel dominio del tempo) grazie al quale è stato possibile analizzare la dispersione tridimensionale dovuta alle irregolarità del materiale. Infine è stata condotta una campagna di misure in camera anecoica con un banco sperimentale realizzato ad-hoc per effettuare una caratterizzazione del fenomeno di scattering in banda larga.
Resumo:
L’acceleratore di protoni e ioni pesanti LHC costruito presso i laboratori del CERN di Ginevra permette sviluppi straordinari nel campo della fisica delle particelle alle alte energie. Tra le diverse linee di ricerca attualmente operative lo studio del quark top riveste un ruolo di particolare rilevanza. Infatti, l’elevata energia accessibile alla macchina rende possibile la raccolta di campioni di elevata statistica necessari per uno studio dettagliato delle proprietà del quark top, la particella più pesante fino ad oggi nota. In particolare in questa tesi viene studiato, e confrontato con l'analisi standard, un nuovo metodo, chiamato “template overlap method”, per la selezione di quark top prodotti ad alta energia. L'obiettivo è valutare se questo nuovo metodo permetterà una migliore precisione nella misura della sezione d'urto differenziale di produzione di coppie tt nelle prossime prese dati dove l'energia nel centro di massa raggiungerà i 13 TeV. L'analisi, per ora, è stata svolta su dati montecarlo simulati per l'esperimento ATLAS ad una energia del centro di massa di 8 TeV. I risultati ottenuti sono incoraggianti perchè mostrano un'alta efficienza di selezione all'aumentare dell'energia dei prodotti di decadimento del top.
Resumo:
L'epilessia frontale notturna (EFN) è caratterizzata da crisi motorie che insorgono durante il sonno. Scopo del progetto è studiare le cause fisiopatologiche e morfo-funzionali che sottendono ai fenomeni motori nei pazienti con EFN e identificare alterazioni strutturali e/o metaboliche mediante tecniche avanzate di Risonanza Magnetica (RM). Abbiamo raccolto una casistica di pazienti con EFN afferenti al Centro Epilessia e dei Disturbi del Sonno del Dipartimento di Scienze Neurologiche, Università di Bologna. Ad ogni paziente è stato associato un controllo sano di età (± 5 anni) e sesso corrispondente. Tutti sono stati studiati mediante tecniche avanzate di RM comprendenti Spettroscopia del protone (1H-MRS), Tensore di diffusione ed imaging 3D ad alta risoluzione per analisi morfometriche. In particolare, la 1H-MRS è stata effettuata su due volumi di interesse localizzati nei talami e nel giro del cingolo anteriore. Sono stati inclusi nell’analisi finale 19 pazienti (7 M), età media 34 anni (range 19-50) e 14 controlli (6 M) età media 30 anni (range 19-40). A livello del cingolo anteriore il rapporto della concentrazione di N-Acetil-Aspartato rispetto alla Creatina (NAA/Cr) è risultato significativamente ridotto nei pazienti rispetto ai controlli (p=0,021). Relativamente all’analisi di correlazione, l'analisi tramite modelli di regressione multipla ha evidenziato che il rapporto NAA/Cr nel cingolo anteriore nei pazienti correlava con la frequenza delle crisi (p=0,048), essendo minore nei pazienti con crisi plurisettimanali/plurigiornaliere. Per interpretare il dato ottenuto è possibile solo fare delle ipotesi. L’NAA è un marker di integrità, densità e funzionalità neuronale. E’ possibile che alla base della EFN ci siano alterazioni metaboliche tessutali in precise strutture come il giro del cingolo anteriore. Questo apre nuove possibilità sull’utilizzo di strumenti di indagine basati sull’analisi di biosegnali, per caratterizzare aree coinvolte nella genesi della EFN ancora largamente sconosciute e chiarire ulteriormente l’eziologia di questo tipo di epilessia.
Resumo:
Una delle aree di maggiore innovazione nella diagnostica per immagini è rappresentata dalla possibilità di fondere le scansioni PET e TC in un sistema di acquisizione ibrido che realizza entrambi gli studi in un'unica seduta. Questa tecnica abbina infatti la capacità di raccogliere le immagini ad alta definizione della TC che può essere eseguita anche con il mezzo di contrasto tradizionale, con informazioni metaboliche estremamente dettagliate raccolte dalla PET, unificandole in un sistema di immagini ibride. Attualmente la PET ha un preminente utilizzo in campo oncologico, tanto che circa l’80% degli esami effettuati è mirato a monitorare la risposta dei pazienti a trattamenti contro il cancro e a discriminare o caratterizzare lesioni dubbie evidenziate in studi morfologici effettuati con CT e MRI. Oltre all’ambito delle patologie neoplastiche, le tecniche di imaging PET/CT hanno dimostrato una importanza rilevante anche in applicazioni di cardiologia e neurologia.
Resumo:
La Tesi presenta uno studio sulla distribuzione dei raggi di Einsten compiuta su campioni di ammassi simulati. Il codice utilizzato, MOKA, consente la costruzione di vasti campioni di ammassi in differenti cosmologie e con differenti parametri strutturali. I risultati ottenuti sono stati confrontati con quelli ottenuti dalla simulazione cosmologica N-body ad alta risoluzione MUSIC. Sono stati quindi prodotti campioni di ammassi per sette valori diversi della normalizzazione dello spettro di potenza e 7 valori diversi del parametro di densità della materia mantenendo la geometria piatta
Resumo:
In questo lavoro, dopo un'introduzione sul panorama contemporaneo, si è analizzato lo standard IEEE 802.21, illustrandone i motivi che hanno portato al suo sviluppo, la timeline del processo di standardizzazione, gli obbiettivi del working group, l'architettura del sistema specificato e le sue funzionalità, con particolare riguardo all'utilità in applicazioni reali, al fine di darne un giudizio completo sulla sua effettiva efficacia. Dopo aver citato qualche esempio di possibile applicazione dello standard e descritto lo stato attuale dell'arte, si è studiata una sua implementazione cross-platform chiamata ODTONE, descrivendone i vari componenti e le loro funzionalità, ma anche sottolineando le attuali mancanze per arrivare ad una implementazione completa sotto tutti i punti di vista. Successivamente si è studiata ed implementata un'applicazione, MIH-proxy, che potesse sfruttare in modo costruttivo i servizi specificati dallo standard per creare un proxy che potesse scegliere su quale interfaccia instradare i pacchetti a seconda dello stato attuale di tutti i collegamenti, realizzato in versione unidirezionale e bidirezionale. In particolare questa applicazione è in grado di restare in ascolto di cambiamenti di stato delle interfacce di rete, e.g. quando viene stabilita una connessione oppure cade, e, di conseguenza, stabilire di volta in volta quali collegamenti utilizzare per inviare dati. Nella versione bidirezionale è anche possibile far comunicare tra loro applicazioni che normalmente utilizzerebbero il protocollo di trasporto TCP attraverso un ulteriore componente, phoxy, che si preoccupa di convertire, in modo trasparente, un flusso TCP in datagrammi UDP eventualmente cifrati. Sarà quindi possibile creare un collegamento criptato ad alta affidabilità tra le applicazioni che possa sfruttare tutte le interfacce disponibili, sia per inviare, sia per ricevere.
Resumo:
Analisi dell'installazione di un banco prova di trazione su funi in una azienda, della sua messa a punto e di un primo collaudo svolto.