734 resultados para Vicente Di Grado
Resumo:
Il presente lavoro di tesi si pone nell'ambito dell'analisi dati attraverso un metodo (QDanet_PRO), elaborato dal Prof. Remondini in collaborazine coi Dott. Levi e Malagoli, basato sull'analisi discriminate a coppie e sulla Teoria dei Network, che ha come obiettivo la classificazione di dati contenuti in dataset dove il numero di campioni è molto ridotto rispetto al numero di variabili. Attraverso questo studio si vogliono identificare delle signature, ovvero un'insieme ridotto di variabili che siano in grado di classificare correttamente i campioni in base al comportamento delle variabili stesse. L'elaborazione dei diversi dataset avviene attraverso diverse fasi; si comincia con una un'analisi discriminante a coppie per identificare le performance di ogni coppia di variabili per poi passare alla ricerca delle coppie più performanti attraverso un processo che combina la Teoria dei Network con la Cross Validation. Una volta ottenuta la signature si conclude l'elaborazione con una validazione per avere un'analisi quantitativa del successo o meno del metodo.
Resumo:
Il Modello Standard descrive la fenomenologia delle interazioni fondamentali con estrema precisione; tuttavia è incompleto e deve esistere nuova fisica oltre tale modello. Al momento non si è in grado di prevedere come e a che scala di energia tale fisica si manifesti. Un’eventuale risonanza nello stato finale μ + μ − a masse elevate costituirebbe un segnale di nuova fisica. Un fenomeno di questo tipo viene catalogato come produzione della particella Z' , la quale non rappresenterebbe necessariamente un nuovo bosone vettore sequenziale alla Z_0 . Questa tesi si colloca nell’ambito della ricerca della Z' nei processi di interazione protone-protone a LHC in termini di una generica risonanza che decade in coppie di muoni di carica opposta. I limiti attualmente fissati stabiliscono che non vi siano segnali di nuove risonanze per il Modello Sequenziale (SSM) al di sotto dei 2960 GeV. In questo lavoro di tesi si effettua un’analisi per un’eventuale Z ', fino a 5 TeV di massa. A Maggio 2015, LHC ha raggiunto un’energia nel centro di massa di 13 TeV aumentando di un fattore 10 o più il potere di scoperta per oggetti con massa superiore a 1 TeV. In questo scenario, favorevole all’osservazione di fenomeni rari, si inserisce la mia ricerca.
Resumo:
L'obbiettivo di questa tesi è quello di studiare alcune proprietà statistiche di un random walk su network. Dopo aver definito il concetto di network e di random walk su network, sono state studiate le caratteristiche dello stato stazionario di questo sistema, la loro dipendenza dalla topologia della rete e l'andamento del sistema verso l'equilibrio, con particolare interesse per la distribuzione delle fluttuazioni delle popolazioni sui differenti nodi, una volta raggiunto lo stato stazionario. In seguito, si è voluto osservare il comportamento del network sottoposto ad una forzatura costante, rappresentata da sorgenti e pozzi applicati in diversi nodi, e quindi la sua suscettività a perturbazioni esterne. Tramite alcune simulazioni al computer, viene provato che una forzatura esterna modifica in modo diverso lo stato del network in base alla topologia di quest'ultimo. Dai risultati si è trovato quali sono i nodi che, una volta perturbati, sono in grado di cambiare ampiamente lo stato generale del sistema e quali lo influenzano in minima parte.
Resumo:
Si è valutata l'efficienza di estrazione di metalli pesanti (Al, Zn, Pb, V, Cr, Cu, Ti, Co, Cd, Ni) da soluzioni ottenute da leaching acido di fly ash da termovalorizzatore. L'efficienza è stata stimata in funzione del pH e del tempo (esperimenti di 24 h e 3 h) e tramite l'utilizzo di un agente chelante (EDTA). Si è dimostrata l'efficienza dell'esperimento di 3 h, che si traduce in un beneficio economico in quanto si ottiene un elevato grado di estrazione in minor tempo.
Resumo:
Le ammine biogene sono composti azotati a basso peso molecolare che vengono prodotti in seguito alla decarbossilazione degli aminoacidi da parte di specifici enzimi microbici della famiglia delle decarbossilasi. Questi composti sono presenti in diversi alimenti e, in particolare, in quelli fermentati. Nonostante la capacità dell’organismo di metabolizzare tali molecole tramite appositi sistemi di detossificazione una loro eccessiva assunzione provoca sintomatologie deleterie per la salute umana. La tiramina, in particolare, è una delle ammine biogene attualmente più studiate in ragione della diffusa presenza dell’enzima tirosina decarbossilasi (tyrDC) nel pool enzimatico di diversi batteri lattici, specialmente quelli appartenenti al genere Enterococcus. Seppure in letteratura vi siano numerosi studi riguardanti il rapporto fra contenuto di tiramina e l’attività degli enterococchi in molti alimenti, ad oggi sono ridotte le informazioni inerenti la regolazione e il ruolo fisiologico di tale molecola per la cellula microbica. Alla luce di tali considerazioni questa tesi mi sono occupata di approfondire le conoscenze relative l’attività dell’enzima tyrDC in un terreno di coltura a composizione nota da parte dei due ceppi di Enterococcus faecalis EF37 e ATCC29212. A tal fine i ceppi sono stati inoculati in cinque diversi terreni e incubati a tre diverse temperature (20°C, 30°C e 40°C), dopo averli pre-coltivati in terreni contenenti o meno tirosina, allo scopo di valutare se la fase di pre-adattamento fosse in grado di influenzare le performance dei ceppi considerati. Dai risultati ottenuti è emerso che è presente un’estrema eterogeneità nell’attività dell’enzima tyrDC anche all’interno della medesima specie, infatti se il ceppo EF37 ha performance migliori in termini di decarbossilazione quando pre-adattato, il ceppo ATCC29212 non sembra essere influenzato da questo fattore, seppur entrambi presentino una crescita cellulare più accentuata quando pre-adattati. È stata inoltre confermata, alle condizioni adattate, la capacità di produrre 2-feniletilamina da parte del solo ceppo EF37.
Resumo:
Il lavoro presentato ha avuto l’obiettivo, attraverso lo studio dei più comuni servomotori stepper, di replicare profili di accelerazione registrati o definiti con l’utilizzo di una piattaforma hardware Arduino in grado di salvare ed elaborare dati. Per raggiungere tale risultato è stato realizzato un braccio meccanico in grado di replicare l’accelerazione su un singolo asse di interesse. L’intento del progetto è fungere da base per l’elaborazione di un dispositivo a tre assi utilizzabile in maniera estesa nei diversi campi in cui i fenomeni vibrazionali possono essere di rilievo.
Resumo:
Lo studio della sfera emozionale è stato da sempre oggetto d’interesse da parte di molti ambiti della Scienza, nonostante la sua perfetta mappatura costituisca ancora oggi un’ambizione non del tutto raggiunta. Comprendere quale sia il meccanismo specifico di genesi ed elaborazione delle emozioni e quali aree encefaliche ne siano responsabili, costituisce per gli scienziati una sfida di grande interesse. L’importanza dell’Amigdala nello studio e nella comprensione delle emozioni è conseguente alla scoperta di come questa struttura sia responsabile della genesi di un'emozione: la paura. Antica e ben radicata nel percorso evolutivo di ogni specie, la reazione di paura davanti ad un pericolo ha una funzione positiva: protegge da stimoli potenzialmente dannosi e, di base, non si apprende: tutti sono in grado di provare paura. L’Amigdala, denominata anche complesso nucleare amigdaloideo, è una struttura eterogenea, costituita da circa 13 nuclei e localizzata nella parte mediale del lobo temporale. I nuclei amigdaloidei vengono divisi in 3 gruppi: nuclei profondi, nuclei superficiali ed altre aree amigdaloidee. Le caratteristiche citoarchitettoniche e neurochimiche del complesso nucleare amigdaloideo sono state largamente studiate nei Mammiferi terrestri quali: ratto, scimmia, gatto ed Uomo. In letteratura non sono presenti particolari riferimenti ai Mammiferi marini. Per questo motivo la presente ricerca si propone di mostrare le caratteristiche citoarchitettoniche e neurochimiche del nucleo centrale dell’amigdala di tursiope (Tursiops truncatus), con particolare riferimento alle caratteristiche morfometriche dei neuroni esprimenti parvalbumina, calbindina-D28k e calretinina.
Resumo:
Lo studio delle relazioni trofiche del nasello tramite analisi del contenuto stomacale è particolarmente importante per la gestione della pesca sia di questa specie che delle specie appartenenti alla sua alimentazione. Lo scopo della tesi è stato quello di esaminare l’alimentazione di questa specie utilizzando 200 campioni di nasello provenienti dalla Campagna Medits 2014, e confrontare la metodologia morfologica utilizzata con quella molecolare, determinando i vantaggi di ognuna ed i possibili limiti. La campagna di strascico è stata sviluppata secondo uno schema random stratificato in relazione alla profondità e all’interno di ciascun strato. Lo sbarcato è stato preventivamente sottoposto ad analisi biometriche registrando lunghezza totale, peso, sesso e maturità sessuale di ogni singolo individuo; successivamente sono stati conservati in etanolo gli stomaci prelevati dai 200 naselli scelti per classe di taglia. Sono state riconosciute le prede dei campioni di nasello sia analizzandole qualitativamente (al livello tassonomico più basso possibile), che quantitativamente, considerando alcuni degli indici maggiormente utilizzati. È stato poi calcolato l’indice trofico del nasello e sono stati infine confrontati i risultati con quelli delle analisi molecolari evidenziando le prede non riconosciute e gli errori di identificazione. La metodologia morfologica ha sottolineato che l’alimentazione del nasello dipende fortemente dalla taglia del predatore e dal loro grado di maturità sessuale, ma non varia significativamente in base al sesso. Ha infatti evidenziato una taglia del nasello, corrispondente alla taglia di prima maturità sessuale, in cui la specie cambia gradualmente la sua alimentazione, passando da piccoli crostacei a pesci di grandezza sempre maggiore. Risulta essere un forte predatore specializzato, ma che al tempo stesso risulta essere una specie opportunista, scegliendo il proprio cibo da ciò che ha a disposizione. Il confronto con l’analisi molecolare è stato utile per descrivere i pro e i contro di ciascuna metodologia, dimostrando che è necessario sfruttarle entrambe per avere risultati efficaci e completi dell’alimentazione di una specie.
Resumo:
La ricerca biomedica è arrivata attualmente a un bivio che vede contrapposte sperimentazione in vitro e in vivo. Per ovviare a questo problema è nata la sperimentazione su biochip che, attraverso l'impiego di apparecchiature dedicate, permette di ottenere misure su campioni che ripropongano le condizioni fisiologiche dei tessuti umani in vivo superando il problema della sperimentazione animale e quello delle misure in vitro, che non rispecchiano le condizioni reali delle cellule in esame. Il perfezionamento dell'apparecchio in questione richiede la comparazione delle condizioni create nel biochip con quelle riscontrate nei tessuti cellulari di pazienti umani. Il fine della comparazione è quello di riuscire ad eguagliare i due sistemi per poter sfruttare il dispositivo come un fantoccio su cui verificare gli effetti di farmaci in fase sperimentale e misurare grandezze con un grado di precisione molto più alto rispetto ai metodi messi in opera fino a ora. Questo lavoro di tesi propone uno studio preliminare sulla fattibilità di misure di concentrazioni di ossigeno e glucosio attraverso i radiofarmaci 64Cu-ATSM e 18F-FDG impiegati su pazienti sottoposti a PET-CT. Nello specifico, dopo aver illustrato i processi cellulari che coinvolgono il glucosio e l'ossigeno all'interno dei tessuti umani, si passa a descrivere le metodologie di misura impiegate, nell'ambito dell'imaging diagnostico, e le caratteristiche che motivano la scelta dei radiofarmaci utilizzati come mezzo di contrasto. Successivamente viene considerato un modello compartimentale a due tessuti per descrivere la cinetica dei radiofarmaci e per ottenere una stima delle concentrazioni da rapportare alle grandezze rilevate con la PET. Infine sono tracciati dei profili sulle slice dei volumi PET elaborati che diano dei valori di concentrazione delle molecole studiate.
Resumo:
L'obiettivo del lavoro svolto nell'ambito di questa tesi è quello di progettare e realizzare un dispositivo medico, un catetere introduttore. Esso deve consentire la somministrazione di anidride carbonica come mezzo di contrasto per angiografia e l'inserimento di strumenti per procedure di angioplastica. Il lavoro è articolato in modo da presentare le necessità cliniche e le scelte effettuate in fase di progetto in modo da realizzare un dispositivo in grado di soddisfarle. Vengono illustrati i materiali scelti, i rivestimenti, le dimensioni e il design dei lumi, oltre che ad alcune caratteristiche peculiari. La tesi è stata svolta in collaborazione con l'azienda italiana Angiodroid srl.
Resumo:
La fisica del sapore è uno dei settori di ricerca più promettenti per realizzare misure di altissima precisione del Modello Standard e per osservare indirettamente, attraverso i decadimenti mediati dalle interazioni deboli nuove particelle. L'esperimento LHCb \`e stato progettato per realizzare misure di altissima precisione in questo settore. Grazie all'alta luminosità integrata disponibile (3 fb \ap{-1}) ed alla elevata sezione d’urto di produzione dei quark charm, LHCb \`e in grado di realizzare misure di una precisione mai raggiunta fino ad ora da altri esperimenti. In questo lavoro di tesi \`e stata realizzata una misura preliminare della simmetria di violazione di CP, realizzata mediante i decadimenti dei mesoni neutri $D^0$ negli stati finali $K^+K^-$ e $\pi^+\pi^-$. Per realizzare la misura sono stati selezionati i decadimenti $D^{*\pm} \to D^0(K^+K^-)\pi^\pm_s$ e $D^{*\pm} \to D^0(\pi^+\pi^-)\pi^\pm_s$ utilizzando i dati raccolti da LHCb durante il RUN-1 (2010-2012) ed \`e stato sviluppato un modello di adattamento ai dati in grado di misurare la differenza di asimmetria di CP integrate nel tempo nei decadimenti $D^0 \rightarrow K^+K^-$ e $D^0 \rightarrow \pi^+\pi^-$, $\Delta A_{CP}$. Il modello \`e stato sviluppato in modo da descrivere le distribuzioni di massa invariante del $D^0$ e del $D^{*\pm}$ sia per la componente di segnale sia per quelle di fondo ed \`e stato adattato ai dati, per sottrarne i fondi e misurare le asimmetrie $A_{RAW}(K^+K^-)$ e $A_{RAW}(\pi^+\pi^-)$, corrispondenti alla differenza tra il numero di eventi di segnale $D^{*+}$ e $D^{*-}$, diviso la loro somma. La differenza di queste asimmetrie corrisponde a $\Delta A_{CP}$, la cui misura, non ufficiale, \`e stata determinata essere $\Delta A_{CP}= (-0.12\pm 0.08)\% $. Questo risultato rappresenta la miglior misura al mondo mai realizzata da un singolo esperimento.
Resumo:
La tesi tratta di un concetto che negli ultimi anni sta diventando sempre più importante e per questo, deve essere studiato e analizzato: la vulnerabilità costiera. In generale per vulnerabilità si intende il carattere di chi o di ciò che è vulnerabile, ossia la sua predisposizione ad essere colpito, attaccato o danneggiato. Viene anche definita come l’attitudine di un dato elemento o contesto territoriale a supportare gli effetti di un evento dannoso in funzione dell’intensità dell’evento stesso. Questa nozione, in particolare, verrà applicata all’ambito costiero; pertanto si parlerà di vulnerabilità costiera dell’area ravennate. La vulnerabilità costiera è definita come il grado a cui un sistema costiero è suscettibile agli effetti negativi del cambiamento climatico, inclusi la variabilità climatica e gli eventi estremi. Negli ultimi decenni si è giunti alla conclusione che le manifestazioni meteo-marine di estrema entità hanno avuto la tendenza a svilupparsi con maggiore intensità e frequenza (es.: mareggiate). Questo è il motivo per cui la trattazione verterà su tale argomento, al fine di presentare, chiarire e rendere più esplicita questa tematica, sempre maggiormente presente nella realtà di tutti i giorni. Nei due siti di interesse: Marina di Ravenna e foce Bevano, sono stati effettuati due transetti, da cui sono stati estratti i relativi profili topografici, sui quali è stato calcolato il Dune Safety Factor, considerando i diversi valori di sopraelevazione marina totale.
Resumo:
L’utilizzo del Multibeam Echo sounder (MBES) in ambienti di transizione poco profondi, con condizioni ambientali complesse come la laguna di Venezia, è ancora in fase di studio e i dati biologici e sedimentologici inerenti ai canali della laguna di Venezia sono attualmente scarsi e datati in letteratura. Questo studio ha lo scopo di mappare gli habitat e gli oggetti antropici di un canale della laguna di Venezia in un intervallo di profondità tra 0.3 e 20 m (Canale San Felice) analizzando i dati batimetrici e di riflettività (backscatter) acquisiti da ISMAR-Venezia nell’ambito del progetto RITMARE. A tale scopo il fondale del canale San Felice (Venezia) è stato caratterizzato dal punto di vista geomorfologico, sedimentologico e biologico; descrivendo anche l’eventuale presenza di oggetti antropici. L’ecoscandaglio utilizzato è il Kongsberg EM2040 Dual-Compact Multibeam in grado di emettere 800 beam (400 per trasduttore) ad una frequenza massima di 400kHZ e ci ha consentito di ricavare ottimi risultati, nonostante le particolari caratteristiche degli ambienti lagunari. I dati acquisiti sono stati processati tramite il software CARIS Hydrographic information processing system (Hips) & Sips, attraverso cui è possibile applicare le correzioni di marea e velocità del suono e migliorare la qualità dei dati grezzi ricavati da MBES. I dati sono stati quindi convertiti in ESRI Grid, formato compatibile con il software ArcGIS 10.2.1 (2013) che abbiamo impiegato per le interpretazioni e per la produzione delle mappe. Tecniche di ground-truthing, basate su riprese video e prelievi di sedimento (benna Van Veen 7l), sono state utilizzate per validare il backscatter, dimostrandosi molto efficaci e soddisfacenti per poter descrivere i fondali dal punto di vista biologico e del substrato e quindi degli habitat del canale lagunare. Tutte le informazioni raccolte durante questo studio sono state organizzate all’interno di un geodatabase, realizzato per i dati relativi alla laguna di Venezia.
Resumo:
Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.
Resumo:
Questo elaborato descrive il lavoro svolto nell'Area ricerca e formazione del Centro Protesi INAIL volto all'integrazione della tecnologia di stampa 3D con i processi produttivi dell'azienda stessa al fine di ottenere una protesi cinematica e funzionale per pazienti con amputazioni parziali di mano (a livello metacarpale e transmetacarpale) che risulti economica e in grado di restituire la funzionalità di grasping della mano.