5 resultados para Grafi,Basi di dati a grafo,interrogazioni,GraphVista,Graphite,SPARQL
em Universita di Parma
Resumo:
CysK, uno degli isoenzimi di O-acetilserina sulfidrilasi (OASS) presenti in piante e batteri, è un enzima studiato da molto tempo ed il suo ruolo fisiologico nella sintesi della cisteina è stato ben definito. Recentemente sono state scoperte altre funzioni apparentemente non collegate alla sua funzione enzimatica (moonlighting). Una di queste è l’attivazione di una tossina ad attività tRNAsica, CdiA-CT, coinvolta nel sistema di inibizione della crescita da contatto (CDI) di ceppi patogeni di E. coli. In questo progetto abbiamo studiato il ruolo di CysK nel sistema CDI e la formazione di complessi con due differenti partner proteici: CdiA-CT e CysE (serina acetiltransferasi, l’enzima che catalizza la reazione precedente nella biosintesi della cisteina). I due complessi hanno le stesse caratteristiche spettrofluorimetriche e affinità molto simili, ma la cinetica di raggiungimento dell’equilibrio per il complesso tossina:CysK è più lenta che per il complesso CysE:CysK (cisteina sintasi). In entrambi i casi la formazione veloce di un complesso d’incontro è seguita da un riarrangiamento conformazionale che porta alla formazione di un complesso ad alta affinità. L’efficienza di formazione del complesso cisteina sintasi è circa 200 volte maggiore rispetto al complesso CysK:tossina. Una differenza importante, oltre alla cinetica di formazione dei complessi, è la stechiometria di legame. Infatti mentre CysE riesce a legare solo uno dei due siti attivi del dimero di CysK, nel complesso con CdiA-CT entrambi i siti attivi dell’enzima risultano essere occupati. Le cellule isogeniche esprimono un peptide inibitore della tossina (CdiI), e sono quindi resistenti all’azione tRNAsica. Tuttavia, siccome CdiI non altera la formazione del complesso CdiA-CT:CysK, CdiA-CT può esercitare comunque un ruolo nel metabolismo della cisteina e quindi nella fitness dei batteri isogenici, attraverso il legame e l'inibizione di CysK e la competizione con CysE. La via biosintetica della cisteina, un precursore di molecole riducenti, risulta essere molto importante per i batteri soprattutto in condizioni avverse come all’interno dei macrofagi nelle infezioni persistenti. Perciò questa via metabolica è di interesse per lo sviluppo di nuovi antibiotici, e in particolare le due isoforme dell’OASS negli enterobatteri, CysK e CysM, sono potenziali target per lo sviluppo di nuove molecole ad azione antibatterica. Partendo dall’analisi delle modalità di interazione con CysK del suo partner ed inibitore fisiologico, CysE, si è studiato dapprima l’interazione di pentapeptidi che mimassero la regione C-terminale di quest'ultimo, e in base ai dati ottenuti sono stati sviluppati piccoli ligandi sintetici. La struttura generale di questi composti è costituita da un gruppo acido ed un gruppo lipofilo, separati da un linker ciclopropanico che mantiene questi due gruppi in conformazione trans, ottimale per l’interazione col sito attivo dell’enzima. Sulla base di queste considerazioni, di docking in silico e di dati sperimentali ottenuti con la tecnica dell’STD-NMR e con saggi di binding spettrofluorimetrici, si è potuta realizzare una analisi di relazione struttura-attività che ha portato via via all’ottimizzazione dei ligandi. Il composto più affine che è stato finora ottenuto ha una costante di dissociazione nel range del nanomolare per entrambe le isoforme, ed è un ottimo punto di partenza per lo sviluppo di nuovi farmaci.
Resumo:
Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.
Resumo:
La presente tesi analizza il reato di traffico di esseri umani in Europa, con particolare attenzione al fenomeno dello sfruttamento sessuale. La ricerca è stata condotta in parte nell’ambito del progetto “FIDUCIA. New European crimes and trust-based policy” (www.fiduciaproject.eu). La tesi è composta da 5 capitoli. Il primo capitolo introduce il reato di tratta di esseri umani, a livello globale e, successivamente, nello specifico, in Europa. Vengono presentati i fattori determinanti e le origini del fenomeno. Inoltre, ne vengono fornite le definizioni e le principali caratteristiche, in linea con i più importanti documenti internazionali sul tema. Il capitolo si chiude con una panoramica statistica, che affronta anche le criticità della raccolta di dati relativi ai reati. Il secondo capitolo analizza l’approccio correntemente adottato a livello domestico ed europeo contro la tratta. Le misure vengono presentate prima dal punto di vista teorico; successivamente ne vengono forniti esempi concreti, ad esempio convenzioni internazionali, direttive, ma anche progetti di ricerca, collaborazioni internazionali tra autorità ed ONG. Il terzo capitolo si concentra sulla tratta a fini di sfruttamento sessuale. Vengono analizzati il potenziale legame con la prostituzione, e l’approccio europeo. Segue un approfondimento dei modelli legali implementati a livello europeo ed uno studio comparato di cinque paesi membri, rappresentativi dei vari modelli di regolamentazione della prostituzione (Italia, Belgio, Polonia, Germania e Svezia). Il quarto capitolo raccoglie le interviste condotte con diversi esperti che si occupano di contrasto alla tratta: ONG italiane e straniere, referenti nazionali anti-tratta di Italia, Belgio e Germania, FRONTEX, membri del Parlamento Europeo. Nelle conclusioni, vengono proposte prima una valutazione complessiva del quadro attuale, e poi alcune raccomandazioni ai governi nazionali e agli organismi sopranazionali. In particolare, visto l’obiettivo di un contrasto omogeneo e coordinato della tratta (per sfruttamento sessuale specificamente) a livello europeo, si ritiene che un modello regolamentare uniforme della prostituzione negli stati membri possa contribuire a migliorare uniformità ad efficacia dell’approccio europeo alla tratta.
Resumo:
La Sequenza Sismica Emiliana del 2012 ha colpito la zona compresa tra Mirandola e Ferrara con notevoli manifestazioni cosismiche e post-sismiche secondarie, soprattutto legate al fenomeno della liquefazione delle sabbie e alla formazione di fratturazioni superficiali del terreno. A fronte del fatto che la deformazione principale, osservata tramite tecniche di remote-sensing, ha permesso di individuare la posizione della struttura generatrice, ci si è interrogati sul rapporto tra strutture profonde e manifestazioni secondarie superficiali. In questa tesi è stato svolto un lavoro di integrazione di dati a varia scala, dalla superficie al sottosuolo, fino profondità di alcuni chilometri, per analizzare il legame tra le strutture geologiche che hanno generato il sisma e gli effetti superficiali percepiti dagli osservatori. Questo, non solo in riferimento allo specifico del sisma emiliano del 2012, ma al fine di trarre utili informazioni in una prospettiva storica e geologica sugli effetti di un terremoto “tipico”, in una regione dove le strutture generatrici non affiorano in superficie. Gli elementi analizzati comprendono nuove acquisizioni e rielaborazioni di dati pregressi, e includono cartografie geomorfologiche, telerilevamenti, profili sismici a riflessione superficiale e profonda, stratigrafie e informazioni sulla caratterizzazione dell’area rispetto al rischio sismico. Parte dei dati di nuova acquisizione è il risultato dello sviluppo e la sperimentazione di metodologie innovative di prospezione sismica in corsi e specchi d’acqua continentali, che sono state utilizzate con successo lungo il Cavo Napoleonico, un canale artificiale che taglia ortogonalmente la zona di massima deformazione del sisma del 20 Maggio. Lo sviluppo della nuova metodologia di indagine geofisica, applicata ad un caso concreto, ha permesso di migliorare le tecniche di imaging del sottosuolo, oltre a segnalare nuove evidenze co-sismiche che rimanevano nascoste sotto le acque del canale, e a fornire elementi utili alla stratigrafia del terreno. Il confronto tra dati geofisici e dati geomorfologici ha permesso di cartografare con maggiore dettaglio i corpi e le forme sedimentarie superficiali legati alla divagazione fluviale dall’VIII sec a.C.. I dati geofisici, superficiali e profondi, hanno evidenziato il legame tra le strutture sismogeniche e le manifestazioni superficiali seguite al sisma emiliano. L’integrazione dei dati disponibili, sia nuovi che da letteratura, ha evidenziato il rapporto tra strutture profonde e sedimentazione, e ha permesso di calcolare i tassi geologici di sollevamento della struttura generatrice del sisma del 20 Maggio. I risultati di questo lavoro hanno implicazioni in vari ambiti, tra i quali la valutazione del rischio sismico e la microzonazione sismica, basata su una caratterizzazione geomorfologico-geologico-geofisica dettagliata dei primi 20 metri al di sotto della superficie topografica. Il sisma emiliano del 2012 ha infatti permesso di riconoscere l’importanza del substrato per lo sviluppo di fenomeni co- e post-sismici secondari, in un territorio fortemente eterogeneo come la Pianura Padana.
Resumo:
Questa tesi ha lo scopo di indagare lo stato interno di materiali e strutture di diverso tipo tramite sollecitazione acustica o vibrazionale. Si sono sottoposte le strutture in esame a sollecitazione acustica (mediante speaker) o meccanica (mediante martello strumentato o altro percussore), acquisendo le onde meccaniche di ritorno con trasduttori microfonici, array microfonici, ed accelerometri. Si è valutato, di caso in caso, quale fosse la strumentazione più adeguata e quale il parametro da prendere in considerazione per effettuare una discriminazione tra oggetto integro ed oggetto danneggiato o contenente vuoti o inclusioni. Si è riflettuto sui dati raccolti allo scopo di capire quali caratteristiche accomunino strutture apparentemente diverse tra loro, e quali differenzino in realtà - rispetto alla possibilità di una efficace diagnosi acustica - strutture apparentemente simili. Si è sviluppato uno script su piattaforma MatLab® per elaborare i dati acquisiti. Tutte le analisi effettuate si basano sull'osservazione dello spettro acustico del segnale di ritorno dall'oggetto sollecitato. Ove necessario, si sono osservati la funzione di trasferimento del sistema (per il calcolo della quale si crosscorrelano i segnali di output e di input) o il waterfall. Da questa base, si sono sviluppati parametri specifici per i vari casi. Gli esami più proficui si sono effettuati sui solai, per la verifica dello sfondellamento dei laterizi. Anche lo studio su prodotti dell'industria alimentare (salami) si è rivelato molto soddisfacente, tanto da gettare le basi per la produzione di un tester da utilizzare in stabilimento per il controllo di qualità dei pezzi.