982 resultados para Basi di dati, Database, Linq, Entity framework, Workflow, Database


Relevância:

100.00% 100.00%

Publicador:

Resumo:

CysK, uno degli isoenzimi di O-acetilserina sulfidrilasi (OASS) presenti in piante e batteri, è un enzima studiato da molto tempo ed il suo ruolo fisiologico nella sintesi della cisteina è stato ben definito. Recentemente sono state scoperte altre funzioni apparentemente non collegate alla sua funzione enzimatica (moonlighting). Una di queste è l’attivazione di una tossina ad attività tRNAsica, CdiA-CT, coinvolta nel sistema di inibizione della crescita da contatto (CDI) di ceppi patogeni di E. coli. In questo progetto abbiamo studiato il ruolo di CysK nel sistema CDI e la formazione di complessi con due differenti partner proteici: CdiA-CT e CysE (serina acetiltransferasi, l’enzima che catalizza la reazione precedente nella biosintesi della cisteina). I due complessi hanno le stesse caratteristiche spettrofluorimetriche e affinità molto simili, ma la cinetica di raggiungimento dell’equilibrio per il complesso tossina:CysK è più lenta che per il complesso CysE:CysK (cisteina sintasi). In entrambi i casi la formazione veloce di un complesso d’incontro è seguita da un riarrangiamento conformazionale che porta alla formazione di un complesso ad alta affinità. L’efficienza di formazione del complesso cisteina sintasi è circa 200 volte maggiore rispetto al complesso CysK:tossina. Una differenza importante, oltre alla cinetica di formazione dei complessi, è la stechiometria di legame. Infatti mentre CysE riesce a legare solo uno dei due siti attivi del dimero di CysK, nel complesso con CdiA-CT entrambi i siti attivi dell’enzima risultano essere occupati. Le cellule isogeniche esprimono un peptide inibitore della tossina (CdiI), e sono quindi resistenti all’azione tRNAsica. Tuttavia, siccome CdiI non altera la formazione del complesso CdiA-CT:CysK, CdiA-CT può esercitare comunque un ruolo nel metabolismo della cisteina e quindi nella fitness dei batteri isogenici, attraverso il legame e l'inibizione di CysK e la competizione con CysE. La via biosintetica della cisteina, un precursore di molecole riducenti, risulta essere molto importante per i batteri soprattutto in condizioni avverse come all’interno dei macrofagi nelle infezioni persistenti. Perciò questa via metabolica è di interesse per lo sviluppo di nuovi antibiotici, e in particolare le due isoforme dell’OASS negli enterobatteri, CysK e CysM, sono potenziali target per lo sviluppo di nuove molecole ad azione antibatterica. Partendo dall’analisi delle modalità di interazione con CysK del suo partner ed inibitore fisiologico, CysE, si è studiato dapprima l’interazione di pentapeptidi che mimassero la regione C-terminale di quest'ultimo, e in base ai dati ottenuti sono stati sviluppati piccoli ligandi sintetici. La struttura generale di questi composti è costituita da un gruppo acido ed un gruppo lipofilo, separati da un linker ciclopropanico che mantiene questi due gruppi in conformazione trans, ottimale per l’interazione col sito attivo dell’enzima. Sulla base di queste considerazioni, di docking in silico e di dati sperimentali ottenuti con la tecnica dell’STD-NMR e con saggi di binding spettrofluorimetrici, si è potuta realizzare una analisi di relazione struttura-attività che ha portato via via all’ottimizzazione dei ligandi. Il composto più affine che è stato finora ottenuto ha una costante di dissociazione nel range del nanomolare per entrambe le isoforme, ed è un ottimo punto di partenza per lo sviluppo di nuovi farmaci.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro svolto si concentra sullo studio e lo sviluppo dei sistemi software per la gestione dei big data. Inizialmente sono stati analizzati i settori nei quali i big data si stanno diffondendo maggiormente per poi studiare l'ingegnerizzazione e lo sviluppo dei sistemi in grado di gestire questo tipo di dati. Sono state studiate tutte le fasi del processo di realizzazione del software e i rischi e i problemi che si possono incontrare. Infine è stato presentato un software di analisi di big data: Google BigQuery.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'integrazione di dati micropaleontologici a dati sedimentologici ha permesso la ricostruzione paleoambientale di una porzione di carota prelevata nel Delta del Po. Sono state riconosciute 5 associazioni di facies riconducibili ad altrettanti ambienti deposizionali: retrobarriera, barriera trasgressiva, piattaforma, transizione fra piattaforma e prodelta e prodelta. Lo studio delle associazioni a foraminiferi bentonici ha consentito la caratterizzazione micropaleontologica delle facies riconosciute. E' stato cosi possibile definire la superficie di massima ingressione marina (MFS) al tetto della associazione di facies di piattaforma al passaggio ai depositi di transizione al prodelta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi si concentra sulle estensioni apportate a BEX (Bibliographic Explorer), una web app finalizzata alla navigazione di pubblicazioni scientifiche attraverso le loro citazioni. Il settore in cui si colloca è il Semantic Publishing, un nuovo ambito di ricerca derivato dall'applicazione delle tecnologie del Semantic Web allo Scholarly Publishing, che ha come scopo la pubblicazione di articoli accademici a cui vengono associati metadati semantici. BEX nasce all'interno del Semantic Lancet Project del Dipartimento di Informatica dell'Università di Bologna, il cui obiettivo è costruire un Linked Open Dataset di pubblicazioni accademiche, il Semantic Lancet Triplestore (SLT), e fornire strumenti per la navigazione ad alto livello e l'uso approfondito dei dati in esso contenuti. Gli scholarly Linked Open Data elaborati da BEX sono insiemi di triple RDF conformi alle ontologie SPAR. Originariamente BEX ha come backend il dataset SLT che contiene metadati relativi alle pubblicazioni del Journal Of Web Semantics di Elsevier. BEX offre viste avanzate tramite un'interfaccia interattiva e una buona user-experience. L'utente di BEX è principalmente il ricercatore universitario, che per compiere le sue attività quotidiane fa largo uso delle Digital Library (DL) e dei servizi che esse offrono. Dato il fermento dei ricercatori nel campo del Semantic Publishing e la veloce diffusione della pubblicazione di scholarly Linked Open Data è ragionevole pensare di ampliare e mantenere un progetto che possa provvedere al sense making di dati altrimenti interrogabili solo in modo diretto con queries SPARQL. Le principali integrazioni a BEX sono state fatte in termini di scalabilità e flessibilità: si è implementata la paginazione dei risultati di ricerca, l'indipendenza da SLT per poter gestire datasets diversi per struttura e volume, e la creazione di viste author centric tramite aggregazione di dati e comparazione tra autori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si basa su una raccolta e una successiva elaborazione di dati effettuata su Crowdcube, la piattaforma di crowdfunding di investimento leader a livello mondiale, con lo scopo di analizzare il fenomeno dell’equity-crowdfunding in tutte le sue diverse caratteristiche. Attraverso gli strumenti grafici e computazionali, si studierà un campione di circa 100 progetti, con l’obiettivo finale di individuare e studiare “i fattori critici di successo”, derivanti dalle correlazioni tra caratteristiche dei progetti presentati e successo ottenuto da questi ultimi nell’ottica di finanziamenti ricevuti. L’importanza di questo studio è data dalla necessità dei progettisti che presentano le campagne di crowdfunding di capire come poter rassicurare e convincere gli investitori, in modo da avere una raccolta fondi di successo. L’analisi sarà arricchita da tabelle, istogrammi e grafici, con lo scopo di supportare l’esplicazione dei vari concetti e delineare eventuali trend.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi tratta un argomento che si è fatto sempre più interessante, soprattutto in questi ultimi anni, l'integrità firmware e hardware di un sistema. Oggigiorno milioni di persone fanno completamente affidamento al proprio sistema lasciando nelle loro mani moli di dati personali e non, molte delle quali si affidano ai moderni antivirus i quali, però, non sono in grado di rilevare e gestire attacchi che implicano l'alterazione dei firmware. Verranno mostrati diversi attacchi di questo tipo cercando di fare capire come la relativa sicurezza sia importante, inoltre saranno discussi diversi progetti reputati interessanti. Sulla base delle ricerche effettuate, poi, sarà mostrata la progettazione e l'implementazione di un software in grado di rilevare alterazioni hardware e firmware in un sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. Nasce, di conseguenza, la necessità di far ricorso a nuovi strumenti che possano sfruttare la potenza di calcolo oggi offerta dalle architetture più complesse che comprendono, sotto un unico sistema, un insieme di host utili per l’analisi. A tal merito, una quantità di dati così vasta, routine se si parla di Big Data, aggiunta ad una velocità di trasmissione e trasferimento altrettanto alta, rende la memorizzazione dei dati malagevole, tanto meno se le tecniche di storage risultano essere i tradizionali DBMS. Una soluzione relazionale classica, infatti, permetterebbe di processare dati solo su richiesta, producendo ritardi, significative latenze e inevitabile perdita di frazioni di dataset. Occorre, perciò, far ricorso a nuove tecnologie e strumenti consoni a esigenze diverse dalla classica analisi batch. In particolare, è stato preso in considerazione, come argomento di questa tesi, il Data Stream Processing progettando e prototipando un sistema bastato su Apache Storm scegliendo, come campo di applicazione, la cyber security.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi verrà affrontato uno studio sugli ammassi di galassie che costituiscono le strutture virializzate più grandi dell’Universo. L’analisi delle emissioni provenienti dall’ICM (Intracluster Medium) consente di ottenere informazioni su alcuni dei processi che caratterizzano la dinamica degli ammassi di galassie, come merger e cooling flow, e in particolare di testare le attuali ipotesi sulla formazione ed evoluzione degli ammassi. Le radiazioni provenienti dal gas extragalattico possono essere sia di tipo termico che non termico: le prime causate dal meccanismo di Bremsstrahlung termica e appartenenti alla banda X, le seconde invece dovute prevalentemente dall’emissione di Sincrotrone in banda Radio. Durante lo studio degli ammassi di galassie verranno approfondite le principali radiosorgenti diffuse: Aloni, mini-Aloni e Relitti, focalizzando lo studio su questi ultimi e analizzando un campione di dati ad essi relativi, con lo scopo di trovare un’eventuale correlazione tra alcune delle loro proprietà. La ricerca sugli ammassi di galassie risulta importante in quanto, trattandosi delle più grandi strutture dell’Universo che abbiano raggiunto l’equilibrio viriale, il loro studio risulta un valido strumento per la verifica dell’attuale Modello Cosmologico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si è voluto interfacciare dispositivi di nuova generazione (Raspberry Pi), presenti in una topologia di rete già implementata, con dispositivi di vecchia generazione, come Router Cisco e Switch HP. Questi ultimi sono dispositivi fisici, mentre i Raspberry, tramite tool mininet e altre impostazioni, possono generare dispositivi virtuali. Si è quindi applicato un interfacciamento tra le due tipologie di apparati, creando una rete nuova, e adatta come caso a ricoprire le reti attuali, siccome questo è un esempio di come con poche modifiche si può intervenire su qualsiasi rete già operativa. Si sono quindi osservati i criteri generali su cui operano sia i router, che gli switch, e si sono osservati come questi interagiscono con un flusso di dati attraverso vari protocolli, alcuni rifacenti al modello ISO/OSI, altri all'OSPF.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Microsoft ha introdotto nella versione 2015 di Visual Studio un nuovo compilatore per i linguaggi C# e Visual Basic chiamato Roslyn. Oltre che un compilatore, Roslyn è una piattaforma che mette a disposizione degli sviluppatori servizi per analizzare e modificare progetti .NET, interagire con le varie fasi della compilazione e creare applicazioni per l'analisi e generazione di codice sorgente. Obiettivo della tesi vuole essere lo studio della suddetta piattaforma ed il suo utilizzo nello sviluppo di estensioni per Visual Studio. La tesi si pone pertanto nel contesto delle tecniche di analisi e generazione di codice sorgente. Il lavoro di tesi ha previsto lo sviluppo di due applicazioni facenti uso delle API di Roslyn. La prima applicazione consiste in un analizzatore di codice C# che provvede alla segnalazione di warning riguardanti l'errato utilizzo del costrutto var e all'esplicitazione del tipo relativo. La seconda applicazione riguarda un generatore di codice C# che utilizza i servizi di Roslyn per semplificare e automatizzare la scrittura di codice nel contesto del framework Phoenix. I risultati ottenuti possono essere d'aiuto per un successivo studio della piattaforma Roslyn ed essere usati come punto di partenza per la creazione dei propri applicativi per l'analisi e generazione di codice sorgente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sono dette “challenged networks” quelle reti in cui lunghi ritardi, frequenti partizionamenti e interruzioni, elevati tassi di errore e di perdita non consentono l’impiego dei classici protocolli di comunicazione di Internet, in particolare il TCP/IP. Il Delay-/Disruption-Tolerant Networking (DTN) è una soluzione per il trasferimento di dati attraverso queste reti. L’architettura DTN prevede l’introduzione, sopra il livello di trasporto, del cosiddetto “bundle layer”, che si occupa di veicolare messaggi, o bundle, secondo l’approccio store-and-forward: ogni nodo DTN conserva persistentemente un bundle finché non si presenta l’opportunità di inoltrarlo al nodo successivo verso la destinazione. Il protocollo impiegato nel bundle layer è il Bundle Protocol, le cui principali implementazioni sono tre: DTN2, l’implementazione di riferimento; ION, sviluppata da NASA-JPL e più orientata alle comunicazioni spaziali; IBR-DTN, rivolta soprattutto a dispositivi embedded. Ciascuna di esse offre API che consentono la scrittura di applicazioni in grado di inviare e ricevere bundle. DTNperf è uno strumento progettato per la valutazione delle prestazioni in ambito DTN. La più recente iterazione, DTNperf_3, è compatibile sia con DTN2 che con ION nella stessa versione del programma, grazie all’introduzione di un “Abstraction Layer” che fornisce un’unica interfaccia per l’interazione con le diverse implementazioni del Bundle Protocol e che solo internamente si occupa di invocare le API specifiche dell’implementazione attiva. Obiettivo della tesi è estendere l’Abstraction Layer affinché supporti anche IBR-DTN, cosicché DTNperf_3 possa essere impiegato indifferentemente su DTN2, ION e IBR DTN. Il lavoro sarà ripartito su tre fasi: nella prima esploreremo IBR DTN e le sue API; nella seconda procederemo all’effettiva estensione dell’Abstraction Layer; nella terza verificheremo il funzionamento di DTNperf a seguito delle modifiche, sia in ambiente esclusivamente IBR-DTN, sia ibrido.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi mira ad indagare, a livello preliminare, quali siano i vantaggi e gli svantaggi a livello strutturale legati alla possibilità di realizzare componenti per mezzi spaziali con tecnologie di Rapid Prototyping direttamente nello spazio: questa possibilità verrà confrontata con il caso in cui gli stessi componenti siano realizzati a terra e poi inviati nello spazio con un lanciatore. Nonostante si siano riscontrati dei limiti derivanti dalla carenza di dati tecnici sulle caratteristiche meccaniche dei materiali, è stata sviluppata una metodologia che ha fornito l’opportunità, seppur con grandi approssimazioni, di valutare il problema. Il punto di partenza dell’attività è stato quello di visionare figure ed immagini di mezzi spaziali e di scegliere alcuni componenti che possano essere oggetto di manutenzione o sostituzione in volo. Sei componenti sono stati poi modellati al CAD, ed è stata condotta un’analisi ad elementi finiti (FEM) mediante il software MSC Patran/Nastran, con lo scopo di simulare la risposta strutturale nelle diverse condizioni di carico prese in considerazione. Seppur a livello qualitativo e del tutto preliminare, sono stati svolti dei confronti in termini di massa e tensioni per valutare in quali casi sembra sia conveniente realizzare un componente a terra con tecnologie tradizionali, e in quali sembra sia vantaggioso utilizzare nuove tecnologie di prototipazione rapida stampando direttamente il componente nello spazio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente ricerca tratta lo studio delle basi di conoscenza, volto a facilitare la raccolta, l'organizzazione e la distribuzione della conoscenza. La scelta dell’oggetto è dovuta all'importanza sempre maggiore acquisita da questo ambito di ricerca e all'innovazione che esso è in grado di apportare nel campo del Web semantico. Viene analizzata la base di conoscenza YAGO: se ne descrivono lo stato dell’arte, le applicazioni e i progetti per sviluppi futuri. Il lavoro è stato condotto esaminando le pubblicazioni relative al tema e rappresenta una risorsa in lingua italiana sull'argomento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell’ambito delle telecomunicazioni risulta di notevole rilievo la tecnologia ad onde convogliate, definita Power-Line Communication (PLC), che permette la trasmissione di dati sfruttando la rete elettrica come mezzo di trasmissione. Essa rappresenta una delle tecnologie promettenti per quanto concerne la fornitura di servizi come l’accesso ad Internet, alla rete telefonica e al telecontrollo di apparecchi sempre più sofisticati. Al fine di rendere possibile sia la trasmissione di potenza (alla frequenza di 50 Hz per l’Italia) che di altri segnali dati (su bande a frequenza maggiore) saranno necessarie tecniche di modulazione avanzata, che però non rappresentano un argomento trattato a fondo in questa tesi. Lo sviluppo tecnologico degli ultimi anni ha permesso una notevole diffusione delle PLC soprattutto in applicazioni domestiche, grazie ai prezzi molto contenuti in parallelo alle ottime prestazioni, soprattutto nell’automazione. Obbiettivo dell’elaborato risulta la rilevazione della risposta impulsiva in ambienti Power-Line di tipo Narrowband (a banda stretta), immettendo in rete sequenze di tipo casuale o pseudo-casuale, queste ultime definite Pseudo-Noise (PN); esse infatti hanno particolari proprietà che renderanno possibile il raggiungimento dello scopo prefissato. Lo strumento fondamentale per le misurazioni sul campo effettuate risulta l’Analog Discovery (Digilent ne è il produttore), utilizzato non solo come generatore di forme d’onda in ingresso ma anche come oscilloscopio per l’analisi del segnale ricevuto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato è stato trattato il concetto di ultrasuoni, le sue proprietà, le leggi fisiche che lo caratterizzano e la loro scoperta. Successivamente sono stati trattati la storia e il funzionamento della ecografia bidimensionale, le differenti tipologia di trasduttore, modalità di visualizzazione e l'analisi ecocolordoppler. In seguito è stato approfondito il concetto di ecografia volumetrica e sequenza di dati ecografici volumetrici con rispettive modalità di acquisizione dei dati, modalità di elaborazione, e modalità di visualizzazione dell'immagini. Infine, sono stati trattati brevemente gli impieghi di questa tecnologia e le possibili implementazioni future.