1000 resultados para Grafi,Basi di dati a grafo,interrogazioni,GraphVista,Graphite,SPARQL
Resumo:
Questa tesi si propone di investigare l'origine di effetti non gaussiani nella distribuzione del segnale del rivelatore Time of Flight (TOF) dell'esperimento A Large Ion Collider Experiment (ALICE). Con la presa dati iniziata nel 2009 si è infatti osservata un'asimmetria nel segnale la cui origine è ancora oggetto di studio. L'analisi svolta mostra come essa sia dovuta a motivi strumentali piuttosto che fenomenologici e permette quindi di correggere in parte questa anomalia migliorando la risoluzione del rivelatore. ALICE è uno dei quattro esperimenti allestiti lungo l'anello del LHC e ha come obiettivo principale verificare l'esistenza di prove sperimentali che confermino l'esistenza di un nuovo stadio della materia, il cosiddetto Quark Gluon Plasma (QGP). Secondo la Cromodinamica Quantistica (QCD), la teoria che descrive l'interazione forte, caratteristica fondamentale di quark e gluoni è il loro confinamento all'interno di adroni. Studi recenti nell'ambito della QCD non-perturbativa hanno tuttavia dimostrato che in condizioni estreme di densità di materia adronica e temperatura sarebbe possibile un'inversione di tendenza nell'andamento della costante di accoppiamento forte. Le condizioni necessarie alla formazione del QGP sono ben riproducibili nelle collisioni ad energie ultrarelativistiche tra ioni pesanti, come quelle che sono state prodotte a LHC negli ultimi due anni, fra ioni di piombo con energie del centro di massa pari a 2.76 TeV per coppia di nucleoni. L'esperimento ALICE si propone di studiarne i prodotti e poiché la molteplicità di particelle che si generano nell'urto e considerevole, e necessario un sistema di rivelazione che permetta l'identificazione di particelle cariche su un grande angolo solido e in un ampio intervallo di impulsi. Il TOF, utilizzando un particolare rivelatore a gas detto Multigap Resistive Plate Chamber (MRPC), svolge brillantemente questo compito permettendo di raggiungere una risoluzione temporale inferiore ai 100 ps.
Resumo:
Il presente lavoro si propone principalmente di fornire un’analisi delle declinazioni assunte dal principio di continuità nel diritto amministrativo, tentando di metterne in luce al contempo le basi fondanti che caratterizzano ogni principio generale e le sfumature più attuali emerse dall’elaborazione della dottrina e della giurisprudenza più recenti. Partendo dal fondamentale presupposto secondo cui la maggior parte degli interpreti si è interessata al principio di continuità in campo amministrativo con prevalente riferimento all’ambito organizzativo-strutturale, si è tentato di estendere l’analisi sino a riconoscervi una manifestazione di principi chiave della funzione amministrativa complessivamente intesa quali efficienza, buon andamento, realizzazione di buoni risultati. La rilevanza centrale della continuità discende dalla sua infinita declinabilità, ma in questo lavoro si insiste particolarmente sul fatto che di essa possono darsi due fondamentali interpretazioni, tra loro fortemente connesse, che si influenzano reciprocamente: a quella che la intende come segno di stabilità perenne, capace di assicurare certezza sul modus operandi delle pubbliche amministrazioni e tutela degli affidamenti da esse ingenerati, si affianca una seconda visione che ne privilegia invece l’aspetto dinamico, interpretandola come il criterio che impone alla P.A. di assecondare la realtà che muta, evolvendo contestualmente ad essa, al fine di assicurare la permanenza del risultato utile per la collettività, in ossequio alla sua missione di cura. In questa prospettiva, il presente lavoro si propone di analizzare, nella sua prima parte, i risultati già raggiunti dall’elaborazione esegetica in materia di continuità amministrativa, con particolare riferimento alle sue manifestazioni nel campo dell’organizzazione e dell’attività amministrative, nonché ad alcune sue espressioni concrete nel settore degli appalti e dei servizi pubblici. La seconda parte è invece dedicata a fornire alcuni spunti ed ipotesi per nuove interpretazioni del principio in chiave sistematica, in relazione a concetti generali quali il tempo, lo spazio e il complessivo disegno progettuale della funzione amministrativa.
Resumo:
L’elaborato ha lo scopo di presentare le nuove opportunità di business offerte dal Web. Il rivoluzionario cambiamento che la pervasività della Rete e tutte le attività correlate stanno portando, ha posto le aziende davanti ad un diverso modo di relazionarsi con i propri consumatori, che sono sempre più informati, consapevoli ed esigenti, e con la concorrenza. La sfida da accettare per rimanere competitivi sul mercato è significativa e il mutamento in rapido sviluppo: gli aspetti che contraddistinguono questo nuovo paradigma digitale sono, infatti, velocità, mutevolezza, ma al tempo stesso misurabilità, ponderabilità, previsione. Grazie agli strumenti tecnologici a disposizione e alle dinamiche proprie dei diversi spazi web (siti, social network, blog, forum) è possibile tracciare più facilmente, rispetto al passato, l’impatto di iniziative, lanci di prodotto, promozioni e pubblicità, misurandone il ritorno sull’investimento, oltre che la percezione dell’utente finale. Un approccio datacentrico al marketing, attraverso analisi di monitoraggio della rete, permette quindi al brand investimenti più mirati e ponderati sulla base di stime e previsioni. Tra le più significative strategie di marketing digitale sono citate: social advertising, keyword advertising, digital PR, social media, email marketing e molte altre. Sono riportate anche due case history: una come ottimo esempio di co-creation in cui il brand ha coinvolto direttamente il pubblico nel processo di produzione del prodotto, affidando ai fan della Pagina Facebook ufficiale la scelta dei gusti degli yogurt da mettere in vendita. La seconda, caso internazionale di lead generation, ha permesso al brand di misurare la conversione dei visitatori del sito (previa compilazione di popin) in reali acquirenti, collegando i dati di traffico del sito a quelli delle vendite. Esempio di come online e offline comunichino strettamente.
Resumo:
La proteinuria è un marker di danno renale nel cane. L’obiettivo dello studio è di valutare la capacità del dipstick urinario e dell’UPC di diagnosticare precocemente l’albuminuria nel cane. Sono stati raccolti 868 campioni di urina, con sedimento spento e assenza di ematuria, nell’Ospedale Didattico Veterinario della Facoltà di Medicina Veterinaria di Bologna. Per 550 campioni è stata effettuata l’analisi delle urine, la misurazione dell’UPC e dell’UAC, mentre UPC e UAC sono stati misurati in tutti gli 868 campioni. I campioni di urina sono stati analizzati con il metodo dipstick mediante lettura automatizzata. Utilizzando come valore di riferimento l’UAC è stata valutata l’accuratezza diagnostica del dipstick urinario e dell’UPC. L’intervallo di riferimento dell’UAC (0-0,024) è stato determinato utilizzando 60 cani sani. I dati raccolti sono stati classificati utilizzando differenti cut-off per il peso specifico urinario (1012 o 1030), per la proteinuria al dipstick (30 o 100 mg/dl), per l’UPC (0,2) e per l’UAC (0,024). Sono stati valutati l’agreement diagnostico e la correlazione di Spearman tra dipstick, UPC e UAC. E’ stata stimata l’accuratezza diagnostica misurando l’area al di sotto della curva di ROC nell’analisi dell’UAC. Il livello di significatività è stato definito per p < 0,05. Indipendentemente dal peso specifico urinario, l’agreement diagnostico tra dipstick, UPC e UAC è risultato forte (k=0,62 e k=0,61, rispettivamente; p<0,001) con valori di dipstick ≥30 mg/dl, debole (k=0,27 e k=0,26, rispettivamente; p<0,001) con valori di dipstick ≥100 mg/dl. L’accuratezza diagnostica del dipstick messa a confronto con UPC e con UAC è molto buona (AUC 0,84 e 0,84, rispettivamente; p<0,001) e i risultati negativi al dipstick presentano il 100% di sensitività. UPC e UAC sono fortemente correlate (r=0,90; p<0,001). Mettendo a confronto UPC e UAC, l’accuratezza diagnostica è risultata eccellente (AUC 0,94; p<0,001), con massima sensitività e specificità per UPC≥0.3.
Resumo:
Gli scavi effettuati a Classe, a sud di Ravenna, presso i siti archeologici dell'area portuale e della Basilica di San Severo, hanno portato alla luce un numero abbondante di moneta, 2564 dall'area portuale e 224 dalla basilica, un totale di 2788 reperti monetali, di cui solo 863 sono leggibili e databili. La datazione dei materiali dell’area portuale, fondata agli inizi del V secolo, parte dal II secolo a.C. fino all’VIII secolo d.C.. La maggior parte dei reperti è relativa al periodo tra il IV e il VII secolo, il momento di massima importanza del porto commerciale, con testimonianza di scambi con altri porti del bacino mediterraneo, in particolare con l’Africa del Nord e il Vicino Oriente. La documentazione proveniente dalla Basilica di San Severo, fondata alla fine del VI secolo per la custodia delle reliquie del santo, mostra un trend diverso dal precedente, con monetazione che copre un arco cronologico dal I secolo a.C. fino al XIV secolo d.C.. La continuità dell’insediamento è dimostrato dall’evidenza numismatica, seppur scarsa, fino alla costruzione del monastero a sud della basilica, l’area dalla quale provengono la maggior parte delle monete. I quantitativi importanti di monetazione tardoantica, ostrogota e bizantina, in particolare di tipi specifici come il Felix Ravenna, ipoteticamente coniato a Roma, oppure il ½ e il 1/4 di follis di produzione saloniana emesso da Giustiniano I, hanno concesso uno studio dettagliato per quello che riguarda il peso, le dimensioni e lo stile di produzione di queste emissioni. Questi dati e la loro distribuizione sul territorio ha suggerito nuove ipotesi per quello che riguarda la produzione di questi due tipi presso la zecca di Ravenna. Un altro dato importante è il rinvenimento di emissioni di Costantino VIII, alcune rare e altre sconosciute, rinvenute solo nel territorio limitrofo a Classe e Ravenna.
Resumo:
Obiettivo della presente tesi è l’ipotesi di applicazione dell’approccio PLLM (Plant Lifecycle Management) in un contesto sanitario sfruttando moderni metodi di organizzazione e coordinamento delle fasi del ciclo di vita di un impianto e nuove tecnologie per la realizzazione di un database informatizzato per la gestione dei dati e delle informazioni all’interno di una struttura sanitaria, nel caso specifico del Blocco Operatorio ‘Vittorio Trancanelli’ dell’Azienda Ospedaliera di Perugia. Per raggiungere tale obiettivo ho prima di tutto analizzato il contesto aziendale, studiate le realtà esistenti, per poi affrontare in dettaglio le variabili del problema. I dati ottenuti in seguito all’attività di ricerca sono stati utilizzati per conoscere e avere una dimensione della mole di informazioni e beni che vengono annualmente smistati e gestiti quotidianamente all’interno della struttura ospedaliera per andare ad analizzare più nello specifico la strutturazione e la complessità di un impianto complesso quale il Blocco Operatorio “Vittorio Trancanelli”. In ultima istanza sono state redatte delle metodologie per la corretta implementazione della piattaforma gestionale in ottica PLLM al fine di garantire una snella e tempestiva fruizione della documentazione utile alla corretta gestione del ciclo di vita di un impianto complesso.
Resumo:
Descrizione di un software di simulazione, realizzato attraverso la programmazione in Labview, che estrapola i dati immagazzinati nei file RINEX di navigazione e di osservazione della missione GRACE e li invia con le stesse modalità con cui lo farebbe il ricevitore OEM615 della NovAtel. L'obiettivo è creare un software che permetta di testare, nell'ambito della missione ESEO dell'ESA, il ricevitore GPS che farà parte del payoload della stessa missione, costituita da un micro-satellite che orbiterà in orbita bassa LEO, e che sarà composto da un ricevitore OEM615, da un'antenna GPS e da un processore di navigazione.
Resumo:
Negli ultimi anni l’attenzione di legislatori e degli Organi di Vigilanza, in base alle riforme regolamentari attivate in risposta alla crisi economica, si sono focalizzate sulle pratiche di risk management delle Banche, sottolineando l’importanza dei sistemi di controllo e gestione dei rischi. Il presente lavoro nasce con l’intento di analizzare e valutare le caratteristiche salienti del processo di assunzione e gestione dei rischi nel sistema economico finanziario attuale. Numerosi e autorevoli esperti, come gli operatori del Financial Stability Board , Institute of International Finance e Senior Supervisory Group, si sono espressi sulle cause della crisi finanziaria ed hanno sollevato dubbi circa la qualità delle azioni intraprese da alcuni manager, sulle loro politiche gestionali e sulla comprensione delle reali condizioni in cui versavano le loro Banche (in termini di esposizione ai rischi, report da aggregazione dati su performance aziendali e qualità dei dati aggregati) , si è ritenuto giusto dal punto di vista teorico approfondire in particolare i temi del Risk Appetite e Risk Tolerance, novità introdotte nelle diverse direttive e normative in risposta alle citate ed ambigue politiche di gestione ed assunzione rischi. I concetti, qui introdotti, di appetito e tolleranza al rischio conducono ad una ampia sfera di riferimento che guarda alla necessità di fissare degli obiettivi di rischio e loro limiti per poter meglio controllare e valutare la stabilità economica/finanziaria e stimare gli effetti di condizioni peggiorative (reali o soltanto teoriche, come gli stress test) sulla solvibilità e profittabilità delle Banche nazionali ed internazionali. Inoltre, ad integrazione di quanto precedentemente esposto sarà illustrata una survey sulla disclosure delle principali Banche europee in relazione alle informazioni sul Risk Appetite e sul Risk Tolerance.
Resumo:
Le microreti caratterizzate da unità di generazione con Fonti Energetiche Rinnovabili (FER), sono oggetto di crescente interesse in due contesti molto diversi tra loro: l’integrazione della Generazione Diffusa (GD) in reti di distribuzione pubbliche nei paesi sviluppati e l’elettrificazione di zone rurali attualmente non servite dalla rete elettrica. L’introduzione dei sistemi di accumulo nelle microreti rende possibile la compensazione della variabilità delle FER trasformando le microreti in sistemi di produzione che nel complesso risultano completamente regolabili. L’obiettivo del presente lavoro di tesi è dimostrare come le microreti possono svolgere un ruolo fondamentale per lo sviluppo delle infrastrutture elettriche nei paesi in via di sviluppo e nelle economie emergenti ponendo le basi per l’elettrificazione di aree remote e scarsamente popolate ad oggi non connesse alla rete di distribuzione dell’energia.
Resumo:
Nel presente lavoro di tesi sono state introdotte le basi dell'insufficienza renale, delle terapie dialitiche, il concetto di biofeedback e le misure di conducibilità e concentrazione. Sono stati poi introdotti i modelli cinetici di conducibilità e concentrazione del sodio. Queste premesse sono servite a fornire le basi per l'analisi dei sensori di conducibilità attualmente in uso su macchine per emodialisi: il Diascan, Il Natrium e l'OLC.
Resumo:
Il presente lavoro di tesi ha portato a caratterizzare e validare un modello bicompartimentale per la cinetica del sodio. Si discutono gli aspetti fondamentali del trattamento di dialisi e si evidenzia come un approccio modellistico possa essere seguito ai fini di una maggiore comprensione dei fenomeni non direttamente osservabili determinati dalla terapia e dell’adeguatezza dei parametri. La validazione del modello è stata effettuata su 144 sedute dialitiche in HD e HDF integrate con HC e su 7 sedute in HD e dai risultati si evince che il modello è in grado di riprodurre i dati sperimentali con un errore dello stesso ordine di grandezza dell’accuratezza degli strumenti utilizzati per la rilevazione della concentrazione plasmatica di sodio.
Resumo:
Progetto SCATh allo ZHAW. Il dipartimento di meccatronica (IMS) dell'Università di scienze applicate di Winterthur (ZHAW), ha partecipato attivamente al progetto SCATh concentrandosi principalmente sullo sviluppo, il condizionamento, e la modellizzazione di un sensore di flusso che fosse facilmente applicabile e di piccole dimensioni in modo da poter essere applicato su catetere e permettere la misura diretta della grandezza fisica sopracitata. All'interno della struttura universitaria è stato possibile inizialmente analizzare il fenomeno che sta alla base del sensore, utilizzando conoscenze già presenti in dispositivi quali l'anemometria a filo caldo, che sfruttano lo scambio di calore tra sensore (riscaldato) e fluido sanguigno. La realizzazione del circuito di condizionamento è stato il passo successivo, necessario sia per mantenere il sensore ad una temperatura voluta e sia per leggere i dati di flusso mediante una tensione in uscita. Una volta effettuato ciò si è proceduto alla calibrazione del sensore (relazione tra flusso e tensione) ed infine alla trasposizione del circuito su LTspice. Nell' Introduzione (Capitolo 1) verranno presentati tutti i concetti preliminari, ossia i principi fisici, necessari a comprendere il funzionamento del sensore. Dunque dopo una breve definizione di flusso (riferito a liquidi) saranno presentati i principi di trasmissione del calore con particolare attenzione riservata alla convezione. Infine, parte dello stesso capitolo sarà dedicata ad una descrizione anatomica dell'aorta e dei rami collaterali. Successivamente nel secondo capitolo verrà analizzato, sia dal punto di vista statico che dal punto di vista dinamico, il circuito di condizionamento, ossia la circuiteria che sta a valle del sensore. Questo circuito permette al sensore di acquisire talune caratteristiche fondamentali per la misura di velocità ed inoltre consente la trasduzione da variabile fisica (velocità del flusso) a variabile elettrica (Tensione). In questo capitolo verrà inoltre fornita una descrizione delle relazioni matematiche fondamentali che legano la temperatura del sensore, la velocità del flusso e la tensione in uscita. Una descrizione del set sperimentale utilizzato per raccogliere dati sarà presente nel terzo capitolo. Qui si troverà una descrizione di tutte le attrezzature utilizzate al fine di poter testare il funzionamento del sensore. Nel quarto capitolo verranno visualizzati i risultati ottenuti facendo riferimento ai test effettuati prima su acqua e successivamente su sangue (suino). Verrà inoltre trovata la curva di calibrazione che permetterà di trovare una relazione biunivoca tra velocità del flusso e tensione in uscita. Infine, nel quinto capitolo verrà proposto un modello del circuito di condizionamento ottenuto mediante LTspice. Mediante il modello sarà possibile simulare un flusso di una velocità voluta e seguire l'andamento della tensione e della temperatura del sensore.
Resumo:
Numerose evidenze sperimentali hanno dimostrato il contributo delle cellule staminali (SC) di derivazione midollare nei processi di rigenerazione epatica dopo danno tissutale. E’ cresciuto pertanto l’interesse sul loro potenziale impiego in pazienti con cirrosi. Questo studio si proponeva di valutare la fattibilità e la sicurezza della reinfusione intraepatica di cellule staminali midollari autologhe CD133+ in 12 pazienti con insufficienza epatica terminale. Previa mobilizzazione nel sangue periferico mediante somministrazione di granulocyte-colony stimulating factor (G-CSF) alla dose di 7,5 mcg/Kg/b.i.d. e raccolta per leucoaferesi (solo se la concentrazione di CD133 + SC era > 8/μL), le cellule CD133+ altamente purificate sono state reinfuse in arteria epatica a partire da 5x104/Kg fino a 1x106/kg. Nei tre giorni successivi è stato somministrato G-CSF per favorire l’espansione e l’attecchimento delle cellule. Durante la fase della mobilizzazione e quella della reinfusione sono stati eseguiti saggi biologici quali: caratterizzazione fenotipica delle SC circolanti, saggi clonogenici, valutazione della concentrazione sierica del Hepatocyte Growth Factor (HGF), Stromal-Derived Factor-1 (SDF-1) ed il Vascular-Endotelial Growth Factor (VEGF) e caratterizzazione fenotipica delle CD133+SC purificate. Fino ad oggi sono stati reinfusi 12 pazienti. Questi dati preliminari suggeriscono che è possibile mobilizzare e reinfondere un numero considerevole di SC autologhe CD133+ altamente purificate in pazienti con ESLD . Gli studi biologici mostrano che: il numero di progenitori ematopoietici ed endoteliali circolanti è aumentato dopo il trattamento con G–CSF; le SCs CD133+ altamente purificato esprimono marcatori emopoietici ed endoteliali; la concentrazione sierica di HGF, SDF-1, VEGF e la capacità clonogenica di progenitori emopoietici sono aumentati durante la mobilitazione e nelle fasi di reinfusione; il potenziale clonogenico dei progenitori endoteliali mostra espressione variabile.
Resumo:
La tesi affronta il tema della neuromatematica della visione, in particolare l’integrazione di modelli geometrici di percezione visiva con tecniche di riduzione di dimensionalità. Dall’inizio del secolo scorso, la corrente ideologica della Gestalt iniziò a definire delle regole secondo le quali stimoli visivi distinti tra loro possono essere percepiti come un’unica unità percettiva, come ad esempio i principi di prossimità, somiglianza o buona continuazione. Nel tentativo di quantificare ciò che gli psicologi avevano definito in maniera qualitativa, Field, Hayes e Hess hanno descritto, attraverso esperimenti psicofisiologici, dei campi di associazione per stimoli orientati, che definiscono quali caratteristiche due segmenti dovrebbero avere per poter essere associati allo stesso gruppo percettivo. Grazie alle moderne tecniche di neuroimaging che consentono una mappatura funzionale dettagliata della corteccia visiva, è possibile giustificare su basi neurofisiologiche questi fenomeni percettivi. Ad esempio è stato osservato come neuroni sensibili ad una determinata orientazione siano preferenzialmente connessi con neuroni aventi selettività in posizione e orientazione coerenti con le regole di prossimità e buona continuazione. Partendo dal modello di campi di associazione nello spazio R^2xS^1 introdotto da Citti e Sarti, che introduce una giustificazione del completamento percettivo sulla base della funzionalità della corteccia visiva primaria (V1), è stato possibile modellare la connettività cellulare risolvendo un sistema di equazioni differenziali stocastiche. In questo modo si sono ottenute delle densità di probabilità che sono state interpretate come probabilità di connessione tra cellule semplici in V1. A queste densità di probabilità è possibile collegare direttamente il concetto di affinità tra stimoli visivi, e proprio sulla costruzione di determinate matrici di affinità si sono basati diversi metodi di riduzione di dimensionalità. La fenomenologia del grouping visivo descritta poco sopra è, di fatto, il risultato di un procedimento di riduzione di dimensionalità. I risultati ottenuti da questa analisi e gli esempi applicativi sviluppati si sono rivelati utili per comprendere più nel dettaglio la possibilità di poter riprodurre, attraverso l’analisi spettrale di matrici di affinità calcolate utilizzando i modelli geometrici di Citti-Sarti, il fenomeno percettivo di grouping nello spazio R^2xS^1.
Resumo:
Dopo aver analizzato il conflitto, le sue funzioni e le modalità di gestione, l'autore si sofferma dapprima sulle varie tipologie di mediazione per poi focalizzare l'attenzione sulla mediazione civile e commerciale evidenziando i dati disponibili dall'entrata in vigore del tentativo obbligatorio come condizione di procedibilità della domanda giudiziale per le materie civili, alla fine del 2013.