29 resultados para eterogeneità, catalogo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il documento presenta il caso dell'archivio fotografico della Fondazione Zeri come caso reale di conversione di un catalogo ricco di informazioni ma povero di interconnessioni nel dominio dei Linked Open Data, basandosi sull'ontologia CIDOC-CRM per il cultural heritage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'oggetto di studio di questa tesi e' l'analisi degli ammassi di galassie (galaxy clusters) e delle loro proprieta', attraverso un introduttiva analisi morfologica e dinamica, considerazioni sulle proprieta' termiche (con caratteristiche collegate direttamente dalla temperatura), ed infine l'ispezione dei meccanismi che generano le emissioni non termiche e le loro sorgenti. Cercheremo delle relazioni fra le une e le altre. In particolare studieremo specifiche conformazioni del mezzo intergalattico (ICM, intracluster medium) all'interno degli ammassi, quali Aloni, Relitti e Mini Aloni, attraverso le radiazioni che essi sprigionano nella banda dei raggi X e onde radio. Le prime osservazioni sugli ammassi di galassie sono state effettuate gia' alla fine del '700 da Charles Messier, che, al fine di esaminare il cielo alla ricerca di comete, forni un catalogo di 110 oggetti cosmici che, pur apparendo nebulosi per via della limitatezza di risoluzione dei telescopi di allora, non erano sicuramente comete. Fra questi oggetti vi erano anche ammassi di galassie. I primi studi approfonditi si ebbero soltanto con il rapido incremento tecnologico del XX secolo che permise di capire che quelle formazioni confuse altro non erano che agglomerati di galassie. Telescopi piu' grandi, e poi interferometri, radiotelescopi osservazioni agli X hanno sostanzialmente aperto il mondo dell'astrofisica. In particolare Abell stabili' nel primo dopoguerra il primo catalogo di ammassi su determinazione morfologica. Altri astronomi ampliarono poi i parametri di classificazione basandosi su caratteristiche ottiche e meccaniche. Le analisi piu' recenti infine basano le loro conclusioni sullo studio delle bande non ottiche dello spettro, principalmente i raggi X e onde Radio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi ha come obiettivo l’analisi della correlazione dello stile tettonico, in termini di deformazione sismica, con il b-value della relazione magnitudo-frequenza di occorrenza (Gutenberg e Richter, 1944) in area globale ed euro-mediterranea. L’esistenza di una dipendenza funzionale tra il b-value e gli angoli di rake, del tipo di quella segnalata da Schorlemmer et al. (2005) e Gulia e Wiemer (2010), viene confermata prima su scala globale e poi su scala euro-mediterranea, a partire dai dati dei principali dataset di tensori momento delle aree in esame, il Global Centroid Moment Tensor (GCMT) ed il Regional Centroid Moment Tensor (RCMT). La parte innovativa della tesi consiste invece nell’incrocio di tali dataset con un database globale di terremoti, l’International Seismological Center (ISC), con magnitudo momento omogenea rivalutata in accordo con Lolli et al. (2014), per il calcolo del b-value. Il campo di deformazione sismica viene ottenuto attraverso il metodo della somma dei tensori momento sismico secondo Kostrov (1974) su pixelizzazioni a celle quadrate o esagonali. All’interno di ciascuna cella, le componenti del tensore di ciascun terremoto vengono sommate tra loro e dal tensore somma vengono estratte le direzioni dei piani principali della migliore doppia coppia. Il sub-catalogo sismico per il calcolo del b-value, ottenuto come scomposizione di quello globale ISC, viene invece ricavato per ogni cluster di celle comprese all'interno di un opportuno range di rake, le quali condividono un medesimo stile tettonico (normale, inverso o trascorrente). La magnitudo di completezza viene valutata attraverso i metodi di massima verosimiglianza [Bender, 1983] ed EMR [Woessner e Wiemer 2005]. La retta di interpolazione per il calcolo del b-value viene costruita quindi secondo il metodo di massima verosimiglianza [Bender, 1983] [Aki 1965]. L’implementazione nel linguaggio del software Matlab® degli algoritmi di pixelizzazione e di costruzione dei tensori somma, l’utilizzo di funzioni di calcolo dal pacchetto Zmap [Wiemer e Wyss, 2001], unite al lavoro di traduzione di alcune routines [Gasperini e Vannucci (2003)] dal linguaggio del FORTRAN77, hanno costituito la parte preliminare al lavoro. La tesi è strutturata in 4 capitoli.Nel primo capitolo si introducono le nozioni teoriche di base riguardanti i meccanismi focali e la distribuzione magnitudo-frequenza, mentre nel secondo capitolo l’attenzione viene posta ai dati sismici dei database utilizzati. Il terzo capitolo riguarda le procedure di elaborazione dati sviluppate nella tesi. Nel quarto ed ultimo capitolo infine si espongono e si discutono i risultati sperimentali ottenuti, assieme alle conclusioni finali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progettazione e sviluppo di un e-commerce di articoli sacri utilizzando Magento come framework. Introduzione agli strumenti e tecniche di creazione per un catalogo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La TC perfusionale (TCp) è un valido strumento per l'imaging funzionale dei tumori. Tale tecnica consente di misurare in modo oggettivo la perfusione tissutale, attraverso l'analisi matematica dei dati ottenuti effettuando scansioni TC ripetute nel tempo, dopo la somministrazione di un mezzo di contrasto iodato. Il principale obiettivo degli studi perfusionali in oncologia è la valutazione precoce dell’efficacia delle terapie anti-angiogenetiche utilizzate per bloccare la vascolarizzazione che alimenta le lesioni tumorali. Infatti, sin dal primo ciclo di terapie, è possibile rilevare se la vascolarizzazione tumorale si riduce, senza dover attendere i cambiamenti dimensionali che, in genere, avvengono tardivamente. Questa Tesi si focalizza sullo studio del carcinoma polmonare e perviene alla costruzione di un catalogo, completo di mappe colorimetriche, che sintetizza i casi analizzati, i dati relativi al paziente e alle lesioni. L'obiettivo è quindi quello di fornire uno strumento di facile consultazione che consenta di valutare vari aspetti relativi alla malattia, tra cui il tasso di accrescimento, il grado di malignità, presenza di invasione vascolare, al fine di andare sempre più verso una cura personalizzata e più efficace per i pazienti che, attualmente, sono sottoposti a soluzione terapeutica standard. Questa è, senza dubbio, la nuova frontiera della ricerca per tutte i tipi di neoplasie negli anni futuri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’introduzione della tomografia computerizzata nelle applicazioni oncologiche è stata rivoluzionaria per la diagnostica delle immagini di molti organi e apparati, superando i limiti della radiologia convenzionale. Questa tecnica rappresenta, infatti, un efficace strumento nella diagnosi e caratterizzazione di numerosi tumori, in quanto questo tipo di applicazione perfusionale amalgama informazioni di natura morfologica, tipiche della TC tradizionale, con studi funzionali sui tessuti in esame. Tuttavia, diversi problemi, tra cui la mancanza di un protocollo standard sia durante la fase di acquisizione dei dati, sia durante la fase di elaborazione dei dati, costituiscono un ostacolo per la trasposizione in clinica della TCp. In questo lavoro di Tesi si è trattato principalmente della modalità di analisi dei dati: ad oggi, infatti, non è ancora stato formulato un protocollo che stabilisca in modo univoco una tecnica di analisi delle mappe perfusionali risultanti dall’elaborazione delle immagini TCp. In particolare, si è tentato di affiancare ai classici metodi di analisi di immagini noti in letteratura un ulteriore tecnica che si basa sull’analisi voxel-by-voxel della regione d’interesse su più slice e non solo su quella di riferimento. Questo studio è stato fortemente motivato dall’elevato grado di eterogeneità che caratterizza molti tessuti neoplastici. A tal proposito, l’elaborato mira ad analizzare in modo qualitativo le mappe perfusionali di slice adiacenti a quella di riferimento e a verificare se queste possano restituire informazioni aggiuntive che risultino indispensabili ai fini della formulazione di una corretta diagnosi e scelta del piano terapeutico da applicare al paziente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le ammine biogene sono composti azotati a basso peso molecolare che vengono prodotti in seguito alla decarbossilazione degli aminoacidi da parte di specifici enzimi microbici della famiglia delle decarbossilasi. Questi composti sono presenti in diversi alimenti e, in particolare, in quelli fermentati. Nonostante la capacità dell’organismo di metabolizzare tali molecole tramite appositi sistemi di detossificazione una loro eccessiva assunzione provoca sintomatologie deleterie per la salute umana. La tiramina, in particolare, è una delle ammine biogene attualmente più studiate in ragione della diffusa presenza dell’enzima tirosina decarbossilasi (tyrDC) nel pool enzimatico di diversi batteri lattici, specialmente quelli appartenenti al genere Enterococcus. Seppure in letteratura vi siano numerosi studi riguardanti il rapporto fra contenuto di tiramina e l’attività degli enterococchi in molti alimenti, ad oggi sono ridotte le informazioni inerenti la regolazione e il ruolo fisiologico di tale molecola per la cellula microbica. Alla luce di tali considerazioni questa tesi mi sono occupata di approfondire le conoscenze relative l’attività dell’enzima tyrDC in un terreno di coltura a composizione nota da parte dei due ceppi di Enterococcus faecalis EF37 e ATCC29212. A tal fine i ceppi sono stati inoculati in cinque diversi terreni e incubati a tre diverse temperature (20°C, 30°C e 40°C), dopo averli pre-coltivati in terreni contenenti o meno tirosina, allo scopo di valutare se la fase di pre-adattamento fosse in grado di influenzare le performance dei ceppi considerati. Dai risultati ottenuti è emerso che è presente un’estrema eterogeneità nell’attività dell’enzima tyrDC anche all’interno della medesima specie, infatti se il ceppo EF37 ha performance migliori in termini di decarbossilazione quando pre-adattato, il ceppo ATCC29212 non sembra essere influenzato da questo fattore, seppur entrambi presentino una crescita cellulare più accentuata quando pre-adattati. È stata inoltre confermata, alle condizioni adattate, la capacità di produrre 2-feniletilamina da parte del solo ceppo EF37.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'accurata determinazione dei parametri che costituiscono un modello cosmologico è fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densità della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che un’errata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densità dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si è potuto osservare come l’efficienza del metodo dipenda dalla densità d’oggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dall’ampiezza dell’effetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora l’identificazione del corretto valore del parametro di densità. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dell’intervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si è osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente l’efficacia del metodo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La malattia aterosclerotica presenta elevate morbilità e mortalità in gran parte del mondo e poterla diagnosticare prima che essa porti a un evento acuto (ictus) comporta indiscutibili vantaggi per la sanità. Il problema a monte della malattia è la presenza di placche aterosclerotiche nei vasi arteriosi. La placca può essere classificata in base alle sue componenti isto-morfologiche in fibrosa, fibrocalcifica o fibroadiposa, che comportano diversi livelli di rischio. In questo elaborato è presentata la procedura CAPSU, che permette la rilevazione e la segmentazione delle placche in modo automatico in immagini eco; è valutata l’efficacia di un tool che permette la classificazione automatica delle placche, già segmentate con il metodo CAPSU. Un esperto ha classificato le placche appartenenti a 44 immagini ecografiche che poi sono state sottoposte all’elaborazione automatica; i risultati si sono rivelati concordi. Sono stati valutati alcuni fattori che potrebbero differenziare univocamente i tipi di placche tra loro (area, eccentricità, minimo, massimo e medio livello di grigio, ecogenicità ed eterogeneità) e a parte i primi due tutti si sono mostrati validi in almeno un confronto tra due tipi di placche. Si è concluso che una classificazione automatica del tutto efficace delle placche carotidee potrebbe essere possibile in seguito a ulteriori sviluppi di questa tecnica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La geometria frattale descrive la complessità strutturale di oggetti che presentano, entro certi limiti, invarianza a fattori di scala. Obiettivo di questa tesi è l’analisi di indici frattali della morfologia cerebrale e cerebellare da immagini di risonanza magnetica (MRI) pesate T1 e della loro correlazione con l’età. A tale scopo sono state analizzate la dimensione frattale (D0) e la lacunarità (λs), indice di eterogeneità strutturale, della sostanza grigia (GM) e bianca (WM), calcolate mediante algoritmi di box counting e di differential gliding box, implementati in linguaggio C++, e regressione lineare con scelta automatica delle scale spaziali. Gli algoritmi sono stati validati su fantocci 3D ed è stato proposto un metodo per compensare la dipendenza di λs dalle dimensioni dell’immagine e dalla frazione di immagine occupata. L’analisi frattale è stata applicata ad immagini T1 a 3T del dataset ICBM (International Consortium for Brain Mapping) composto da 86 soggetti (età 19-85 anni). D0 e λs sono state rispettivamente 2.35±0.02 (media±deviazione standard) e 0.41±0.05 per la GM corticale, 2.34±0.03 e 0.35±0.05 per la WM cerebrale, 2.19±0.05 e 0.17±0.02 per la GM cerebellare, 1.95±0.06 e 0.30±0.04 per la WM cerebellare. Il coefficiente di correlazione lineare tra età e D0 della GM corticale è r=−0.38 (p=0.003); tra età e λs, r=0.72 (p<0.001) (mostrando che l’eterogeneità strutturale aumenta con l’invecchiamento) e tra età e λs compensata rispetto al volume della GM cerebrale (GMV), r=0.51 (p<0.001), superiore in valore assoluto a quello tra età e GMV (r=−0.45, p<0.001). In un modello di regressione lineare multipla, dove l’età è stata modellata da D0, λ e GMV della GM corticale, λs è risultato l’unico predittore significativo (r parziale=0.62, p<0.001). La lacunarità λs è un indice sensibile alle variazioni strutturali dovute all’invecchiamento cerebrale e si candida come biomarcatore nella valutazione della complessità cerebrale nelle malattie neurodegenerative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La catalogazione è la tecnica per costruire, mantenere e aggiornare un catalogo. L’utilizzo del catalogo diventa strettamente necessario quando la raccolta dei documenti viene fuori da un ambito locale e si riferisce ad un pubblico che vuole beneficiare delle informazioni possedute dalla biblioteca. Il passo successivo è aderire ad un sistema in cui ciascuna biblioteca contribuisce alla costruzione del catalogo, trasmettendo i propri dati e le informazioni relative ai documenti in proprio possesso. Per effettuare questa progressione è necessario aderire allo standard catalografico del sistema. La Biblioteca dello Studentato per le Missioni ha deciso di passare da un catalogo bibliografico cumulativo, realizzato con il software CDS/ISIS e l’interfaccia web IBISWEB, ad un sistema più vasto e strutturato, quale l’OPAC CEIBib: per aderire al sistema è necessario effettuare una conversione di formato dei dati bibliografici della banca dati. Lo scopo di questa tesi, dunque, è quello di realizzare un tool di conversione di formato dei dati bibliografici, passando dal formato di catalogazione CDS/ISIS, basato su UNIMARC, al formato MARC 21. La struttura della tesi è organizzata come segue. Il primo capitolo racconta, in breve, la nascita della Biblioteca dello Studentato per le Missioni e del fondo librario di cui dispongono. Il secondo capitolo introduce alla catalogazione, approfondendo diversi aspetti tra cui il catalogo, i formati di catalogazione e i diversi sistemi. Il terzo capitolo tratta il formato di rappresentazione dei metadati MARC 21, adottato dall’OPAC CEIBib come formato bibliografico per la catalogazione. Il quarto capitolo descrive il software di catalogazione CDS/ISIS. In particolare, la creazione dei record CDS/ISIS e l’esportazione degli stessi nel formato ISO 2709. Il quinto capitolo mostra l’implementazione del tool di conversione di formato di dati bibliografici realizzato per la conversione della banca dati della Biblioteca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con la crescita in complessità delle infrastrutture IT e la pervasività degli scenari di Internet of Things (IoT) emerge il bisogno di nuovi modelli computazionali basati su entità autonome capaci di portare a termine obiettivi di alto livello interagendo tra loro grazie al supporto di infrastrutture come il Fog Computing, per la vicinanza alle sorgenti dei dati, e del Cloud Computing per offrire servizi analitici complessi di back-end in grado di fornire risultati per milioni di utenti. Questi nuovi scenarii portano a ripensare il modo in cui il software viene progettato e sviluppato in una prospettiva agile. Le attività dei team di sviluppatori (Dev) dovrebbero essere strettamente legate alle attività dei team che supportano il Cloud (Ops) secondo nuove metodologie oggi note come DevOps. Tuttavia, data la mancanza di astrazioni adeguata a livello di linguaggio di programmazione, gli sviluppatori IoT sono spesso indotti a seguire approcci di sviluppo bottom-up che spesso risulta non adeguato ad affrontare la compessità delle applicazione del settore e l'eterogeneità dei compomenti software che le formano. Poichè le applicazioni monolitiche del passato appaiono difficilmente scalabili e gestibili in un ambiente Cloud con molteplici utenti, molti ritengono necessaria l'adozione di un nuovo stile architetturale, in cui un'applicazione dovrebbe essere vista come una composizione di micro-servizi, ciascuno dedicato a uno specifica funzionalità applicativa e ciascuno sotto la responsabilità di un piccolo team di sviluppatori, dall'analisi del problema al deployment e al management. Poichè al momento non si è ancora giunti a una definizione univoca e condivisa dei microservices e di altri concetti che emergono da IoT e dal Cloud, nè tantomento alla definzione di linguaggi sepcializzati per questo settore, la definzione di metamodelli custom associati alla produzione automatica del software di raccordo con le infrastrutture potrebbe aiutare un team di sviluppo ad elevare il livello di astrazione, incapsulando in una software factory aziendale i dettagli implementativi. Grazie a sistemi di produzione del sofware basati sul Model Driven Software Development (MDSD), l'approccio top-down attualmente carente può essere recuperato, permettendo di focalizzare l'attenzione sulla business logic delle applicazioni. Nella tesi viene mostrato un esempio di questo possibile approccio, partendo dall'idea che un'applicazione IoT sia in primo luogo un sistema software distribuito in cui l'interazione tra componenti attivi (modellati come attori) gioca un ruolo fondamentale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi nasce dalla volontà di agire sull’area della Darsena di Ravenna, strategica in quanto via d’acqua navigabile che congiunge il mare con il centro città ma dal potenziale ancora poco sfruttato. Il progetto è studiato per essere inserito come catalizzatore urbano, creando spazi di interazione attraverso elementi modulari galleggianti e riconfigurabili per adattarsi a programmi d’uso flessibili; tali elementi si aggregano formando un sistema che ristruttura lo spazio dell’attuale banchina, cambiandone la percezione da barriera a waterfront urbano. La necessità di ottenere una struttura con capacità di crescita e flessibilità programmatica sfocia in un approccio modulare seguendo il principio massima variazione/minimo numero di elementi i cui principi aggregativi si basano sulla tassellazione “Cairo”. Vengono studiate le possibilità di incorporare variazione ed eterogeneità all’interno del sistema senza comprometterne la modularità fino ad integrare percorsi multilivello. La definizione delle morfologie delle parti che compongono i moduli si basano sullo studio dei principi di galleggiamento, stabilità e yacht design: a partire dalla forma dello scafo adatta ai principi di tiling definiti in precedenza, tutte le parti che compongono le varie tipologie di modulo sono progettate cercando continuità e integrazione tettonica (geometrica, strutturale, funzionale e percettiva). Vengono proposte soluzioni integrate sia per le problematiche tipiche delle strutture galleggianti sia per l’inserimento di attività all’interno della soluzione architettonica. Vengono prototipati di una serie di moduli, scelti in modo da dimostrare i principi di ricombinazione, continuità, modularità e tiling.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi si presenta il primo studio multi-scala e multi-frequenza focalizzato sul getto della radiogalassia IC1531 (z=0.026) con i satelliti Chandra, XMM-Newton e Fermi con l’obiettivo di tracciarne l’emissione alle alte energie; definire i processi radiativi responsabili dell’emissione osservata e stimare i principali parametri fisici del getto; stimare l’energetica del getto alle diverse scale. La sorgente è stata selezionata per la presenza di un getto esteso (≈5’’) osservato in radio e ai raggi X, inoltre, era riportata come possibile controparte della sorgente gamma 3FGLJ0009.6-3211 presente nel terzo catalogo Fermi (3FGL). La presenza di emissione ai raggi γ, confermata dal nostro studio, è importante per la modellizzazione della SED della regione nucleare. L’emissione X del nucleo è dominata da una componente ben riprodotta da una legge di potenza con indice spettrale Γ=2.2. L’analisi dell’emissione in banda gamma ha evidenziato una variabilità su scale di 5 giorni, dalla quale è stato possibile stimare le dimensioni delle regione emittente. Inoltre viene presentato lo studio della distribuzione spettrale dell’energia della regione nucleare di IC 1531 dalla banda radio ai raggi γ. I modelli ci permettono di determinare la natura dell’emissione gamma e stimare la potenza cinetica del getto a scale del su-pc. Gli osservabili sono stati utilizzati per ottenere le stime sui parametri del modello. La modellizzazione così ottenuta ha permesso di stimare i parametri fisici del getto e la potenza trasportata del getto a scale del sub-pc. Le stime a 151MHz suggerisco che il getto abbia basse velocita' (Γ≤7) e angolo di inclinazione rispetto alla linea di vista 10°<ϑ<20°; nel complesso, il trasporto di energia da parte del getto risulta efficiente. L’origine dell’emissione X del getto a grandi scale è consistente con un’emissione di sincrotrone, che conferma la classificazione di IC1531 come sorgente di bassa potenza MAGN.