791 resultados para CATALOGO RAZONADO
Resumo:
La tesi presenta l’attività di Giovanni Francesco da Rimini, pittore attivo all’incirca dal 1440 al 1470. Analizzando le varie esperienze tra Padova, Perugia, Firenze e Bologna, si ricostruisce un catalogo delle sue opere.
Resumo:
Il presente studio è stato progettato e articolato includendo tre approcci disciplinari sviluppati parallelamente al fine di ottenere dati etologici, endocrinologici, e respiratori riguardo cinque esemplari di trichecho del pacifico (Odobenus rosmarus) ospitati presso l’Oceanografic di Valencia. Il periodo di campionamento si è sviluppato in un lasso di tempo di 12 settimane durante le quali sono stati raccolti dati riguardo i tre ambiti di studio. La raccolta di dati etologici è stata effettuata per mezzo di supporto video il quale ha permesso di generare un totale di 72 ore di filmato. Attraverso l’analisi del materiale multimediale è stato possibile elaborare un catalogo comportamentale con annesso un catalogo video atto alla semplificazione di riconoscimento dei vari moduli comportamentali; la revisione della documentazione video è stata effettuata mediante il software Noldus “Observer 5.0” che si è resa necessaria per la quantificazione dei singoli comportamenti osservati durante il periodo di studio. Succesivamente i dati ottenuti sono stati sottoposti ad analisi statistica al fine di poter valutare le differenze e le analogie comportamentali dei due soggetti principali nell’arco della singola giornata e durante le dodici settimane di analisi. In concomitanza col campionamento video, si è proceduto ialla raccolta dei dati relativi ai pattern respiratori al fine di valutare la durata delle apnee in ambiente controllato. In seguito è stato effettuato un approccio endocrinologico al fine di valutare la possibilità di rilevare e quantificare glucorticoidi quali cortisolo, testosterone e progesterone presenti nei campioni. Si è ricorso alla raccolta di materiale salivare in alternativa al campionamento ematico in modo da stabilire l’effettiva efficacia del metodo. I campioni sono stati poi processati mediante RIA e i livelli ormonali ottenuti sono stati utilizzati per effettuare una comparazione con il manifestarsi dei moduli comportamentali osservati è analizzarne le correlazioni presenti e osservarne gli effetti sull’espressione etologica.
Resumo:
Il percorso sui Frammenti di Erodoto è cronologico. L'introduzione presenta criteri di lavoro, un esempio di studio sul Proemio delle Storie e la struttura generale. Per ogni momento è preso in considerazione un fenomeno particolare con un esempio. Il primo caso è contemporaneo ad Erodoto. Si tratta di un test che riguarda la criticità di alcuni concetti chiave tradizionali: intertestualità e riferimenti letterali. Il secondo capitolo è uno studio sulla storiografica di IV secolo a.C., periodo di fioritura e determinazione delle norme del genere. Qui si mettono in luce la criticità dei frammenti multipli aprendo in questo modo ampie possibilità di ricerca. Il capitolo successivo, sulla tradizione papiracea mostra il passaggio storico tra la tradizione indiretta a la tradizione manoscritta e permette uno sguardo all'epoca alessandrina. Include un catalogo ed alcuni aggiornamenti. Il capitolo quinto pone invece problemi tradizionali di trasmissione delle tradizioni storiche affrontando lo studio di FGrHist 104, testo che permette di osservare passaggi della storiografia di quinto e quarto secolo avanti Cristo. I due capitoli sulle immagini e sul Rinascimento, paralleli per quanto riguarda i riferimenti cronologici, offrono un ponte per passare dal discorso storiografico a quello in cui la consapevolezza di Erodoto è già maturata come parte della ”cultura”. Alto Medioevo, Umanesimo e Rinascimento offrono spazio a storie delle Storie che iniziano ad essere quasi di ricezione di Erodoto. Questo tema è l'oggetto dei due capitoli finali, studi legati alla presenza o assenza di Erodoto in discipline e pensieri moderni e contemporanei: il pensiero di genere e l’analisi conversazionale. Le appendici completano soprattutto il capitolo su Aristodemo con uno studio sul codice che lo trasmette, il papiro P.Oxy 2469 e il testo stesso, con traduzione e commento storico. Il lavoro si completa con una premessa, una bibliografia strutturata e indici di persone e passi citati.
Resumo:
La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.
Resumo:
Il presente lavoro di tesi è stato svolto presso la DTU, Technical University of Denmark, nel Department of Energy Conversion and Storage, Riso Campus. Lo scopo del periodo di soggiorno estero è stato quello di caratterizzare appropriati moduli termoelettrici forniti da aziende del settore, utilizzando un opportuno apparato di caratterizzazione. Quest’ultimo è noto come “module test system” e, nello specifico, è stato fornito dalla PANCO GmbH, azienda anch’essa attiva nel campo delle tecnologie termoelettriche. Partendo da uno studio teorico dei fenomeni fisici interessati (effetto Seebeck per la produzione di potenza termoelettrica), si è cercato in seguito di analizzare le principali caratteristiche, ed elementi, del “module test system”. Successivamente a questa prima fase di analisi, sono stati condotti esperimenti che, con l’aiuto di modelli computazionali implementati attraverso il software Comsol Multiphysics, hanno permesso di studiare l’affidabilità del sistema di caratterizzazione. Infine, una volta acquisite le basi necessarie ad una corretta comprensione dei fenomeni fisici e delle caratteristiche relative alla strumentazione, sono stati analizzati moduli termoelettrici di tipo commerciale. In particolare, sono stati estrapolati dati quali correnti, tensioni, gradienti di temperatura, che hanno permesso di ricavare flussi termici, efficienze, e potenze che caratterizzano il modulo in questione durante le condizioni di funzionamento. I risultati ottenuti sono stati successivamente comparati con dati forniti dal produttore, presenti sul catalogo.
Resumo:
Il presente lavoro è incentrato sulla raccolta e l’analisi dell’instrumentum fittile inscriptum – in particolare laterizi, dolia, lucerne, ceramica fine da mensa, anfore e tappi d’anfora - rinvenuto a Modena e nel suo territorio. L’attenzione è stata concentrata sul materiale bollato e, per quanto riguarda le anfore, anche sullo studio degli esemplari recanti tituli picti. Si è proceduto ad una raccolta di tutto il materiale edito, a cui si è aggiunto lo studio di un’ingente quantità di reperti provenienti da due recenti scavi suburbani: quello presso il Parco Novi Sad, che si segnala soprattutto per la ricchezza del materiale anforico, e quello di Viale Reiter, ove sono venuti alla luce numerosi scarti di cottura di lucerne a canale recanti le firme di alcuni dei più noti produttori di tali oggetti nel mondo romano. A ciascuna categoria di instrumentum è stato dedicato un capitolo, corredato di tabelle in cui è stato raccolto tutto il materiale considerato; inoltre, per i reperti del Parco Novi Sad e di Viale Reiter, è stato realizzato un catalogo corredato di riproduzioni grafiche e fotografiche. Per quanto concerne le iscrizioni dipinte, un capitolo è stato dedicato a quelle presenti sulle anforette adriatiche da pesce; quanto ai tituli picti su anfore di morfologia betica per il trasporto di salse di pesce è stato effettuato un confronto con esemplari rinvenuti in due scavi inediti a Parma, che presentano significative analogie col materiale modenese. Dall’analisi dell’instrumentum inscriptum di Mutina, pur consapevoli dei limiti insiti in una ricerca incentrata unicamente su tale tipo di materiale, è emersa un’immagine della colonia, tra la tarda età repubblicana ed il I sec. d.C., congruente con quella delineata dalle fonti letterarie, dall’epigrafia lapidaria e dai rinvenimenti archeologici, ossia di una città di notevole importanza e ricchezza.
Resumo:
Il lavoro di tesi è stato svolto presso Datalogic ADC, azienda attiva nel campo dell'automazione industriale. La divisione presso cui mi sono recato per 6 mesi ha sede a Pasadena (California, USA) e si occupa principalmente di sistemi di visione e riconoscimento oggetti, con particolare applicazione al settore della grande distribuzione. L'azienda ha in catalogo diversi prodotti finalizzati ad automatizzare e velocizzare il processo di pagamento alle casse da parte dei clienti. In questo contesto, al mio arrivo, era necessario sviluppare un software che permettesse di riconoscere i comuni carrelli per la spesa quando sono inquadrati dall'alto, con posizione verticale della camera. Mi sono quindi occupato di sviluppare ed implementare un algoritmo che permetta di riconoscere i carrelli della spesa sotto ben precise ipotesi e dati iniziali. Come sarà spiegato più dettagliatamente in seguito, è necessario sia individuare la posizione del carrello sia il suo orientamento, al fine di ottenere in quale direzione si stia muovendo. Inoltre, per i diversi impieghi che si sono pensati per il software in oggetto, è necessario che l'algoritmo funzioni sia con carrelli vuoti, sia con carrelli pieni, anche parzialmente. In aggiunta a ciò il programma deve essere in grado di gestire immagini in cui siano presenti più di un carrello, identificando correttamente ciascuno di essi. Nel Capitolo 1 è data una più specifica introduzione al problema e all'approccio utilizzato per risolverlo. Il Capitolo 2 illustra nel dettaglio l'algoritmo utilizzato. Il Capitolo 3 mostra i risultati sperimentali ottenuti e il procedimento seguito per l'analisi degli stessi. Infine il Capitolo 4 espone alcuni accorgimenti che sono stati apportati all'algoritmo iniziale per cercare di velocizzarlo in vista di un possibile impiego, distinguendo i cambiamenti che introducono un leggero degrado delle prestazioni da quelli che non lo implicano. Il Capitolo 5 conclude sinteticamente questa trattazione ricordando i risultati ottenuti.
Resumo:
Progettare e realizzare un sistema di catalogazione delle varie tipologie di eterogeneità tissutale di lesioni neoplastiche polmonari, a partire dall’analisi di immagini TCp, in quanto non risulta presente in letteratura una classificazione dell’eterogeneità basata sull’analisi visuale del radiologo.
Resumo:
Il documento presenta il caso dell'archivio fotografico della Fondazione Zeri come caso reale di conversione di un catalogo ricco di informazioni ma povero di interconnessioni nel dominio dei Linked Open Data, basandosi sull'ontologia CIDOC-CRM per il cultural heritage.
Resumo:
L'oggetto di studio di questa tesi e' l'analisi degli ammassi di galassie (galaxy clusters) e delle loro proprieta', attraverso un introduttiva analisi morfologica e dinamica, considerazioni sulle proprieta' termiche (con caratteristiche collegate direttamente dalla temperatura), ed infine l'ispezione dei meccanismi che generano le emissioni non termiche e le loro sorgenti. Cercheremo delle relazioni fra le une e le altre. In particolare studieremo specifiche conformazioni del mezzo intergalattico (ICM, intracluster medium) all'interno degli ammassi, quali Aloni, Relitti e Mini Aloni, attraverso le radiazioni che essi sprigionano nella banda dei raggi X e onde radio. Le prime osservazioni sugli ammassi di galassie sono state effettuate gia' alla fine del '700 da Charles Messier, che, al fine di esaminare il cielo alla ricerca di comete, forni un catalogo di 110 oggetti cosmici che, pur apparendo nebulosi per via della limitatezza di risoluzione dei telescopi di allora, non erano sicuramente comete. Fra questi oggetti vi erano anche ammassi di galassie. I primi studi approfonditi si ebbero soltanto con il rapido incremento tecnologico del XX secolo che permise di capire che quelle formazioni confuse altro non erano che agglomerati di galassie. Telescopi piu' grandi, e poi interferometri, radiotelescopi osservazioni agli X hanno sostanzialmente aperto il mondo dell'astrofisica. In particolare Abell stabili' nel primo dopoguerra il primo catalogo di ammassi su determinazione morfologica. Altri astronomi ampliarono poi i parametri di classificazione basandosi su caratteristiche ottiche e meccaniche. Le analisi piu' recenti infine basano le loro conclusioni sullo studio delle bande non ottiche dello spettro, principalmente i raggi X e onde Radio.
Resumo:
El objetivo de la presente investigación, el catálogo y estudio de las gramáticas de italiano destinadas a hispanohablantes de los siglos XVIII y XIX, se encuadra en el macrosector gramaticográfico de la historiografía lingüística, en el cual el estudio de las gramáticas de las lenguas dirigidas a hablantes nativos y a hablantes extranjeros, con los consiguientes cruces y trasvases de tradiciones gramaticales, es de significativo interés como destacan: (i) las tesis doctorales defendidas en los últimos quince años; (ii) los proyectos de investigación dirigidos y coordinados por prestigiosos estudiosos del sector; (iii) los congresos organizados para destacar y compartir las principales actualizaciones en torno a los estudios gramaticográficos; y (iv) las publicaciones que surgen de los tres puntos anteriores. El estudio presenta dos partes centrales: la primera (constituida por los capítulos 2 y 3) es la de catálogo y estudio de las diecinueve gramáticas que conforman el corpus en base a ocho áreas descriptivas (1. información catalográfica, 2. autor, 3. editor, 4. hiperestructura, 5. elementos peritextuales, gramaticales y didácticos, 6. variedad de textos y su secuencia didáctica, 7. caracterización, fuentes e influencias, y 8. localización); la segunda (capítulo 4) es la de estudio gramaticográfico de conjunto de los datos más relevantes de las areas de estudio utilizadas en las dos primeras partes. De este modo, daremos un panorama de conjunto sobre (i) la cronología de las obras y sus ediciones y rempresiones; (ii) la nacionalidad, profesión, condición religiosa, etc. de autores; (iii) la geografía de ediciones y editores; (iv) la descripción hiperestructural de las obras; (v) la estructura de los elementos peritextuales; (vi) las partes gramaticales y elementos que las componen; (vii) el verbo: definiciones y paradigma verbal; (vii) los elementos didácticos; (viii) las líneas de descripción gramatical; (ix) la localización de las gramáticas en las bibliotecas españolas.
Resumo:
La tesi ha come obiettivo l’analisi della correlazione dello stile tettonico, in termini di deformazione sismica, con il b-value della relazione magnitudo-frequenza di occorrenza (Gutenberg e Richter, 1944) in area globale ed euro-mediterranea. L’esistenza di una dipendenza funzionale tra il b-value e gli angoli di rake, del tipo di quella segnalata da Schorlemmer et al. (2005) e Gulia e Wiemer (2010), viene confermata prima su scala globale e poi su scala euro-mediterranea, a partire dai dati dei principali dataset di tensori momento delle aree in esame, il Global Centroid Moment Tensor (GCMT) ed il Regional Centroid Moment Tensor (RCMT). La parte innovativa della tesi consiste invece nell’incrocio di tali dataset con un database globale di terremoti, l’International Seismological Center (ISC), con magnitudo momento omogenea rivalutata in accordo con Lolli et al. (2014), per il calcolo del b-value. Il campo di deformazione sismica viene ottenuto attraverso il metodo della somma dei tensori momento sismico secondo Kostrov (1974) su pixelizzazioni a celle quadrate o esagonali. All’interno di ciascuna cella, le componenti del tensore di ciascun terremoto vengono sommate tra loro e dal tensore somma vengono estratte le direzioni dei piani principali della migliore doppia coppia. Il sub-catalogo sismico per il calcolo del b-value, ottenuto come scomposizione di quello globale ISC, viene invece ricavato per ogni cluster di celle comprese all'interno di un opportuno range di rake, le quali condividono un medesimo stile tettonico (normale, inverso o trascorrente). La magnitudo di completezza viene valutata attraverso i metodi di massima verosimiglianza [Bender, 1983] ed EMR [Woessner e Wiemer 2005]. La retta di interpolazione per il calcolo del b-value viene costruita quindi secondo il metodo di massima verosimiglianza [Bender, 1983] [Aki 1965]. L’implementazione nel linguaggio del software Matlab® degli algoritmi di pixelizzazione e di costruzione dei tensori somma, l’utilizzo di funzioni di calcolo dal pacchetto Zmap [Wiemer e Wyss, 2001], unite al lavoro di traduzione di alcune routines [Gasperini e Vannucci (2003)] dal linguaggio del FORTRAN77, hanno costituito la parte preliminare al lavoro. La tesi è strutturata in 4 capitoli.Nel primo capitolo si introducono le nozioni teoriche di base riguardanti i meccanismi focali e la distribuzione magnitudo-frequenza, mentre nel secondo capitolo l’attenzione viene posta ai dati sismici dei database utilizzati. Il terzo capitolo riguarda le procedure di elaborazione dati sviluppate nella tesi. Nel quarto ed ultimo capitolo infine si espongono e si discutono i risultati sperimentali ottenuti, assieme alle conclusioni finali.
Resumo:
Progettazione e sviluppo di un e-commerce di articoli sacri utilizzando Magento come framework. Introduzione agli strumenti e tecniche di creazione per un catalogo.
Resumo:
La TC perfusionale (TCp) è un valido strumento per l'imaging funzionale dei tumori. Tale tecnica consente di misurare in modo oggettivo la perfusione tissutale, attraverso l'analisi matematica dei dati ottenuti effettuando scansioni TC ripetute nel tempo, dopo la somministrazione di un mezzo di contrasto iodato. Il principale obiettivo degli studi perfusionali in oncologia è la valutazione precoce dell’efficacia delle terapie anti-angiogenetiche utilizzate per bloccare la vascolarizzazione che alimenta le lesioni tumorali. Infatti, sin dal primo ciclo di terapie, è possibile rilevare se la vascolarizzazione tumorale si riduce, senza dover attendere i cambiamenti dimensionali che, in genere, avvengono tardivamente. Questa Tesi si focalizza sullo studio del carcinoma polmonare e perviene alla costruzione di un catalogo, completo di mappe colorimetriche, che sintetizza i casi analizzati, i dati relativi al paziente e alle lesioni. L'obiettivo è quindi quello di fornire uno strumento di facile consultazione che consenta di valutare vari aspetti relativi alla malattia, tra cui il tasso di accrescimento, il grado di malignità, presenza di invasione vascolare, al fine di andare sempre più verso una cura personalizzata e più efficace per i pazienti che, attualmente, sono sottoposti a soluzione terapeutica standard. Questa è, senza dubbio, la nuova frontiera della ricerca per tutte i tipi di neoplasie negli anni futuri.
Resumo:
L'accurata determinazione dei parametri che costituiscono un modello cosmologico è fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densità della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che un’errata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densità dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si è potuto osservare come l’efficienza del metodo dipenda dalla densità d’oggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dall’ampiezza dell’effetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora l’identificazione del corretto valore del parametro di densità. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dell’intervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si è osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente l’efficacia del metodo.