881 resultados para Estrazione informazioni, analisi dati non strutturati, Web semantico, data mining, text mining, big data, open data, classificazione di testi.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le conoscenze relative al controllo ormonale del metabolismo epatico dei pesci sono ancora piuttosto limitate e per molti anni sono state controverse. Per lungo tempo si è ritenuto che le catecolamine, adrenalina e noradrenalina, agissero nel fegato dei pesci soltanto attraverso i recettori adrenergici di tipo β. Quindi l’assetto recettoriale dei mammiferi, che comprende recettori α e β, era considerato frutto di un processo evolutivo che non aveva ancora avuto luogo nei pesci. Successivamente, nel fegato di vari teleostei è stata dimostrata la presenza di recettori sia α che β. Tuttavia il ruolo fisiologico dei due tipi di recettori non è ancora chiaro. Per esempio, in acciughe e sgombri non è stato fatto alcuno studio sulla risposta alle catecolamine ottenuta attraverso i recettori α e β, nel fegato di trota i recettori α non sono accoppiati alla cascata fisiologica che porta al rilascio di glucosio, e in anguilla e pesce gatto l’azione delle catecolamine attraverso recettori β è predominante rispetto a quella attraverso recettori α. L’utilizzo di ligandi farmacologici non ha portato a chiarimenti significativi, perché la loro specificità per i recettori di mammifero non trova sempre riscontro nei pesci. In questo studio, quindi, abbiamo studiato l’espressione dei geni codificanti per i recettori α e β adrenergici attraverso la tecnica della PCR real time, ottenendo i primi dati in letteratura per quanto riguarda la loro quantificazione assoluta. L’organismo modello utilizzato è stata l’anguilla, teleosteo caratterizzato da un ciclo biologico molto particolare in cui si distinguono nettamente una fase gialla ed una argentina. Le anguille argentine non sono mai state studiate a tale proposito, e date le estreme differenze nella disponibilità e nell’uso delle risorse energetiche in questi due stadi di crescita, il presente studio ha mirato a valutare la differente sensibilità alle catecolamine da parte degli epatociti isolati da anguille gialle ed argentine. I nostri dati hanno confermato quanto solo ipotizzato nei vari studi pubblicati negli ultimi due decenni, ma mai avvalorato da risultati sperimentali, cioè che i recettori α e β sono contemporaneamente espressi negli epatociti dell’anguilla, sia gialla che argentina, e la proporzione tra loro giustifica il ruolo significativamente maggiore giocato dai recettori β. Nelle anguille argentine infatti, come nelle gialle, l’effetto dell’adrenalina sul rilascio di glucosio ottenuto attraverso recettori β è chiaramente predominante. Inoltre, i nostri dati indicano che in due diverse fasi del ciclo vitale dell’anguilla, così come si osserva nell’ontogenesi dei mammiferi, i recettori adrenergici sono espressi in quantità differente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi affronta lo studio di una tipologia di vibrazione autoeccitata, nota come chatter, che si manifesta nei processi di lavorazione ad asportazione di truciolo ed in particolare nelle lavorazioni di fresatura. La tesi discute inoltre lo sviluppo di una tecnica di monitoraggio e diagnostica del chatter basato sul rilievo di vibrazioni. Il fenomeno del chatter è caratterizzato da violente oscillazioni tra utensile e pezzo in lavorazione ed elevate emissioni acustiche. Il chatter, se non controllato, causa uno scadimento qualitativo della finitura superficiale e delle tolleranze dimensionali del lavorato, una riduzione della vita degli utensili e dei componenti della macchina. Questa vibrazione affligge negativamente la produttività e la qualità del processo di lavorazione e pregiudica l’interazione uomo-macchina-ambiente. Per una data combinazione di macchina, utensile e pezzo lavorato, i fattori che controllano la velocità di asportazione del materiale sono gli stessi che controllano l’insorgenza del chatter: la velocità di rotazione del mandrino, la profondità assiale di passata e la velocità di avanzamento dell’utensile. Per studiare il fenomeno di chatter, con l’obbiettivo di individuare possibili soluzioni per limitarne o controllarne l’insorgenza, vengono proposti in questa tesi alcuni modelli del processo di fresatura. Tali modelli comprendono il modello viscoelastico della macchina fresatrice e il modello delle azioni di taglio. Per le azioni di taglio è stato utilizzato un modello presente in letteratura, mentre per la macchina fresatrice sono stati utilizzato modelli a parametri concentrati e modelli modali analitico-sperimentali. Questi ultimi sono stati ottenuti accoppiando un modello modale sperimentale del telaio, completo di mandrino, della macchina fresatrice con un modello analitico, basato sulla teoria delle travi, dell’utensile. Le equazioni del moto, associate al processo di fresatura, risultano essere equazioni differenziali con ritardo a coefficienti periodici o PDDE (Periodic Delay Diefferential Equations). È stata implementata una procedura numerica per mappare, nello spazio dei parametri di taglio, la stabilità e le caratteristiche spettrali (frequenze caratteristiche della vibrazione di chatter) delle equazioni del moto associate ai modelli del processo di fresatura proposti. Per testare i modelli e le procedure numeriche proposte, una macchina fresatrice CNC 4 assi, di proprietà del Dipartimento di Ingegneria delle Costruzioni Meccaniche Nucleari e Metallurgiche (DIEM) dell’Università di Bologna, è stata strumentata con accelerometri, con una tavola dinamometrica per la misura delle forze di taglio e con un adeguato sistema di acquisizione. Eseguendo varie prove di lavorazione sono stati identificati i coefficienti di pressione di taglio contenuti nel modello delle forze di taglio. Sono stati condotti, a macchina ferma, rilievi di FRFs (Funzioni Risposta in Frequenza) per identificare, tramite tecniche di analisi modale sperimentale, i modelli del solo telaio e della macchina fresatrice completa di utensile. I segnali acquisiti durante le numerose prove di lavorazione eseguite, al variare dei parametri di taglio, sono stati analizzati per valutare la stabilità di ciascun punto di lavoro e le caratteristiche spettrali della vibrazione associata. Questi risultati sono stati confrontati con quelli ottenuti applicando la procedura numerica proposta ai diversi modelli di macchina fresatrice implementati. Sono state individuate le criticità della procedura di modellazione delle macchine fresatrici a parametri concentrati, proposta in letteratura, che portano a previsioni erronee sulla stabilità delle lavorazioni. È stato mostrato come tali criticità vengano solo in parte superate con l’utilizzo dei modelli modali analitico-sperimentali proposti. Sulla base dei risultati ottenuti, è stato proposto un sistema automatico, basato su misure accelerometriche, per diagnosticare, in tempo reale, l’insorgenza del chatter durante una lavorazione. È stato realizzato un prototipo di tale sistema di diagnostica il cui funzionamento è stato provato mediante prove di lavorazione eseguite su due diverse macchine fresatrici CNC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nel Progetto “Monitoraggio dei sedimenti del litorale” dell’ARPA-Agenzia Regionale Prevenzione e Ambiente, e ne prende in considerazione parte dei risultati. Il progetto è nato con l’obiettivo di fornire una caratterizzazione dei sedimenti della costa emiliano-romagnola sommersa. Nello specifico questa tesi ha riguardato l’apprendimento e l’esecuzione delle analisi ecotossicologiche dei sedimenti compiute su due specie, l’Ampelisca diadema (Costa, 1853) e il Paracentrotus lividus (Lamarck, 1816), allo scopo di determinare lo stato di contaminazione dei sedimenti considerati e classificarli secondo classi di giudizio di tossicità predefinite. A tali test ecotossicologici sono stati sottoposti campioni di sedimenti campionati nel 2010 in 104 siti e 4 diverse batimetrie posti lungo tutto il litorale emiliano-romagnolo. I risultati ottenuti nell’ambito dei due test ecotossicologici sono stati analizzati separatamente e confrontati con dati riguardanti la batimetria e le caratteristiche chimico-fisiche dei sedimenti raccolti (granulometria, contenuto di contaminanti) al fine di poter spiegare il ruolo delle componenti abiotiche nella definizione della tossicità. A tale scopo sono state eseguite delle analisi univariate e multivariate (PCA) dei dati. In seguito si sono stati comparati i risultati ottenuti nei due test. Il presente lavoro ha permesso di avere un quadro preliminare dello stato di contaminazione dei sedimenti della costa sommersa dell’Emilia-Romagna

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The vertical profile of aerosol in the planetary boundary layer of the Milan urban area is studied in terms of its development and chemical composition in a high-resolution modelling framework. The period of study spans a week in summer of 2007 (12-18 July), when continuous LIDAR measurements and a limited set of balloon profiles were collected in the frame of the ASI/QUITSAT project. LIDAR observations show a diurnal development of an aerosol plume that lifts early morning surface emissions to the top of the boundary layer, reaching maximum concentration around midday. Mountain breeze from Alps clean the bottom of the aerosol layer, typically leaving a residual layer at around 1500-2000 m which may survive for several days. During the last two days under analysis, a dust layer transported from Sahara reaches the upper layers of Milan area and affects the aerosol vertical distribution in the boundary layer. Simulation from the MM5/CHIMERE modelling system, carried out at 1 km horizontal resolution, qualitatively reproduced the general features of the Milan aerosol layer observed with LIDAR, including the rise and fall of the aersol plume, the residual layer in altitude and the Saharan dust event. The simulation highlighted the importance of nitrates and secondary organics in its composition. Several sensitivity tests showed that main driving factors leading to the dominance of nitrates in the plume are temperature and gas absorption process. A modelling study turn to the analysis of the vertical aerosol profiles distribution and knowledge of the characterization of the PM at a site near the city of Milan is performed using a model system composed by a meteorological model MM5 (V3-6), the mesoscale model from PSU/NCAR and a Chemical Transport Model (CTM) CHIMERE to simulate the vertical aerosol profile. LiDAR continuous observations and balloon profiles collected during two intensive campaigns in summer 2007 and in winter 2008 in the frame of the ASI/QUITSAT project have been used to perform comparisons in order to evaluate the ability of the aerosol chemistry transport model CHIMERE to simulate the aerosols dynamics and compositions in this area. The comparisons of model aerosols with measurements are carried out over a full time period between 12 July 2007 and 18 July 2007. The comparisons demonstrate the ability of the model to reproduce correctly the aerosol vertical distributions and their temporal variability. As detected by the LiDAR, the model during the period considered, predicts a diurnal development of a plume during the morning and a clearing during the afternoon, typically the plume reaches the top of the boundary layer around mid day, in this time CHIMERE produces highest concentrations in the upper levels as detected by LiDAR. The model, moreover can reproduce LiDAR observes enhancement aerosols concentrations above the boundary layer, attributing the phenomena to dust out intrusion. Another important information from the model analysis regard the composition , it predicts that a large part of the plume is composed by nitrate, in particular during 13 and 16 July 2007 , pointing to the model tendency to overestimates the nitrous component in the particular matter vertical structure . Sensitivity study carried out in this work show that there are a combination of different factor which determine the major nitrous composition of the “plume” observed and in particular humidity temperature and the absorption phenomena are the mainly candidate to explain the principal difference in composition simulated in the period object of this study , in particular , the CHIMERE model seems to be mostly sensitive to the absorption process.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'informatica musicale è una disciplina in continua crescita che sta ottenendo risultati davvero interessanti con l'impiego di sistemi artificiali intelligenti, come le reti neuronali, che permettono di emulare capacità umane di ascolto e di esecuzione musicale. Di particolare interesse è l'ambito della codifica di informazioni musicali tramite formati simbolici, come il MIDI, che permette un'analisi di alto livello dei brani musicali e consente la realizzazione di applicazioni sorprendentemente innovative. Una delle più fruttifere applicazioni di questi nuovi strumenti di codifica riguarda la classificazione di file audio musicali. Questo elaborato si propone di esporre i fondamentali aspetti teorici che concernono la classificazione di brani musicali tramite reti neuronali artificiali e descrivere alcuni esperimenti di classificazione di file MIDI. La prima parte fornisce alcune conoscenze di base che permettono di leggere gli esperimenti presenti nella seconda sezione con una consapevolezza teorica più profonda. Il fine principale della prima parte è quello di sviluppare una comparazione da diversi punti di vista disciplinari tra le capacità di classificazione musicale umane e quelle artificiali. Si descrivono le reti neuronali artificiali come sistemi intelligenti ispirati alla struttura delle reti neurali biologiche, soffermandosi in particolare sulla rete Feedforward e sull'algoritmo di Backpropagation. Si esplora il concetto di percezione nell'ambito della psicologia cognitiva con maggiore attenzione alla percezione uditiva. Accennate le basi della psicoacustica, si passa ad una descrizione delle componenti strutturali prima del suono e poi della musica: la frequenza e l'ampiezza delle onde, le note e il timbro, l'armonia, la melodia ed il ritmo. Si parla anche delle illusioni sonore e della rielaborazione delle informazioni audio da parte del cervello umano. Si descrive poi l'ambito che interessa questa tesi da vicino: il MIR (Music Information Retrieval). Si analizzano i campi disciplinari a cui questa ricerca può portare vantaggi, ossia quelli commerciali, in cui i database musicali svolgono ruoli importanti, e quelli più speculativi ed accademici che studiano i comportamenti di sistemi intelligenti artificiali e biologici. Si descrivono i diversi metodi di classificazione musicale catalogabili in base al tipo di formato dei file audio in questione e al tipo di feature che si vogliono estrarre dai file stessi. Conclude la prima sezione di stampo teorico un capitolo dedicato al MIDI che racconta la storia del protocollo e ne descrive le istruzioni fondamentali nonchè la struttura dei midifile. La seconda parte ha come obbiettivo quello di descrivere gli esperimenti svolti che classificano file MIDI tramite reti neuronali mostrando nel dettaglio i risultati ottenuti e le difficoltà incontrate. Si coniuga una presentazione dei programmi utilizzati e degli eseguibili di interfaccia implementati con una descrizione generale della procedura degli esperimenti. L'obbiettivo comune di tutte le prove è l'addestramento di una rete neurale in modo che raggiunga il più alto livello possibile di apprendimento circa il riconoscimento di uno dei due compositori dei brani che le sono stati forniti come esempi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mio elaborato, si propone di dimostrare come l'ambiente sia divenuto protagonista non solo per i governi di tutto il mondo, ma altresì per le aziende. Dopo un breve accenno alle conferenze mondiali sull'ambiente trattato nel primo capitolo, verrà approfondito il concetto di “Corporate Social Responsability”. Sempre più aziende infatti, decidono di integrare nelle proprie attività commerciali, l'attenzione per l'ambiente e per le tematiche sociali. Inoltre tale visione aziendale, comporta numerosi vantaggi in termini di ritorni economici e d'immagine. Il capitolo 3 si pone l'obiettivo di spiegare nel dettaglio le caratteristiche di un Sistema di Gestione Ambientale (SGA), e quali attività specifiche debbano essere intraprese al fine di implementarlo all'interno della gestione delle attività convenzionali di un'azienda. In particolare verrà fatto riferimento alla normativa europea e internazionale per comprendere quali attività debbano essere poste in essere al fine di ottenere la certificazione del proprio SGA. Risulta comprensibile come non solo le attività aziendali debbano rispettare l'ambiente, ma anche l'organizzazione di un evento, sia esso una conferenza, una Festa aziendale, un concerto o un evento sportivo. Nel capitolo 4 vengono esposte alcune metodologie di supporto per l'implementazione di un evento sostenibile, che hanno l'obiettivo di ridurre gli impatti ambientali dell'evento stesso. Visto il crescente interesse dell'opinione pubblica su questo tema, proprio di recente è stata emanata la norma BS 8901 a supporto dell'organizzazione di eventi sostenibili ed è in procinto di uscire in concomitanza delle Olimpiadi di Londra 2012, l'analoga norma ISO 20121 che ha valenza internazionale. L'obiettivo del mio elaborato è stato quello di creare un SGA a supporto dell'organizzazione della “Festa di villa Terracini” che si svolge a Sala Bolognese (BO) ed ha una durata di 18 giorni. In particolare, verranno prima evidenziati gli impatti ambientali che la Festa ha prodotto durante la scorsa edizione, tramite la conduzione della così detta Analisi Ambientale Iniziale, e successivamente verranno esplicitate le azioni che dovranno essere messe in atto al fine di ridurre gli impatti ambientali. Questo caso studio evidenzierà da un lato, gli ingenti impatti ambientali prodotti dalla realizzazione della Festa, ma dall'altro permetterà di comprendere come l'implementazione di un SGA porti a notevoli miglioramenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analisi istologica riveste un ruolo fondamentale per la pianificazione di eventuali terapie mediche o chirurgiche, fornendo diagnosi sulla base dell’analisi di tessuti, o cellule, prelevati con biopsie o durante operazioni. Se fino ad alcuni anni fa l’analisi veniva fatta direttamente al microscopio, la sempre maggiore diffusione di fotocamere digitali accoppiate consente di operare anche su immagini digitali. Il presente lavoro di tesi ha riguardato lo studio e l’implementazione di un opportuno metodo di segmentazione automatica di immagini istopatologiche, avendo come riferimento esclusivamente ciò che viene visivamente percepito dall’operatore. L’obiettivo è stato quello di costituire uno strumento software semplice da utilizzare ed in grado di assistere l’istopatologo nell’identificazione di regioni percettivamente simili, presenti all’interno dell’immagine istologica, al fine di considerarle per una successiva analisi, oppure di escluderle. Il metodo sviluppato permette di analizzare una ampia varietà di immagini istologiche e di classificarne le regioni esclusivamente in base alla percezione visiva e senza sfruttare alcuna conoscenza a priori riguardante il tessuto biologico analizzato. Nella Tesi viene spiegato il procedimento logico seguito per la progettazione e la realizzazione dell’algoritmo, che ha portato all’adozione dello spazio colore Lab come dominio su cu cui calcolare gli istogrammi. Inoltre, si descrive come un metodo di classificazione non supervisionata utilizzi questi istogrammi per pervenire alla segmentazione delle immagini in classi corrispondenti alla percezione visiva dell’utente. Al fine di valutare l’efficacia dell’algoritmo è stato messo a punto un protocollo ed un sistema di validazione, che ha coinvolto 7 utenti, basato su un data set di 39 immagini, che comprendono una ampia varietà di tessuti biologici acquisiti da diversi dispositivi e a diversi ingrandimenti. Gli esperimenti confermano l’efficacia dell’algoritmo nella maggior parte dei casi, mettendo altresì in evidenza quelle tipologie di immagini in cui le prestazioni risultano non pienamente soddisfacenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ha mostrato come il pensiero politico di Montesquieu possa costituire un utile riferimento teorico per affrontare il problema della ricontestualizzazione dello studio delle relazioni internazionali. La prima parte del lavoro evidenzia alcuni aspetti del metodo di ricerca e del pensiero politico di Montesquieu. Nel primo capitolo, è stato identificato un metodo di ricerca ed un approccio sociologico nello studio della politica, che rappresenta un precedente rispetto alla fondazione di una scienza politica che si propone di identificare nessi causali tra i fenomeni politici. In particolare, si deve riconoscere a Montesquieu il merito di aver introdotto un tipo di analisi della politica che consideri l’interazione di più fattori tra loro. La complessità del reale può essere spiegata soltanto identificando i rapporti che si formano tra gli elementi della realtà. Quindi è possibile porre dei principi in grado di produrre un ordine conoscibile ed interpretabile di tutti questi elementi. Nel secondo capitolo è stata presentata un’analisi delle tipologie delle forme di governo e del concetto di libertà politica. Questo capitolo ha evidenziato solo alcuni aspetti del pensiero politico di Montesquieu utili alla comprensione del pensiero politico internazionale. In particolare, è stata analizzata la struttura e il ressort di ogni forma di governo sottolineando gli aspetti di corruzione e i relativi processi di mutamento. La seconda parte del lavoro ha affrontato l’analisi di un pensiero politico internazionale ed ha evidenziato la rilevanza di una riflessione geopolitica. Nel terzo capitolo abbiamo mostrato l’emersione di una riflessione su alcuni argomenti di relazioni internazionali, quali il problema della guerra e della pace, il diritto internazionale e l’interdipendenza economica, legandoli alle forme di governo. Quindi sono stati identificati ed analizzati tre modelli di sistema internazionale sottolineando in particolare il nesso con il concetto di società internazionale. Tra questi modelli di sistema internazionale, quello che presenta le caratteristiche più singolari, è certamente il sistema della federazione di repubbliche. Infine, nell’ultimo capitolo, abbiamo evidenziato l’importanza della rappresentazione spaziale del mondo di Montesquieu e l’uso di categorie concettuali e metodi di analisi della geopolitica. In particolare, è stata rilevata l’importanza dell’aspetto dimensionale per la comprensione delle dinamiche di ascesa e declino delle forme di Stato e delle forme di governo. Si è mostrato come non sia possibile ascrivere il pensiero di Montesquieu nella categoria del determinismo geografico o climatico. Al contrario, abbiamo evidenziato come tale pensiero possa essere considerato un precedente di una corrente di pensiero della geopolitica francese definita “possibilismo”. Secondo questa teoria i fattori ambientali, più che esercitare un’azione diretta sul comportamento dell’uomo, agiscono selezionando il campo delle scelte possibili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il trascorrere del tempo, le reti di stazioni permanenti GNSS (Global Navigation Satellite System) divengono sempre più un valido supporto alle tecniche di rilevamento satellitare. Esse sono al tempo stesso un’efficace materializzazione del sistema di riferimento e un utile ausilio ad applicazioni di rilevamento topografico e di monitoraggio per il controllo di deformazioni. Alle ormai classiche applicazioni statiche in post-processamento, si affiancano le misure in tempo reale sempre più utilizzate e richieste dall’utenza professionale. In tutti i casi risulta molto importante la determinazione di coordinate precise per le stazioni permanenti, al punto che si è deciso di effettuarla tramite differenti ambienti di calcolo. Sono stati confrontati il Bernese, il Gamit (che condividono l’approccio differenziato) e il Gipsy (che utilizza l’approccio indifferenziato). L’uso di tre software ha reso indispensabile l’individuazione di una strategia di calcolo comune in grado di garantire che, i dati ancillari e i parametri fisici adottati, non costituiscano fonte di diversificazione tra le soluzioni ottenute. L’analisi di reti di dimensioni nazionali oppure di reti locali per lunghi intervalli di tempo, comporta il processamento di migliaia se non decine di migliaia di file; a ciò si aggiunge che, talora a causa di banali errori, oppure al fine di elaborare test scientifici, spesso risulta necessario reiterare le elaborazioni. Molte risorse sono quindi state investite nella messa a punto di procedure automatiche finalizzate, da un lato alla preparazione degli archivi e dall’altro all’analisi dei risultati e al loro confronto qualora si sia in possesso di più soluzioni. Dette procedure sono state sviluppate elaborando i dataset più significativi messi a disposizione del DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - Università di Bologna). E’ stato così possibile, al tempo stesso, calcolare la posizione delle stazioni permanenti di alcune importanti reti locali e nazionali e confrontare taluni fra i più importanti codici scientifici che assolvono a tale funzione. Per quanto attiene il confronto fra i diversi software si è verificato che: • le soluzioni ottenute dal Bernese e da Gamit (i due software differenziati) sono sempre in perfetto accordo; • le soluzioni Gipsy (che utilizza il metodo indifferenziato) risultano, quasi sempre, leggermente più disperse rispetto a quelle degli altri software e mostrano talvolta delle apprezzabili differenze numeriche rispetto alle altre soluzioni, soprattutto per quanto attiene la coordinata Est; le differenze sono però contenute in pochi millimetri e le rette che descrivono i trend sono comunque praticamente parallele a quelle degli altri due codici; • il citato bias in Est tra Gipsy e le soluzioni differenziate, è più evidente in presenza di determinate combinazioni Antenna/Radome e sembra essere legato all’uso delle calibrazioni assolute da parte dei diversi software. E’ necessario altresì considerare che Gipsy è sensibilmente più veloce dei codici differenziati e soprattutto che, con la procedura indifferenziata, il file di ciascuna stazione di ciascun giorno, viene elaborato indipendentemente dagli altri, con evidente maggior elasticità di gestione: se si individua un errore strumentale su di una singola stazione o se si decide di aggiungere o togliere una stazione dalla rete, non risulta necessario il ricalcolo dell’intera rete. Insieme alle altre reti è stato possibile analizzare la Rete Dinamica Nazionale (RDN), non solo i 28 giorni che hanno dato luogo alla sua prima definizione, bensì anche ulteriori quattro intervalli temporali di 28 giorni, intercalati di sei mesi e che coprono quindi un intervallo temporale complessivo pari a due anni. Si è così potuto verificare che la RDN può essere utilizzata per l’inserimento in ITRF05 (International Terrestrial Reference Frame) di una qualsiasi rete regionale italiana nonostante l’intervallo temporale ancora limitato. Da un lato sono state stimate le velocità ITRF (puramente indicative e non ufficiali) delle stazioni RDN e, dall’altro, è stata effettuata una prova di inquadramento di una rete regionale in ITRF, tramite RDN, e si è verificato che non si hanno differenze apprezzabili rispetto all’inquadramento in ITRF, tramite un congruo numero di stazioni IGS/EUREF (International GNSS Service / European REference Frame, SubCommission for Europe dello International Association of Geodesy).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mio lavoro di Tesi prende in considerazione la possibilità di riportare alla vita un antico luogo che ha smarrito il suo senso nella città contemporanea. Si tratta dell’area della vasca dello Hauz-i-Shamsi,suggestiva per il legame forte con l’elemento acqua. Il tema progettuale è quello di mantenere questa zona come fonte attrattiva turistica poiché sede del Museo della città di Delhi, riconnettendolo con le altre aree di interesse e con i villaggi circostanti, diventando insieme al parco archeologico di Mehrauli un grande luogo socio culturale della collettività. Risulta evidente di conseguenza, che l'architettura dell'edificio collettivo, o più semplicemente edificio pubblico, si lega indissolubilmente alla vita civile e al suo sviluppo. In tal senso l'analisi storica è il primo momento di un lavoro che tende a definirsi nell'ambito più propriamente disciplinare, progettuale, attraverso l'analisi del ruolo urbano di tali edifici. Per questo motivo i capitoli sono così suddivisi: nel primo si riportano brevi cenni sulla storia dell’India, per poi concentrarsi sulla storia delle evoluzioni urbane di Delhi fino ad arrivare alla progettazione nel XX secolo di Nuova Delhi, esempio di città di fondazione. Nel secondo capitolo si riporta un’analisi dell’area di Mehrauli con un breve elenco dei principali monumenti, fondamentali per capire l’importanza del Parco archeologico, luogo indicato come Patrimonio dell’UNESCO. Ritengo che il viaggio in India sia per un architetto un’esperienza travolgente: non a caso questa tappa ha segnato profondamente le opere e il lavoro di due maestri quali Louis I. Kahn e Le Corbusier. Ho dedicato, infatti, il terzo capitolo ad alcune considerazioni su quest’argomento. Il quarto capitolo vuole essere un’analisi delle principali architetture indiane quali padiglioni, moschee, templi sacri. Nella cultura indiana l’architettura è legata alle religioni del paese e credo che si possano capire le architetture solo dopo aver compreso la complessità del panorama religioso. Si sono analizzati anche i principi compositivi in particolare il ruolo delle geometrie sia nelle architetture tipiche, sia nella pianificazione delle città di fondazione. Il quinto capitolo è un approfondimento sul rapporto architettura-acqua. Prima con brevi cenni e foto suggestive sul rapporto nella storia dell’architettura, poi con spiegazioni sul ruolo sacro dell’acqua in India. Il sesto capitolo, infine, è un approfondimento sul progetto del Museo della città di Delhi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mio percorso universitario presso la Facoltà di Architettura di Cesena ha inizio nell’anno accademico 2006-2007. Il titolo della tesi “Conoscere per conservare3, conservare per conoscere” sintetizza l’importanza di offrire una spiegazione della tematica della conoscenza e della sua necessità, la quale risulta essere indispensabile per ottenere un buon progetto di restauro. Progettare un edificio senza conoscerlo appare una scelta ingiustificabile, è tuttavia necessario che la raccolta di dati analitici non sia fine a se stessa e solo finalizzata a donare una facciata di rispettabilità all’architetto e alle sue operazioni progettuali. A partire da questa riflessione si arriva inevitabilmente a parlare di “ricerca della metodologia del restauro” e delle tecniche con il quale questo deve venire affrontato in termini di “piccolo restauro” (ossia restauro delle superfici). Nonostante infatti ogni cantiere di restauro abbia una sua particolare storia è comunque necessario un metodo chiaro e ordinato, di procedure collaudate e di tecniche ben sperimentate. Alla luce di tali osservazioni i temi di seguito proposti sono occasione di una riflessione nel contempo teorica e pratica, con particolare riferimento al restauro e alla conservazione delle superfici; gli edifici scelti appartengono a temi molto differenti l’uno dell’altro e per entrambi verrà proposta una ipotesi di conservazione e restauro delle superfici. Il primo, Palazzo Guidi, è un palazzo settecentesco sito all’interno del centro storico della città di Cesena; il secondo, la Rocca Malatestiana, costruita a partire dal 1100 dalla famiglia dei Malatesta trova la sua ubicazione in cima a una roccia nella alta Valmarecchia. Il progetto per la conservazione ed il restauro di Palazzo Guidi risulta essere la sintesi degli apprendimenti ricevuti nei precedenti anni accademici in due diverse discipline quali: “Rilievo architettonico” e “Laboratorio di restauro architettonico”. Per quanto concerne la Rocca Malatestiana il tema proposto nasce invece a partire dal progetto del “LSF. Archeologia e progetto di architettura” il quale è stato maggiormente approfondito riguardo le tematiche del restauro con la collaborazione del Prof. Arch. Andrea Ugolini e con l’ausilio del corso di “Conservazione e trattamento dei materiali” seguito presso la Facoltà di Conservazione dei Beni Culturali di Ravenna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Tomografia Computerizzata (TC) perfusionale rappresenta attualmente una importante tecnica di imaging radiologico in grado di fornire indicatori funzionali di natura emodinamica relativi alla vascolarizzazione dei tessuti investigati. Le moderne macchine TC consentono di effettuare analisi funzionali ad una elevata risoluzione spaziale e temporale, provvedendo ad una caratterizzazione più accurata di zone di interesse clinico attraverso l’analisi dinamica della concentrazione di un mezzo di contrasto, con dosi contenute per il paziente. Tale tecnica permette potenzialmente di effettuare una valutazione precoce dell’efficacia di trattamenti antitumorali, prima ancora che vengano osservate variazioni morfologiche delle masse tumorali, con evidenti benefici prognostici. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, al fine di una validazione accurata e consistente degli indicatori funzionali nella pratica clinica. Differenti modelli matematici sono proposti in letteratura al fine di determinare parametri di interesse funzionale a partire dall’analisi del profilo dinamico del mezzo di contrasto in differenti tessuti. Questa tesi si propone di studiare, attraverso l’analisi e l’elaborazione di sequenze di immagini derivanti da TC assiale perfusionale, due importanti modelli matematici di stima della perfusione. In particolare, vengono presentati ed analizzati il modello del massimo gradiente ed il modello deconvoluzionale, evidenziandone tramite opportune simulazioni le particolarità e le criticità con riferimento agli artefatti più importanti che influenzano il protocollo perfusionale. Inoltre, i risultati ottenuti dall’analisi di casi reali riguardanti esami perfusionali epatici e polmonari sono discussi al fine di valutare la consistenza delle misure quantitative ottenute tramite i due metodi con le considerazioni di natura clinica proposte dal radiologo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pharmacogenetic testing provides an outstanding opportunity to improve prescribing safety and efficacy. In Public health policy pharmacogenetics is relevant for personalized therapy and to maximize therapeutic benefit minimizing adverse events. CYP2D6 is known to be a key enzyme responsible for the biotransformation of about 25-30% of extensively used drugs and genetic variations in genes coding for drug-metabolizing enzymes might lead to adverse drug reactions, toxicity or therapeutic failure of pharmacotherapy. Significant interethnic differences in CYP2D6 allele distribution are well established, but immigration is reshaping the genetic background due to interethnic admixture which introduces variations in individual ancestry resulting in distinct level of population structure. The present thesis deals with the genetic determination of the CYP2D6 alleles actually present in the Emilia-Romagna resident population providing insights into the admixture process. A random sample of 122 natives and 175 immigrants from Africa, Asia and South America where characterized considering the present scenario of migration and back migration events. The results are consistent with the known interethnic genetic variation, but introduction of ethnic specific variants by immigrants predicts a heterogeneous admixed population scenario requiring, for drugs prescription and pharmacogenetics studies, an interdisciplinary approach applied in a properly biogeographical and anthropological frame. To translate pharmacogenetics knowledge into clinical practice requires appropriated public health policies, possibly guiding clinicians to evaluate prospectively which patients have the greatest probability of expressing a variant genotype.