935 resultados para Superfici minime, porzione regolare di superfici, area minima, problema variazionale.
Resumo:
Lo scopo di questa tesi di dottorato è la comparazione di metodi per redarre mappe della vulnerabilità degli acquiferi all’inquinamento. Sono state redatte le mappe di vulnerabilità dell’acquifero della conoide del Reno utilizzando i metodi parametrici SINTACS (Civita e De Maio, 1997) e DRASTIC (Aller et al., 1987). E' stato elaborato un modello tridimensionale del flusso tramite l'utilizzo del software di modellistica numerica FEFLOW. I risultati ottenuti sono stati confrontati con le mappe derivanti dall'appllicazione dei PCSM. E’ stato, inoltre, approfondito lo sviluppo di un modello inverso, che, partendo dalla distruzione del carico piezometrico, fornisce la distribuzione della conducibilità idraulica dell’acquifero.La conoscenza di questo parametro è, infatti, il punto di partenza per lo sviluppo di un nuovo metodo per la definizione della vulnerabilità basato sulla caratterizzazione dell'area di acquifero potenzialmente inquinabile rispetto ad uno sversamento in superficie di un inquinante.L’indice di vulnerabilità viene definito sulla lunghezza del cammino che un inquinante percorrere nell’arco di un anno.
Resumo:
The Thrace Basin is the largest and thickest Tertiary sedimentary basin of the eastern Balkans region and constitutes an important hydrocarbon province. It is located between the Rhodope-Strandja Massif to the north and west, the Marmara Sea and Biga Peninsula to the south, and the Black Sea to the est. It consists of a complex system of depocenters and uplifts with very articulate paleotopography indicated by abrupt lateral facies variations. Its southeastern margin is widely deformed by the Ganos Fault, a segment of the North Anatolian strike-slip fault system . Most of the Thrace Basin fill ranges from the Eocene to the Late Oligocene. Maximum total thickness, including the Neogene-Quaternary succession, reaches 9.000 meters in a few narrow depocenters. This sedimentary succession consists mainly of basin plain turbiditic deposits with a significant volcaniclastic component which evolves upwards to shelf deposits and continental facies, with deltaic bodies prograding towards the basin center in the Oligocene. This work deals with the provenance of Eocene-Oligocene clastic sediments of the southern and western part of Thrace Basin in Turkey and Greece. Sandstone compositional data (78 gross composition analyses and 40 heavy minerals analyses) were used to understand the change in detrital modes which reflects the provenance and geodinamic evolution of the basin. Samples were collected at six localities, which are from west to est: Gökçeada, Gallipoli and South-Ganos (south of Ganos Fault), Alexandroupolis, Korudağ and North-Ganos (north of Ganos Fault). Petrologic (framework composition and heavy-mineral analyses) and stratigraphic-sedimentologic data, (analysis of sedimentologic facies associations along representative stratigraphic sections, paleocurrents) allowed discrimination of six petrofacies; for each petrofacies the sediment dispersal system was delineated. The Thrace Basin fill is made mainly of lithic arkoses and arkosic litharenites with variable amount of low-grade metamorphic lithics (also ophiolitic), neovolcanic lithics, and carbonate grains (mainly extrabasinal). Picotite is the most widespread heavy mineral in all petrofacies. Petrological data on analyzed successions show a complex sediment dispersal pattern and evolution of the basin, indicating one principal detrital input from a source area located to the south, along both the İzmir-Ankara and Intra-Pontide suture lines, and a possible secondary source area, represented by the Rhodope Massif to the west. A significant portion of the Thrace Basin sediments in the study area were derived from ophiolitic source rocks and from their oceanic cover, whereas epimetamorphic detrital components came from a low-grade crystalline basement. An important penecontemporaneous volcanic component is widespread in late Eocene-Oligocene times, indicating widespread post-collisional (collapse?) volcanism following the closure of the Vardar ocean. Large-scale sediment mass wasting from south to north along the southern margin of the Thrace Basin is indicated (i) in late Eocene time by large olistoliths of ophiolites and penecontemporaneous carbonates, and (ii) in the mid-Oligocene by large volcaniclastic olistoliths. The late Oligocene paleogeographic scenario was characterized by large deltaic bodies prograding northward (Osmancik Formation). This clearly indicates that the southern margin of the basin acted as a major sediment source area throughout its Eocene-Oligocene history. Another major sediment source area is represented by the Rhodope Massif, in particolar the Circum-Rhodopic belt, especially for plutonic and metamorphic rocks. Considering preexisting data on the petrologic composition of Thrace Basin, silicilastic sediments in Greece and Bulgaria (Caracciolo, 2009), a Rhodopian provenance could be considered mostly for areas of the Thrace Basin outside our study area, particularly in the northern-central portions of the basin. In summary, the most important source area for the sediment of Thrace Basin in the study area was represented by the exhumed subduction-accretion complex along the southern margin of the basin (Biga Peninsula and western-central Marmara Sea region). Most measured paleocurrent indicators show an eastward paleoflow but this is most likely the result of gravity flow deflection. This is possible considered a strong control due to the east-west-trending synsedimentary transcurrent faults which cuts the Thrace Basin, generating a series of depocenters and uplifts which deeply influenced sediment dispersal and the areal distribution of paleoenvironments. The Thrace Basin was long interpreted as a forearc basin between a magmatic arc to the north and a subduction-accretion complex to the south, developed in a context of northward subduction. This interpretation was challenged by more recent data emphasizing the lack of a coeval magmatic arc in the north and the interpretation of the chaotic deposit which outcrop south of Ganos Fault as olistoliths and large submarine slumps, derived from the erosion and sedimentary reworking of an older mélange unit located to the south (not as tectonic mélange formed in an accretionary prism). The present study corroborates instead the hypothesis of a post-collisional origin of the Thrace Basin, due to a phase of orogenic collapse, which generated a series of mid-Eocene depocenters all along the İzmir-Ankara suture (following closure of the Vardar-İzmir-Ankara ocean and the ensuing collision); then the slab roll-back of the remnant Pindos ocean played an important role in enhancing subsidence and creating additional accommodation space for sediment deposition.
Resumo:
Le celle a combustibile ad ossido solido (SOFC) sono reattori elettrochimici che convertono l’energia chimica di un gas combustibile direttamente in energia elettrica con un’alta efficienza e con basse emissioni. Il materiale più comunemente usato come anodo, il Ni/YSZ cermet, mostra però numerosi svantaggi nell’applicazione quali la suscettibilità all’avvelenamento da zolfo e la deposizione di coke per cracking degli idrocarburi usati come combustibile. E’ perciò necessario sviluppare materiali alternativi che sopperiscano a questi problemi. Il titanato di stronzio drogato con lantanio con stechiometria La0.4Sr0.4TiO3 (LST) è stato scelto come anodo alternativo per le ottime proprietà possedute. Lo scopo del lavoro di tesi è stato quindi lo studio dell’influenza della natura dei precursori, delle condizioni di sintesi e dell’aggiunta di agenti porizzanti necessari per l’ottenimento della fase perovskitica pura e con porosità controllata. In un primo tempo è stata verificata la possibilità di ottenere la fase La0.4Sr0.4TiO3 pura mediante sintesi allo stato solido, trattando termicamente miscele di precursori diversi. I risultati ottenuti hanno evidenziato che l’utilizzo di nitrati metallici porta a risultati migliori rispetto all’utilizzo di carbonati ed ossidi poiché permette la formazione della fase perovskite a temperature inferiori e con una purezza maggiore. Poiché l’analisi elementare sui materiali preparati in questa prima fase ha evidenziato un problema sulla stechiometria, il metodo di sintesi è stato ottimizzato solubilizzando preventivamente i precursori di lantanio e stronzio e determinandone il titolo mediante ICP. Inoltre, sono state effettuate delle sintesi utilizzando TiO2 a diversa area superficiale, per verificare l’effetto sulle fasi formate di una maggior reattività di questo componente. Per completezza la perovskite è stata sintetizzata anche tramite sintesi sol-gel, utilizzando il metodo Pechini, ottenendo a 700°C la fase pura. L’analisi morfologica ha evidenziato che le polveri con caratteristiche migliori per la formatura sono quelle ottenute tramite sintesi allo stato solido. Le pastiglie prodotte, miscelando tali polveri e agenti porizzanti opportuni, hanno evidenziato la stabilità della fase perovskitica voluta ma anche la necessità di ottimizzare l’aggiunta del porizzante per avere una porosità adeguata all’applicazione del sistema quale anodo SOFC.
Resumo:
Scopo di questa tesi di laurea sperimentale (LM) è stata la produzione di geopolimeri a base metacaolinitica con una porosità controllata. Le principali tematiche affrontate sono state: -la produzione di resine geopolimeriche, studiate per individuare le condizioni ottimali ed ottenere successivamente geopolimeri con un’ultra-macro-porosità indotta; -lo studio dell’effetto della quantità dell’acqua di reazione sulla micro- e meso-porosità intrinseche della struttura geopolimerica; -la realizzazione di schiume geopolimeriche, aggiungendo polvere di Si, e lo studio delle condizioni di foaming in situ; -la preparazione di schiume ceramiche a base di allumina, consolidate per via geopolimerica. Le principali proprietà dei campioni così ottenuti (porosità, area superficiale specifica, grado di geopolimerizzazione, comportamento termico, capacità di scambio ionico sia delle resine geopolimeriche che delle schiume, ecc.) sono state caratterizzate approfonditamente. Le principali evidenze sperimentali riscontrate sono: A)Effetto dell’acqua di reazione: la porosità intrinseca del geopolimero aumenta, sia come quantità che come dimensione, all’aumentare del contenuto di acqua. Un’eccessiva diluizione porta ad una minore formazione di nuclei con l’ottenimento di nano-precipitati di maggior dimensioni. Nelle schiume geopolimeriche, l’acqua gioca un ruolo fondamentale nell’espansione: deve essere presente un equilibrio ottimale tra la pressione esercitata dall’H2 e la resistenza opposta dalla parete del poro in formazione. B)Effetto dell’aggiunta di silicio metallico: un elevato contenuto di silicio influenza negativamente la reazione di geopolimerizzazione, in particolare quando associato a più elevate temperature di consolidamento (80°C), determinando una bassa geopolimerizzazione nei campioni. C)Effetto del grado di geopolimerizzazione e della micro- e macro-struttura: un basso grado di geopolimerizzazione diminuisce l’accessibilità della matrice geopolimerica determinata per scambio ionico e la porosità intrinseca determinata per desorbimento di N2. Il grado di geopolimerizzazione influenza anche le proprietà termiche: durante i test dilatometrici, se il campione non è completamente geopolimerizzato, si ha un’espansione che termina con la sinterizzazione e nell’intervallo tra i 400 e i 600 °C è presente un flesso, attribuibile alla transizione vetrosa del silicato di potassio non reagito. Le prove termiche evidenziano come la massima temperatura di utilizzo delle resine geopolimeriche sia di circa 800 °C.
Resumo:
Questo lavoro mi ha dato la possibilità di unire tre grandi passioni: l’architettura, la storia e il teatro. Tali elementi hanno caratterizzato nel passato, come nel presente, vicissitudini e cambiamenti della città di Pesaro, scenario nel quale si alternano l’architettura a carattere nazionale e quella locale, la storia d’Italia e quella della comunità cittadina, gli spettacoli teatrali di richiamo internazionale a quelli di filodrammatica e dialettali. Con le dovute eccezioni, i cittadini pesaresi della mia generazione poco o nulla sanno della storia della città e della sua evoluzione, perché sono nati e cresciuti in anni in cui questa è rimasta pressoché invariata nella sua struttura urbana e nelle caratteristiche morfologiche; unico elemento visibile del continuo evolversi della città è l’espansione dell’area abitata verso la periferia, la progressiva saturazione dello spazio tra l’espansione urbana del dopoguerra e le zone periferiche. La memoria storica riguardante modifiche importanti che la città ha subìto è, come spesso accade, riposta in chi ha vissuto quei cambiamenti, nonché in qualche giornalista o studioso locale che per lavoro o passione indaga quegli avvenimenti. Tralasciando le controversie meramente politiche, Pesaro ha vissuto in passato una stagione di forti dibattiti sulle vicende architettoniche ed urbanistiche della città, tale fu il coinvolgimento e a volte l’ostruzionismo dell’opinione pubblica a tali trasformazioni; basti citare le discussioni e i dubbi sollevati dal Piano Particolareggiato del Centro Storico nel 1974 elaborato dagli architetti dell’Istituto Universitario di Architettura di Venezia - Carlo Aymonino, Costantino Dardi, Gianni Fabbri, Raffaele Panella, Gianugo Polesello, Luciano Semerani e Mauro Lena - nonostante negli anni seguenti solo pochi elementi del Piano vennero attuati e neanche compiutamente. Di questi dibattiti, negli anni seguenti, ve ne saranno pochi e limitati alla sfera politica, con scarso interesse e coinvolgimento da parte dei cittadini. Contrariamente, nell’ultimo periodo, si assiste parallelamente a due condizioni: un rinnovato interesse da parte dei cittadini per la storia della città, promosso anche dal moltiplicarsi di eventi, mostre, conferenze, pubblicazioni sull’argomento, e un’attenzione nuova per quelli che sono i temi legati alla qualità degli interventi architettonici ed urbanistici, da parte dell’amministrazione comunale. Primaria importanza nella promozione di questo interesse riveste l’Istituto di Storia Contemporanea della Provincia di Pesaro e Urbino e la Biblioteca–Archivio “Vittorio Bobbato”, i quali congiuntamente a diversi autori hanno realizzato vari studi e pubblicazioni su tali argomenti. Il Comune si è fatto promotore di diversi interventi, in attuazione di un Piano Regolatore Generale che, nelle intenzioni, mette al centro la qualità architettonica ed urbana degli interventi, puntando su nuove opere e, per quanto riguarda principalmente il Centro Storico, anche sul recupero dell’esistente. I presupposti dell’intervento progettuale si inseriscono in questo dibattito basandosi sull’idea, attualmente in discussione presso i diversi livelli istituzionali coinvolti, della realizzazione di un nuovo polo ospedaliero congiunto con la città di Fano; quando ciò si realizzerà, l’area ora occupata dall’ospedale pesarese verrà progressivamente liberata, interamente o in parte, determinando un grande vuoto urbano proprio alle porte del centro storico. Questo sito, di notevole privilegio sotto il profilo morfologico e posizionale rispetto alle infrastrutture, è assolutamente appropriato per insediarvi un polo culturale legato al teatro, essendo l’area confinante con quella sulla quale sorge il principale teatro cittadino, il Teatro Rossini. L’area di progetto è una testimonianza della storia urbana della città: presenta uno dei due esempi superstiti di quelli che furono i bastioni della cinta muraria cittadina, nella sua massima espansione, sotto il dominio dei Della Rovere ed il fatto che tale opera sia in parte arrivata ai giorni nostri, più che della scelta degli amministratori locali passati, fu il risultato di vicissitudini politiche, del caso e della centenaria presenza dell’ospedale che di fatto ha vincolato l’area preservandola da trasformazioni non idonee come accaduto per altre parti del centro storico. Se la storia urbana di Pesaro è la base per poter pensare il suo futuro, non meno importanza ricoprono le manifestazioni e le istituzioni che hanno fatto di Pesaro un punto d’incontro culturale a carattere internazionale, elementi anch’essi che testimoniano la qualità della città. La città ospita principalmente due eventi internazionali: la Mostra Internazionale del Nuovo Cinema e il Rossini Opera Festival, ai quali si legano altre importanti manifestazioni e istituzioni culturali. Strutturalmente indipendente, ma legato indissolubilmente alla figura del grande compositore pesarese a cui è dedicato il festival, vi è il Conservatorio Statale di Musica “Gioachino Rossini”, anch’esso un punto di riferimento nel panorama culturale e musicale internazionale. Uno degli elementi caratterizzanti del festival rossiniano è quello di essere un evento che letteralmente coinvolge l’intera città, poiché le varie rappresentazioni sceniche, i concerti, gli eventi collaterali, trovano spazio in diversi luoghi del centro storico e non solo, arrivando ad utilizzare anche l’Adriatic Arena (palazzo dello sport), ubicato in periferia. L’allestimento di una struttura sportiva al fine di potervi svolgere spettacoli teatrali è un onere ulteriore per l’organizzazione dell’evento che viene ripagato solo dalla grande affluenza di pubblico che è capace di garantire tale struttura, allontanandosi però dall’intuizione iniziale dell’evento che voleva nel centro cittadino il fulcro stesso della manifestazione. Sviluppare un progetto per un centro culturale legato al teatro e alla musica, oltre ad essere un argomento di elevato interesse personale, è un tema ricorrente da oltre un decennio nei dibattiti cittadini, che però non ha trovato fino ad ora la possibilità di essere realizzato. Le motivazioni possono essere molteplici, dalla mancanza di una struttura univoca con cui la pubblica amministrazione possa confrontarsi, alla cronica mancanza di fondi pubblici che la obbligherebbero a ricercare figure private in grado di co-finanziare l’intervento e, non meno importante, la mancanza, fino ad ora, di un’area idonea. Al di là dell’utilizzo a cui sarà destinata l’area di progetto, è di primaria importanza per l’amministrazione comunale aprire un tavolo di confronto con la proprietà dell’area ospedaliera, in modo da non lasciare nulla al caso nelle scelte che condizioneranno la trasformazione. Questa tesi è un’opportunità di confronto personale con la città di oggi, le trasformazioni passate e quelle future; l’architettura, la storia della città ed il teatro possono essere tre elementi cardine per una crescita ed una consapevolezza nuova delle potenzialità di Pesaro nel panorama culturale. La progettazione di un luogo per la cultura e lo spettacolo si fonda su tutte queste premesse, sulla necessità per la città di dotarsi di luoghi idonei che possano finalmente accogliere al meglio tutte le manifestazioni legate al teatro e alla musica e che possa inserirsi quale ulteriore spunto di dibattito nella preparazione del dossier che punta a far riconoscere Pesaro quale “Città della Musica”, inserita nella rete delle città creative dell’UNESCO.
Resumo:
La presente ricerca si inquadra nell’ambito della risoluzione dei problemi legati alla chirurgia ossea, per la cura e la sostituzione di parti di osso in seguito a fratture, lesioni gravi, malformazioni e patologie quali osteoporosi, tumori, etc… Attualmente la progettazione di impianti per le sostituzioni/rigenerazioni ossee richiede che i materiali sviluppati siano in grado di “mimare” la composizione e la morfologia dei tessuti naturali, in modo da generare le specifiche interazioni chimiche esistenti nei tessuti dell’organismo con cui vengono a contatto e quindi di biointegrarsi e/o rigenerare l’osso mancante nel miglior modo possibile, in termini qualitativi e quantitativi. Per lo sviluppo di sostituti ossei porosi sono state sperimentate 2 tecnologie innovative: il freeze-casting ed il foaming. Gli impianti ceramici realizzati hanno presentano una dimensione dei pori ed un’interconnessione adeguata sia per l’abitazione cellulare che per la penetrazione dei fluidi fisiologici e la vascolarizzazione. In particolare l’elevata unidirezionalità nei campioni ottenuti mediante freeze-casting si presenta molto promettente poiché fornisce cammini guida che migliorano la vascolarizzazione dell’impianto e l’abitazione cellulare in tempi rapidi e nella parte più interna dello scaffold. D’altra parte, la tecnologia del foaming ha permesso l’ottenimento di materiali apatitici ad alta porosità multidimensionale ed interconnessa con proprietà meccaniche implementate rispetto a tipologie precedenti e, lavorabili dopo sinterizzazione mediante prototipazione rapida. Per questo motivo, questi materiali sono attualmente in corso di sperimentazione, con risultati preliminari adeguati promettenti per un’applicazione clinica, come sostituti ossei di condilo mandibolare, sito estremamente critico per gli sforzi meccanici presenti. È stata dimostrata la possibilità di utilizzare lo scaffold ceramico biomimetico con la duplice funzione di sostituto osseo bioattivo e sistema di rilascio in situ di ioni specifici e di antibiotico, in cui la cinetica di rilascio risulta fortemente dipendente dalle caratteristiche chimico-fisico morfologiche del dispositivo (solubilità, area di superficie specifica,…). Per simulare sempre di più la composizione del tessuto osseo e per indurre specifiche proprietà funzionali, è stata utilizzata la gelatina come fase proteica con cui rivestire/impregnare dispositivi porosi 3D a base di apatite, con cui miscelare direttamente la fase inorganica calcio-fosfatica e quindi realizzare materiali bio-ibridi in cui le due fasi contenenti siano intimamente interagenti. Inoltre al fine di ridurre gli innumerevoli problemi legati alle infezioni ossee alcuni dei materiali sviluppati sono stati quindi caricati con antibiotico e sono state valutate le cinetiche di rilascio. In questa maniera, nel sito dell’impianto sono state associate le funzioni di trasporto e di rilascio di farmaco, alla funzione di sostituzione/rigenerazione ossee. La sperimentazione con la gelatina ha messo in luce proprietà posatamente sfruttabili della stessa. Oltre a conferire allo scaffold un implementata mimesi composizionale del tessuto osseo, ha infatti consentito di aumentare le proprietà meccaniche, sia come resistenza a compressione che deformazione. Unitamente a quanto sopra, la gelatina ha consentito di modulare la funzionalità di dispensatore di farmaco; mediante controllo della cinetica di rilascio, tramite processi di reticolazione più o meno spinti.
Resumo:
Il lavoro è stato suddiviso in tre macro-aree. Una prima riguardante un'analisi teorica di come funzionano le intrusioni, di quali software vengono utilizzati per compierle, e di come proteggersi (usando i dispositivi che in termine generico si possono riconoscere come i firewall). Una seconda macro-area che analizza un'intrusione avvenuta dall'esterno verso dei server sensibili di una rete LAN. Questa analisi viene condotta sui file catturati dalle due interfacce di rete configurate in modalità promiscua su una sonda presente nella LAN. Le interfacce sono due per potersi interfacciare a due segmenti di LAN aventi due maschere di sotto-rete differenti. L'attacco viene analizzato mediante vari software. Si può infatti definire una terza parte del lavoro, la parte dove vengono analizzati i file catturati dalle due interfacce con i software che prima si occupano di analizzare i dati di contenuto completo, come Wireshark, poi dei software che si occupano di analizzare i dati di sessione che sono stati trattati con Argus, e infine i dati di tipo statistico che sono stati trattati con Ntop. Il penultimo capitolo, quello prima delle conclusioni, invece tratta l'installazione di Nagios, e la sua configurazione per il monitoraggio attraverso plugin dello spazio di disco rimanente su una macchina agent remota, e sui servizi MySql e DNS. Ovviamente Nagios può essere configurato per monitorare ogni tipo di servizio offerto sulla rete.
Resumo:
L’obiettivo della tesi è la caratterizzazione termica e la definizione del potenziale geotermico dell’acquifero freatico costiero e quello semiconfinato della provincia di Ravenna. L'area di studio si estende dalla foce del fiume Reno sino alla foce del Fiume Savio, per una lunghezza complessiva pari a 30 km circa ed una larghezza di 10 km nel punto di massima distanza dal mare. Il lavoro svolto per il raggiungimento dello scopo suddetto si compone di diverse fasi. Innanzitutto è stato necessario misurare le temperature dell’acquifero. Per tale motivo sono state effettuate due campagne di monitoraggio (giugno e dicembre 2010) durante le quali, mediante apposite sonde, sono stati reperiti i dati di temperatura della falda freatica. Queste operazioni sono state possibili grazie a una rete di 56 piezometri omogeneamente distribuita sull’area di studio. In un secondo momento, si è organizzato un database in cui raccogliere tutti i valori registrati. Tale documento è stato il punto di partenza per la fase successiva, l’elaborazione dei dati. Mediante i software Excel ed EnviroInsite sono stati realizzati profili di temperatura, mappe e sezioni di temperatura dell’acquifero, le quali mostrano efficacemente le condizioni termiche dell’acquifero. Diverse le anomalie termiche riscontrate. Queste risultano giustificabili solo parzialmente dai consueti fattori proposti in letteratura quali: il clima, i corsi fluviali, la litologia, la copertura vegetale. Si è evidenziata, infatti, una particolare interazione tra il drenaggio superficiale (gestito dalle idrovore) e gli scambi di calore tra i diversi orizzonti dell’acquifero. Considerata la condizione di bassa entalpia in cui si trova l’acquifero ravennate, la valutazione del potenziale geotermico non è stata eseguita mediante il metodo proposto da Muffler & Cataldi (1977); si è determinato, invece, il rendimento potenziale di una pompa di calore geotermica. La pompa di calore risulta essere, infatti, l’unica tecnologia (attualmente in commercio) in grado di sfruttate il calore presente nell’acquifero. Possiamo concludere che nonostante i rendimenti calcolati risultino lievemente al di sotto delle soglie di rendimento consigliate in bibliografia, l’installazione della suddetta tecnologia può risultare economicamente vantaggiosa.
Resumo:
All'interno della tesi si è sviluppata una metodologia di supporto alle decisioni utile all'individuazione di determinate zone distribuite all'interno dell'area del delta del fiume Ural (Kazakistan), da considerare prioritarie ai fini della tutela della biodiversità. Il livello di priorità di queste aree è stato ricavato mediante l'aggregazione delle informazioni relative alle categorie di conservazione delle specie minacciate che popolano i diversi ecosistemi che caratterizzano l'area studio. Le categorie sono state confrontate fra loro mediante l'AHP che ha permesso di ottenere un set di pesi. L'utilizzo di tre differenti metodi di aggregazione (SAW, OWA, TOPSIS), ha permesso di ricavare un valore di conservazione che raggruppa le informazioni dei pesi attribuiti alle specie in un unico valore (CV) diverso per ogni metodo. Distribuiti i CV, sulla base della presenza delle relative specie, viene sviluppata una mappa di distribuzione dei valori di conservazione sintetici (CVS) ricavati mediante l'aggregazione dei CV in ogni punto dell'area studio. L'utilizzo di questa metodologia ha permesso di individuare, come previsto dagli obiettivi dell'elaborato, le aree a maggior valore per la conservazione degli habitat e delle specie, sulle quali focalizzare le future azioni di tutela e monitoraggio ambientale, dall'altro l'applicazione di una metodologia di supporto alle decisioni in grado di far fronte ai problemi di scarsa disponibilità e reperibilità di dati utili alla caratterizzazione dell’area di studio.
Dall'involucro all'invaso. Lo spazio a pianta centrale nell'opera architettonica di Adalberto Libera
Resumo:
An archetype selected over the centuries Adalberto Libera wrote little, showing more inclination to use the project as the only means of verification. This study uses a survey of the project for purely compositional space in relation to the reason that most other returns with continuity and consistency throughout his work. "The fruit of a type selected over centuries", in the words of Libera, is one of the most widely used and repeated spatial archetypes present in the history of architecture, given its nature as defined by a few consolidated elements and precisely defined with characters of geometric precision and absoluteness, the central space is provided, over the course of evolution of architecture, and its construction aspects as well as symbolic, for various uses, from historical period in which it was to coincide with sacred space for excellence, to others in which it lends itself to many different expressive possibilities of a more "secular". The central space was created on assumptions of a constructive character, and the same exact reason has determined the structural changes over the centuries, calling from time to time with advances in technology, the maximum extent possible and the different applications, which almost always have coincided with the reason for the monumental space. But it’s in the Roman world that the reason for the central space is defined from the start of a series of achievements that fix the character in perpetuity. The Pantheon was seen maximum results and, simultaneously, the archetype indispensable, to the point that it becomes difficult to sustain a discussion of the central space that excludes. But the reason the space station has complied, in ancient Rome, just as exemplary, monuments, public spaces or buildings with very different implications. The same Renaissance, on which Wittkower's proving itself once and for all, the nature and interpretation of sacred space station, and thus the symbolic significance of that invaded underlying interpretations related to Humanism, fixing the space-themed drawing it with the study and direct observation by the four-sixteenth-century masters, the ruins that in those years of renewed interest in the classical world, the first big pieces of excavation of ancient Rome brought to light with great surprise of all. Not a case, the choice to investigate the architectural work of Libera through the grounds of the central space. Investigating its projects and achievements, it turns out as the reason invoked particularly evident from the earliest to latest work, crossing-free period of the war which for many authors in different ways, the distinction between one stage and another, or the final miss. The theme and the occasion for Libera always distinct, it is precisely the key through which to investigate her work, to come to discover that the first-in this case the central plan-is the constant underlying all his work, and the second reason that the quota with or at the same time, we will return different each time and always the same Libera, formed on the major works remained from ancient times, and on this building method, means consciously, that the characters of architectural works, if valid, pass the time, and survive the use and function contingent. As for the facts by which to formalize it, they themselves are purely contingent, and therefore available to be transferred from one work to another, from one project to another, using also the loan. Using the same two words-at-issue and it becomes clear now how the theme of this study is the method of Libera and opportunity to the study of the central space in his work. But there is one aspect that, with respect to space a central plan evolves with the progress of the work of Libera on the archetype, and it is the reason behind all the way, just because an area built entirely on reason centric. It 'just the "center" of space that, ultimately, tells us the real progression and the knowledge that over the years has matured and changed in Libera. In the first phase, heavily laden with symbolic superstructure, even if used in a "bribe" from Free-always ill-disposed to sacrifice the idea of architecture to a phantom-center space is just the figure that identifies the icon represents space itself: the cross, the flame or the statue are different representations of the same idea of center built around an icon. The second part of the work of clearing the space station, changed the size of the orders but the demands of patronage, grows and expands the image space centric, celebratory nature that takes and becomes, in a different way, this same symbol . You see, one in all, as the project of "Civiltà Italiana" or symbolic arch are examples of this different attitude. And at the same point of view, you will understand how the two projects formulated on the reuse of the Mausoleum of Augustus is the key to its passage from first to second phase: the Ara Pacis in the second project, making itself the center of the composition "breaks" the pattern of symbolic figure in the center, because it is itself an architecture. And, in doing so, the transition takes place where the building itself-the central space-to become the center of that space that itself creates and determines, by extending the potential and the expressiveness of the enclosure (or cover) that defines the basin centered. In this second series of projects, which will be the apex and the point of "crisis" in the Palazzo dei Congressi all'E42 received and is no longer so, the symbol at the very geometry of space, but space itself and 'action' will be determined within this; action leading a movement, in the case of the Arco simbolico and the "Civiltà Italiana" or, more frequently, or celebration, as in the great Sala dei Recevimenti all’E42, which, in the first project proposal, is represented as a large area populated by people in suits, at a reception, in fact. In other words, in this second phase, the architecture is no longer a mere container, but it represents the shape of space, representing that which "contains". In the next step-determining the knowledge from which mature in their transition to post-war-is one step that radically changes the way centric space, although formally and compositionally Libera continues the work on the same elements, compounds and relationships in a different way . In this last phase Freedom, center, puts the man in human beings, in the two previous phases, and in a latent, were already at the center of the composition, even if relegated to the role of spectators in the first period, or of supporting actors in the second, now the heart of space. And it’s, as we shall see, the very form of being together in the form of "assembly", in its different shades (up to that sacred) to determine the shape of space, and how to relate the parts that combine to form it. The reconstruction of the birth, evolution and development of the central space of the ground in Libera, was born on the study of the monuments of ancient Rome, intersected on fifty years of recent history, honed on the constancy of a method and practice of a lifetime, becomes itself, Therefore, a project, employing the same mechanisms adopted by Libera; the decomposition and recomposition, research synthesis and unity of form, are in fact the structure of this research work. The road taken by Libera is a lesson in clarity and rationality, above all, and this work would uncover at least a fragment.
Resumo:
Nella definizione di incidente rilevante presente nelle Direttive Seveso, come pure nel loro recepimento nella legislazione italiana, rientrano eventi incidentali che abbiano conseguenze gravi per il bersaglio “ambiente”, sia in concomitanza sia in assenza di effetti dannosi per l’uomo. Tuttavia, a fronte di questa attenzione al bersaglio “ambiente” citata dalle norme, si constata la mancanza di indici quantitativi per la stima del rischio di contaminazione per i diversi comparti ambientali e, conseguentemente, anche di metodologie per il loro calcolo. Misure di rischio quantitative consolidate e modelli condivisi per la loro stima riguardano esclusivamente l’uomo, con la conseguenza che la valutazione di rischio per il bersaglio “ambiente” rimane ad un livello qualitativo o, al più, semi-quantitativo. Questa lacuna metodologica non consente di dare una piena attuazione al controllo ed alla riduzione del rischio di incidente rilevante, secondo l’obiettivo che le norme stesse mirano a raggiungere. E d‘altra parte il verificarsi periodico di incidenti con significativi effetti dannosi per l’ambiente, quali, ad esempio lo sversamento di gasolio nel fiume Lambro avvenuto nel febbraio 2010, conferma come attuale e urgente il problema del controllo del rischio di contaminazione ambientale. La ricerca presentata in questo lavoro vuole rappresentare un contributo per colmare questa lacuna. L’attenzione è rivolta al comparto delle acque superficiali ed agli sversamenti di liquidi oleosi, ovvero di idrocarburi insolubili in acqua e più leggeri dell’acqua stessa. Nel caso in cui il rilascio accidentale di un liquido oleoso raggiunga un corso d’acqua superficiale, l’olio tenderà a formare una chiazza galleggiante in espansione trasportata dalla corrente e soggetta ad un complesso insieme di trasformazioni fisiche e chimiche, denominate fenomeni di “oil weathering”. Tra queste rientrano l’evaporazione della frazione più volatile dell’olio e la dispersione naturale dell’olio in acqua, ovvero la formazione di una emulsione olio-in-acqua nella colonna d’acqua al di sotto della chiazza di olio. Poiché la chiazza si muove solidale alla corrente, si può ragionevolmente ritenere che l’evaporato in atmosfera venga facilmente diluito e che quindi la concentrazione in aria dei composti evaporati non raggiunga concentrazioni pericolose esternamente alla chiazza stessa. L’effetto fisico dannoso associato allo sversamento accidentale può pertanto essere espresso in doversi modi: in termini di estensione superficiale della chiazza, di volume di olio che emulsifica nella colonna d’acqua, di volume della colonna che si presenta come emulsione olio-in-acqua, di lunghezza di costa contaminata. In funzione di questi effetti fisici è possibile definire degli indici di rischio ambientale analoghi alle curve di rischio sociale per l’uomo. Come una curva di rischio sociale per l’uomo esprime la frequenza cumulata in funzione del numero di morti, così le curve di rischio sociale ambientale riportano la frequenza cumulata in funzione dell’estensione superficiale della chiazza, ovvero la frequenza cumulata in funzione del volume di olio che emulsifica in acqua ovvero la frequenza cumulata in funzione del volume di colonna d’acqua contaminato ovvero la frequenza cumulata in funzione della lunghezza di costa contaminata. Il calcolo degli indici di rischio così definiti può essere effettuato secondo una procedura analoga al calcolo del rischio per l’uomo, ovvero secondo i seguenti passi: 1) descrizione della sorgente di rischio; 2) descrizione del corso d’acqua che può essere contaminato in caso di rilascio dalla sorgente di rischio; 3) identificazione, degli eventi di rilascio e stima della loro frequenza di accadimento; 4) stima, per ogni rilascio, degli effetti fisici in termini di area della chiazza, di volume di olio emulsificato in acqua, di volume dell’emulsione olio-in-acqua, lunghezza di costa contaminata; 5) ricomposizione, per tutti i rilasci, degli effetti fisici e delle corrispondenti frequenze di accadimento al fine di stimare gli indici di rischio sopra definiti. Al fine di validare la metodologia sopra descritta, ne è stata effettuata l’applicazione agli stabilimenti a rischio di incidente rilevante presenti nei bacini secondari che fanno parte del bacino primario del Po. E’ stato possibile calcolare gli indici di rischio per ogni stabilimento, sia in riferimento al corso d’acqua del bacino secondario a cui appartengono, sia in riferimento al Po, come pure ottenere degli indici di rischio complessivi per ogni affluente del Po e per il Po stesso. I risultati ottenuti hanno pienamente confermato la validità degli indici di rischio proposti al fine di ottenere una stima previsionale del rischio di contaminazione dei corsi d’acqua superficiali, i cui risultati possano essere utilizzati per verificare l’efficacia di diverse misure di riduzione del rischio e per effettuare una pianificazione d’emergenza che consenta, in caso di incidente, di contenere, recuperare e favorire la dispersione dell’olio sversato.
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
The term Ambient Intelligence (AmI) refers to a vision on the future of the information society where smart, electronic environment are sensitive and responsive to the presence of people and their activities (Context awareness). In an ambient intelligence world, devices work in concert to support people in carrying out their everyday life activities, tasks and rituals in an easy, natural way using information and intelligence that is hidden in the network connecting these devices. This promotes the creation of pervasive environments improving the quality of life of the occupants and enhancing the human experience. AmI stems from the convergence of three key technologies: ubiquitous computing, ubiquitous communication and natural interfaces. Ambient intelligent systems are heterogeneous and require an excellent cooperation between several hardware/software technologies and disciplines, including signal processing, networking and protocols, embedded systems, information management, and distributed algorithms. Since a large amount of fixed and mobile sensors embedded is deployed into the environment, the Wireless Sensor Networks is one of the most relevant enabling technologies for AmI. WSN are complex systems made up of a number of sensor nodes which can be deployed in a target area to sense physical phenomena and communicate with other nodes and base stations. These simple devices typically embed a low power computational unit (microcontrollers, FPGAs etc.), a wireless communication unit, one or more sensors and a some form of energy supply (either batteries or energy scavenger modules). WNS promises of revolutionizing the interactions between the real physical worlds and human beings. Low-cost, low-computational power, low energy consumption and small size are characteristics that must be taken into consideration when designing and dealing with WSNs. To fully exploit the potential of distributed sensing approaches, a set of challengesmust be addressed. Sensor nodes are inherently resource-constrained systems with very low power consumption and small size requirements which enables than to reduce the interference on the physical phenomena sensed and to allow easy and low-cost deployment. They have limited processing speed,storage capacity and communication bandwidth that must be efficiently used to increase the degree of local ”understanding” of the observed phenomena. A particular case of sensor nodes are video sensors. This topic holds strong interest for a wide range of contexts such as military, security, robotics and most recently consumer applications. Vision sensors are extremely effective for medium to long-range sensing because vision provides rich information to human operators. However, image sensors generate a huge amount of data, whichmust be heavily processed before it is transmitted due to the scarce bandwidth capability of radio interfaces. In particular, in video-surveillance, it has been shown that source-side compression is mandatory due to limited bandwidth and delay constraints. Moreover, there is an ample opportunity for performing higher-level processing functions, such as object recognition that has the potential to drastically reduce the required bandwidth (e.g. by transmitting compressed images only when something ‘interesting‘ is detected). The energy cost of image processing must however be carefully minimized. Imaging could play and plays an important role in sensing devices for ambient intelligence. Computer vision can for instance be used for recognising persons and objects and recognising behaviour such as illness and rioting. Having a wireless camera as a camera mote opens the way for distributed scene analysis. More eyes see more than one and a camera system that can observe a scene from multiple directions would be able to overcome occlusion problems and could describe objects in their true 3D appearance. In real-time, these approaches are a recently opened field of research. In this thesis we pay attention to the realities of hardware/software technologies and the design needed to realize systems for distributed monitoring, attempting to propose solutions on open issues and filling the gap between AmI scenarios and hardware reality. The physical implementation of an individual wireless node is constrained by three important metrics which are outlined below. Despite that the design of the sensor network and its sensor nodes is strictly application dependent, a number of constraints should almost always be considered. Among them: • Small form factor to reduce nodes intrusiveness. • Low power consumption to reduce battery size and to extend nodes lifetime. • Low cost for a widespread diffusion. These limitations typically result in the adoption of low power, low cost devices such as low powermicrocontrollers with few kilobytes of RAMand tenth of kilobytes of program memory with whomonly simple data processing algorithms can be implemented. However the overall computational power of the WNS can be very large since the network presents a high degree of parallelism that can be exploited through the adoption of ad-hoc techniques. Furthermore through the fusion of information from the dense mesh of sensors even complex phenomena can be monitored. In this dissertation we present our results in building several AmI applications suitable for a WSN implementation. The work can be divided into two main areas:Low Power Video Sensor Node and Video Processing Alghoritm and Multimodal Surveillance . Low Power Video Sensor Nodes and Video Processing Alghoritms In comparison to scalar sensors, such as temperature, pressure, humidity, velocity, and acceleration sensors, vision sensors generate much higher bandwidth data due to the two-dimensional nature of their pixel array. We have tackled all the constraints listed above and have proposed solutions to overcome the current WSNlimits for Video sensor node. We have designed and developed wireless video sensor nodes focusing on the small size and the flexibility of reuse in different applications. The video nodes target a different design point: the portability (on-board power supply, wireless communication), a scanty power budget (500mW),while still providing a prominent level of intelligence, namely sophisticated classification algorithmand high level of reconfigurability. We developed two different video sensor node: The device architecture of the first one is based on a low-cost low-power FPGA+microcontroller system-on-chip. The second one is based on ARM9 processor. Both systems designed within the above mentioned power envelope could operate in a continuous fashion with Li-Polymer battery pack and solar panel. Novel low power low cost video sensor nodes which, in contrast to sensors that just watch the world, are capable of comprehending the perceived information in order to interpret it locally, are presented. Featuring such intelligence, these nodes would be able to cope with such tasks as recognition of unattended bags in airports, persons carrying potentially dangerous objects, etc.,which normally require a human operator. Vision algorithms for object detection, acquisition like human detection with Support Vector Machine (SVM) classification and abandoned/removed object detection are implemented, described and illustrated on real world data. Multimodal surveillance: In several setup the use of wired video cameras may not be possible. For this reason building an energy efficient wireless vision network for monitoring and surveillance is one of the major efforts in the sensor network community. Energy efficiency for wireless smart camera networks is one of the major efforts in distributed monitoring and surveillance community. For this reason, building an energy efficient wireless vision network for monitoring and surveillance is one of the major efforts in the sensor network community. The Pyroelectric Infra-Red (PIR) sensors have been used to extend the lifetime of a solar-powered video sensor node by providing an energy level dependent trigger to the video camera and the wireless module. Such approach has shown to be able to extend node lifetime and possibly result in continuous operation of the node.Being low-cost, passive (thus low-power) and presenting a limited form factor, PIR sensors are well suited for WSN applications. Moreover techniques to have aggressive power management policies are essential for achieving long-termoperating on standalone distributed cameras needed to improve the power consumption. We have used an adaptive controller like Model Predictive Control (MPC) to help the system to improve the performances outperforming naive power management policies.
Resumo:
Il presente elaborato tratta l'analisi del quadro fessurativo esistente nella porzione inferiore del broncone e della gamba sinistra del David di Michelangelo. Si sono effettuate indagini con ultrasuoni al fine di caratterizzare lo stato conservativo del marmo e per stimare la profondità delle lesioni presenti. Si è poi creato un modello agli elementi finiti della fessura di maggiori dimensioni presente nel broncone al fine di individuarne la profondità e confermare i risultati conseguiti con le prove ad ultrasuoni.
Resumo:
La crescita normale di un individuo è il risultato dell’azione coordinata di molteplici ormoni e recettori codificati da geni e a tal proposito, discreto interesse è stato dato ai geni tipici dell’asse del GH. Tuttavia altri geni, più a monte di questi e responsabili dello sviluppo dell’ipofisi contribuiscono alla crescita normale o patologica. Alcuni geni studiati sono POU1F1, PROP1, LHX3, LHX4, HESX1, SOX3 e svariate loro mutazioni sono state identificate come causa di panipopituarismo (CPHD=Combined Pituitary Hormone Deficiency). In realtà la ricerca genetica non spiega ancora molte anomalie ipofisarie e molte mutazioni devono ancora essere identificate. Uno degli scopi del dottorato, svoltosi nel laboratorio di Genetica molecolare di Pediatria, è stata l’identificazione di mutazioni geniche da un gruppo di pazienti CPHD considerando in particolare i geni POU1F1, LHX3, SOX3, non ancora messi a punto presso il laboratorio. L’approccio sperimentale si è basato sulle seguenti fasi: prelievo delle informazioni di sequenza da GeneBank, progettazione di primers per amplificare le porzioni esoniche, messa a punto delle fasi della PCR e del sequenziamento, analisi della sequenza e confronto con le informazioni di sequenza depositate allo scopo di rintracciare eventuali mutazioni o varianti. La bassa percentuale di mutazioni in questi geni non ha permesso finora di rintracciare mutazioni nelle porzioni esoniche salvo che in un soggetto, nell’esone 6 di LHX3b (nuova mutazione, recessiva eterozigote, c.1248A>G implicata nella mutazione p.T377A della sequenza proteica). Un metodo di screening di questa mutazione impiegando l’enzima di restrizione SacII è stato usato, senza rilevare nessun altra occorrenza dell’allele mutato in 53 soggetti di controllo. Oltre alla messa a punto del sequenziamento e di alcune tecniche di analisi di singoli SNP o piccoli INDELs per i 3 geni, la ricerca svolta è stata orientata all’impiego di metodi di rilevamento di riarrangiamenti genetici comportanti ampie delezioni e/o variazioni del copy-number di esoni/interi geni detto MLPA (Multiplex Ligation-dependent Probe Amplification) e progettato da MRC-Holland. Il sequenziamento infatti non permette di rilevare tali alterazioni quando sono ampie ed in eterozigosi. Per esempio, in un’ampia delezione in eterozigosi, l’intervallo delimitato dai primers usati per la PCR può non includere totalmente la porzione interessata da delezione su un cromosoma cosicché la PCR ed il sequnziamento si basano solo sulle informazioni dell’altro cromosoma non deleto. Un vantaggio della tecnica MLPA, è l’analisi contemporanea di una quarantina di siti posti su svariati geni. Questa metodo tuttavia può essere affetto da un certo margine di errore spesso dipendente dalla qualità del DNA e dovrebbe essere affiancato e validato da altre tecniche più impegnativa dal punto di vista sperimentale ma più solide, per esempio la Real Time PCR detta anche PCR quantitativa (qPCR). In laboratorio, grazie all’MLPA si è verificata la condizione di delezione eterozigote di un paziente “storico” per il gene GH1 e la stessa mutazione è stata rilevata anche con la qPCR usando lo strumento Corbett Rotor Gene 6000 (Explera). Invece un’analisi solo con la qPCR di variazioni del copy-number (CNV) per SOX3 in pazienti maschili non ha ancora evidenziato anomalie. Entrambe le tecniche hanno aspetti interessanti, il miglior approccio al momento sembra un’analisi iniziale di pazienti con l’MLPA, seguita dalla verifica di un eventuale esito anomalo impiegando la real-time PCR.