958 resultados para dimensione insieme parzialmente ordinato etichettamento doppio diagramma di Hasse
Resumo:
Le regioni HII sono nubi di idrogeno ionizzato da stelle di recente formazione, massicce e calde. Tali stelle, spesso raggruppate in ammassi, emettono copiosamente fotoni di lunghezza d’onda λ ≤ 912 Å, capaci di ionizzare quasi totalmente il gas che le circonda, composto prevalentemente da idrogeno, ma in cui sono presenti anche elementi ionizzati più pesanti, come He, O, N, C e Ne. Le dimensioni tipiche di queste regioni vanno da 10 a 100 pc, con densità dell’ordine di 10 cm−3. Queste caratteristiche le collocano all’interno del WIM (Warm Ionized Medium), che, insieme con HIM (Hot Ionized Medium), WNM (Warm Neutral Medium) ed CNM (Cold Neutral Medium), costituisce la varietà di fasi in cui si presenta il mezzo interstellare (ISM, InterStellar Medium). Il tema che ci prestiamo ad affrontare è molto vasto e per comprendere a fondo i processi che determinano le caratteristiche delle regioni HII sarebbero necessarie molte altre pagine; lo scopo che questo testo si propone di raggiungere, senza alcuna pretesa di completezza, è dunque quello di presentare l’argomento, approfondendone ed evidenziandone alcuni particolari tratti. Prima di tutto descriveremo le regioni HII in generale, con brevi indicazioni in merito alla loro formazione e struttura. A seguire ci concentreremo sulla descrizione dei processi che determinano gli spettri osservati: inizialmente mostreremo quali siano i processi fisici che generano l’emissione nel continuo, concentrandoci poi su quello più importante, la Bremmstrahlung. Affronteremo poi una breve digressione riguardo al processo di ricombinazione ione-elettrone nei plasmi astrofisici ed alle regole di selezione nelle transizioni elettroniche, concetti necessari per comprendere ciò che segue, cioè la presenza di righe in emissione negli spettri delle regioni foto-ionizzate. Infine ci soffermeremo sulle regioni HII Ultra-Compatte (UC HII Region), oggetto di numerosi recenti studi.
Resumo:
La Chemical Vapor Deposition (CVD) permette la crescita di sottili strati di grafene con aree di decine di centimetri quadrati in maniera continua ed uniforme. Questa tecnica utilizza un substrato metallico, solitamente rame, riscaldato oltre i 1000 °C, sulla cui superficie il carbonio cristallizza sotto forma di grafene in un’atmosfera attiva di metano ed idrogeno. Durante la crescita, sulla superficie del rame si decompone il metano utilizzato come sorgente di carbonio. La morfologia e la composizione della superficie del rame diventano quindi elementi critici del processo per garantire la sintesi di grafene di alta qualità e purezza. In questo manoscritto si documenta l’attività sperimentale svolta presso i laboratori dell’Istituto per la Microelettronica e i Microsistemi del CNR di Bologna sulla caratterizzazione della superficie del substrato di rame utilizzato per la sintesi del grafene per CVD. L’obiettivo di questa attività è stato la caratterizzazione della morfologia superficiale del foglio metallico con misure di rugosità e di dimensione dei grani cristallini, seguendo l’evoluzione di queste caratteristiche durante i passaggi del processo di sintesi. Le misure di rugosità sono state effettuate utilizzando tecniche di profilometria ottica interferometrica, che hanno permesso di misurare l’effetto di livellamento successivo all' introduzione di un etching chimico nel processo consolidato utilizzato presso i laboratori dell’IMM di Bologna. Nell'ultima parte di questo manoscritto si è invece studiato, con tecniche di microscopia ottica ed elettronica a scansione, l’effetto di diverse concentrazioni di argon e idrogeno durante il trattamento termico di annealing del rame sulla riorganizzazione dei suoi grani cristallini. L’analisi preliminare effettuata ha permesso di individuare un intervallo ottimale dei parametri di annealing e di crescita del grafene, suggerendo importanti direzioni per migliorare il processo di sintesi attualmente utilizzato.
Resumo:
Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. Nasce, di conseguenza, la necessità di far ricorso a nuovi strumenti che possano sfruttare la potenza di calcolo oggi offerta dalle architetture più complesse che comprendono, sotto un unico sistema, un insieme di host utili per l’analisi. A tal merito, una quantità di dati così vasta, routine se si parla di Big Data, aggiunta ad una velocità di trasmissione e trasferimento altrettanto alta, rende la memorizzazione dei dati malagevole, tanto meno se le tecniche di storage risultano essere i tradizionali DBMS. Una soluzione relazionale classica, infatti, permetterebbe di processare dati solo su richiesta, producendo ritardi, significative latenze e inevitabile perdita di frazioni di dataset. Occorre, perciò, far ricorso a nuove tecnologie e strumenti consoni a esigenze diverse dalla classica analisi batch. In particolare, è stato preso in considerazione, come argomento di questa tesi, il Data Stream Processing progettando e prototipando un sistema bastato su Apache Storm scegliendo, come campo di applicazione, la cyber security.
Resumo:
Il sistema presentato all'interno di questo documento di tesi ha come obiettivo quello di essere un supporto all'analisi di genere, che risulta fondamentale per la risoluzione delle situazioni laddove il genere ancora rappresenta condizione di differenza. Attraverso l’utilizzo di un dizionario dati, costruito per contenere parole chiave su cui l’analisi si basa, è possibile effettuare lo studio dei contenuti di documenti strutturati. Il sistema è stato sviluppato mediante l'utilizzo di Nova Framework, jQuery, Bootstrap e Morris.js. Per quanto riguarda la gestione e memorizzazione dei dati sono stati utilizzati un database relazionale MySQL ed un insieme di file XML e JSON.
Resumo:
In questo studio, un multi-model ensemble è stato implementato e verificato, seguendo una delle priorità di ricerca del Subseasonal to Seasonal Prediction Project (S2S). Una regressione lineare è stata applicata ad un insieme di previsioni di ensemble su date passate, prodotte dai centri di previsione mensile del CNR-ISAC e ECMWF-IFS. Ognuna di queste contiene un membro di controllo e quattro elementi perturbati. Le variabili scelte per l'analisi sono l'altezza geopotenziale a 500 hPa, la temperatura a 850 hPa e la temperatura a 2 metri, la griglia spaziale ha risoluzione 1 ◦ × 1 ◦ lat-lon e sono stati utilizzati gli inverni dal 1990 al 2010. Le rianalisi di ERA-Interim sono utilizzate sia per realizzare la regressione, sia nella validazione dei risultati, mediante stimatori nonprobabilistici come lo scarto quadratico medio (RMSE) e la correlazione delle anomalie. Successivamente, tecniche di Model Output Statistics (MOS) e Direct Model Output (DMO) sono applicate al multi-model ensemble per ottenere previsioni probabilistiche per la media settimanale delle anomalie di temperatura a 2 metri. I metodi MOS utilizzati sono la regressione logistica e la regressione Gaussiana non-omogenea, mentre quelli DMO sono il democratic voting e il Tukey plotting position. Queste tecniche sono applicate anche ai singoli modelli in modo da effettuare confronti basati su stimatori probabilistici, come il ranked probability skill score, il discrete ranked probability skill score e il reliability diagram. Entrambe le tipologie di stimatori mostrano come il multi-model abbia migliori performance rispetto ai singoli modelli. Inoltre, i valori più alti di stimatori probabilistici sono ottenuti usando una regressione logistica sulla sola media di ensemble. Applicando la regressione a dataset di dimensione ridotta, abbiamo realizzato una curva di apprendimento che mostra come un aumento del numero di date nella fase di addestramento non produrrebbe ulteriori miglioramenti.
Resumo:
In questa tesi, viene illustrato un metodo risolutivo al problema dell’allocazione e schedulazione, su risorse eterogenee con capacità unaria rinnovabile e cumulativa non rinnovabile, di applicazioni multitask periodiche, con periodi in relazione armonica, strutturate in attività indipendenti o sottoposte a vincoli di precedenza e con durate dipendenti dalla specifica risorsa di allocazione. L’obiettivo è quello di fornire un’implementazione del modello in grado di gestire l’allocazione e la schedulazione di istanze (i.e. insieme di applicazioni) variabili, caratterizzate da una serie di parametri. La struttura implementativa, realizzata secondo la Logic-based Benders decomposition, prevede la suddivisione del problema in due moduli. Il primo in grado di generare un’allocazione e realizzato con tecniche di programmazione lineare intera mista, il secondo con lo scopo di controllare l’ammissibilità di tale allocazione attraverso una schedulazione ottima e realizzato mediante tecniche di programmazione a vincoli. Il meccanismo di comunicazione tra i due moduli avviene mediante vincoli lineari, denominati tagli di Benders, che vengono aggiunti dopo ogni iterazione del sistema. L’efficacia del modello sarà valutata confrontando i risultati ottenuti attraverso una serie di test, con i valori forniti da un metodo di allocazione e schedulazione alternativo.
Resumo:
Il lavoro presentato in questo elaborato tratterà lo sviluppo di un sistema di alerting che consenta di monitorare proattivamente una o più sorgenti dati aziendali, segnalando le eventuali condizioni di irregolarità rilevate; questo verrà incluso all'interno di sistemi già esistenti dedicati all'analisi dei dati e alla pianificazione, ovvero i cosiddetti Decision Support Systems. Un sistema di supporto alle decisioni è in grado di fornire chiare informazioni per tutta la gestione dell'impresa, misurandone le performance e fornendo proiezioni sugli andamenti futuri. Questi sistemi vengono catalogati all'interno del più ampio ambito della Business Intelligence, che sottintende l'insieme di metodologie in grado di trasformare i dati di business in informazioni utili al processo decisionale. L'intero lavoro di tesi è stato svolto durante un periodo di tirocinio svolto presso Iconsulting S.p.A., IT System Integrator bolognese specializzato principalmente nello sviluppo di progetti di Business Intelligence, Enterprise Data Warehouse e Corporate Performance Management. Il software che verrà illustrato in questo elaborato è stato realizzato per essere collocato all'interno di un contesto più ampio, per rispondere ai requisiti di un cliente multinazionale leader nel settore della telefonia mobile e fissa.
Resumo:
Come nascono le emozioni? Come modificano il nostro organismo? Perché nell'epoca moderna non siamo più in grado do condividere il nostro stato emotivo? Ecco alcune domande alle quali Laura Esquivel risponde mediante El libro de las emociones. Leggendolo sarà come fare un viaggio virtuale attraverso il magico, e al contempo, complesso mondo emotivo. L’autrice ci prende per mano e ci guida in un percorso che accenderà la nostra curiosità consentendoci di ampliare il nostro bagaglio culturale. Dalla scienza alla storia, dalla letteratura al cinema, Laura Esquivel ci farà da cicerone alla scoperta, anzi alla riscoperta della parte più intima e nascosta dell’essere umano. Grazie a questo cammino, capiremo che ritornando a prenderci cura del nostro lato irrazionale per antonomasia, potremmo forse, finalmente, abbattere egoismo, individualismo, competizione, arcigni nemici della condivisione e dello stare insieme. Questo elaborato ha come oggetto El libro de las emociones, saggio della scrittrice messicana Laura Esquivel. Nella prima parte, dopo una breve introduzione e una concisa presentazione dell’autrice, questa tesi si propone di analizzare il suddetto saggio e il proprio paratesto; successivamente vi è la mia personale proposta di traduzione del primo capitolo dell’opera e il commento alla proposta di traduzione. Infine, chiudono l’elaborato la scheda di presentazione editoriale de El libro de las emociones e le conclusioni.
Resumo:
Questo elaborato riguarda il dimensionamento di un motore brushless lineare utilizzato in un piano vibrante per l’alimentazione di fiale, flaconi e carpule in macchine per il packaging farmaceutico: in particolare con questo piano vibrante si alimentano macchine astucciatrici e termoformatrici. Con packaging farmaceutico si intente tutto ciò che comporta il confezionamento di prodotti legati al mercato farmaceutico, ma macchinari simili soddisfano anche il mercato per il confezionamento di prodotti alimentari e cosmetici. Il piano vibrante descritto nella trattazione, svolge sia la funzione di alimentazione del prodotto nella macchina, sia quella di buffer. La tesi è stata svolta all’interno di Marchesini Group S.p.a., gruppo industriale fondato nel 1974 che vanta una posizione di livello mondiale nel settore delle macchine automatiche: in particolare si occupa dell’automazione per packaging nel settore farmaceutico, cosmetico e alimentare. Avendo dovuto fare un intervento di sostituzione di un motore su un gruppo già in funzione, nella riprogettazione dei particolari si è cercato di apportare il minor numero di modifiche possibile, per minimizzare il numero di pezzi da sostituire qualora un motore in funzione si rompa o venga danneggiato. Questo studio mi ha dato la possibilità di approfondire diversi aspetti della progettazione meccanica: in particolare ho avuto la possibilità di utilizzare Creo Parametric, il programma di disegno 3D usato in Marchesini, e quindi approfondire molteplici aspetti e regole del disegno e della messa in tavola. Insieme a questo, oltre a studiare le diverse tipologie di motori lineari ho potuto approfondire i metodi di scelta di un motore lineare, consultando anche i fornitori.
Sintesi di monomeri derivati da acidi carbossilici omega insaturi e successiva sintesi di poliesteri
Resumo:
Il presente lavoro di tesi si inserisce in un progetto basato sulla ricerca di monomeri e polimeri derivati da fonte bio, in un’ottica di transizione verso una chimica green legata alla realizzazione di prodotti ottenuti da risorse rinnovabili e con processi a basso impatto ambientale. I polimeri bio, in particolare, sono prodotti parzialmente o interamente ottenibili da risorse rinnovabili, quali oli vegetali, zuccheri, grassi, resine, proteine, amminoacidi, frazioni lignocellulosiche, etc, e non da petrolio. Tra questi, gli oli vegetali sono interessanti come reagenti di partenza perché permettono di minimizzare l’uso di derivati petrolchimici e sono disponibili in quantità maggiore rispetto al petrolio. Una possibilità di sintesi di polimeri da oli consiste nel trasformare gli acidi grassi, ottenendo composti bifunzionali che possono agire da precursori nella polimerizzazione: in questo modo si possono ottenere molti polimeri lineari, tra cui poliuretani, polieteri, poliesteri, poliammidi, etc. Questo è stato l’approccio seguito per la sintesi dei poliesteri alla base del progetto di tesi. In particolare, il lavoro si è articolato nella sintesi di monomeri e polimeri utilizzando derivati di acidi carbossilici omega insaturi. Inizialmente, trattandosi di prove esplorative sulla fattibilità delle reazioni, è stato utilizzato un precursore commerciale: visti i buoni risultati ottenuti, lo studio è poi proseguito con la sintesi di poliesteri a partire da prodotti di origine naturale. Tutte le polimerizzazioni sono state effettuate in massa. Per ogni reagente, monomero e polimero sono state effettuate analisi NMR (1H-NMR, 13C-NMR, HSQC, HMBC); su alcuni reagenti e monomeri è stata invece effettuata analisi GC-MS. Infine, su tutti i polimeri ottenuti sono state effettuate analisi ATR, GPC, DSC e TGA.
Resumo:
Il seguente elaborato di tesi tratta il problema della pianificazione di voli fotogrammetrici a bassa quota mediante l’uso di SAPR, in particolare è presentata una disamina delle principali applicazioni che permettono di programmare una copertura fotogrammetrica trasversale e longitudinale di un certo poligono con un drone commerciale. Il tema principale sviluppato è la gestione di un volo fotogrammetrico UAV mediante l’uso di applicativi software che permettono all’utente di inserire i parametri di volo in base alla tipologia di rilievo che vuole effettuare. L’obbiettivo finale è quello di ottenere una corretta presa fotogrammetrica da utilizzare per la creazione di un modello digitale del terreno o di un oggetto attraverso elaborazione dati in post-processing. La perfetta configurazione del volo non può prescindere dalle conoscenze base di fotogrammetria e delle meccaniche di un veicolo UAV. I capitoli introduttivi tratteranno infatti i principi della fotogrammetria analogica e digitale soffermandosi su temi utili alla comprensione delle problematiche relative al progetto di rilievo fotogrammetrico aereo. Una particolare attenzione è stata posta sulle nozioni di fotogrammetria digitale che, insieme agli algoritmi di Imagine Matching derivanti dalla Computer Vision, permette di definire il ramo della Fotogrammetria Moderna. Nei capitoli centrali verranno esaminate e confrontate una serie di applicazioni commerciali per smartphone e tablet, disponibili per sistemi Apple e Android, per trarne un breve resoconto conclusivo che le compari in termini di accessibilità, potenzialità e destinazione d’uso. Per una maggiore comprensione si determinano univocamente gli acronimi con cui i droni vengono chiamati nei diversi contesti: UAV (Unmanned Aerial Vehicle), SAPR (Sistemi Aeromobili a Pilotaggio Remoto), RPAS (Remotely Piloted Aicraft System), ARP (Aeromobili a Pilotaggio Remoto).
Resumo:
Il sistema muscolare scheletrico è l'insieme di organi adibiti al movimento, il quale è permesso dalla contrazione muscolare. L’elettromiografia è un esame di tipo funzionale che analizza il funzionamento di uno o più muscoli attraverso i potenziali elettrici che si sviluppano in esso durante la contrazione. Patologie del sistema muscolare o del sistema nervoso possono compromettere il comportamento fisiologico che il corpo richiede e l’elettromiografia può aiutare nella diagnosi. Oltre al campo medico, l’elettromiografia può dimostrarsi utile in ambito sportivo, valutando come il sistema muscolare evolve nella sua risposta quando sottoposto a cicli di lavoro o di recupero. Obiettivo dell’elaborato è descrivere e comprendere il principio di funzionamento dell’indagine elettromiografica, analizzando lo strumento elettromiografo e il segnale elettromiografico, e come può essere applicata in ambito sportivo. È fornita una breve descrizione del sistema muscolare, dal punto di vista strutturale e meccanico, e del sistema nervoso, dal punto di vista elettrico. Tali principi permettono di comprendere come la forza muscolare viene prodotta e come il segnale mioelettrico si propaga. Dell’elettromiografo sono presentati gli elementi utilizzati per la registrazione e l’elaborazione del segnale. Per quanto riguarda il segnale, invece, vengono esposti i metodi di acquisizione, interpretazione ed elaborazione digitale dello stesso. In un’ultima parte si confrontano alcune specifiche tecniche di elettromiografi commerciali in funzione della specifica applicazione. È infine affrontato l’utilizzo dell’elettromiografia in ambito sportivo, esponendo alcuni articoli riguardanti il nuoto e il rugby. Nel caso del nuoto è esaminato come alcuni muscoli reagiscono lavorando ad intensità diverse e tra atleti di livello agonistico differente. Invece, nel caso del rugby viene fatto un confronto su come alcuni muscoli si attivano in un soggetto sano e in un soggetto patologico.
Resumo:
Il contenuto di questo volume non vuole rappresentare un testo didattico per lo studio in generale della vulcanologia in quanto in esso si tratta unicamente quell’a-spetto della disciplina che riguarda il vulcanismo esplosivo. In tal senso l’autore ritiene che questo testo possa essere utile per gli studenti di Scienze Geologiche che, vivendo nelle aree vulcaniche italiane di età quaternaria ed anche attive, possano, da laureati, svolgere attività professionali mirate alla individuazione e definizione di Pericolosità, Vulnerabilità e Rischio Vulcanico. Trattare gli argomenti che seguono non è stato facile e forse si poteva, in alcuni casi, renderli più semplici, ma talvolta la semplicità non sempre è sinonimo di precisione; inoltre, per descrivere certi aspetti non quantitativi si è costretti ad utilizzare un linguaggio quanto più possibile “ad hoc”. L’autore ha svolto la propria attività di ricerca in aree vulcaniche, sia in Italia che all’estero. Le ricerche in Italia sono state da sempre concentrate nelle aree di vulcanismo attivo in cui l’attività del vulcanologo è finalizzata fondamentalmente alla definizione della Pericolosità Vulcanica supporto indispensabile per la definizione dell’aree a Rischio Vulcanico, intendendo per Rischio il prodotto della Pericolosità per il Danno in termini, questo, di numero di vite umane ovvero di valore monetario dei beni a rischio nell’area vulcanica attiva. Le ricerche svolte dall’autore in Africa Orientale (Etiopia e Somalia) e nello Yemen hanno contribuito ad assimilare i concetti di vulcanologia regionale, rappresentata dall’ampia diffusione del vulcanismo di plateau, variabile per spessore dai 1500 ai 3000 metri, fra i quali si inseriscono, nella depressione dell’Afar, catene vulcaniche inquadrabili, dal punto di vista geodinamico, come “oceaniche” alcune delle quali attive e che si sviluppano per decine/centinaia di chilometri. Nelle aree vulcaniche italiane le difficoltà che sorgono durante il rilevamento risiedono nella scarsa continuità di affioramenti, talvolta incompleti per la descrizione delle variazioni di facies piroclastiche, non disgiunta dalla fitta vegetazione ovvero ur banizzazione specialmente nelle aree di vulcanismo attivo. Il rilevamento vulcanologico richiede competenze e l’adozione di scale adatte a poter cartografare le variazioni di facies piroclastiche che, a differenza dalle assise sedimentarie, in un’area vulcanica possono essere diffuse arealmente soltanto per alcune centinaia di metri. I metodi di studio delle rocce piroclastiche sono del tutto simili a quelli che si usano per le rocce clastiche, cioè dall’analisi delle strutture e delle tessiture alla litologica fino a quella meccanica; su questi clasti inoltre le determinazioni della densità, della mineralogia e della geochimica (Elementi in tracce e Terre Rare), ottenute sulla frazione vetrosa, rappresentano parametri talvolta identificativi di un’area vulcanica sorgente. Non esistono testi nei quali venga descritto come si debba operare nelle aree vulcaniche per le quali l’unica certezza unificante è rappresentata dall’evidenza che, nelle sequenze stratigrafiche, il termine al top rappresenta quello più relativamente recente mentre quello alla base indica il termine relativo più vecchio. Quanto viene riportato in questo testo nasce dall’esperienza che è stata acquisita nel tempo attraverso una costante azione di rilevamento che rappresenta l’uni- ca sorgente di informazione che un vulcanologo deve ricavare attraverso un attento esame dei depositi vulcanici (dalla litologia alla mineralogia, alla tessitura, etc.) la cui distribuzione, talvolta, può assumere un carattere interegionale in Italia nell’ambito dell’Olocene. Soltanto l’esperienza acquisita con il rilevamento produce, in un’area di vulcanismo attivo, risultati positivi per la definizione della Pericolosità, sapendo però che le aree vulcaniche italiane presentano caratteristiche ampiamente differenti e di conseguenza il modo di operare non può essere sempre lo stesso. Un esempio? Immaginate di eseguire un rilevamento vulcanico prima al Somma-Vesuvio e poi nei Campi Flegrei: sono mondi completamente differenti. L’autore desidera ribadire che questo testo si basa sulla esperienza acquisita sia come geologo sia come docente di Vulcanologia; pertanto il libro potrà forse risultare più o meno bilanciato, in forza dell’argomento trattato, in quanto durante l’attività di ricerca l’autore, come tutti, ha affrontato alcuni argomenti più di altri. Questo approccio può essere considerato valido per chiunque voglia scrivere un libro in maniera autonoma e originale, non limitandosi, come molte volte avviene, a tradurre in italiano un libro su tematiche analoghe diffuso, ad esempio, nel mondo anglosassone.Diversamente, si sarebbe potuto concepire un libro come un collage di capitoli scritti da vari autori, che magari avevano esperienza più specifica nei singoli argomenti, ma in tal senso si sarebbe snaturato lo spirito con cui si è impostato il progetto. L’autore, infine, ha fatto ricorso al contributo di altri autorevoli colleghi solo per temi importantissimi, ma in qualche modo complementari rispetto al corpus costitutivo del Vulcanismo Esplosivo.
Resumo:
E' stato eseguito uno studio geologico del comprensorio Centane-Panoramica (Isola di Procida, Golfo di Napoli) finalizzato alla determinazione delle caratteristiche tecniche dei terreni e della granulometria nelle aree lato mare che caratterizzano la falesia costiera tufacea tra Punta Pizzaco e Punta Solchiaro. Sono state eseguite prove penetrometriche dinamiche i cui risultati sono stati elaborati unitamente alle curve granulometriche dei terreni. I risultati ottenuti hanno consentito di definire il grado di dissesto geomorfologico e la natura dei terreni in aree sub-pianeggianti poste alla sommità della falesia costiera.
Resumo:
L’espressione di geni eterologhi in Escherichia coli rappresenta uno dei metodi più veloci, semplici ed economici per la produzione di ampie quantità di proteine target. Tuttavia, meccanismi di folding e le modifiche post traduzionali inducono a volte un non corretto ripiegamento delle proteine nella conformazione nativa, con successiva aggregazione in quelli che vengono definiti corpi di inclusione. Nel nostro caso, l’attenzione è stata focalizzata su una Green Fluorescent Protein (GFP) di 228 aa estratta da Anemonia sulcata, contenente un fluoroforo composto da tre amminoacidi Gln63, Tyr64, Gly65 all'interno di una struttura a barile. Il corretto folding della proteina era correlato strettamente alla funzionalità del fluoroforo. Il nostro obiettivo è stato quello, quindi, di ottimizzare il processo di biosintesi della GFP espressa in E. coli, ovviando alla formazione di corpi di inclusione contenenti la proteina (non funzionale), definendo e standardizzando inoltre, le condizioni che consentivano di produrre la più alta percentuale di GFP correttamente ripiegata (in condizioni non denaturanti) e quindi funzionale.