1000 resultados para indirizzo :: 856 :: Curriculum: Strutture
Resumo:
Nell’Ottobre 2015, a seguito di alcuni fenomeni di instabilità avvenuti in corrispondenza delle scarpate lato fiume in sponda sinistra del Po, nel tratto compreso tra Casalmaggiore (CR) e Dosolo (MN), l'Agenzia Interregionale per il fiume Po (AIPO) ha commissionato un' estesa campagna di indagini geognostiche. L'ampio database reso disponibile è stato utilizzato in questa tesi di laurea con l'obiettivo di sviluppare, in collaborazione con i tecnici AIPO, una valida procedura per analizzare i dissesti delle scarpate lato fiume in questo tratto del Po e per identificare gli eventuali interventi di messa in sicurezza più idonei. Lo studio proposto si prefigge i seguenti obiettivi: • La caratterizzazione geotecnica dei terreni costituenti le strutture arginali in esame ed il relativo substrato; • La definizione del modello geotecnico del sistema arginale; • La valutazione della stabilità dell'argine; • La individuazione degli interventi di messa in sicurezza delle scarpate. Attraverso l’elaborazione delle prove CPTU è stato possibile determinare la stratigrafia e i parametri geotecnici delle diverse unità stratigrafiche presenti nelle sezioni considerate significative. Sono state quindi effettuate una serie di analisi con il metodo all'equilibrio limite, verificando la stabilità delle scarpate in condizioni di magra ordinaria e in condizioni di rapido svaso. Tenendo conto che la maggior parte dei tratti analizzati aveva già manifestato segni di instabilità o comunque indicava condizioni prossime al limite dell’equilibrio, si è proceduto in "back analysis" alla individuazione dei parametri di resistenza al taglio operativi, tenendo conto della variabilità degli stessi nell'ambito di una stessa unità stratigrafica. Infine tenendo presente i criteri di progetto degli interventi normalmente adottati sulle sponde, è stato possibile procedere alla modellazione di interventi mirati ad aumentare il fattore di sicurezza, analizzandone i relativi vantaggi e svantaggi.
Resumo:
La tesi è uno studio di alcuni aspetti della nuova metodologia “deep inference”, abbinato ad una rivisitazione dei concetti classici di proof theory, con l'aggiunta di alcuni risultati originali orientati ad una maggior comprensione dell'argomento, nonché alle applicazioni pratiche. Nel primo capitolo vengono introdotti, seguendo un approccio di stampo formalista (con alcuni spunti personali), i concetti base della teoria della dimostrazione strutturale – cioè quella che usa strumenti combinatoriali (o “finitistici”) per studiare le proprietà delle dimostrazioni. Il secondo capitolo focalizza l'attenzione sulla logica classica proposizionale, prima introducendo il calcolo dei sequenti e dimostrando il Gentzen Hauptsatz, per passare poi al calcolo delle strutture (sistema SKS), dimostrando anche per esso un teorema di eliminazione del taglio, appositamente adattato dall'autore. Infine si discute e dimostra la proprietà di località per il sistema SKS. Un percorso analogo viene tracciato dal terzo ed ultimo capitolo, per quanto riguarda la logica lineare. Viene definito e motivato il calcolo dei sequenti lineari, e si discute del suo corrispettivo nel calcolo delle strutture. L'attenzione qui è rivolta maggiormente al problema di definire operatori non-commutativi, che mettono i sistemi in forte relazione con le algebre di processo.
Resumo:
Questo lavoro di tesi tratta il tema delle reti complesse, mostrando i principali modelli di rete complessa quali: il modello Random, il modello Small-World ed il modello Scale-free; si introdurranno alcune metriche usate per descrivere le reti complesse quali la Degree centrality, la Closeness centrality e la Betweenness centrality; si descriveranno i problemi da tenere in considerazione durante la definizione e l’implementazione di algoritmi su grafi; i modelli di calcolo su cui progettare gli algoritmi per risolvere i problemi su grafi; un’analisi prestazionale degli algoritmi proposti per calcolare i valori di Beweenness centrality su grafi di medio-grandi dimensioni. Parte di questo lavoro di tesi è consistito nello sviluppo di LANA, LArge-scale Network Analyzer, un software che permette il calcolo e l’analisi di varie metriche di centralità su grafo.
Resumo:
Il progetto di tesi ha analizzato i processi erosivi in atto in quattro aree della costa emilianoromagnola settentrionale, situate davanti a importanti foci fluviali: Volano, Reno, F. Uniti e Savio. Il lavoro di tesi si colloca all’interno di un progetto più ampio, che prevede la collaborazione tra la Regione Emilia Romagna, Servizio Geologico, Sismico e dei Suoli e l’Istituto di Scienze Marine ISMAR-CNR, sede di Bologna. Quest’ultimo ha acquisito, durante la campagna ERO2010, 210 km di profili sismici ad alta risoluzione in un’area sotto-costa, posta tra i 2 e gli 8 metri di profondità. Il lavoro di tesi ha usufruito di una nuova strategia di analisi, la sismica ad alta risoluzione (Chirp sonar), che ha permesso di identificare ed esaminare l’architettura geologica riconoscibile nei profili ed approfondire la conoscenza dell’assetto sub-superficiale dei depositi, ampliando le conoscenze di base riguardanti la dinamica dei litorali. L’interpretazione dei dati disponibili è avvenuta seguendo differenti fasi di studio: la prima, più conoscitiva, ha previsto l’identificazione delle evidenze di erosione nelle aree in esame mediante l’analisi della variazione delle linee di riva, l’osservazione delle opere poste a difesa del litorale e lo studio dell’evoluzione delle principali foci. Nella fase successiva le facies identificate nei profili sismici sono state interpretate in base alle loro caratteristiche geometriche ed acustiche, identificando le principali strutture presenti e interpretando, sulla base delle informazioni storiche apprese e delle conoscenze geologiche a disposizione, i corpi sedimentari riconosciuti. I nuovi profili Chirp sonar hanno consentito la ricostruzione geologica mediante la correlazione dei dati a mare (database ISMAR-CNR, Bologna, Carta geologica dei mari italiani 1:250.000) con quelli disponibili a terra, quali Carta dell’evoluzione storica dei cordoni costieri (Servizio Geologico e Sismico dei Suoli, Bo) e Carta geologica 1:50.000 (Servizio Geologico d’Italia e Progetto CARG). La conoscenza dei termini naturali e antropici dello stato fisico dei sistemi costieri è il presupposto necessario per l'esecuzione di studi ambientali atti a una corretta gestione integrata della costa. L’analisi approfondita della geologia superficiale fornisce un’opportunità per migliorare il processo decisionale nella gestione dei litorali e nella scelta degli interventi da attuare sulla costa, che devono essere fatti consapevolmente considerando l’assetto geologico e prevedendo una strategia di manutenzione della costa a medio termine. Un singolo intervento di ripascimento produce effetti di breve durata e non sufficienti a sanare il problema e a mitigare il rischio costiero. Nei tratti costieri scarsamente alimentati, soggetti a persistenti fenomeni erosivi, occorre, pertanto, mettere in atto ripetuti interventi di ripascimento accompagnati da un idoneo piano di monitoraggio.
Resumo:
Il presente lavoro di tesi si inserisce all’interno del progetto Europeo Theseus (Innovative technologies for European coasts in a changing climate), volto a fornire una metodologia integrata per la pianificazione sostenibile di strategie di difesa per la gestione dell’erosione costiera e delle inondazioni che tengano in conto non solo gli aspetti tecnici ma anche quelli sociali, economici e ambientali/ecologici. L'area oggetto di studio di questo elaborato di tesi è la zona costiera della Regione Emilia Romagna, costituita unicamente da spiagge sabbiose. In particolare si è focalizzata l’attenzione sulla zona intertidale, in quanto, essendo l’ambiente di transizione tra l’ambiente marino e quello terrestre può fornire indicazioni su fenomeni erosivi di una spiaggia e cambiamenti del livello del mare, unitamente alla risposta agli interventi antropici. Gli obiettivi della tesi sono sostanzialmente tre: un primo obiettivo è confrontare ecosistemi di spiagge dove sono presenti strutture di difesa costiera rispetto a spiagge che ne erano invece prive. Il secondo obiettivo è valutare l’impatto provocato sugli ecosistemi di spiaggia dall’attività stagionale del “bulldozing” e in ultimo proporre un sistema esperto di nuova concezione in grado di prevedere statisticamente la risposta delle comunità bentoniche a diversi tipi di interventi antropici. A tal fine è stato pianificato un disegno di campionamento dove sono stati indagati tre siti differenti per morfologia e impatto antropico: Cesenatico (barriere e pratica bulldozing), Cervia, dissipativa e non soggetta a erosione (assenza di barriere e ma con pratica del bulldozing) e Lido di Dante, tendenzialmente soggetta a erosione (senza barriere e senza pratica del bulldozing). Il campionamento è stato effettuato in 4 tempi (due prima del “bulldozing” e due dopo) nell’arco di 2 anni. In ciascun sito e tempo sono stati campionati 3 transetti perpendicolari alla linea di costa, e per ogni transetto sono stati individuati tre punti relativi ad alta, media e bassa marea. Per ogni variabile considerata sono stati prelevati totale di 216 campioni. Io personalmente ho analizzato i campioni dell’ultima campagna di campionamento, ma ho analizzato l’insieme dei dati. Sono state considerate variabili relative ai popolamenti macrobentonici quali dati di abbondanza, numero di taxa e indice di diversità di Shannon e alcune variabili abiotiche descrittive delle caratteristiche morfologiche dell’area intertidale quali granulometria (mediana, classazione e asimmetria), detrito conchigliare, contenuto di materia organica (TOM), pendenza e lunghezza della zona intertidale, esposizione delle spiagge e indici morfodinamici. L'elaborazione dei dati è stata effettuata mediante tecniche di analisi univariate e multivariate sia sui dati biotici che sulle variabili ambientali, “descrittori dell’habitat”, allo scopo di mettere in luce le interazioni tra le variabili ambientali e le dinamiche dei popolamenti macrobentonici. L’insieme dei risultati delle analisi univariate e multivariate sia dei descrittori ambientali che di quelli biotici, hanno evidenziato, come la risposta delle variabili considerate sia complessa e non lineare. Nonostante non sia stato possibile evidenziare chiari pattern di interazione fra “protezione” e “bulldozing”, sono comunque emerse delle chiare differenze fra i tre siti indagati sia per quanto riguarda le variabili “descrittori dell’habitat” che quelle relative alla struttura dei popolamenti. In risposta a quanto richiesto in contesto water framework directive e in maniera funzionale all’elevate complessità del sistema intertidale è stato proposto un sistema esperto basato su approccio congiunto fuzzy bayesiano (già utilizzato con altre modalità all’interno del progetto Theseus). Con il sistema esperto prodotto, si è deciso di simulare nel sito di Cesenatico due ripascimenti virtuali uno caratterizzato da una gralometria fine e da uno con una granulometria più grossolana rispetto a quella osservata a Cesenatico. Il sistema fuzzy naïve Bayes, nonostante al momento sia ancora in fase di messa a punto, si è dimostrato in grado di gestire l'elevato numero di interazioni ambientali che caratterizzano la risposta della componente biologica macrobentonica nell'habitat intertidale delle spiagge sabbiose.
Resumo:
Il progetto degli edifici privi di smorzatori viscosi eseguito adottando un fattore di riduzione delle forze R5 (fattore di struttura q del D.M.14/01/08) relativo ad uno smorzamento ξ = 5%, mentre per quelli equipaggiati con smorzatori viscosi il fattore di riduzione delle forze adottato sarà R30 = α R5 relativo ad uno smorzamento ξ = 30%, dove il parametro α è un valore tale da garantire un uguale o maggiore livello di sicurezza della struttura ed è assunto pari a 0,9 da analisi precedenti. Quello che in conclusione si vuole ottenere è che la richiesta di duttilità delle strutture con R30 e ξ = 30% sia minore o uguale di quella richiesta dalle strutture con R5 e ξ = 5%: μd30 ≤ μd5 Durante il percorso di tesi è stata anche valutata una procedura di definizione delle curve di Pushover manuale; la procedura indaga un modo rapido e concettualmente corretto per definire un ordine di grandezza della curva di capacità della struttura.
Resumo:
I sistemi di drenaggio urbano meritano particolare attenzione per l’importante compito che devono garantire all’interno della società. L’allontanamento delle acque reflue dalle zone urbanizzate infatti è indispensabile per non creare problemi ed interferenze con attività sociali ed economiche che in esse si svolgono; inoltre un corretto funzionamento del sistema di drenaggio assicura anche un basso impatto ambientale in termini di qualità e quantità. La disponibilità di nuove tecnologie costruttive e materiali in continua evoluzione devono fare fronte alla crescente complessità idraulica, geotecnica e urbanistica delle strutture componenti i sistemi di drenaggio; in tale elaborato si vuole porre l’accento sul problema dello smaltimento delle acque meteoriche nelle zone densamente urbanizzate, la cui soluzione è costituita dall'adozione delle cosiddette BMP (Best Management Practices). Le BMP sono definite come strategie, pratiche o metodi per la rimozione, la riduzione, il ritardo o la prevenzione della quantità di costituenti inquinanti e contaminanti delle acque di pioggia, prima che giungano nei corpi idrici ricettori. Tra esse ricordiamo le cisterne o rain barrels, i pozzi asciutti, i sistemi drywell, le vasche verdi filtranti, i tetti verdi, i canali infiltranti, i fossi di infiltrazione, i pozzi perdenti, i planting container, i canali inerbiti, i bacini di infiltrazione, le gross pullutant traps (gpts), gli stagni, i sistemi di fitodepurazione estensiva (sfe), le pavimentazioni drenanti. In Italia esse risultano ancora scarsamente studiate ed applicate, mentre trovano più ampio sviluppo in realtà estere come in Inghilterra ed in Australia. Per comprendere la efficacia di tali tecniche BMP è necessario analizzarle e, soprattutto, analizzare il loro effetto sul territorio in cui esse vengono inserite e sul regime idrogeologico dell’ambiente. Questa analisi può essere svolta con prove sperimentali su aree di controllo (soluzione economicamente gravosa) o attraverso modelli matematici tramite l’utilizzo di software di calcolo che simulino il comportamento delle portate, dei tiranti idrici e degli inquinanti nei canali e nelle strutture accessorie costituenti la rete fognaria, in conseguenza ad eventi di pioggia dei quali sia nota la distribuzione spaziale e temporale. In questo elaborato si modellizza attraverso il programma Matlab un unico elemento BMP e si osservano i suoi effetti; si procede cioè alla analisi del funzionamento di un ipotetico brown roof installato nella zona di Rimini e si osservano i benefici effetti che ne derivano in termini di volumi di pioggia trattenuti dal sistema considerando diverse tipologie di pioggia e diversi parametri progettuali per il tetto (i fori dello strato inferiore del tetto, la altezza dello strato di terreno, la sua permeabilità e la sua porosità). Si procede poi con la analisi di una ipotetica zona commerciale che sorge sulle sponde di un fiume. Tali analisi vengono svolte con il software HEC-RAS per quanto riguarda la analisi dei livelli del fiume e delle zone a rischio di inondazione. I risultati forniti da questo studio preliminare vengono poi utilizzati come condizioni al contorno per una successiva analisi effettuata con il software InfoWorks in cui si valutano i benefici che derivano dalla installazione di diverse BMP nella zona commerciale oggetto di studio. Tale modello esamina un verosimile scenario inglese, la cittadina infatti si ipotizza situata in Inghilterra e anche gli eventi pluviometrici a cui ci si riferisce sono tipici eventi di pioggia inglesi. Tutti i dati di input elaborati nelle simulazioni sono stati forniti all’interno di un progetto universitario svolto presso l’università di Bradford con la supervisione dei professori Simon Tait ed Alma Schellart. Infine la parte conclusiva dell’elaborato è stata sviluppata in collaborazione con Hera S.p.a. di Rimini all’interno di un percorso di tirocinio curriculare che ha previsto la analisi delle tecnologie BMP adatte per l’ambiente cittadino di Rimini e la osservazione delle performance garantite da tecnologie esistenti sul territorio: i parcheggi permeabili. La realtà riminese infatti deve far fronte a diversi problemi che si innescano durante i periodi di pioggia ed una mitigazione dei volumi di acqua in arrivo alla fognatura grazie a questo tipo di tecnologie, senza quindi ricorrere agli usuali sistemi puntuali, porterebbe sicuramente a notevoli vantaggi. Tali tecnologie però non devono solo essere progettate e costruite in modo corretto, ma devono essere sottoposte a periodici controlli ed adeguate operazioni di manutenzione per non perdere la loro efficacia. Per studiare tale aspetto si procede quindi alla misura della permeabilità di parcheggi drenanti presenti all’interno dei comuni di Cattolica e Rimini ricercando i fattori che influenzano tale caratteristica fondamentale dei parcheggi.
Resumo:
Negli ultimi anni la ricerca ha fatto grandi passi avanti riguardo ai metodi di progetto e realizzazione delle strutture portanti degli edifici, a tal punto da renderle fortemente sicure sotto tutti i punti di vista. La nuova frontiera della ricerca sta quindi virando su aspetti che non erano mai stati in primo piano finora: gli elementi non-strutturali. Considerati fino ad oggi semplicemente carico accessorio, ci si rende sempre più conto della loro capacità di influire sui comportamenti delle strutture e sulla sicurezza di chi le occupa. Da qui nasce l’esigenza di questo grande progetto chiamato BNCs (Building Non-structural Component System), ideato dall’Università della California - San Diego e sponsorizzato dalle maggiori industrie impegnate nel campo delle costruzioni. Questo progetto, a cui ho preso parte, ha effettuato test su tavola vibrante di un edificio di cinque piani in scala reale, completamente arredato ed allestito dei più svariati elementi non-strutturali. Lo scopo della tesi in questione, ovviamente, riguarda l’identificazione strutturale e la verifica della sicurezza di uno di questi elementi non-strutturali: precisamente la torre di raffreddamento posta sul tetto dell’edificio (del peso di circa 3 tonnellate). Partendo da una verifica delle regole e calcoli di progetto, si è passato ad una fase di test sismici ed ispezioni post-test della torre stessa, infine tramite l’analisi dei dati raccolti durante i test e si è arrivati alla stesura di conclusioni.
Resumo:
Questa tesi si pone come obiettivo l'analisi delle componenti di sollecitazione statica di un serbatoio, in acciaio API 5L X52, sottoposto a carichi di flessione e pressione interna attraverso il programma agli elementi finiti PLCd4, sviluppato presso l'International Center for Numerical Methods in Engineering (CIMNE - Barcelona). Questo tipo di analisi rientra nel progetto europeo ULCF, il cui traguardo è lo studio della fatica a bassissimo numero di cicli per strutture in acciaio. Prima di osservare la struttura completa del serbatoio è stato studiato il comportamento del materiale per implementare all'interno del programma una nuova tipologia di curva che rappresentasse al meglio l'andamento delle tensioni interne. Attraverso il lavoro di preparazione alla tesi è stato inserito all'interno del programma un algoritmo per la distribuzione delle pressioni superficiali sui corpi 3D, successivamente utilizzato per l'analisi della pressione interna nel serbatoio. Sono state effettuate analisi FEM del serbatoio in diverse configurazioni di carico ove si è cercato di modellare al meglio la struttura portante relativa al caso reale di "full scale test". Dal punto di vista analitico i risultati ottenuti sono soddisfacenti in quanto rispecchiano un corretto comportamento del serbatoio in condizioni di pressioni molto elevate e confermano la bontà del programma nell'analisi computazionale.
Resumo:
Lo studio della turbolenza è di fondamentale importanza non solo per la fluidodinamica teorica ma anche perchè viene riscontrata in una moltitudine di problemi di interesse ingegneristico. All'aumentare del numero di Reynolds, le scale caratteristiche tendono a ridurre le loro dimensioni assolute. Nella fluidodinamica sperimentale già da lungo tempo si è affermata l'anemometria a filo caldo, grazie ad ottime caratteristiche di risoluzione spaziale e temporale. Questa tecnica, caratterizzata da un basso costo e da una relativa semplicità, rende possibile la realizzazione di sensori di tipo artigianale, che hanno il vantaggio di poter essere relizzati in dimensioni inferiori. Nonostante l'ottima risoluzione spaziale degli hot-wire, infatti, si può verificare, ad alto numero di Reynolds, che le dimensioni dell'elemento sensibile siano superiori a quelle delle piccole scale. Questo impedisce al sensore di risolvere correttamente le strutture più piccole. Per questa tesi di laurea è stato allestito un laboratorio per la costruzione di sensori a filo caldo con filo di platino. Sono in questo modo stati realizzati diversi sensori dalle dimensioni caratteristiche inferiori a quelle dei sensori disponibili commercialmente. I sensori ottenuti sono quindi stati testati in un getto turbolento, dapprima confrontandone la risposta con un sensore di tipo commerciale, per verificarne il corretto funzionamento. In seguito si sono eseguite misure più specifiche e limitate ad alcune particolari zone all'interno del campo di moto, dove è probabile riscontrare effetti di risoluzione spaziale. Sono stati analizzati gli effetti della dimensione fisica del sensore sui momenti statistici centrali, sugli spettri di velocità e sulle funzioni di densità di probabilità.
Resumo:
Il mio lavoro di tesi si intitola "Alla ricerca dell'autenticità. Kathy Acker e Vladimir Sorokin a confronto". La comparazione riflette sulle inaspettate similarità sociali, e di conseguenza letterarie, di Usa e Urss dagli anni Settanta agli anni Novanta, indagate attraverso l'arte dei due scrittori citati nel titolo. Kathy Acker è nata nel 1947 a New York e durante gli anni Settanta frequentò assiduamente la comunità artistica definita "Downtown New York". Vladimir Sorokin è nato nel 1955 nei dintorni di Mosca e negli stessi anni entrò all'intorno del circolo "Moskovskij Konzeptualism" della grande città. Queste due comunità artistiche erano create dalla libera aggregazione di artisti, scultori, letterati, poeti, musicisti.. in un vortice creativo in contrasto con la chiusura sociale e artistica degli ambiti definibili come accademici o ufficiali. Con le loro opere Acker e Sorokin cercarono di distruggere le norme sovraimposte e arrivare all'"autenticità" riguardo al sé, all'homo sovieticus, all'uomo americano e riguardo al genere umano in generale. Nell'arco del mio studio l'utopia del radioso avvenire sovietico e l'utopia del sogno americano d'oltreoceano si sono rivelati come prigioni della vita di ogni giorno, in grado di allontanare l'uomo dai suoi desideri veri e dai suoi impulsi più umani. Le risposte artistiche delle due comunità in generale e dei due scrittori in particolare sono volte alla liberazione dai vincoli dell'utopia e alla riscoperta di ciò che è ritenuto come debolezza e bassezza dell'uomo. Le due comunità artistiche cercarono il contatto con un vasto pubblico non elitario, cercano un linguaggio comprensibile da tutti. Contemporaneamente il corpo con tutte le sue pulsioni cerca di riguadagnare il proprio spazio in un sè egemonizzato dalla mente. Ma quel che queste comunità artistiche soprattutto fanno è porre domande alla coscienza e incoscienza della società. Cercano di trasformare il terrore quotidiano in qualcosa di comprensibile e scaricabile, un ruolo che una volta era proprio dei rituali trasgressivi del popolo e che dal Novecento, con la trasformazione del popolo in massa omologata, sono venuti a mancare. Acker e Sorokin cercano strutture narrative e artistiche in grado di proporre alla “corporealtà collettiva” una via di redenzione ritualistica. Questi artisti non si conformano e sono in grado di illuminare, di dare sostentamento all'individuo nella ricerca personale di una lingua, di un pensiero, di un mito in cui vivere. Reagiscono al balbettio omologante delle società di massa, non si adeguano a nessuna forma fissa e anche la loro arte continua a evolvere, a fallire, a cercare.
Resumo:
Una 3-varietà si dice virtualmente fibrata se ammette un rivestimento finito che è un fibrato con base una circonferenza e fibra una superficie. In seguito al lavoro di geometrizzazione di Thurston e Perelman, la generica 3-varietà risulta essere iperbolica; un recente risultato di Agol afferma che una tale varietà è sempre virtualmente fibrata. L’ingrediente principale della prova consiste nell’introduzione, dovuta a Wise, dei complessi cubici nello studio delle 3-varietà iperboliche. Questa tesi si concentra sulle proprietà algebriche e geometriche di queste strutture combinatorie e sul ruolo che esse hanno giocato nella dimostrazione del Teorema di Fibrazione Virtuale.
Resumo:
La tesi è orientata ad elaborare un’introduzione alla geometria algebrica particolarmente rivolta agli strumenti di algebra commutativa, al fine di affrontare i problemi descritti nell'ultimo paragrafo. A partire da testi basilari per l’argomento, come [A, MD] e [Ha], si introdurrà la nozione di spettro di un anello e si andranno a studiare vari casi che costituiscono una buona base per avere un panorama delle possibili strutture che si generano come schemi associati ad un anello e se ne studieranno le proprietà caratteristiche. In particolare, si analizzeranno proprietà di irriducibilità, finitezza e altro, in connessione con quelle degli anelli commutativi. Una particolare attenzione viene poi rivolta agli schemi 0-dimensionali, alle loro diverse immersioni negli spazi proiettivi ed ai problemi aperti ad essi connessi (es. determinazione della funzione di Hilbert). In questo ambito molti problemi aperti rimangono anche per questioni di semplice formulazione (ad esempio sulla dimensione di particolari spazi lineari di curve piane definite dall'imposizione di singolarità lungo schemi 0-dimensionali).
Resumo:
L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.
Resumo:
Il silicio, materiale di base per la realizzazione di gran parte dei dispositivi microelettronici, non trova largo impiego in fotonica principalmente a causa delle sue proprietà elettromagnetiche: oltre ad un band-gap indiretto, il silicio presenta difatti una elevata simmetria reticolare che non permette la presenza di alcuni effetti, come quello elettro-ottico, che sono invece utilmente sfruttati in altri materiali per la fotonica. E’ stato recentemente dimostrato che la deformazione indotta dalla deposizione di film ad alto stress intrinseco potrebbe indurre alcuni di questi effetti, rompendo le simmetrie della struttura. In questo lavoro di tesi viene studiata, mediante simulazioni, microfabbricazione di dispositivi, e caratterizzazione sperimentale, la deformazione reticolare indotta su strutture di tipo ridge micrometriche in silicio mediante deposizione di un film di Si3N4. La deformazione e’ stata analizzata tramite simulazione, utilizzando il metodo agli elementi finiti ed analisi di strain tramite la tecnica di microscopia ottica a trasmissione Convergent-Beam Electron Diffraction. Questa tecnica permette di ottenere delle mappe 2D di strain con risoluzione spaziale micrometrica e sensibilita’ dell’ordine di 100microstrain. Il confronto fra le simulazioni e le misure ha messo in evidenza un accordo quantitativo fra le due analisi, da una parte confermando la validità del modello numerico utilizzato e dall’altro verificando l’accuratezza della tecnica di misura, impiegata innovativamente su strutture di questo tipo. Si sono inoltre stimate le grandezze ottiche: birifrangenza e variazione dell’indice di rifrazione efficace rispetto al caso deformato.di una guida SOI su cui e’ deposto uno strato di nituro. I valori stimati, per uno spessore di 350 nm sono rispettivamente di 0.014 e -0.00475. Questi valori lasciano credere che la tecnologia sia promettente, e che un’evoluzione nei processi di fabbricazione in grado migliorare il controllo delle deformazione potrebbe aprire la strada ad un utilizzo del silicio deformato nella realizzazione di dispositivi ottici ed elettro-ottici.