162 resultados para dimensione di anelli affini polinomio di Hilbert
Resumo:
Il tasso di crescita di tre popolazioni di Pinna nobilis all’interno del Parco Nazionale di Cabrera (Isole Baleari) è stato analizzato per stimare l’età degli individui al fine di una migliore comprensione della biologia e dell’ecologia di questa specie sempre più minacciata. In questa tesi il tasso di crescita di una popolazione profonda, quella delle Baleari (20-30m), è stato confrontato con quello di due popolazioni superficiali: Freus e Gandulf (5-10m). L’obiettivo è valutare l’effetto della profondità e del sito sulle modalità di accrescimento degli individui. Sono state prelevate alcune valve di individui morti di P. nobilis a varie profondità. Lo studio della sclerocronologia ci ha permesso di studiare l’origine dei registri interni di crescita e le modalità di accrescimento. I risultati hanno mostrato una chiara differenziazione della taglia fra le tre popolazioni. Gli individui della popolazione profonda raggiungono dimensioni maggiori elevate e vivono più a lungo. Ma la popolazione di Gandulf ha un tasso di crescita simile a quello della popolazione delle Baleari essendo entrambe caratterizzate da individui di grandi dimensioni (Lmax Baleari= 65,1cm; Lmax Gandulf=62,4cm) e più longevi (età max=27anni). La popolazione di Freus è caratterizzata invece da individui di dimensioni minori e giovani di età (età max=14anni). Anche la velocità di crescita che porta a raggiungere la dimensione asintotica massima risulta simile nella popolazione di Gandulf (K=0,19) e nella popolazione delle Baleari (K=0,14), ed in entrambe è inferiore ai valori rilevati a Freus (K=0,21). Tali risultati evidenziano l’esistenza di una forte variabilità del tasso di accrescimento fra popolazioni collocate sia a profondità che in siti diversi. La differenza riscontrata tra la popolazione di Freus e quella di Gandulf è che la prima si trova in un sito esposto, mentre l’altra è collocata in una cala protetta subendo, quindi, un minor stress idrodinamico.
Resumo:
La QFT è una teoria nata in ambito fisico per risolvere alcuni problematiche della teoria quantistica delle particelle, dando risultati sorprendenti. Nasce come teoria effettiva a cui fu successivamente necessario dare un rigore matematico. In generale le strutture matematiche teorizzate non risultano adeguate a modellare un ampio spettro di sistemi fisici. Esistono tuttavia dei modelli “giocattolo” perfettamente coerenti per i quali sono stati creati strumenti molto interessanti ed efficaci, come ad esempio gli spazi di Fock. In questa tesi oltre a una presentazione dettagliata degli spazi di Fock verrà descritto un esempio non banale della loro applicazione: il modello interattivo e ristretto ad una sola dimensione spaziale
Resumo:
In questo elaborato di tesi sperimentale sono state preparate delle nanofibre elettrofilate di cheratina e PLA caricate con differenti percentuali in peso di grafene ossido. In questo particolare sistema, la dimensione del nano-rinforzo è paragonabile alla dimensione delle nanofibre (circa 150 nm), contrariamente alle convenzionali dimensioni dei rinforzi utilizzati per creare materiali compositi. La matrice polimerica utilizzata è una miscela costituita da cheratina e PLA che ha mostrato interazioni positive di interfase tra i due polimeri. Sono stati studiati gli effetti dei parametri di processo di elettrofilatura sulla morfologia delle nanofibre ottenute. Inoltre, è stata studiata l’influenza del grafene ossido sul processo di elettrofilatura, sulla morfologia delle nanofibrose, sulla viscosità delle miscele dei due polimeri e sulle proprietà termiche e meccaniche delle membrane nanofibrose elettrofilate. Tutte le miscele preparate sono state elettrofilate con successo ed i diametri delle nanofibre ottenute variano da 60-400 nm. I dati sperimentali hanno mostrato una diminuzione del diametro delle nanofibre all’aumentare della concentrazione di grafene ossido dovuta alla diminuzione di viscosità e probabile aumento della conducibilità delle soluzioni contenenti. Le analisi termiche hanno messo in evidenza che c’è un effetto nucleante del grafene ossido che induce, probabilmente, l’organizzazione delle catene proteiche. Le analisi meccaniche in trazione hanno mostrato un aumento del modulo di Young e del carico a rottura delle nanofibre elettrofilate caricate con grafene ossido.
Resumo:
I biopolimeri, al centro dell’attenzione del mondo scientifico, non sempre presentano caratteristiche paragonabili a quelle dei polimeri tradizionali quindi una tecnica molto diffusa che si pone l’obiettivo di migliorare le loro proprietà è il blending. Tuttavia, dalla miscelazione due polimeri possono risultare miscibili, parzialmente miscibili o immiscibili. Nel caso in cui fossero immiscibili una pratica comune è quella di aggiungere un compatibilizzante con l’obiettivo di ridurre le tensioni interfacciali, stabilizzare la morfologia e migliorare le proprietà. Nello specifico PLA e PCL, immiscibili tra loro, presentano proprietà notevoli quindi il nostro contributo si inserisce in quest’ambito con l’obiettivo di progettare e sintetizzare nuovi compatibilizzanti, copolimeri statistici, composti da due unità monomeriche diverse da quelle che costituiscono il blend, tuttavia affini ognuna ad una delle due fasi. Al fine di studiare le loro potenziali attività compatibilizzanti i copolimeri sono stati aggiunti al blend PLA/PCL e sono state studiate le proprietà risultanti mediante analisi termiche, strutturali e morfologiche.
Resumo:
L’uso di molecole stabilizzanti (polimeri, surfattanti o leganti organici) nel corso della sintesi di nanoparticelle in sospensione è fondamentale per permettere il controllo della dimensione della fase attiva e per evitare l’aggregazione dei colloidi nella fase di sintesi e deposizione del sol metallico sul supporto. Nonostante questo, molto spesso, l’effetto dello stabilizzante non è solo quello di modificare le proprietà morfologiche (ad esempio la dimensione) delle nanoparticelle supportata ma anche di cambiare l’interazione della fase attiva con i reagenti dal punto di vista elettronico e diffusionale. La messa a punto di metodologie di sintesi controllate ed efficaci è molto importante. Le tecniche di sintesi utilizzate per la preparazione di catalizzatori a base di metalli nanostrutturati sono innumerevoli, ma una metodologia particolarmente interessante, che garantisce piccole dimensioni delle nanoparticelle ed un’elevata distribuzione del metallo sul supporto, è la tecnica della sol-immobilization. In questo lavoro di tesi è stato studiato come il tipo e la quantità di stabilizzante influisce sulla dimensione della nanoparticella e sull’attività catalitica del catalizzatore, usando come reazione modello l’ossidazione selettiva dell’5-idrossimetilfurfurale (HMF) ad acido 2,5 furandicarbossilico (FDCA).
Resumo:
L’obiettivo principale della tesi, è quello di mettere a confronto soluzioni basate su tecnologie diverse e individuare la soluzione migliore che permetta di stabilire se le persone inquadrate in un’immagine indossano correttamente o meno la mascherina protettiva come previsto dalle norme anti-covid. Per raggiungere l’obiettivo verranno confrontate diverse architetture costruite per lo stesso scopo e che si basano sui principi di Machine Learning e Deep Learning, e verranno messe in funzione su insieme di dataset individuati, che sono stati creati per propositi affini.
Resumo:
Le microplastiche (MP) rientrano nella categoria di contaminanti emergenti per la loro pericolosità e persistenza nell'ecosistema. Gli impianti di trattamento acque sono identificati come una fonte principale di MP per l’ambiente. A causa della mancanza di metodi di separazione standard per le MP da fanghi ed acque reflue, nel presente lavoro sperimentale, sono testati diversi metodi di separazione delle MP da campioni di fanghi e acque di due impianti reali. Tramite analisi allo stereomicroscopio e identificazione della struttura polimerica mediante spettroscopia infrarossa in riflettanza totale attenuata (FTIR-ATR) si sono ottenute delle prime stime sulle quantità di MP all’interno dei depuratori che andranno vagliate con successive prove. In generale c’è una grande variabilità associata al punto di prelievo, al periodo di campionamento e alle caratteristiche del refluo. I dati sperimentali confermano la presenza di MP sia nelle acque che nei fanghi. Per la linea acque sono esaminati un trattamento convenzionale a fanghi attivi di un piccolo impianto (1) e un trattamento terziario di filtrazione a sabbia con peracetico e UV di un impianto di potenzialità superiore (2). Seppure le efficienze di rimozione siano alte (93,37% per l’impianto 1 e 59,80% per il 2), i carichi di MP rilasciati in ambiente sono elevati a causa delle portate trattate. Il fatto che MP della stessa morfologia e colore si ritrovino in setacci di differenti dimensioni e che le concentrazioni aumentino al diminuire della dimensione, suggerisce che subiscano svariate frammentazioni a monte del campionamento. Per i fanghi sono testati 3 metodi di pretrattamento individuando il migliore in quello con pre-digestione con H2O2 e separazione per densità con NaI che verrà in seguito implementata. Nei fanghi tendono a concentrarsi le MP rimosse dalla linea acque che di solito sono quelle di densità maggiore, infatti si riscontra prevalenza di microparticelle.
Resumo:
Dopo lo sviluppo dei primi casi di Covid-19 in Cina nell’autunno del 2019, ad inizio 2020 l’intero pianeta è precipitato in una pandemia globale che ha stravolto le nostre vite con conseguenze che non si vivevano dall’influenza spagnola. La grandissima quantità di paper scientifici in continua pubblicazione sul coronavirus e virus ad esso affini ha portato alla creazione di un unico dataset dinamico chiamato CORD19 e distribuito gratuitamente. Poter reperire informazioni utili in questa mole di dati ha ulteriormente acceso i riflettori sugli information retrieval systems, capaci di recuperare in maniera rapida ed efficace informazioni preziose rispetto a una domanda dell'utente detta query. Di particolare rilievo è stata la TREC-COVID Challenge, competizione per lo sviluppo di un sistema di IR addestrato e testato sul dataset CORD19. Il problema principale è dato dal fatto che la grande mole di documenti è totalmente non etichettata e risulta dunque impossibile addestrare modelli di reti neurali direttamente su di essi. Per aggirare il problema abbiamo messo a punto nuove soluzioni self-supervised, a cui abbiamo applicato lo stato dell'arte del deep metric learning e dell'NLP. Il deep metric learning, che sta avendo un enorme successo soprattuto nella computer vision, addestra il modello ad "avvicinare" tra loro immagini simili e "allontanare" immagini differenti. Dato che sia le immagini che il testo vengono rappresentati attraverso vettori di numeri reali (embeddings) si possano utilizzare le stesse tecniche per "avvicinare" tra loro elementi testuali pertinenti (e.g. una query e un paragrafo) e "allontanare" elementi non pertinenti. Abbiamo dunque addestrato un modello SciBERT con varie loss, che ad oggi rappresentano lo stato dell'arte del deep metric learning, in maniera completamente self-supervised direttamente e unicamente sul dataset CORD19, valutandolo poi sul set formale TREC-COVID attraverso un sistema di IR e ottenendo risultati interessanti.
Resumo:
La tesi analizza il modello Input-Output, introdotto da Leontief nel 1936, per studiare la reazione dei sistemi industriali di Germania, Spagna ed Italia alle restrizioni imposte dai governi per limitare la diffusione della pandemia da COVID-19. Si studiano le economie considerando gli scambi tra i settori produttivi intermedi e la domanda finale. La formulazione originale del modello necessita diverse modifiche per descrivere realisticamente le reti di produzione e comunque non è del tutto esaustiva in quanto si ipotizza che la produttività dei sistemi sia sempre tale da soddisfare pienamente la domanda che giunge per il prodotto emesso. Perciò si introduce una distinzione tra le variabili del problema, assumendo che alcune componenti di produzione siano indipendenti dalla richiesta e che altre componenti siano endogene. Le soluzioni di questo sistema tuttavia non sempre risultano appartenenti al dominio di definizione delle variabili. Dunque utilizzando tecniche di programmazione lineare, si osservano i livelli massimi di produzione e domanda corrisposta in un periodo di crisi anche quando i sistemi non raggiungono questa soglia poiché non pienamente operativi. Si propongono diversi schemi di razionamento per distribuire tra i richiedenti i prodotti emessi: 1) programma proporzionale in base alle domande di tutti i richiedenti; 2) programma proporzionale in base alle richieste, con precedenza ai settori intermedi; 3) programma prioritario in cui vengono riforniti i settori intermedi in base alla dimensione dell’ordine; 4) programma prioritario con fornitura totale degli ordini e ordine di consegna casuale. I risultati ottenuti dipendono dal modello di fornitura scelto, dalla dimensione dello shock cui i settori sono soggetti e dalle proprietà della rete industriale, descritta come grafo pesato.
Resumo:
Oggigiorno l'individuazione diagnostica precoce della SARS-CoV-2 attraverso tamponi molecolari è fondamentale per interrompere la trasmissione del virus. Tuttavia, il monitoraggio della diffusione virale attraverso il test standard di RT-qPCR individuale comporta un elevato costo per ciascun tampone nasofaringeo analizzato e i reagenti chimici per l’estrazione dell’RNA virale sono sempre meno disponibili. Per ovviare a tali ostacoli, è stata ripresa la tecnica di group testing, sviluppata per la prima volta da Dorfman nel 1943 per individuare i soggetti affetti da sifilide prima del loro arruolamento. Questa strategia minimizza il numero di test condotti su un insieme di campioni: se un gruppo di n campioni risulta negativo, allora la condizione di ciascuno di essi è stata determinata mediante un solo test invece che con n test individuali. Negli ultimi due anni sono state sviluppate strategie in grado di migliorare le prestazioni del test di gruppo: per scenari a bassa prevalenza l’algoritmo dell’ipercubo rileva un singolo campione positivo in pool con dimensioni fino a 100 campioni attraverso due o più turni di test; invece, il P-BEST utilizza un solo turno di analisi, ma le dimensioni massime dei pool sono più ridotte. Per scenari ad alta prevalenza (10%) il team italiano dell’Università di Bologna ha progettato un metodo che identifica e rileva i membri infetti con un solo turno di test. Tuttavia, affinché il group testing sia efficace come l’analisi individuale dei tamponi molecolari, è necessario minimizzare l’effetto di diluizione, correlato alla dimensione del pool e causa di insorgenza di falsi negativi, nonché di un calo nella sensibilità nei test. I dati ottenuti da questi studi hanno dimostrato che questa strategia offre grandi potenzialità. Essa è essenziale per le indagini di routine della popolazione e concede vantaggi amplificati soprattutto se vengono testati soggetti quotidianamente in contatto tra loro, come famiglie o colleghi di lavoro.
Resumo:
La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.
Resumo:
In questa tesi vengono studiati anelli commutativi unitari in cui ogni catena ascentente o ogni catena discendente di ideali diventa stazionaria dopo un numero finito di passi. Un anello commutativo unitario R in cui vale la condizione della catena ascendente, ossia ogni catena ascendente di ideali a_1 ⊆ a_2 ⊆ · · · ⊆ R diventa stazionaria dopo un numero finito di passi, o, equivalentemente, in cui ogni ideale è generato da un numero finito di elementi, si dice noetheriano. Questa classe di anelli deve il proprio nome alla matematica tedesca Emmy Noether che, nel 1921, studiando un famoso risultato di Lasker per ideali di anelli di polinomi, si accorse che esso valeva in tutti gli anelli in cui gli ideali sono finitamente generati. Questi anelli giocano un ruolo importante in geometria algebrica, in quanto le varietà algebriche sono luoghi di zeri di polinomi in più variabili a coefficienti in un campo K e le proprietà degli ideali dell’anello K[x_1, . . . , x_n] si riflettono nelle proprietà delle varietà algebriche di K^n. Inoltre, per questi anelli esistono procedure algoritmiche che sono possibili proprio grazie alla condizione della catena ascendente. Un anello commutativo unitario R in cui vale la condizione della catena discendente, ossia ogni ogni catena discendente di ideali . . . a_2 ⊆ a_1 ⊆ R diventa stazionaria dopo un numero finito di passi, si dice artiniano, dal nome del matematico austriaco Emil Artin che li introdusse e ne studiò le proprietà. Il Teorema di Akizuki afferma che un anello commutativo unitario R è artiniano se e solo se è noetheriano di dimensione zero, ossia ogni suo ideale primo è massimale.
Resumo:
“Può, e se sì come, un luogo nato per separare diventare, dismessa la sua funzione fortemente determinante, un nuovo spazio urbano? In che modo la stessa architettura introversa può aprirsi a una nuova dimensione urbana “conservandosi e trasformandosi?” Questa è la domanda fondamentale che ci si pone quando si deve affrontare una realtà come quella dei complessi manicomiali. Sparsi per tutta la penisola, sono decine le istituzioni lasciate indietro, dove il tempo si è fermato mentre le nostre città andavano avanti. “Una città dentro la città, silenziosa e dimenticata, ai più sconosciuta, quasi interamente abbandonata, dove la luce, filtrata tra le foglie di una rigogliosa vegetazione ormai selvaggia, restituisce una “strana bellezza” a un luogo per molti aspetti inquietante.” Anche se la forma delle architetture rimane la stessa, ad eccezione delle modifiche subite nel tempo sia dal mutare del suo esercizio sia dal decadimento che segue l’abbandono, lo studio si prefissa di indagare il pensiero che si pone tra le istanze della tutela e quelle del cambiamento. Un pensiero complesso al cui interno trovano posto le riflessioni sulla natura fisica del luogo e del loro “senso” in relazione a un tempo trascorso e a uno in corso, in ragione dell’interesse per quello a venire. Un progetto pensato per ricucire lo strappo lasciato dalla damnatio memoriae che hanno subito questi luoghi, restituendo alla comunità nuovi spazi urbani e per rispondere alla domanda che in molti si pongono da tempo su quale sarà il futuro di queste architetture, su cui gravitano fievoli interessi da parte della cultura architettonica e forti interessi economici da parte di chi ne detiene la proprietà, che sono state e continuano a essere estranee alla vita delle collettività urbana.
Resumo:
Analisi termofluidodinamica di un accumulatore di calore che utilizza materiali a cambiamento di fase (PCM). I campi di velocità, di temperatura e di titolo, in regime termico non stazionario, relativi al singolo canale, vengono calcolati con un programma basato sul metodo dei volumi finiti, scritto in ambiente di lavoro Matlab. Vengono proposte diverse ottimizzazioni delle performance di accumulo termico, basate su un algoritmo genetico. Le ottimizzazioni sono fatte sia con differenti tipi di parametri di valutazione, sia con differenti gradi del polinomio che descrive la parete del canale; per ogni ottimizzazione l’algoritmo genetico è stato, quindi, utilizzato per determinare i parametri geometrici del canale ottimali. A partire dai risultati ottenuti dalle ottimizzazioni, vengono poi analizzate le prestazioni di canali della stessa geometria, ai quali viene aggiunta un’intelaiatura metallica. Vengono, infine, mostrati i risultati delle simulazioni numeriche fatte.
Resumo:
Il principale obiettivo del seguente elaborato è quello di fornire una spiegazione introduttiva sul funzionamento delle fornaci solari, implementare la progettazione di una di queste, concentrandosi specialmente sulla analisi ottica e meno su ciò che concerne la chimica del reattore. In particolare vengono analizzate le prestazioni della fornace andando a variare dimensione e forma dello specchio primario a parità di focale, ottenendo così un'analisi del dispositivo in funzione del fattore di concentrazione.