1000 resultados para dimensione di anelli affini polinomio di Hilbert
Resumo:
In questo elaborato di tesi sperimentale sono state preparate delle nanofibre elettrofilate di cheratina e PLA caricate con differenti percentuali in peso di grafene ossido. In questo particolare sistema, la dimensione del nano-rinforzo è paragonabile alla dimensione delle nanofibre (circa 150 nm), contrariamente alle convenzionali dimensioni dei rinforzi utilizzati per creare materiali compositi. La matrice polimerica utilizzata è una miscela costituita da cheratina e PLA che ha mostrato interazioni positive di interfase tra i due polimeri. Sono stati studiati gli effetti dei parametri di processo di elettrofilatura sulla morfologia delle nanofibre ottenute. Inoltre, è stata studiata l’influenza del grafene ossido sul processo di elettrofilatura, sulla morfologia delle nanofibrose, sulla viscosità delle miscele dei due polimeri e sulle proprietà termiche e meccaniche delle membrane nanofibrose elettrofilate. Tutte le miscele preparate sono state elettrofilate con successo ed i diametri delle nanofibre ottenute variano da 60-400 nm. I dati sperimentali hanno mostrato una diminuzione del diametro delle nanofibre all’aumentare della concentrazione di grafene ossido dovuta alla diminuzione di viscosità e probabile aumento della conducibilità delle soluzioni contenenti. Le analisi termiche hanno messo in evidenza che c’è un effetto nucleante del grafene ossido che induce, probabilmente, l’organizzazione delle catene proteiche. Le analisi meccaniche in trazione hanno mostrato un aumento del modulo di Young e del carico a rottura delle nanofibre elettrofilate caricate con grafene ossido.
Resumo:
I biopolimeri, al centro dell’attenzione del mondo scientifico, non sempre presentano caratteristiche paragonabili a quelle dei polimeri tradizionali quindi una tecnica molto diffusa che si pone l’obiettivo di migliorare le loro proprietà è il blending. Tuttavia, dalla miscelazione due polimeri possono risultare miscibili, parzialmente miscibili o immiscibili. Nel caso in cui fossero immiscibili una pratica comune è quella di aggiungere un compatibilizzante con l’obiettivo di ridurre le tensioni interfacciali, stabilizzare la morfologia e migliorare le proprietà. Nello specifico PLA e PCL, immiscibili tra loro, presentano proprietà notevoli quindi il nostro contributo si inserisce in quest’ambito con l’obiettivo di progettare e sintetizzare nuovi compatibilizzanti, copolimeri statistici, composti da due unità monomeriche diverse da quelle che costituiscono il blend, tuttavia affini ognuna ad una delle due fasi. Al fine di studiare le loro potenziali attività compatibilizzanti i copolimeri sono stati aggiunti al blend PLA/PCL e sono state studiate le proprietà risultanti mediante analisi termiche, strutturali e morfologiche.
Resumo:
L’uso di molecole stabilizzanti (polimeri, surfattanti o leganti organici) nel corso della sintesi di nanoparticelle in sospensione è fondamentale per permettere il controllo della dimensione della fase attiva e per evitare l’aggregazione dei colloidi nella fase di sintesi e deposizione del sol metallico sul supporto. Nonostante questo, molto spesso, l’effetto dello stabilizzante non è solo quello di modificare le proprietà morfologiche (ad esempio la dimensione) delle nanoparticelle supportata ma anche di cambiare l’interazione della fase attiva con i reagenti dal punto di vista elettronico e diffusionale. La messa a punto di metodologie di sintesi controllate ed efficaci è molto importante. Le tecniche di sintesi utilizzate per la preparazione di catalizzatori a base di metalli nanostrutturati sono innumerevoli, ma una metodologia particolarmente interessante, che garantisce piccole dimensioni delle nanoparticelle ed un’elevata distribuzione del metallo sul supporto, è la tecnica della sol-immobilization. In questo lavoro di tesi è stato studiato come il tipo e la quantità di stabilizzante influisce sulla dimensione della nanoparticella e sull’attività catalitica del catalizzatore, usando come reazione modello l’ossidazione selettiva dell’5-idrossimetilfurfurale (HMF) ad acido 2,5 furandicarbossilico (FDCA).
Resumo:
L’obiettivo principale della tesi, è quello di mettere a confronto soluzioni basate su tecnologie diverse e individuare la soluzione migliore che permetta di stabilire se le persone inquadrate in un’immagine indossano correttamente o meno la mascherina protettiva come previsto dalle norme anti-covid. Per raggiungere l’obiettivo verranno confrontate diverse architetture costruite per lo stesso scopo e che si basano sui principi di Machine Learning e Deep Learning, e verranno messe in funzione su insieme di dataset individuati, che sono stati creati per propositi affini.
Resumo:
Le microplastiche (MP) rientrano nella categoria di contaminanti emergenti per la loro pericolosità e persistenza nell'ecosistema. Gli impianti di trattamento acque sono identificati come una fonte principale di MP per l’ambiente. A causa della mancanza di metodi di separazione standard per le MP da fanghi ed acque reflue, nel presente lavoro sperimentale, sono testati diversi metodi di separazione delle MP da campioni di fanghi e acque di due impianti reali. Tramite analisi allo stereomicroscopio e identificazione della struttura polimerica mediante spettroscopia infrarossa in riflettanza totale attenuata (FTIR-ATR) si sono ottenute delle prime stime sulle quantità di MP all’interno dei depuratori che andranno vagliate con successive prove. In generale c’è una grande variabilità associata al punto di prelievo, al periodo di campionamento e alle caratteristiche del refluo. I dati sperimentali confermano la presenza di MP sia nelle acque che nei fanghi. Per la linea acque sono esaminati un trattamento convenzionale a fanghi attivi di un piccolo impianto (1) e un trattamento terziario di filtrazione a sabbia con peracetico e UV di un impianto di potenzialità superiore (2). Seppure le efficienze di rimozione siano alte (93,37% per l’impianto 1 e 59,80% per il 2), i carichi di MP rilasciati in ambiente sono elevati a causa delle portate trattate. Il fatto che MP della stessa morfologia e colore si ritrovino in setacci di differenti dimensioni e che le concentrazioni aumentino al diminuire della dimensione, suggerisce che subiscano svariate frammentazioni a monte del campionamento. Per i fanghi sono testati 3 metodi di pretrattamento individuando il migliore in quello con pre-digestione con H2O2 e separazione per densità con NaI che verrà in seguito implementata. Nei fanghi tendono a concentrarsi le MP rimosse dalla linea acque che di solito sono quelle di densità maggiore, infatti si riscontra prevalenza di microparticelle.
Resumo:
Dopo lo sviluppo dei primi casi di Covid-19 in Cina nell’autunno del 2019, ad inizio 2020 l’intero pianeta è precipitato in una pandemia globale che ha stravolto le nostre vite con conseguenze che non si vivevano dall’influenza spagnola. La grandissima quantità di paper scientifici in continua pubblicazione sul coronavirus e virus ad esso affini ha portato alla creazione di un unico dataset dinamico chiamato CORD19 e distribuito gratuitamente. Poter reperire informazioni utili in questa mole di dati ha ulteriormente acceso i riflettori sugli information retrieval systems, capaci di recuperare in maniera rapida ed efficace informazioni preziose rispetto a una domanda dell'utente detta query. Di particolare rilievo è stata la TREC-COVID Challenge, competizione per lo sviluppo di un sistema di IR addestrato e testato sul dataset CORD19. Il problema principale è dato dal fatto che la grande mole di documenti è totalmente non etichettata e risulta dunque impossibile addestrare modelli di reti neurali direttamente su di essi. Per aggirare il problema abbiamo messo a punto nuove soluzioni self-supervised, a cui abbiamo applicato lo stato dell'arte del deep metric learning e dell'NLP. Il deep metric learning, che sta avendo un enorme successo soprattuto nella computer vision, addestra il modello ad "avvicinare" tra loro immagini simili e "allontanare" immagini differenti. Dato che sia le immagini che il testo vengono rappresentati attraverso vettori di numeri reali (embeddings) si possano utilizzare le stesse tecniche per "avvicinare" tra loro elementi testuali pertinenti (e.g. una query e un paragrafo) e "allontanare" elementi non pertinenti. Abbiamo dunque addestrato un modello SciBERT con varie loss, che ad oggi rappresentano lo stato dell'arte del deep metric learning, in maniera completamente self-supervised direttamente e unicamente sul dataset CORD19, valutandolo poi sul set formale TREC-COVID attraverso un sistema di IR e ottenendo risultati interessanti.
Resumo:
Il presente lavoro tratta il tema della violenza di genere, in particolare femminicidio, stalking e violenza domestica per la connessione tra questi intercorrente nell’escalation violenta. Spesso, i femminicidi sono preceduti da stalking o ripetuti episodi di violenza fisica prettamente consumata in ambito domestico e relazioni affettive pregresse/attuali. La prima parte del lavoro descrive ambito scientifico e giuridico, internazionale e nazionale, della violenza di genere, dimensione del fenomeno ed evoluzione normativa a tutela delle vittime, come richiesto dalla Convenzione di Istanbul. La seconda parte affronta aspetti medico-legali della violenza di genere (attività di patologia forense, genetica forense e tossicologia forense nei femminicidi, assistenza medico-legale alla vittima di maltrattamenti e violenza sessuale, valutazione medico-legale del danno alla persona per stalking). La terza parte presenta lo studio su casistica autoptica di femminicidi del 1950-2019 e provvedimenti di ammonimento del Questore per stalking e per violenza domestica del 2009-2020 nella provincia bolognese. Secondo i risultati il femminicidio è un fenomeno di “vecchia data”, in un quadro normativo-culturale che “tollerava” violenza a danno di vittime femminili. L’andamento del fenomeno è costante fino a oggi con modifiche di cause e mezzi del decesso. L’aumentata età media delle vittime richiama il crescente fenomeno dell’elder abuse. Negli ammonimenti per stalking e per violenza domestica analizzati prevalgono vittime di genere femminile e autori di genere maschile, in vicende affettive e familiari. Lo studio approfondito delle caratteristiche di autori e vittime di femminicidio, stalking e violenza domestica permette di individuare indicatori di rischio per implementare strategie di prevenzione mirate. Il punto di vista privilegiato medico-legale può assumere un ruolo centrale insieme alle altre figure coinvolte in prevenzione, repressione e contrasto alla violenza di genere. Solo un rigoroso approccio metodologico multidisciplinare può aiutare nella prevenzione. La ricerca in tale ambito è il punto di forza della gestione multidisciplinare della vittima.
Resumo:
Nello sport di alto livello l’uso della tecnologia ha raggiunto un ruolo di notevole importanza per l’analisi e la valutazione della prestazione. Negli ultimi anni sono emerse nuove tecnologie e sono migliorate quelle pre-esistenti (i.e. accelerometri, giroscopi e software per l’analisi video) in termini di campionamento, acquisizione dati, dimensione dei sensori che ha permesso la loro “indossabilità” e l’inserimento degli stessi all’interno degli attrezzi sportivi. La tecnologia è sempre stata al servizio degli atleti come strumento di supporto per raggiungere l’apice dei risultati sportivi. Per questo motivo la valutazione funzionale dell’atleta associata all’uso di tecnologie si pone lo scopo di valutare i miglioramenti degli atleti misurando la condizione fisica e/o la competenza tecnica di una determinata disciplina sportiva. L’obiettivo di questa tesi è studiare l’utilizzo delle applicazioni tecnologiche e individuare nuovi metodi di valutazione della performance in alcuni sport acquatici. La prima parte (capitoli 1-5), si concentra sulla tecnologia prototipale chiamata E-kayak e le varie applicazioni nel kayak di velocità. In questi lavori è stata verificata l’attendibilità dei dati forniti dal sistema E-kayak con i sistemi presenti in letteratura. Inoltre, sono stati indagati nuovi parametri utili a comprendere il modello di prestazione del paddler. La seconda parte (capitolo 6), si riferisce all’analisi cinematica della spinta verticale del pallanuotista, attraverso l’utilizzo della video analisi 2D, per l’individuazione delle relazioni Forza-velocità e Potenza-velocità direttamente in acqua. Questo studio pilota, potrà fornire indicazioni utili al monitoraggio e condizionamento di forza e potenza da svolgere direttamente in acqua. Infine la terza parte (capitoli 7-8), si focalizza sull’individuazione della sequenza di Fibonacci (sequenza divina) nel nuoto a stile libero e a farfalla. I risultati di questi studi suggeriscono che il ritmo di nuotata tenuto durante le medie/lunghe distanze gioca un ruolo chiave. Inoltre, il livello di autosomiglianza (self-similarity) aumenta con la tecnica del nuoto.
Resumo:
La ricerca proposta affronta il tema dell’identità visiva — uno dei più caratterizzanti e complessi del progetto di comunicazione — applicato alla dimensione pubblica, partendo dalla comprensione e dalla misurazione del profondo mutamento che ha portato alla sua trasformazione da stemma a marchio e poi a logo, da immagine coordinata a brand a progetto di service e experience. La ricognizione dell’evoluzione della comunicazione pubblica e l’analisi del contesto dell’eredità culturale della “grafica di pubblica utilità” forniscono il primo framework di indagine nel quale si prospetta una lettura della complessità della trasformazione del progetto di identità visiva come occasione per un suo ripensamento. Un secondo framework è individuato nel contesto della comunicazione pubblica italiana in cui l’organizzazione e la progettazione di un sistema “istituzione-design-cittadino” è ancora in transizione. L’analisi dell’evoluzione normativa, dei touchpoint, delle pratiche progettuali, degli strumenti e dei ruoli permette di inquadrare gli attuali spazi e paradigmi di interazione che vedono nel servizio digitale la forma prevalente di relazione tra cittadini e dimensione pubblica Attraverso l'esperienza diretta, l’analisi dei casi studio come strumento di indagine e la sistematizzazione di cinque cluster, la tesi propone una rinnovata definizione di identità visiva pubblica che, distaccandosi da una predominante connotazione marketing-oriented, sia funzionale alla costruzione di esperienze utili, e percezioni di queste, rafforzando e stimolando nuovi paradigmi di relazione tra cittadini e dimensione pubblica. Si propone inoltre una prospettiva progettuale che evolve dalla necessità di individuare nuovi percorsi e modalità di rapportarsi con il progetto di pubblica utilità e per la cittadinanza che rifuggono la manifestazione dell’equivoco - piuttosto comune nel contesto pubblico italiano - del confrontarsi con i cosiddetti «wicked problems» (Buchanan, 1992) ricercando, in termini di comunicazione pubblica soluzioni chiuse ed esclusivamente formali, ritenendo che queste possano avere una reale efficacia nel plasmare i rapporti tra cittadini e dimensione pubblica.
Resumo:
INTRODUZIONE - La presente ricerca è incentrata sul monitoraggio dell’efficacia dei progetti di Educazione Avventura con adolescenti difficili, in particolare del progetto “Lunghi cammini educativi”. A partire da un’analisi della letteratura sull’educazione esperienziale nature-based e in particolare sull’Adventure Education con adolescenti difficili, è stata progettata una rilevazione empirica attraverso cui sperimentare un metodo di monitoraggio finalizzato a cogliere la dimensione processuale (che nella ricerca nell’ambito resta spesso inesplorata, poiché sono maggiormente diffusi i metodi di monitoraggio cosiddetti “black-box”), utilizzando un sistema integrato di diverse tecniche di rilevazione. Le due principali domande che hanno guidato la ricerca sono state: 1.Quali processi educativi significativi si innescano e possono essere osservati durante l’esperienza? 2.Il metodo dell’intervista camminata, integrato ad altri metodi, è utile per individuare e monitorare questi processi? METODO - Collocandosi all’interno di un framework metodologico qualitativo (influenzato da riflessioni post-qualitative, paradigma delle mobilità e sguardo fenomenologico), la ricerca prende la forma di uno studio di caso singolo con due unità di analisi, e prevede la triangolazione di diversi metodi di raccolta dei dati: analisi documentale; osservazione partecipante nei cammini e nelle riunioni di équipe; interviste (prima, durante, dopo il cammino) con differenti tecniche: camminata, “image-elicited”, tradizionale, online. RISULTATI - L’analisi tematica abduttiva delle interviste e delle osservazioni conferma quanto già evidenziato dalla letteratura circa la centralità della dilatazione del campo d’esperienza e del lavoro su alcune life skills (in particolare, competenze personali e growth mindset). Emergono anche alcuni key findings inattesi: il notevole “peso” dello stile educativo dell’accompagnatore; la “scoperta” del ruolo della quotidianità all’interno dell’esperienza straordinaria; la necessità di consapevolezza riguardo al potenziale educativo dell’ambiente (naturale e/o antropizzato), per una maggiore intenzionalità nelle scelte strategiche di cammino. L’intervista camminata, nonostante alcuni limiti, si conferma come metodo effettivamente utile a cogliere la dimensione processuale, e coerente con il contesto indagato.
Resumo:
La ricerca si propone di fornire un contributo allo studio del diritto penale dell’ambiente, prendendo in considerazione la disciplina penalistica che rileva nel caso di offesa – effettiva o potenziale – delle acque marine. Nello specifico – in ragione dei sempre più frequenti casi di inquinamento e disastro ambientale causati dalle immissioni di sostanze tossiche nelle acque marine, riconducibili alle attività di impresa ed alla navigazione – l’obiettivo del lavoro è quello di soffermarsi, partendo dalla dimensione internazionale ed europea del fenomeno, sulle disposizioni penali vigenti nel nostro ordinamento a salvaguardia delle risorse naturali marine, sulle modalità con cui le stesse sono tipizzate e sui possibili autori di tali reati, valutando – in termini più generali – se sia veramente effettivo l’attuale impianto nazionale di tutela oppure se non sia necessario ripensare il ruolo del diritto penale in tale settore. Per ampliare il contesto dell’indagine, verrà presa in considerazione la corrispondente disciplina francese, spagnola e statunitense; tale scelta si fonda sulla circostanza che i tre più significativi disastri ambientali marini della storia moderna si sono verificati rispettivamente a largo delle coste bretoni (petroliera Erika), galiziane (nave Prestige) e della Louisiana (piattaforma petrolifera Deep Water Horizon).
Resumo:
La tesi analizza il modello Input-Output, introdotto da Leontief nel 1936, per studiare la reazione dei sistemi industriali di Germania, Spagna ed Italia alle restrizioni imposte dai governi per limitare la diffusione della pandemia da COVID-19. Si studiano le economie considerando gli scambi tra i settori produttivi intermedi e la domanda finale. La formulazione originale del modello necessita diverse modifiche per descrivere realisticamente le reti di produzione e comunque non è del tutto esaustiva in quanto si ipotizza che la produttività dei sistemi sia sempre tale da soddisfare pienamente la domanda che giunge per il prodotto emesso. Perciò si introduce una distinzione tra le variabili del problema, assumendo che alcune componenti di produzione siano indipendenti dalla richiesta e che altre componenti siano endogene. Le soluzioni di questo sistema tuttavia non sempre risultano appartenenti al dominio di definizione delle variabili. Dunque utilizzando tecniche di programmazione lineare, si osservano i livelli massimi di produzione e domanda corrisposta in un periodo di crisi anche quando i sistemi non raggiungono questa soglia poiché non pienamente operativi. Si propongono diversi schemi di razionamento per distribuire tra i richiedenti i prodotti emessi: 1) programma proporzionale in base alle domande di tutti i richiedenti; 2) programma proporzionale in base alle richieste, con precedenza ai settori intermedi; 3) programma prioritario in cui vengono riforniti i settori intermedi in base alla dimensione dell’ordine; 4) programma prioritario con fornitura totale degli ordini e ordine di consegna casuale. I risultati ottenuti dipendono dal modello di fornitura scelto, dalla dimensione dello shock cui i settori sono soggetti e dalle proprietà della rete industriale, descritta come grafo pesato.
Resumo:
Oggigiorno l'individuazione diagnostica precoce della SARS-CoV-2 attraverso tamponi molecolari è fondamentale per interrompere la trasmissione del virus. Tuttavia, il monitoraggio della diffusione virale attraverso il test standard di RT-qPCR individuale comporta un elevato costo per ciascun tampone nasofaringeo analizzato e i reagenti chimici per l’estrazione dell’RNA virale sono sempre meno disponibili. Per ovviare a tali ostacoli, è stata ripresa la tecnica di group testing, sviluppata per la prima volta da Dorfman nel 1943 per individuare i soggetti affetti da sifilide prima del loro arruolamento. Questa strategia minimizza il numero di test condotti su un insieme di campioni: se un gruppo di n campioni risulta negativo, allora la condizione di ciascuno di essi è stata determinata mediante un solo test invece che con n test individuali. Negli ultimi due anni sono state sviluppate strategie in grado di migliorare le prestazioni del test di gruppo: per scenari a bassa prevalenza l’algoritmo dell’ipercubo rileva un singolo campione positivo in pool con dimensioni fino a 100 campioni attraverso due o più turni di test; invece, il P-BEST utilizza un solo turno di analisi, ma le dimensioni massime dei pool sono più ridotte. Per scenari ad alta prevalenza (10%) il team italiano dell’Università di Bologna ha progettato un metodo che identifica e rileva i membri infetti con un solo turno di test. Tuttavia, affinché il group testing sia efficace come l’analisi individuale dei tamponi molecolari, è necessario minimizzare l’effetto di diluizione, correlato alla dimensione del pool e causa di insorgenza di falsi negativi, nonché di un calo nella sensibilità nei test. I dati ottenuti da questi studi hanno dimostrato che questa strategia offre grandi potenzialità. Essa è essenziale per le indagini di routine della popolazione e concede vantaggi amplificati soprattutto se vengono testati soggetti quotidianamente in contatto tra loro, come famiglie o colleghi di lavoro.
Resumo:
La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.
Resumo:
In questa tesi vengono studiati anelli commutativi unitari in cui ogni catena ascentente o ogni catena discendente di ideali diventa stazionaria dopo un numero finito di passi. Un anello commutativo unitario R in cui vale la condizione della catena ascendente, ossia ogni catena ascendente di ideali a_1 ⊆ a_2 ⊆ · · · ⊆ R diventa stazionaria dopo un numero finito di passi, o, equivalentemente, in cui ogni ideale è generato da un numero finito di elementi, si dice noetheriano. Questa classe di anelli deve il proprio nome alla matematica tedesca Emmy Noether che, nel 1921, studiando un famoso risultato di Lasker per ideali di anelli di polinomi, si accorse che esso valeva in tutti gli anelli in cui gli ideali sono finitamente generati. Questi anelli giocano un ruolo importante in geometria algebrica, in quanto le varietà algebriche sono luoghi di zeri di polinomi in più variabili a coefficienti in un campo K e le proprietà degli ideali dell’anello K[x_1, . . . , x_n] si riflettono nelle proprietà delle varietà algebriche di K^n. Inoltre, per questi anelli esistono procedure algoritmiche che sono possibili proprio grazie alla condizione della catena ascendente. Un anello commutativo unitario R in cui vale la condizione della catena discendente, ossia ogni ogni catena discendente di ideali . . . a_2 ⊆ a_1 ⊆ R diventa stazionaria dopo un numero finito di passi, si dice artiniano, dal nome del matematico austriaco Emil Artin che li introdusse e ne studiò le proprietà. Il Teorema di Akizuki afferma che un anello commutativo unitario R è artiniano se e solo se è noetheriano di dimensione zero, ossia ogni suo ideale primo è massimale.