1000 resultados para Ribes rosso,Prodotti funzionali,Tecniche estrattive,Prodotti a base di carne


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le emissioni di CO2 in atmosfera da fonti antropogeniche sono attualmente la principale causa del surriscaldamento globale. Tecnologie sostenibili note come Power-to-gas, consentono di valorizzare la CO2, per la produzione di metano, mediante reazione con H2 proveniente dall’elettrolisi dell’acqua, utilizzando energia prodotta da fonti rinnovabili. Il metano, essendo un vettore energetico molto importante, se possiede requisiti di purezza adeguati, può essere introdotto direttamente nella rete del gas. In questo lavoro di tesi sono state investigate le prestazioni catalitiche, nella reazione di metanazione della CO2, di catalizzatori derivati da composti tipo idrotalcite a base di Ni, modificati con La, e con l’aggiunta di Mg e Zn. I catalizzatori sono stati sintetizzati per coprecipitazione a pH costante, calcinati e ridotti prima di condurre le prove catalitiche. Sono stati inoltre caratterizzati mediante tecniche XRD, H2-TPR, analisi porosimetrica e spettroscopia micro-Raman, sia da calcinati che da spenti. I risultati ottenuti dalle prove catalitiche hanno dimostrato che la presenza del La in un catalizzatore Ni/Al aumenta notevolmente l’attività in termini di conversione di CO2 e selettività in CH4, soprattutto a temperature tra 250 e 300°C. L’aggiunta dello Zn nella struttura ad ossidi misti invece ne inibisce l’attività catalitica, portando ad una diminuzione drastica della conversione e selettività. La presenza del Mg promuove una migliore attività catalitica, rispetto ai catalizzatori con solo La, ma necessita di una temperatura di riduzione più elevata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’uso di molecole stabilizzanti (polimeri, surfattanti o leganti organici) nel corso della sintesi di nanoparticelle in sospensione è fondamentale per permettere il controllo della dimensione della fase attiva e per evitare l’aggregazione dei colloidi nella fase di sintesi e deposizione del sol metallico sul supporto. Nonostante questo, molto spesso, l’effetto dello stabilizzante non è solo quello di modificare le proprietà morfologiche (ad esempio la dimensione) delle nanoparticelle supportata ma anche di cambiare l’interazione della fase attiva con i reagenti dal punto di vista elettronico e diffusionale. La messa a punto di metodologie di sintesi controllate ed efficaci è molto importante. Le tecniche di sintesi utilizzate per la preparazione di catalizzatori a base di metalli nanostrutturati sono innumerevoli, ma una metodologia particolarmente interessante, che garantisce piccole dimensioni delle nanoparticelle ed un’elevata distribuzione del metallo sul supporto, è la tecnica della sol-immobilization. In questo lavoro di tesi è stato studiato come il tipo e la quantità di stabilizzante influisce sulla dimensione della nanoparticella e sull’attività catalitica del catalizzatore, usando come reazione modello l’ossidazione selettiva dell’5-idrossimetilfurfurale (HMF) ad acido 2,5 furandicarbossilico (FDCA).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi sono stati analizzati campioni di orate (Sparus aurata) da acquacoltura allevate con differenti diete, commerciali o innovative, con lo scopo di verificare se le diverse formulazioni dei mangimi hanno un effetto sul profilo molecolare dei pesci. A tal proposito, è stata utilizzata la spettroscopia di Risonanza Magnetica Nucleare (1H NMR) accoppiata ad un approccio metabolomico poiché, rispetto ad altre tecniche, consente la determinazione simultanea di un’ampia classe di metaboliti che caratterizzano il campione attraverso la generazione di spettri che contengono un ampio spettro di informazioni. Questo lavoro di tesi si sposa bene con l’attuale tendenza di sviluppo dell’acquacoltura, che viene vista come uno strumento interessante per fornire cibo e migliorare la sicurezza alimentare, ma allo stesso tempo esso è in accordo anche con la sempre più elevata attenzione verso sostenibilità, qualità e conformità alle richieste dei consumatori, che sono oggi le principali tendenze nel settore alimentare. Negli ultimi anni si è assistito ad un ampio sviluppo dell’acquacoltura e questo ha portato alla necessità di ricercare strategie per migliorare l’efficienza, la produttività, ma anche la sostenibilità di questi sistemi. Questo ha condotto ad un elevato aumento delle ricerche riguardanti questi aspetti dell’acquacoltura, e l’impatto che la dieta ha sul metabolismo dei pesci è uno di questi. I dati spettroscopici sono stati interpretati attraverso analisi statistica multivariata, nello specifico attraverso l’analisi delle componenti principali, PCA, per individuare eventuali differenze significative tra i tre gruppi a seguito della diversa tipologia di alimentazione. Dal presente lavoro di tesi è stato possibile concludere che i campioni vengono distribuiti e classificati in funzione della dieta. Inoltre, è stato possibile individuare i metaboliti che maggiormente determinano questa separazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In these last years a great effort has been put in the development of new techniques for automatic object classification, also due to the consequences in many applications such as medical imaging or driverless cars. To this end, several mathematical models have been developed from logistic regression to neural networks. A crucial aspect of these so called classification algorithms is the use of algebraic tools to represent and approximate the input data. In this thesis, we examine two different models for image classification based on a particular tensor decomposition named Tensor-Train (TT) decomposition. The use of tensor approaches preserves the multidimensional structure of the data and the neighboring relations among pixels. Furthermore the Tensor-Train, differently from other tensor decompositions, does not suffer from the curse of dimensionality making it an extremely powerful strategy when dealing with high-dimensional data. It also allows data compression when combined with truncation strategies that reduce memory requirements without spoiling classification performance. The first model we propose is based on a direct decomposition of the database by means of the TT decomposition to find basis vectors used to classify a new object. The second model is a tensor dictionary learning model, based on the TT decomposition where the terms of the decomposition are estimated using a proximal alternating linearized minimization algorithm with a spectral stepsize.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Three dimensional (3D) printers of continuous fiber reinforced composites, such as MarkTwo (MT) by Markforged, can be used to manufacture such structures. To date, research works devoted to the study and application of flexible elements and CMs realized with MT printer are only a few and very recent. A good numerical and/or analytical tool for the mechanical behavior analysis of the new composites is still missing. In addition, there is still a gap in obtaining the material properties used (e.g. elastic modulus) as it is usually unknown and sensitive to printing parameters used (e.g. infill density), making the numerical simulation inaccurate. Consequently, the aim of this thesis is to present several work developed. The first is a preliminary investigation on the tensile and flexural response of Straight Beam Flexures (SBF) realized with MT printer and featuring different interlayer fiber volume-fraction and orientation, as well as different laminate position within the sample. The second is to develop a numerical analysis within the Carrera' s Unified Formulation (CUF) framework, based on component-wise (CW) approach, including a novel preprocessing tool that has been developed to account all regions printed in an easy and time efficient way. Among its benefits, the CUF-CW approach enables building an accurate database for collecting first natural frequencies modes results, then predicting Young' s modulus based on an inverse problem formulation. To validate the tool, the numerical results are compared to the experimental natural frequencies evaluated using a digital image correlation method. Further, we take the CUF-CW model and use static condensation to analyze smart structures which can be decomposed into a large number of similar components. Third, the potentiality of MT in combination with topology optimization and compliant joints design (CJD) is investigated for the realization of automated machinery mechanisms subjected to inertial loads.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo lavoro di tesi consiste nella realizzazione di fotocatalizzatori a base di nano-TiO2 per potenziali applicazioni nel campo della depurazione delle acque reflue. Nello specifico sono stati sintetizzati nanocompositi accoppiando nano-TiO2 a due materiali grafitici: ossido di grafene (GO), tramite ultrasonicazione (TGO) e nitruro di carbonio grafitico (g-C3N4), attraverso due tecniche: ultrasonicazione e polimerizzazione termica in situ. Per i compositi TGO lo studio relativo alla sintesi è stato rivolto all’ottimizzazione della percentuale in peso di GO. Per i compositi a base di g-C3N4 lo scopo è stato quello di valutare quale dei due metodi di sintesi fosse il più efficace. I materiali ottenuti sono stati caratterizzati dal punto di vista chimico-fisico (DLS-ELS, XRD, Band Gap, BET, SEM, FT-IR, TGA-DSC) e funzionale. La caratterizzazione funzionale è stata eseguita per valutare le prestazioni fotocatalitiche dei fotocatalizzatori nanocompositi utilizzando, come reazione modello, la fotodegradazione di Rodamina B, sotto luce UV e solare. I risultati hanno messo in luce che la percentuale ottimale di GO, nei compositi TGO, è pari al 16%. Inoltre, è stato osservato un effetto sinergico tra TiO2 e GO dove i nanocompositi TGO hanno mostrato maggiore attività fotocatalitiche rispetto alla singola TiO2. I dati fotocatalitici hanno evidenziato che il metodo ottimale per la preparazione dei compositi a base di g-C3N4 e TiO2, è la polimerizzazione termica in situ a 500°C.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi di laurea compie uno studio sull’ utilizzo di tecniche di web crawling, web scraping e Natural Language Processing per costruire automaticamente un dataset di documenti e una knowledge base di coppie verbo-oggetto utilizzabile per la classificazione di testi. Dopo una breve introduzione sulle tecniche utilizzate verrà presentato il metodo di generazione, prima in forma teorica e generalizzabile a qualunque classificazione basata su un insieme di argomenti, e poi in modo specifico attraverso un caso di studio: il software SDG Detector. In particolare quest ultimo riguarda l’applicazione pratica del metodo esposto per costruire una raccolta di informazioni utili alla classificazione di documenti in base alla presenza di uno o più Sustainable Development Goals. La parte relativa alla classificazione è curata dal co-autore di questa applicazione, la presente invece si concentra su un’analisi di correttezza e performance basata sull’espansione del dataset e della derivante base di conoscenza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni, la ricerca scientifica nell’ambito delle neuroscienze cognitive ha sempre più focalizzato il suo interesse nei confronti dei ritmi cerebrali, ovvero oscillazioni neurali registrabili attraverso tecniche di elettrocenfalografia. In questo lavoro si è investigato il ruolo del ritmo alpha (7-12 Hz) e, in seconda misura, del ritmo gamma (> 30 Hz) rispetto all’attenzione spaziale selettiva. In particolare, partendo da modelli di massa neurale esistenti, si è riusciti a sviluppare un nuovo modello che riesce a simulare un compito di attenzione spaziale sulla base dell’inibition timing hypothesis, che assegna alle onde alpha un ruolo essenziale al fine di trascurare gli stimoli non rilevanti rispetto al compito da svolgere. Successivamente, è stato indagato l’effetto sul modello di alcune degenerazioni neurali tipiche di una delle patologie maggiormente invalidanti, la schizofrenia. Nello specifico, sulla base di evidenze sperimentali che riportano un calo della potenza delle onde gamma nei soggetti schizofrenici a causa della degenerazione degli interneuroni inibitori con dinamica sinaptica veloce, si è riusciti a simulare la progressiva alterazione neurale indotta dalla schizofrenia in termini di incapacità di inibire gli stimoli interferenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel corso degli ultimi anni si è assistito ad un aumento di episodi fraudolenti nel settore alimentare. Ciò è vero anche per il settore oleario: per il suo elevato valore economico, nutrizionale e sensoriale, l’olio extra vergine di oliva è un bersaglio perfetto dei frodatori, che realizzano molteplici tipologie di adulterazione. Questo lavoro di tesi si è focalizzato, in particolare, sull’adulterazione dell’olio extra vergine di oliva con olio di semi di girasole. Su campioni preparati in laboratorio per simulare la frode, a partire da due oli extra vergini di oliva addizionati con percentuali diverse di olio di girasole, sono state effettuate determinazioni analitiche utilizzando un sensore spettrale, basato sulla spettroscopia nel vicino infrarosso, seguite da un’elaborazione chemiometrica dei risultati. Lo strumento portatile è stato sviluppato da una start-up olandese presso cui ho svolto il tirocinio curriculare. Il modello di stima risultante dalle risposte fornite dai 16 pixel del sensore ha mostrato una capacità di rilevazione soddisfacente nei confronti di questa adulterazione, conducendo ad un errore medio nella stima della percentuale di olio di girasole aggiunto intorno al 3%. Tale risultato, se verrà confermato da ulteriori analisi grazie alle quali il modello predittivo potrà essere reso più robusto, potrebbe incoraggiare l’utilizzo di questa metodologia analitica come tecnica rapida di screening, facilmente applicabile anche in un contesto industriale, a supporto delle più laboriose e complesse tecniche analitiche tradizionali, nella rilevazione di adulterazioni di oli extra vergini di oliva con oli di semi di girasole.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La giunzione miotendinea (MTJ) è una struttura anatomica specializzata che collega il muscolo al tendine. La sua funzione è quella di permettere la trasmissione della forza generata dal muscolo al tendine, permettendo il movimento. Essendo una struttura di interfaccia che funge da raccordo tra due tipi di tessuti molto differenti, tende a risentire di una forte concentrazione di tensione, questo la rende fortemente suscettibile a rottura. Le tecniche ad oggi utilizzare per riparare lesioni alla MTJ risultano inadatte ad una completa ed ottimale ripresa meccanica. Al fine di trovare una soluzione a questo problema, l’ingegneria tissutale sta lavorando alla fabbricazione di strutture tridimensionali che siano in grado di imitare al meglio la struttura nativa della MTJ. Le tecniche utilizzate per la produzione di tali strutture sono, principalmente, stampa 3D ed elettrofilatura. Il vantaggio di queste tecniche è la loro elevata risoluzione, che permette di controllare finemente l’architettura di tali strutture artificiali. Nella seguente tesi verrà presentato lo stato dell’arte sulle tecniche utilizzate per la fabbricazione di scaffolds per la rigenerazione della MTJ, soffermandosi in particolare sui metodi di fabbricazione e sulle prestazioni morfologiche, meccaniche e cellulari effettuando un confronto tra i diversi studi che se ne sono occupati, individuandone punti di forza, debolezze e possibili studi futuri che potranno essere effettuati su tali scaffolds. In questo modo, sarà possibile rendersi conto di quale di queste tecniche risulti essere più promettente per il futuro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno degli obiettivi più ambizioni e interessanti dell'informatica, specialmente nel campo dell'intelligenza artificiale, consiste nel raggiungere la capacità di far ragionare un computer in modo simile a come farebbe un essere umano. I più recenti successi nell'ambito delle reti neurali profonde, specialmente nel campo dell'elaborazione del testo in linguaggio naturale, hanno incentivato lo studio di nuove tecniche per affrontare tale problema, a cominciare dal ragionamento deduttivo, la forma più semplice e lineare di ragionamento logico. La domanda fondamentale alla base di questa tesi è infatti la seguente: in che modo una rete neurale basata sull'architettura Transformer può essere impiegata per avanzare lo stato dell'arte nell'ambito del ragionamento deduttivo in linguaggio naturale? Nella prima parte di questo lavoro presento uno studio approfondito di alcune tecnologie recenti che hanno affrontato questo problema con intuizioni vincenti. Da questa analisi emerge come particolarmente efficace l'integrazione delle reti neurali con tecniche simboliche più tradizionali. Nella seconda parte propongo un focus sull'architettura ProofWriter, che ha il pregio di essere relativamente semplice e intuitiva pur presentando prestazioni in linea con quelle dei concorrenti. Questo approfondimento mette in luce la capacità dei modelli T5, con il supporto del framework HuggingFace, di produrre più risposte alternative, tra cui è poi possibile cercare esternamente quella corretta. Nella terza e ultima parte fornisco un prototipo che mostra come si può impiegare tale tecnica per arricchire i sistemi tipo ProofWriter con approcci simbolici basati su nozioni linguistiche, conoscenze specifiche sul dominio applicativo o semplice buonsenso. Ciò che ne risulta è un significativo miglioramento dell'accuratezza rispetto al ProofWriter originale, ma soprattutto la dimostrazione che è possibile sfruttare tale capacità dei modelli T5 per migliorarne le prestazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tema centrale di questa tesi è il Machine Learning e la sua applicabilità nella ricostruzione di immagini biomediche, nello specifico di immagini mammarie. Il metodo attualmente più diffuso per la rilevazione del tumore al seno è la Mammografia 2D digitale, ma l’interesse mostrato ultimamente verso la Tomosintesi ha dimostrato una migliore capacità di diagnosi tumorale, anche ai primi stadi. Sebbene le due tecniche combinate siano in grado di rilevare anche la minima lesione, questo comporta una sovraesposizione alle radiazioni. Lo scopo finale, perciò, è quello di fornire un valido strumento di supporto per la caratterizzazione automatica di masse e opacità in immagini di tomosintesi, così da sottoporre il paziente ad un singolo esame radiografico. L'obiettivo è stato dunque ricostruire, tramite reti neurali Convoluzionali, immagini sintetiche di Tomosintesi di qualità superiore e il più possibile vicine a quelle di mammografia 2D. Sono state presentate nel dettaglio le due tecniche di imaging, le problematiche ad esse legate ed un approfondito confronto dosimetrico. Dopo una trattazione teorica dei principi delle CNN, sono state riportate le caratteristiche delle architetture di rete realizzate nella parte progettuale dell’elaborato. Sono stati valutati i comportamenti dei differenti modelli neurali per uno stesso Dataset di immagini di Tomosintesi, individuandone il migliore in termini di prestazioni finali nelle immagini di Test. Dagli studi effettuati è stata provata la possibilità, in un futuro sempre più prossimo, di applicare la Tomosintesi, con l’ausilio delle reti Convoluzionali, come tecnica unica di screening e di rilevazione del tumore al seno.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi affronta il problema della scalabilità nelle blockchain decentralizzate nel contesto del trade-off tra portata delle transazioni e requisiti hardware per partecipare alla rete. Vengono presentati i Rollup, ovvero tecnologie per verificare on-chain blocchi eseguiti off-chain minimizzando le assunzioni di fiducia. Viene discussa la variante dei Rollup Ottimistici, in particolare di Optimism e l'utilizzo di prove d'invalidità tramite ricerca binaria interattiva e dei Rollup di Validità, in particolare di StarkNet e l'utilizzo di prove di validità tramite prove di integrità computazionale STARK. Infine si confrontano le due soluzioni sul tempo di prelievo, sul costo delle transazioni e tecniche per minimizzarlo, sulla possibilità di applicare la tecnologia ricorsivamente, sulla compatibilità con Ethereum e sulle licenze utilizzate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa relazione di tesi verrà affrontato il problema della locomozione naturale in ambienti virtuali che possiedono una grandezza maggiore dello spazio reale nel quale l'utente si muove. Negli anni sono stati sviluppati numerosi metodi di navigazione, ma tra tutti la locomozione naturale è il sistema che porta un livello di immersione maggiore nello spazio virtuale, più di qualsiasi altra tecnica. In questo lavoro di tesi verrà proposto un algoritmo in grado di favorire la locomozione naturale all'interno di lunghi spazi chiusi, andando a modificare la geometria dello spazio virtuale (che andrà ad assumere una forma circolare) e mantendendo comunque un certo grado di realismo dal punto di vista dell'utente. L'obiettivo è quello di tradurre uno spazio virtuale chiuso e lungo (caso comune: un corridoio) in una forma circolare inscritta in una stanza di 2x2m, con un approccio simile a quello degli impossible spaces, con l'obiettivo di studiare in futuro entro quale percentuale di sovrapposizione l'utente si accorge di trovarsi in una geometria impossibile. Nel primo capitolo verranno introdotti i concetti chiave di VR e AR, nonché un'introduzione all'Engine Unity e al software Blender. Nel secondo capitolo si tratterà di computer graphics, quindi si introdurranno i concetti base della grafica 3D con un focus sulla matematica alla base di ogni processo grafico. Nel terzo capitolo verrà affrontano il concetto di embodiment, quindi la percezione del proprio corpo, l'importanza dell'immersitvità dei sistemi virtuali e verrà descritto un paper precedentemente realizzato riguardante tale concetto. Nel capitolo quattro si parlerà del movimento all'interno dei sistemi di realtà virtuale, della locomozione naturale e delle tecniche per rendere tale metodo più accessibile. Nel capitolo cinque infine verrà descritto l'algoritmo realizzato e verranno mostrati i risultati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni i biosensori enzimatici sono diventati sempre più popolari nel campo delle determinazioni rapide di analiti di interesse industriale ed ambientale. L’utilizzo di tali biosensori consente di evitare, o comunque limitare, l’impiego di metodi analitici basati su tecniche più complesse e dispendiose in termini economici e temporali. Un grande obbiettivo della ricerca negli ultimi anni è quello di costruire biosensori reagentless, ossia dispositivi pronti all’uso da parte degli analisti, indipendentemente dalla loro esperienza. In questo lavoro di tesi sono stati sviluppati dei biosensori amperometrici reagentless che sfruttano l’enzima fosfatasi alcalina (ALP), come elemento di riconoscimento biologico, ed un elettrodo screen-printed (SPE) commerciale, come trasduttore. Per gli elettrodi SPE commerciali sono stati testati modificanti a base di nanomateriali carboniosi e del polimero conduttore PEDOT:ClO4. Sono inoltre stati messi a punto diversi biosensori costruiti utilizzando sia l’enzima ALP immobilizzato che lo stesso enzima in soluzione. I test sono stati eseguiti utilizzando il substrato enzimatico “ascorbil-fosfato di sodio (AAP)” ed alcuni inibitori enzimatici. I dispositivi reagentless sono stati fabbricati mediante stampa 3D e sono stati realizzati appositamente per gli elettrodi SPE commerciali utilizzati. Tali dispositivi sono stati utilizzati per effettuare la determinazione dell’AAP in campo cosmetico e la determinazione dell’enzima ALP in campo alimentare.