655 resultados para Ribes rosso,Prodotti funzionali,Tecniche estrattive,Prodotti a base di carne
Resumo:
Studio che approfondisce e compare le diverse metodologie e tecniche utilizzabili per l'analisi di dispositivi di telefonia cellulare, in particolar modo smartphone, nel contesto di indagini di mobile device forensics
Resumo:
La risonanza magnetica cardiaca è una tecnica di imaging non invasiva, in quanto non necessita l’uso di radiazioni ionizzanti, caratterizzata da un’elevata risoluzione spaziale e che permette acquisizioni in 4-D senza vincoli di orientazione. Grazie a queste peculiarità, la metodica della risonanza magnetica ha mostrato la sua superiorità nei confronti delle altre tecniche diagnostiche ed è riconosciuta come il gold standard per lo studio della fisiologia e fisiopatologia della pompa cardiaca. Nonostante la potenza di questi vantaggi, esistono ancora varie problematiche che, se superate, potrebbero probabilmente migliorare ulteriormente la qualità delle indagini diagnostiche. I software attualmente utilizzati nella pratica clinica per le misure del volume e della massa ventricolare richiedono un tracciamento manuale dei contorni dell’endocardio e dell’epicardio per ciascuna fetta, per ogni frame temporale del ciclo cardiaco. Analogamente avviene per il tracciamento dei contorni del tessuto non vitale. In questo modo l’analisi è spesso qualitativa. Di fatti, la necessità dell’intervento attivo dell’operatore rende questa procedura soggettiva e dipendente dall’esperienza, provocando un’elevata variabilità e difficile ripetibilità delle misure intra e inter operatore, oltre ad essere estremamente dispendiosa in termini di tempo, a causa dell’elevato numero di immagini da analizzare. La disponibilità di una tecnica affidabile per il tracciamento automatico dei contorni dell’endocardio e dell’epicardio consente di superare queste limitazioni ed aumentare l’accuratezza e la ripetibilità delle misure di interesse clinico, quali dimensione, massa e curve di volume ventricolari. Lo scopo di questa tesi è di sviluppare e validare una tecnica di segmentazione automatica che consenta l’identificazione e la quantificazione di cicatrici nel miocardio, a seguito di infarto cardiaco. Il lavoro è composto da due tappe principali. Inizialmente, è presentato un metodo innovativo che permette, in via totalmente automatica, di tracciare in modo accurato e rapido i contorni dell’endocardio e dell’epicardio nel corso dell’intero ciclo cardiaco. Successivamente, l’informazione sulla morfologia cardiaca ricavata nella prima fase è utilizzata per circoscrivere il miocardio e quantificare la transmuralità dell’infarto presente in pazienti ischemici.
Resumo:
Keying e composizione sono da sempre tecniche ampiamente utilizzate in contesti multimediali, quali produzione cinematografica e televisiva; il chroma keying è in particolare la tecnica più popolare, ma presenta una serie di limiti e problematiche. In questo elaborato viene proposta una tecnica alternativa di estrazione, basata sull'uso della profondità, operante in tempo reale e che sfrutta il device Kinect di Microsoft. Sono proposti una serie di algoritmi, basati su tecniche di edge detection, utilizzati per il miglioramento della depth map lungo i bordi di estrazione; viene infine testato il risultato ottenuto dall'implementazione del sistema e proposta una possibile applicazione nell'ambito del teatro multimediale.
Resumo:
Analisi dell'introduzione di tecniche additive nel processo produttivo di airbox nel settore automotive, attraverso lo studio della tecnologia additiva e delle principali tecniche che ne fanno parte. Valutazione delle capacità delle tecniche additive per confrontarle con tecniche di produzione tradizionale, attraverso l'analisi prestazionale, dei costi e dei tempi di produzione.
Resumo:
Prodotti di IV gamma a base di frutta e verdura minimamente trattati o pronti all'uso non possono essere considerati sicuri da un punto di vista microbiologico e sono stati spesso associati a casi di tossinfezione. Per tali episodi è stato evidenziato che la qualità dell'acqua utilizzata per il lavaggio è una fase critica. D'altra parte è noto che la disinfezione è una delle fasi di lavorazione più importanti per i prodotti minimamente trattati in quanto ha effetti diretti sulla qualità dei prodotti finiti, sulla sicurezza e la loro shelf-life. Tradizionalmente, l'industria di IV gamma ha impiegato i composti derivati del cloro per la fase di disinfezione in virtù della loro efficacia, semplicità d'uso e basso costo. Tuttavia vi è una diffusa tendenza ad eliminare i prodotti a base di cloro a causa soprattutto della preoccupazione in relazione ai rischi ambientali e sanitari per il consumatore associati alla formazione di sottoprodotti alogenati cancerogeni. Tra le varie tecnologie emergenti, proposte come alternative al cloro, il plasma ha presentato buone potenzialità in virtù delle specie chimiche che lo compongono, principalmente specie reattive dell’ossigeno e dell’azoto, che sembrano essere responsabili di stress ossidativo alle cellule microbiche, con conseguenti danni per DNA, proteine e lipidi. L’obiettivo generale di questo elaborato finale è stato quello di valutare la possibilità di utilizzare la tecnologia del plasma per la decontaminazione superficiale di carote julienne. In particolare si sono presi in considerazione trattamenti diretti in cui il vegetale è stato esposto al plasma per differenti tempi compresi tra 5 e 40 minuti. Inoltre, si è utilizzo il plasma per il trattamento di acqua che è stata successivamente impiegata per il lavaggio delle carote julienne. L'efficacia di entrambe le modalità di trattamento è stata verificata nei confronti sia della microflora naturalmente contaminante le carote, sia di alcuni microrganismi patogeni che possono essere associati a tale vegetale: Listeria monocytogenes, Salmonella Enteritidis ed Escherichia coli.
Resumo:
In questa tesi si è cercato di trovare le soluzioni più efficaci a supporto delle questioni legate all'ipertensione di seguito descritte attraverso l'uso di tecniche riguardanti l'intelligenza artificiale e l'Internet of Things. Uno tra i compiti dei medici che si occupano di curare i malati di ipertensione è quello di elaborare protocolli per quanto riguarda la prevenzione e la cura di questa malattia, i quali vengono periodicamente aggiornati. Per supportare ciò, il primo progetto sviluppato è consistito in un'analisi dei dati sul dataset ottenuto a partire dall'elaborazione delle risposte date ai questionari che sono stati distribuiti durante la Giornata Mondiale dell'Ipertensione. A partire da questo, si è cercato di evidenziare la classe di persone che con più probabilità sono malate di ipertensione in modo tale che le linee guida aggiornate si concentrino maggiormente su costoro. La seconda questione affrontata è che non sempre le cure che vengono prescritte sono efficaci, talvolta a causa del medico, talvolta a causa del paziente. Si rende perciò necessario fornire ai pazienti degli strumenti che li aiutino direttamente nella cura della loro malattia. Devono avere anche lo scopo di aiutare il medico nel suo lavoro di monitoraggio periodico delle condizioni di salute del paziente, perché possa avere realmente il polso della situazione. Per fare questo, il secondo progetto ha riguardato lo sviluppo di un chatbot disponibile sulla piattaforma di messaggistica istantanea Telegram ad uso dei malati di ipertensione. Questo assistente virtuale permette loro di registrare le misurazioni di pressione che settimanalmente devono effettuare e ricorda loro di farlo quando passa troppo tempo dall'ultima misurazione. Il sistema permette inoltre di visualizzare medie e grafici delle misurazioni che sono state raccolte cosicché il medico può affidarsi ad uno strumento più evoluto del semplice libretto diario in cui il paziente annota tutte le misurazioni.
Resumo:
Il presente lavoro di tesi è stato svolto presso Marr S.p.A.: azienda italiana leader nella distribuzione di prodotti alimentari alla ristorazione extra domestica. Il fulcro dell'attività di MARR S.p.A risiede nell'approvvigionamento dei prodotti ai clientii. Per assicurare un servizio efficiente e redditizio è necessaria un'attenta pianificazione logistica, perciò, il lavoro di questa tesi si è concentrato su due aspetti centrali dell'operazione di riordino merce: la predizione della domanda futura dei prodotti, sulla base di dati riferiti al passato e l'individuazione della quantità effettiva da riordinare all'interno dei magazzini dell'azienda. Si è quindi svolta un'attenta analisi dell'attuale gestione dell'approvvigionamento da parte dell'azienda, quindi, ne sono state messe in luce le principali criticità, le quali risiedono nel fatto che il processo di riordino viene eseguito in maniera manuale sulla base dell'esperienza del Responsabile Acquisti. quindi, sono state sviluppate delle proposte di miglioramento delle attività di riordino: attraverso l’applicazione di modelli previsionali, è stato calcolato, per un campione ristretto di prodotti, il loro fabbisogno mensile, successivamente, questi risultati sono stati integrati con i vincoli di tempo di copertura e minimo d’ordine. Sono stati definiti e calcolati alcuni indici che potessero esprimere il grado di miglioramento della performance aziendale. I risultati avuti attraverso il lavoro di tesi cosa dimostrano quanto l’utilizzo di metodi basati sulle serie storiche forniscano una stima dei volumi di vendita futura più affidabili confronto a quelli ottenuti utilizzando i dati di vendita del mese corrente come stima delle vendite future. Attraverso l’utilizzo dei metodi di Media Mobile, Smorzamento Esponenziale e di Holt-Winters si può arrivare ad un livello di precisione maggiore di quello in uso in MARR S.p.A. ed è possibile giungere ad un’ottimizzazione dei magazzini, riducendone la giacenza del 10%.
Resumo:
La tesi ha come obiettivo quello di confrontare i metodi di previsione delle rotture affrontati durante il corso di studi e avvalorati dal libro di Horst Rinne del 2008. Nell'applicare la teoria al sistema reale, si evincono i problemi che sorgono nelle previsioni, come: l’incertezza, la mancanza e l’impossibilità di utilizzo della totalità dei dati a disposizione. E' stato necessario, pertanto, adattare i dati prima di utilizzarli e sfruttare nuovi metodi per raggiungere i risultati prefissati.
Resumo:
Una sempre crescente quantità di informazione digitale viene condivisa tra miliardi di dispositivi connessi in ogni angolo del pianeta. Per riuscire a sfruttare una banda più ampia ed aumentare la velocità di trasmissione dei dati, i prossimi standard di telecomunicazioni wireless dovranno adoperare frequenze operative sempre più alte, cercando di rispettare stringenti specifiche in termini di affidabilità ed efficienza energetica. In generale, le prestazioni di un transistor dipenderanno dalle terminazioni a cui esso è collegato. In un setup di caratterizzazione e test, è possibile, tramite un metodo noto come load pull attivo, sintetizzare un determinato valore di impedenza ad uno o più piani di riferimento all'interno di un circuito. Questa strategia si basa in generale sulla manipolazione del rapporto tra onde entranti ed uscenti da un piano di riferimento del dispositivo. Se da una parte tecniche di load pull attivo a banda larga a radiofrequenza hanno ricevuto un notevole interesse sia commerciale che accademico, dall'altra le strategie per la sintesi di impedenze presenti al terminale di alimentazione dell'amplificatore, sono state meno investigate. Questo elaborato si propone di introdurre un algoritmo per il load pull attivo a banda base per amplificatori per applicazioni RF. Dopo un'introduzione sui modelli comportamentali degli amplificatori, è stato considerato il problema degli effetti di memoria. È stata poi descritta la tecnica per l'emulazione di impedenze. Dapprima, è stato considerato il caso lineare. Poi, tramite il design di un amplificatore di potenza per applicazioni a radio frequenza usato come device under test (DUT), sono stati affrontati due esempi in presenza di non linearità, verificando la correttezza della tecnica proposta tramite l'uso di simulazioni.
Resumo:
L’obbiettivo principale della mia tesi è stato di valutare le potenzialità applicative di un ceppo di Lactobacillus salivarius, un ceppo di Lactobacillus crispatus ed un ceppo di Lactococcus lactis nisina produttore per la produzione di squacquerone. I ceppi erano stati selezionati sulla base di proprietà tecnologiche e antibatteriche. I ceppi oggetto di studio sono stati addizionati come colture aggiuntive, assieme alle colture starter normalmente utilizzate nel processo produttivo di formaggio squacquerone. I formaggi ottenuti sono stati caratterizzati e confrontati con il prodotto tradizionale per le loro caratteristiche microbiologiche, chimico-fisiche, in termini di vitalità delle colture microbiche impiegate e carico di microrganismi degradativi durante la conservazione refrigerata, per le loro caratteristiche reologiche, per il profilo in molecole volatili e per le caratteristiche sensoriali. Tutti i ceppi utilizzati hanno dimostrato una elevata capacità di sopravvivenza alle condizioni di maturazione/conservazione tipiche per questa tipologia di prodotto. Il ceppo di Lactobacillus salivarius e Lactococcus lactis hanno determinato un significativo incremento, rispetto al controllo, di molecole volatili quali chetoni e acidi grassi a corta catena che sono precursori di numerosissime molecole di aroma. Ulteriormente, i ceppi Lactobacillus salivarius e Lactococcus lactis hanno determinato una precoce diminuzione della durezza e della consistenza del prodotto (dopo 6 giorni), ed un incremento dopo 11 giorni di adesività e viscosità rispetto ai campioni di controllo e a quelli ottenuti con Lactobacillus crispatus indice di una più precoce proteolisi. I dati dell’analisi sensoriale indicano che i formaggi ottenuti con i ceppi Lactobacillus salivarius e Lactococcus lactis erano nettamente preferiti dai consumatori dopo 4, 6, e 8 giorni di conservazione. Concludendo, i risultati ottenuti dimostrano come l’addizione delle colture aggiuntive selezionate può rappresentare una strategia vincente per incrementare la shelf-life di formaggi freschi.
Resumo:
L’oggetto di studio di questo lavoro, svolto presso l’azienda Vire Automation del gruppo Bucci Industries di Faenza, è una macchina per il packaging di prodotti igienico-sanitari, più precisamente pannolini baby. Dopo una prima indagine di mercato svolta con l’aiuto dei commerciali dell’azienda, si sono ipotizzate una serie di soluzioni tecniche per migliorare il funzionamento e le prestazioni della macchina. Tramite uno strumento detto Casa della qualità si sono evidenziate le soluzioni tecniche che risultano più apprezzate dal mercato e per questo posseggono una maggior priorità di realizzazione. Si è intervenuti su di un gruppo funzionale per lo spostamento orizzontale del prodotto che agisce superiormente rispetto al pianale di processo e sul trasporto pioli che invece agisce per ostacolo tra cilindri di acciaio ed i prodotti. In particolare per il primo si è realizzato un apposito studio delle grandezze cinematiche in gioco e, dopo una progettazione 3D, si sono stimate le coppie motrici richieste dal nuovo asse che è risultato vantaggioso rispetto al precedente. Per il secondo invece, vista l’esigenza di ottenere un gruppo rifasatore che permettesse alla macchina di funzionare correttamente nonostante i ritardi di arrivo dei prodotti dalla linea di produzione, si è realizzata una nuova gestione logica del gruppo per sopperire alla peggior condizione di funzionamento verificabile e si è riprogettato il gruppo per dotarlo delle nuove necessarie caratteristiche.
Resumo:
In questo elaborato viene studiato un nuovo strumento satellitare chiamato MIPAS2k: uno spettrometro a trasformata di Fourier, in grado di misurare gli spettri di emissione dei gas atmosferici attraverso la tecnica di misure al lembo. Lo scopo di MIPAS2k è quello di determinare la distribuzione spaziale di quantità atmosferiche tra cui il VMR delle specie chimiche: ozono, acqua, acido nitrico e protossido di azoto. La necessità di idearne un successore è nata dopo la perdita di contatto con lo strumento MIPAS da cui MIPAS2k, pur preservandone alcune caratteristiche, presenta differenze fondamentali quali: i parametri osservazionali, il tipo di detector utilizzato per eseguire le scansioni al lembo e la logica attraverso cui vengono ricavate le distribuzioni dei parametri atmosferici. L’algoritmo attraverso cui viene effettuata l’inversione dei dati di MIPAS2k, chiamato FULL2D, usa la stessa logica di base di quello utilizzato per MIPAS chiamato Geo-Fit. La differenza fondamentale tra i due metodi risiede nel modo in cui i parametri sono rappresentati. Il Geo-Fit ricostruisce il campo atmosferico delle quantità da determinare tramite profili verticali mentre il FULL2D rappresenta i valori del campo atmosferico all’interno degli elementi della discretizzazione bidimensionale dell’atmosfera. Non avendo a disposizione misure del nuovo strumento si è dovuto valutarne le performance attraverso l’analisi su osservati simulati creati ricorrendo al modello diretto del trasferimento radiativo e utilizzando un’atmosfera di riferimento ad alta risoluzione. Le distribuzioni bidimensionali delle quantità atmosferiche di interesse sono state quindi ricavate usando il modello di inversione dei dati FULL2D applicato agli osservati simulati di MIPAS2k. I valori dei parametri ricavati sono stati confrontati con i valori dell’atmosfera di riferimento e analizzati utilizzando mappe e quantificatori. Con i risultati di queste analisi e' stato possibile determinare la risoluzione spaziale e la precisione dei prodotti di MIPAS2k per due diverse risoluzioni spettrali.
Resumo:
Lo scopo del lavoro di tesi, svolto presso gli stabilimenti della Ditan Color Srl di Palazzolo Acreide (SR), è stato quello di realizzare un rivestimento colorato a base acquosa per il settore edile avente uno spessore medio del film essiccato di circa 150 micron, rivestimento definito a “basso spessore”, da applicare con sistemi tradizionali (rullo, spray, pennello) su intonaci “civili”, a base di calce e/o cemento, rasature cementizie e su pitture minerali esistenti. La caratteristica peculiare di questa pittura è la presenza di un sistema sinergico di “leganti” costituito da resine acriliche, silossaniche e da silice colloidale a dimensioni nanometriche. La presenza di PV con leganti acrilici, acril/silossanici, minerali a base di calce aerea o silicato di potassio è una realtà da tempo consolidata. Il mercato offre moltissime soluzioni legate alle caratteristiche delle superfici da trattare, alle esigenze dei clienti o semplicemente alle aree geografiche. Con questo progetto si è valutata la possibilità di includere tra i leganti un nuovo componente, il gel di silice a dimensioni nanometriche (diametro delle particelle < 100 nm) e di monitorare le proprietà del prodotto finito. Le caratteristiche fondamentali per classificare il PV sono: l’adesione della pittura ai supporti, intesa come misurazione dell’aderenza per trazione diretta; la traspirabilità del film essiccato – con conseguente ruolo attivo del PV nello scambio tra ambiente interno ed esterno - intesa come determinazione del grado di trasmissione del vapore acqueo secondo la norma UNI EN ISO 7783; la resistenza all’acqua meteorica - con conseguente protezione dello stato e della salubrità delle murature - intesa come determinazione del grado di trasmissione dell’acqua liquida secondo la UNI EN 1062-3. Lo studio è iniziato con la messa a punto del tipo di sistema disperdente/bagnante e del suo dosaggio, quindi del dosaggio di pigmento TiO2. Successivamente è stato valutato il comportamento di una serie di sistemi leganti contenenti vari tipi di polimeri e l’effetto della presenza di silice colloidale. Infine, sulle formulazioni ottimizzate, sono state condotte prove di adesione al supporto, traspirabilità e resistenza all’acqua meteorica.
Resumo:
Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.