594 resultados para Tecnopolimeri radiopachi, test di radiopacità, prove accelerate


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quando si parla di olio extravergine di oliva ci si riferisce ad un prodotto caratterizzato da anni di storia, tradizioni e valori simbolici; è inoltre rinomato per le sue caratteristiche peculiari, anche di tipo sensoriale. Esso è definito come un prodotto "ottenuto unicamente mediante procedimenti meccanici" e non è ammesso nessun altro trattamento o successiva correzione. Lo scopo di questo lavoro di tesi è indagare le abitudini ed i gusti dei consumatori e guidarli verso scelte più consapevoli, attraverso attività divulgative e mediante l’educazione all’assaggio, la cognizione ed il senso più corretto del gusto applicati ad un prodotto vergine di altissimo valore merceologico oltre che nutrizionale. Per questa finalità, è stato realizzato un test di accettabilità su 125 soggetti, chiamati a rispondere ad una serie di domande riguardanti il gradimento e la percezione di alcuni attributi sensoriali per quattro diversi oli commercializzati come extravergini di oliva e selezionati con l’intento di rappresentare il più possibile i diversi livelli di qualità del prodotto presenti sul mercato. In questo lavoro viene messa in luce la necessità di riavvicinare e conquistare il consumatore interessato agli aspetti salutistici del prodotto ma che non dispone, per mancanza di informazioni, delle competenze e degli strumenti necessari per riconoscere un olio extravergine di qualità e capire cosa, in esso, effettivamente costituisce un valore aggiunto. I risultati ottenuti dall'indagine condotta dal Dipartimento di Scienze e Tecnologie Agro-Alimentari su 125 consumatori romagnoli, oggetto di questo elaborato, hanno permesso di capire meglio le abitudini, i gusti, le aspettative dei soggetti intervistati e di verificare la loro capacità di distinguere in maniera agevole la qualità di un prodotto tanto complesso quale l’olio extravergine di oliva. Gli oli proposti durante il test affettivo di tipo edonico, erano di differente qualità e con caratteristiche diverse in termini di attributi sensoriali, di prezzo e di origine geografica. Questo studio conferma l'esigenza di indirizzare la comunicazione in modo più mirato verso i consumatori finali, migliorando la leggibilità dell’offerta con etichette più chiare e promuovendo oltre alle caratteristiche salutistiche del prodotto, anche quelle sensoriali. Un consumatore informato, competente e capace di riconoscere la qualità rappresenta la migliore garanzia per i produttori di essere premiati per il proprio impegno.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I processi microbiologici rivestono una grande importanza nello sviluppo di combustibili e sostanze chimiche da fonti rinnovabili (biomassa), quali: il biometano e le bioplastiche, come i poli(idrossialcanoati), PHA. I PHA sono poliesteri ottenuti per condensazione di 3-idrossiacidi, il più comune dei quali è il poli(3-idrossibutirrato, PHB). Gli alti costi di produzione del PHA da colture microbiche singole ha portato a valutare nuove strategie, tra cui l’utilizzo di colture microbiche miste (MMC) e substrati di scarto. Il bio-olio ottenuto dalla pirolisi di biomassa potrebbe essere un substrato interessante per la produzione di biogas e PHA. Gli acidi a catena corta (acidi grassi volatili, VFA), infatti, sono i prodotti intermedi nella produzione sia di biogas che di PHA. L’analisi di questi ultimi viene normalmente effettuata tramite GC-FID o GC-MS. La degradazione termica (pirolisi, Py) di PHA produce acidi alchenoici caratteristici, come l’acido crotonico. Il metodo tradizionale per la determinazione del PHA è la metanolisi seguita da un’analisi GC-MS, una procedura laboriosa con uso di solventi clorurati e sostanze corrosive. Lo scopo principale di questa tesi è stato quello di sviluppare un nuovo metodo di analisi dei PHA. Il metodo studiato si basa sulla pirolisi diretta della biomassa e determinazione degli acidi alchenoici prodotti dalla degradazione del PHA in GC-FID. La pirolisi analitica è stata studiata tramite analisi di polimeri puri (per la calibrazione) e poi è stata applicata a campioni batterici derivanti da MMC e a ceppi selezionati. Il confronto con il metodo convenzionale ha dimostrato che la Py/GC-FID è un metodo valido per l’identificazione dei PHA e per la loro quantificazione nelle matrici batteriche. Il pre-trattamento del campione è minimo e non richiede l’uso di solventi e reagenti chimici. Inoltre, è stata applicata una tecnica di analisi dei VFA nei test di biometanazione basata sull’estrazione con una microquantità di dimetilcarbonato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Realizzazione di un database semantico in Java a partire da una sua versione in tecnologia OSGI. La trattazione è organizzata come segue: nel primo capitolo verranno introdotte nozioni generali sullo scenario di rilevanza e le tecnologie. Nel secondo capitolo si parlerà della SIB-O, introducendone l’architettura e le funzionalità. Il terzo capitolo descriverà il lavoro svolto ed infine il quarto capitolo riporterà i risultati di test di performance allo scopo di validare il lavoro svolto e caratterizzare l’efficienza dei prodotti software realizzati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa relazione è frutto di un lavoro sperimentale svolto su diversi campioni di taralli del commercio forniti da un'azienda del settore, prodotti mediante ricette simili ed omogenei per dimensioni. Le attività di ricerca sono state focalizzare su: I) l'individuazione e la valutazione dei principali descrittori sensoriali in grado di caratterizzare la tipologia di prodotto; II) lo svolgimento di un'analisi sensoriale discriminante per verificare l'esistenza di differenze significativamente rilevabili tra taralli dello stesso tipo ma conservati per tempi differenti (0, 6, 12 mesi), al fine di fornire indicazioni utili per la definizione corretta della shelf-life del prodotto; III) la determinazione di specifici parametri fisici relazionati con l'apparenza e la texture dei taralli, per verificare la possibilità di utilizzare tali dati sia come supporto alla fase di allenamento del gruppo di assaggiatori, sia come approccio rapido per la valutazione della qualità e della freschezza di tali prodotti. Per la realizzazione degli obiettivi appena esposti, é stata applicata la tecnica QDA®. I dati delle singole sedute di analisi sono stati monitorati mediante PanelCheck. E' stato svolto un test triangolare attraverso cui definire se i taralli differenti per tempo di conservazione risultino significativamente discriminati per le caratteristiche sensoriali. Parallelamente alla QDA® e sullo stesso set di campioni, sono state applicate alcune analisi fisiche concernenti la valutazione dell’aspetto visivo e della texture del prodotto. Per la valutazione strumentale dell’apparenza dei campioni di taralli, si sono acquisite le immagini relative ai campioni oggetto di studio mediante un sistema di acquisizione e, successivamente, elaborate attraverso Image Pro - Plus v 6.2, per determinare elementi utili alla discriminazione dei campioni in esame. Per quanto concerne la determinazione della caratteristiche strutturali dei taralli è stato utilizzato il Texture Analyzer ed impiegato un test di penetrazione. E' stata infine condotta, mediante tecniche statistiche, un’analisi congiunta dei dati sensoriali e fisici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il continuo sviluppo negli ultimi anni di diverse declinazioni della spettroscopia d'assorbimento a raggi X (XAS) con radiazione di sincrotrone ha permesso la determinazione della struttura locale di campioni di ogni tipo, dagli elementi puri, ai più moderni materiali, indagando e approfondendo la conoscenza di quei meccanismi che conferiscono a questi ultimi delle proprietà innovative e, a volte, rivoluzionarie. Il vantaggio di questa tecnica è quello di poter ottenere informazioni sulla struttura del campione soprattutto a livello locale, rendendo relativamente agevole l'analisi di sistemi senza ordine a lungo raggio, quali per esempio i film molecolari. Nell'elaborato verrà preliminarmente illustrata la fenomenologia della XAS e l’interpretazione teorica dell'origine della struttura fine. Saranno successivamente descritte le innovative tecniche di misura che permettono di studiare i cambiamenti della struttura locale indotti dall'illuminazione con luce visibile, inclusi gli esperimenti di tipo pump probe. Un capitolo della tesi è interamente dedicato alla descrizione dei campioni studiati, di cui sono stati analizzati alcuni dati acquisiti in condizioni statiche. Quest'analisi è stata compiuta sfruttando anche dei cammini di multiplo scattering dedicando particolare attenzione alla trattazione del fattore di Debye Waller. Nella parte principale della tesi verranno descritti la progettazione ed il test di un apparato sperimentale per l'acquisizione di spettri differenziali da utilizzare alla beamline BM08 dell'European Synchrotron Radiation Facility di Grenoble. Saranno presentate principalmente le modifiche apportate al software d'acquisizione della linea e la progettazione di un sistema ottico d'eccitazione da montare nella camera sperimentale. Nella fase di studio dell'ottica è stato creato in LabView un simulatore basato sul metodo Monte Carlo, capace di prevedere il comportamento del sistema di lenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente progetto di tesi è stato svolto in collaborazione con l’ufficio tecnico di Ricerca & Sviluppo dell’azienda Cefla Dentale, divisione MyRay (Imola - BO Italia). A seguito dell’esperienza maturata nel settore dei radiografici dentali, scelte aziendali hanno richiesto l’aggiornamento delle tecniche di elaborazione dell’immagine acquisita. Ogni prodotto commercializzato è fornito di un software predisposto alla gestione dei pazienti e alle operazioni di post-procesing tipiche: riduzione del rumore, aumento dei contrasti, della luminosità, misurazioni e tutti quelli presenti nei più comuni software di elaborazione grafica. Questi filtri digitali sono raccolti in una libreria sviluppata a seguito di una collaborazione esterna. Col presente elaborato viene effettuata una panoramica sulle tecniche di filtraggio utilizzate e vengono introdotte diverse proposte finalizzate alla riduzione del rumore. Test di valutazione qualitativa e quantitativa, su fantocci target, fantocci antropomorfi e set di immagini in-vivo, guideranno la scelta verso la proposta migliore, la quale verrà successivamente inserita all’interno della libreria e andrà ad aggiungersi ai filtri a disposizione dell’utente finale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel documento vengono trattate le principali tecniche di geolocalizzazione basate sull'elaborazione dei segnali elettromagnetici ricevuti. E' altresì introdotto un sistema di remote positioning basato su test di prossimità rafforzato tramite machine learning tramite un approccio simulativo ed una implementazione reale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dalla necessità di risolvere il problema della disambiguazione di un insieme di autori messo a disposizione dall'Università di Bologna, il Semantic Lancet, è nata l'idea di progettare un algoritmo di disambiguazione in grado di adattarsi, in caso di bisogno, a qualsiasi tipo di lista di autori. Per la fase di testing dell'algoritmo è stato utilizzato un dataset generato (11724 autori di cui 1295 coppie da disambiguare) dalle informazioni disponibili dal "database systems and logic programming" (DBLP), in modo da essere il più etereogeneo possibile, cioè da contenere il maggior numero di casi di disambiguazione possibile. Per i primi test di sbarramento è stato definito un algoritmo alternativo discusso nella sezione 4.3 ottenendo una misura di esattezza dell'1% ed una di completezza dell'81%. L'algoritmo proposto impostato con il modello di configurazione ha ottenuto invece una misura di esattezza dell'81% ed una di completezza del 70%, test discusso nella sezione 4.4. Successivamente l'algoritmo è stato testato anche su un altro dataset: Semantic Lancet (919 autori di cui 34 coppie da disambiguare), ottenendo, grazie alle dovute variazioni del file di configurazione, una misura di esattezza del 84% e una di completezza del 79%, discusso nella sezione 4.5.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La diffusione dei servizi cloud ha spinto anche il mondo degli IDE verso questa direzione. Recentemente si sta assistendo allo spostamento degli IDE da ambienti desktop ad ambienti Web. Questo è determinante per quanto riguarda gli aspetti legati alla collaborazione perchè permette di sfruttare tutti i vantaggi del cloud per dotare questi sistemi di chat, integrazione con i social network, strumenti di editing condiviso e molte altre funzionalità collaborative. Questi IDE sono detti browser-based in quanto i servizi che mettono a disposizione sono accessibili via Web tramite un browser. Ne esistono di diversi tipi e con caratteristiche molto diverse tra di loro. Alcuni sono semplici piattaforme sulle quali è possibile effettuare test di codice o utilizzare tutorial forniti per imparare nuovi linguaggi di programmazione; altri invece sono ambienti di sviluppo completi dotati delle più comuni funzionalità presenti in un IDE desktop, oltre a quelle specifiche legate al Web. Dallo studio di questi ambienti di sviluppo di nuova generazione è emerso che sono pochi quelli che dispongono di un sistema di collaborazione completo e che non tutti sfruttano le nuove tecnologie che il Web mette a disposizione. Per esempio, alcuni sono dotati di editor collaborativi, ma non offrono un servizio di chat ai collaboratori; altri mettono a disposizione una chat e il supporto per la scrittura simultanea di codice, ma non sono dotati di sistemi per la condivisione del display. Dopo l'analisi dei pregi e dei difetti della collaborazione fornita dagli strumenti presi in considerazione ho deciso di realizzare delle funzionalità collaborative inserendomi nel contesto di un IDE browser-based chiamato InDe RT sviluppato dall'azienda Pro Gamma SpA.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In letteratura sono presenti numerosi studi che descrivono i fattori che influenzano la vita a fatica di un laminato in CFRP e le modalità di propagazione ed accrescimento a fatica di un difetto. Tuttavia non sono presenti studi approfonditi che leghino l’effetto che può avere la grammatura, sulla vita a fatica del laminato. Il lavoro sperimentale oggetto di questa tesi vuole intendersi un lavoro preliminare, a carattere esplorativo, sullo studio della sensibilità della grammatura sulla resistenza a fatica di laminati in CFRP, attraverso test di flessione a fatica su due configurazioni di provini di grammature differenti (600 e 800 gr/m^2), con e senza inserimento di un difetto artificiale rappresentato da un intaglio sugli ultimi strati del laminato e test di flessione eseguito in accordo allo standard ASTM D2344/D2344M. I test a fatica hanno evidenziato una sensibile riduzione della vita per i provini senza difetto realizzati con l’800 gr/m^2 rispetto a quelli realizzati con il 600 gr/m^2. Per quanto concerne la tolleranza al danno, i provini realizzati con 600 gr/m^2 hanno evidenziato una sensibilità maggiore all’effetto di intaglio, pur avendo un comportamento migliore rispetto a quelli realizzati con l’800 gr/m^2.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisi di prestazioni di un database costruito con MongoDB e uno con Mysql residenti su due macchine virtuali uguali configurate appositamente per i test di inserimento, interrogazione e eliminazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La rapida diffusione di Sistemi Aerei a Pilotaggio Remoto che si è verificata negli ultimi anni ha portato alla necessità di regolamentare ed armonizzare il loro utilizzo. I vari enti regolatori nazionali hanno dovuto trovare una soluzione a fronte di una serie di incidenti che hanno portato alla luce le lacune normative ed organizzative che ancora esistevano in materia. In Italia, in particolare, l’Ente Nazionale Aviazione Civile (ENAC) ha introdotto da fine 2013 un regolamento, più volte aggiornato e in parte ancora in fase di definizione, che impone delle rigide norme agli operatori dei mezzi a pilotaggio remoto. La presente attività riporta quindi lo sviluppo di un processo di certificazione di un Sistema Aereo a Pilotaggio Remoto ad ala fissa con peso massimo al decollo superiore a 25 kg, che si possa adattare alle più recenti norme presenti nel regolamento. Si presenta quindi lo sviluppo del Manuale di volo e del documento di Valutazione del rischio del mezzo, seguiti dallo studio del programma di attività sperimentale necessario per la certificazione. Infine, nella parte finale dell’elaborato si presentano dei test di volo effettuati seguendo il piano di sperimentazione strutturato e atti a dimostrare l’efficacia di tale pianificazione. Tali voli sono stati condotti infatti con un velivolo con caratteristiche similari a quelle del mezzo oggetto di studio, ma avente dimensioni e peso minori.