976 resultados para Added value
Resumo:
Aims: Ripening evaluation of two different Pecorino cheese varieties ripened according either to a traditional method in plant and in cave. Different ripening features have been analyzed in order to evaluate the cave as possible ripening environment with the aim of obtaining a peculiar product which could also establish an added value to the cultural heritage of the local place in which it has been originally manufactured. Methods and Results: Chemical-physical features of Pecorino cheese have been initially analyzed into two different ripening environments and experimentations, among which: pH, weight reduction and subsequent water activity. Furthermore, the microbial composition has been characterized in relationship with the two different ripening environments, undertaking a variety of microbial groups, such as: lactic bacteria, staphylococci, yeasts, lactococci, enterobacteria, enterococci. Besides, an additional analysis for the in-cave adaptability evaluation has been the identification of biogenic amines inside the Pecorino cheese (2-phenilethylamine, putrescine, cadaverine, hystidine, tyramine, spermine and spermidine). Further analysis were undertaken in order to track the lipid profile evolution, reporting the concentration of the cheese free fatty acids in object, in relation with ripening time, environment and production. In order to analyse the flavour compounds present in Pecorino cheese, the SPME-GC-MS technique has been widely employed. As a result, it is confirmed the trend showed by the short-chain free fatty acids, that is to say the fatty acids which are mostly involved in conveying a stronger flavor to the cheese. With the purpose of assessing the protheolytic patterns of the above-mentioned Pecorino cheese in the two different ripening environments and testing methods, the technique SDS-PAGE has been employed into the cheese insoluble fraction, whereas the SDS-PAGE technique has been carried out into the cheese soluble portion. Furthermore, different isolated belonging to various microbial groups have been genotypically characterized though the ITS-PCR technique with the aim to identify the membership species. With reference to lactic bacillus the characterized species are: Lactobacillus brevis, Lactobacillus curvatus and Lactobacillus paraplantarum. With reference to lactococci the predominant species is Lactococcus lactis, coming from the employed starter used in the cheese manufacturing. With reference to enterococcus, the predominant species are Enterococcus faecium and Enterococcus faecalis. Moreover, Streptococcus termophilus and Streptococcus macedonicus have been identified too. For staphylococci the identified species are Staphyilococcus equorum, Staphylococcus saprophyfiticus and Staphylococcus xylosus. Finally, a sensorial analysis has been undertaken through on one side a consumer test made by inexperienced consumers, and on the other side through a panel test achieved by expert consumers. From such test Pecorino cheese ripened in cave were found to be more pleasant in comparison with Pecorino cheese ripened in plant. Conclusions: The proposed approach and the undertaken analysis showed the cave as preferential ripening environment for Pecorino cheese and for the development of a more palatable product and safer for consumers’ health.
Resumo:
The construction and use of multimedia corpora has been advocated for a while in the literature as one of the expected future application fields of Corpus Linguistics. This research project represents a pioneering experience aimed at applying a data-driven methodology to the study of the field of AVT, similarly to what has been done in the last few decades in the macro-field of Translation Studies. This research was based on the experience of Forlixt 1, the Forlì Corpus of Screen Translation, developed at the University of Bologna’s Department of Interdisciplinary Studies in Translation, Languages and Culture. As a matter of fact, in order to quantify strategies of linguistic transfer of an AV product, we need to take into consideration not only the linguistic aspect of such a product but all the meaning-making resources deployed in the filmic text. Provided that one major benefit of Forlixt 1 is the combination of audiovisual and textual data, this corpus allows the user to access primary data for scientific investigation, and thus no longer rely on pre-processed material such as traditional annotated transcriptions. Based on this rationale, the first chapter of the thesis sets out to illustrate the state of the art of research in the disciplinary fields involved. The primary objective was to underline the main repercussions on multimedia texts resulting from the interaction of a double support, audio and video, and, accordingly, on procedures, means, and methods adopted in their translation. By drawing on previous research in semiotics and film studies, the relevant codes at work in visual and acoustic channels were outlined. Subsequently, we concentrated on the analysis of the verbal component and on the peculiar characteristics of filmic orality as opposed to spontaneous dialogic production. In the second part, an overview of the main AVT modalities was presented (dubbing, voice-over, interlinguistic and intra-linguistic subtitling, audio-description, etc.) in order to define the different technologies, processes and professional qualifications that this umbrella term presently includes. The second chapter focuses diachronically on various theories’ contribution to the application of Corpus Linguistics’ methods and tools to the field of Translation Studies (i.e. Descriptive Translation Studies, Polysystem Theory). In particular, we discussed how the use of corpora can favourably help reduce the gap existing between qualitative and quantitative approaches. Subsequently, we reviewed the tools traditionally employed by Corpus Linguistics in regard to the construction of traditional “written language” corpora, to assess whether and how they can be adapted to meet the needs of multimedia corpora. In particular, we reviewed existing speech and spoken corpora, as well as multimedia corpora specifically designed to investigate Translation. The third chapter reviews Forlixt 1's main developing steps, from a technical (IT design principles, data query functions) and methodological point of view, by laying down extensive scientific foundations for the annotation methods adopted, which presently encompass categories of pragmatic, sociolinguistic, linguacultural and semiotic nature. Finally, we described the main query tools (free search, guided search, advanced search and combined search) and the main intended uses of the database in a pedagogical perspective. The fourth chapter lists specific compilation criteria retained, as well as statistics of the two sub-corpora, by presenting data broken down by language pair (French-Italian and German-Italian) and genre (cinema’s comedies, television’s soapoperas and crime series). Next, we concentrated on the discussion of the results obtained from the analysis of summary tables reporting the frequency of categories applied to the French-Italian sub-corpus. The detailed observation of the distribution of categories identified in the original and dubbed corpus allowed us to empirically confirm some of the theories put forward in the literature and notably concerning the nature of the filmic text, the dubbing process and Italian dubbed language’s features. This was possible by looking into some of the most problematic aspects, like the rendering of socio-linguistic variation. The corpus equally allowed us to consider so far neglected aspects, such as pragmatic, prosodic, kinetic, facial, and semiotic elements, and their combination. At the end of this first exploration, some specific observations concerning possible macrotranslation trends were made for each type of sub-genre considered (cinematic and TV genre). On the grounds of this first quantitative investigation, the fifth chapter intended to further examine data, by applying ad hoc models of analysis. Given the virtually infinite number of combinations of categories adopted, and of the latter with searchable textual units, three possible qualitative and quantitative methods were designed, each of which was to concentrate on a particular translation dimension of the filmic text. The first one was the cultural dimension, which specifically focused on the rendering of selected cultural references and on the investigation of recurrent translation choices and strategies justified on the basis of the occurrence of specific clusters of categories. The second analysis was conducted on the linguistic dimension by exploring the occurrence of phrasal verbs in the Italian dubbed corpus and by ascertaining the influence on the adoption of related translation strategies of possible semiotic traits, such as gestures and facial expressions. Finally, the main aim of the third study was to verify whether, under which circumstances, and through which modality, graphic and iconic elements were translated into Italian from an original corpus of both German and French films. After having reviewed the main translation techniques at work, an exhaustive account of possible causes for their non-translation was equally provided. By way of conclusion, the discussion of results obtained from the distribution of annotation categories on the French-Italian corpus, as well as the application of specific models of analysis allowed us to underline possible advantages and drawbacks related to the adoption of a corpus-based approach to AVT studies. Even though possible updating and improvement were proposed in order to help solve some of the problems identified, it is argued that the added value of Forlixt 1 lies ultimately in having created a valuable instrument, allowing to carry out empirically-sound contrastive studies that may be usefully replicated on different language pairs and several types of multimedia texts. Furthermore, multimedia corpora can also play a crucial role in L2 and translation teaching, two disciplines in which their use still lacks systematic investigation.
Resumo:
Negli ultimi anni, parallelamente all’espansione del settore biologico, si è assistito a un crescente interesse per i modelli alternativi di garanzia dell’integrità e della genuinità dei prodotti biologici. Gruppi di piccoli agricoltori di tutto il mondo hanno iniziato a sviluppare approcci alternativi per affrontare i problemi connessi alla certificazione di terza parte. Queste pratiche sono note come Sistemi di Garanzia Partecipativa (PGS). Tali modelli: (i) si basano sugli standard di certificazione biologica dell’IFOAM, (ii) riguardano il complesso dei produttori di una comunità rurale, (iii) comportano l’inclusione di una grande varietà di attori e (iv) hanno lo scopo di ridurre al minimo burocrazia e costi semplificando le procedure di verifica e incorporando un elemento di educazione ambientale e sociale sia per i produttori sia per i consumatori. Gli obiettivi di questo lavoro di ricerca: • descrivere il funzionamento dei sistemi di garanzia partecipativa; • indicare i vantaggi della loro adozione nei Paesi in via di sviluppo e non; • illustrare il caso della Rede Ecovida de Agroecologia (Brasile); • offrire uno spunto di riflessione che riguarda il consumatore e la relativa fiducia nel modello PGS. L’impianto teorico fa riferimento alla Teoria delle Convenzioni. Sulla base del quadro teorico è stato costruito un questionario per i consumatori con lo scopo di testare l’appropriatezza delle ipotesi teoriche. I risultati finali riguardano la stima del livello di conoscenza attuale, la fiducia e la volontà d’acquisto dei prodotti PGS da parte dei consumatori nelle aree considerate. Sulla base di questa ricerca sarà possibile adattare ed esportare il modello empirico in altri paesi che presentano economie diverse per cercare di comprendere il potenziale campo di applicazione dei sistemi di garanzia partecipativa.
Resumo:
Conformemente ai trattati, l'UE sviluppa una politica comune in materia di asilo, immigrazione e controllo delle frontiere esterne, fondata sulla solidarietà e sul rispetto dei diritti fondamentali e, a tal fine, avvia relazioni strategiche con i Paesi terzi e le Organizzazioni internazionali. Un fenomeno “senza frontiere”, quale quello migratorio, esige del resto un'azione coerente e coordinata sia sul piano interno sia su quello esterno. La messa in atto di quest'ultima, tuttavia, si scontra con difficoltà di rilievo. Innanzitutto, l'UE e i suoi Stati membri devono creare i presupposti per l'avvio della collaborazione internazionale, vale a dire stimolare la fiducia reciproca con i Paesi terzi, rafforzando la propria credibilità internazionale. A tal fine, le istituzioni, gli organi e gli organismi dell'UE e gli Stati membri devono impegnarsi a fornire un modello coerente di promozione dei valori fondanti, quali la solidarietà e il rispetto dei diritti fondamentali, nonché a coordinare le proprie iniziative, per individuare, insieme ai Paesi terzi e alle Organizzazioni internazionali, una strategia d'azione comune. In secondo luogo, l'UE e gli Stati membri devono adottare soluzioni volte a promuovere l'efficacia della collaborazione internazionale e, più precisamente, assicurare che la competenza esterna sia esercitata dal livello di governo in grado di apportare il valore aggiunto e utilizzare la forma collaborativa di volta in volta più adeguata alla realizzazione degli obiettivi previsti. In definitiva, l'azione esterna dell'UE in materia di politica migratoria necessita di una strategia coerente e flessibile. Se oggi la coerenza è garantita dalla giustiziabilità dei principi di solidarietà, di rispetto dei diritti fondamentali e, giustappunto, di coerenza, la flessibilità si traduce nel criterio del valore aggiunto che, letto in combinato disposto con il principio di leale cooperazione, si pone al centro del nuovo modello partenariale proposto dall'approccio globale, potenzialmente idoneo a garantire la gestione efficace del fenomeno migratorio.
Resumo:
Il siero di latte e la scotta sono effluenti provenienti rispettivamente dal processo di trasformazione del latte in formaggio e ricotta. Il siero di latte contiene minerali, lipidi, lattosio e proteine; la scotta contiene principalmente lattosio. Il siero può essere riutilizzato in diversi modi, come l'estrazione di proteine o per l’alimentazione animale, mentre la scotta è considerata solamente un rifiuto. Inoltre, a causa degli ingenti volumi di siero prodotti nel mondo, vengono a crearsi seri problemi ambientali e di smaltimento. Destinazioni alternative di questi effluenti, come le trasformazioni biotecnologiche, possono essere un modo per raggiungere il duplice obiettivo di migliorare il valore aggiunto dei processi agroindustriali e di ridurre il loro impatto ambientale. In questo lavoro sono state studiate le condizioni migliori per produrre bioetanolo dal lattosio del siero e della scotta. Kluyveromyces marxianus è stato scelto come lievito lattosio-fermentante. Sono state effettuate fermentazioni su scala di laboratorio aerobiche e anaerobiche in batch, fermentazioni semicontinue in fase dispersa e con cellule immobilizzate in alginato di calcio,. Diverse temperature sono state testate per migliorare la produzione di etanolo. Le migliori prestazioni, per entrambe le matrici, sono state raggiunte a basse temperature (28°C). Anche le alte temperature sono compatibili con buone rese di etanolo nelle fermentazioni con siero. Ottimi risultati si sono ottenuti anche con la scotta a 37°C e a 28°C. Le fermentazioni semicontinue in fase dispersa danno le migliori produzioni di etanolo, in particolare con la scotta. Invece, l'uso di cellule di lievito intrappolate in alginato di calcio non ha migliorato i risultati di processo. In conclusione, entrambi gli effluenti possono essere considerati adatti per la produzione di etanolo. Le buone rese ottenute dalla scotta permettono di trasformare questo rifiuto in una risorsa.
Resumo:
Questo studio, che è stato realizzato in collaborazione con Hera, è un'analisi della gestione dei rifiuti a Bologna. La ricerca è stata effettuata su diversi livelli: un livello strategico il cui scopo è quello di identificare nuovi metodi per la raccolta dei rifiuti in funzione delle caratteristiche del territorio della città, un livello analitico che riguarda il miglioramento delle applicazioni informatiche di supporto, e livello ambientale che riguarda il calcolo delle emissioni in atmosfera di veicoli adibiti alla raccolta e al trasporto dei rifiuti. innanzitutto è stato necessario studiare Bologna e lo stato attuale dei servizi di raccolta dei rifiuti. È incrociando questi componenti che in questi ultimi tre anni sono state effettuate modifiche nel settore della gestione dei rifiuti. I capitoli seguenti sono inerenti le applicazioni informatiche a sostegno di tali attività: Siget e Optit. Siget è il programma di gestione del servizio, che attualmente viene utilizzato per tutte le attività connesse alla raccolta di rifiuti. È un programma costituito da moduli diversi, ma di sola la gestione dati. la sperimentazione con Optit ha aggiunto alla gestione dei dati la possibilità di avere tali dati in cartografia e di associare un algoritmo di routing. I dati archiviati in Siget hanno rappresentato il punto di partenza, l'input, e il raggiungimento di tutti punti raccolta l'obiettivo finale. L'ultimo capitolo è relativo allo studio dell'impatto ambientale di questi percorsi di raccolta dei rifiuti. Tale analisi, basata sulla valutazione empirica e sull'implementazione in Excel delle formule del Corinair mostra la fotografia del servizio nel 2010. Su questo aspetto Optit ha fornito il suo valore aggiunto, implementando nell'algoritmo anche le formule per il calcolo delle emissioni.
Resumo:
La sostituzione di materie prime provenienti da risorse fossili con biomasse rinnovabili, utilizzando un processo a basso impatto ambientale, è una delle più importanti sfide della "Green Chemistry". Allo stesso tempo, la sintesi di resine epossidiche fornisce la chiave per la realizzazione di materiali ad alto valore aggiunto. Tuttavia, ad oggi, il 90% della produzione di resine epossidiche è basato sull'uso di bisfenolo A, che ha effetti di xenoestrogeno, ed epicloridrina, tossica e cancerogena. Su queste basi, è stata individuata una strategia sintetica per la sintesi di prepolimeri innovativi per resine epossidiche, che utilizza come substrato di reazione diidrossibenzeni di origine naturale ed evita l'uso di epicloridrina e altri reagenti tossici o pericolosi. La suddetta strategia sintetica è basata sulla sequenza: allilazione dei diidrossibenzeni - epossidazione dei doppi legami ottenuti. In questa procedura non vengono utilizzati drastiche condizioni di reazione e il solvente è acqua, con una catalisi di trasferimento di fase o, in aggiunte di acetonitrile, in un sistema bifasico. La resa complessiva dei due “step” dipende dalla posizione dei due ossidrili nei diidrossibenzeni. Il reagente che porta la resa massima è l’idrochinone (1,4 diidrossibenzene), che, come riportato in letteratura, permette la formazione di resine epossidiche con proprietà simili alle resine di epicloridrina e bisfenolo A. The substitution of raw materials from fossil fuels with renewable biomass using a low environmental impact process is one of the greatest challenges of the "Green Chemistry". At the same time, the synthesis of epoxy resins provides the key to the realization of high added value materials. However, 90% of the production of epoxy resins is based on the use of bisphenol A, a xenoestrogen, and epichlorohydrin, that is toxic and carcinogenic. On these bases, a synthetic strategy for the synthesis of innovative prepolymers of epoxy resins, that uses dihydroxybenzenes of natural origin as reaction substrates and avoids the use of epichlorohydrin and other toxic or dangerous reagents has been identified. The above synthetic strategy is based on the sequence: allylation of dihydroxybenzenes - epoxidation of the double bonds obtained. In this procedure, drastic reaction conditions are dismissed and the solvent used is water with a phase transfer catalysis or, in addition, acetonitrile in a biphasic system. The overall yield of the two steps depends on the position of the two hydroxyls of the dihydroxybenzenes. The reagent that leads to the highest yield is hydroquinone (1,4 dihydroxybenzene), which, as reported in literature, allows the formation of epoxy resins with similar properties to the resins from bisphenol A and epichlorohydrin.
Resumo:
Questa tesi di dottorato verte sull'individuazione di politiche industriali atte ad implementare il mercato dei prodotti a denominazione di origine. Inevitabilmente, l’analisi economica dei prodotti agroalimentari tipici di qualità implica anche l’approfondimento e l’individuazione, delle problematiche connesse con la creazione di un valore addizionale per il consumatore, rispetto a quello dei prodotti standardizzati. Questo approccio richiama l’attenzione, da una parte, sulle caratteristiche della domanda e sulla disponibilità del consumatore a riconoscere e apprezzare questo plus-valore, dall’altra sulle strategie che l’offerta può attivare per conseguire un premium price rispetto al prodotto standardizzato. Le certificazioni comunitarie Dop, Igp e Stg oltre che il marchio di prodotto biologico racchiudono, solitamente, tali dinamiche valoriali ma sono tutt’oggi poco conosciute dai consumatori. Diversi studi internazionali dimostrano, infatti, che la maggioranza dei cittadini comunitari ignorano il significato delle certificazioni di qualità. L’ipotesi di fondo di questo studio si basa sulla possibilità di fidelizzare questi marchi con i brand della grande distribuzione già affermati, come quello di Coop. Analizzare gli effetti dell’introduzione di prodotti private label a denominazione di origine nel mercato della grande distribuzione organizzata italiana ci permetterebbe di comprendere se questo segmento di mercato può aiutare il settore delle Dop/Igp. Questo studio ha cercato di verificare se il prodotto private label a denominazione di origine, riesca a sfruttare il doppio binario di fiducia rappresentato dal marchio comunitario unito a quello dell’impresa di distribuzione. Per comprendere la propensione del consumatore a spendere di più per questi prodotti, abbiamo utilizzato l’analisi dell’elasticità della domanda sul prezzo dei dati scanner fornitici da Coop Adriatica. Siamo riusciti a dimostrare tale positivo connubio confermato anche da una indagine demoscopica effettuata ad hoc sui consumatori.
Resumo:
Purpose. Despite work-related stress is one of the most studied topic in organizational psychology, many aspects as for example the use of different measures (e.g. subjective and objective, qualitative and quantitative) are still under debate. According to this, in order to enhance knowledge concerning which factors and processes contribute to create healthy workplaces, this thesis is composed by four different studies aiming to understand: a) the role of relevant antecedents (e.g. leadership, job demands, work-family conflict, social support etc.) and outcomes (e.g. workplace phobia, absenteeism etc.) of work-related stress; and b) how to manage psychosocial risk factors in the workplace. The studies. The first study focused on how disagreement between supervisors and their employees on leadership style (transformational and transactional) could affect workers well-being and work team variables. The second and third study used both subjective and objective data in order to increase the quality of the reliability of the results gained. Particularly, the second study focused on job demand and its relationship with objective sickness leave. Findings showed that despite there is no direct relationship between these two variables, job demand affects work-family conflict, which in turn affect exhaustion, which leads to absenteeism. The third study analysed the role of a new concept never studied before in organizational settings (workplace phobia), as a health outcome in the JD-R model, demonstrating also its relationship with absenteeism. The last study highlighted the added value of using the mixed methods research approach in order to detect and analyse context-specific job demands which could affects workers’ health. Conclusion. The findings of this thesis answered both to open questions in the scientific literature and to the social request of managing psychosocial risk factors in the workplace in order to enhance workers well-being.
Resumo:
La tesi analizza, sotto vari aspetti del diritto dell’Unione Europea, i servizi che sono offerti su spazi demaniali. Si articola in quattro capitoli: Il primo capitolo ricostruisce, valutandone l’impatto sui servizi che sono oggetto della presente indagine, lo sviluppo giurisprudenziale della Libertà di Stabilimento e della Libera Prestazione di Servizi, analizzando, altresì, i principi generali e l’art.16 della Carta dei Diritti Fondamentali dell’Unione. Il secondo capitolo è, invece, dedicato al diritto secondario, ossia alla Direttiva 2006/123/CE, alle Direttive “Appalti” e alla Direttiva “Concessioni”. La prima, che nulla aggiunge al quadro normativo trattato nel primo capitolo, svolge, pertanto una vera e propria funzione appaltante e concessoria. Le seconde, invece, seppur non applicabili alle fattispecie ivi esaminate, restano utili per comprendere quale declinazione possano avere i principi di eguaglianza, di non discriminazione, di trasparenza, di pubblicità e di concorrenza nella regolazione dei servizi offerti su spazi demaniali. La terza, invece, in quanto a rilevanza, presenta alcuni punti critici che fanno propendere per una sua non applicabilità. Resta comunque utile sempre in materia di principi, i quali, come evidenziato nell’ultima parte del secondo capitolo, sono stati utilizzati dalla Corte di Giustizia, pur nella totale assenza, fino alla recente direttiva, di strumenti di diritto secondario applicabili alle concessioni. Il terzo capitolo, invece, affronta le problematiche emerse all’interno dell’ordinamento italiano e attua una comparazione tra il sistema italiano e quello portoghese, croato, francese, spagnolo. Il quarto capitolo, da ultimo, prende in considerazione il delicato equilibrio, sempre più attuale, tra principi in materia di appalti pubblici e aiuti di Stato, valutando come, sia il permanere dello status quo, sia un riordino non conforme alla Direttiva 2006/123/CE e ai principi da essa richiamati possa costituire un aiuto di Stato incompatibile con il mercato interno.
Resumo:
This project was born with the aim of developing an environmentally and financially sustainable process to dispose of end-life tires. In this perspective was devised an innovative static bed batch pilot reactor where pyrolysis can be carried out on the whole tires in order to recover energy and materials and simultaneously save the energy costs of their shredding. The innovative plant is also able to guarantee a high safety of the process thanks to the presence of a hydraulic guard. The pilot plant was used to pyrolyze new and end-life tires at temperatures from 400 to 600°C with step of 50°C in presence of steam. The main objective of this research was to evaluate the influence of the maximum process temperature on yields and chemical-physics properties of pyrolysis products. In addition, in view of a scale-up of the plant in continuous mode, the influence of the nature of several different tires as well as the effects of the aging on the final products were studied. The same pilot plant was also used to carry out pyrolysis on polymeric matrix composites in order to obtain chemical feedstocks from the resin degradation together with the recovery of the reinforcement in the form of fibers. Carbon fibers reinforced composites ad fiberglass was treated in the 450-600°C range and the products was fully characterized. A second oxidative step was performed on the pyrolysis solid residue in order to obtain the fibers in a suitable condition for a subsequent re-impregnation in order to close the composite Life Cycle in a cradle-to-cradle approach. These investigations have demonstrated that steel wires, char, carbon and glass fibers recovered in the prototypal plant as solid residues can be a viable alternative to pristine materials, making use of them to obtain new products with a commercial added value.
Resumo:
Epoxy resins are very diffused materials due to their high added value deriving from high mechanical proprieties and thermal resistance; for this reason they are widely used both as metallic coatings in aerospace and in food packaging. However, their preparation uses dangerous reagents like bisphenol A and epichlorohydrin respectively classified as suspected of causing damage to fertility and to be carcinogen. Therefore, to satisfy the ever-growing attention to environmental problems and human safeness, we are considering alternative “green” processes through the use of reagents obtained as by-products from other processes and mild experimental conditions, and also economically sustainable and attractive for industries. Following previous results, we carried out the reaction leading to the formation of diphenolic acid (DPA), its allylation and the following epoxidation of the double bonds, all in aqueous solvent. In a second step the obtained product were cross-linked at high temperature with and without the use of hardeners. Then, on the obtained resin, some tests were performed like release in aqueous solution, scratch test and DSC analysis.
Resumo:
The environmental problems associated to the disposal of the olive oil wastewater (OMW, Olive Mill Wastewaters), and the difficulty in the recycling because of their polyphenolic content, led to propose the separation of their polyphenols. The recovery of polyphenols from olive mill wastewaters (OMWs) provides the double opportunity to obtain high-added value biomolecules and to reduce the phytotoxicity of the effluent. The separation can be obtained by a continuous flow extraction process of adsorption and desorption, this process is characterized by the possibility to recycling the adsorbing phase and the extraction solvent. The present work is part of a project aimed to the development of pilot scale process based on the use of the AMBERLITE XAD16 as adsorption resin. The adsorption stage is preceded by a wastewater filtration pretreatment, and a final desorption process is added to recover the polyphenols using acidified ethanol as the solvent.
Resumo:
Due to the limited availability of natural oil and the harmful effects of its usage, the industry has focused in searching for sustainable types of raw materials for the production of chemicals. The bioethanol, obtained by fermentation of biomass, has gained particular importance in recent years both as a biofuel, and as a “building block” molecule because it can be considered as a starting reagent to obtain other added value chemical compounds, such as ethylene, acetaldehyde, butadiene and ethyl acetate. The goal of this research was the study of the interaction of ethanol with catalysts based on TiO2-CeOX. Since the electronic properties have implications on the catalytic activity, the idea was to understand if the TiO2-CeOX systems have different reactivity from that of ceria and rutile alone, or an intermediate between them. The study was focused on the characterization of the adsorbed species on the catalysts surface after ethanol adsorption through an in-situ spectroscopic technique (DRIFTS) that allowed us to extract information that could be helpful for the understanding of the processes at the molecular level. The mass spectrometry was used to monitor on-line the desorbed products. Furthermore, reactivity tests in a flow reactor were performed, in order to verify the catalytic behavior of the samples in conditions which are more similar to those applied at an industrial scale. The samples showed to behave in different way depending on the conditions used and the thermal treatment. The particular behavior of the mixed samples with respect to the single oxides is interpreted for each case according to the spectroscopic information collected.
Resumo:
Statistical shape analysis techniques commonly employed in the medical imaging community, such as active shape models or active appearance models, rely on principal component analysis (PCA) to decompose shape variability into a reduced set of interpretable components. In this paper we propose principal factor analysis (PFA) as an alternative and complementary tool to PCA providing a decomposition into modes of variation that can be more easily interpretable, while still being a linear efficient technique that performs dimensionality reduction (as opposed to independent component analysis, ICA). The key difference between PFA and PCA is that PFA models covariance between variables, rather than the total variance in the data. The added value of PFA is illustrated on 2D landmark data of corpora callosa outlines. Then, a study of the 3D shape variability of the human left femur is performed. Finally, we report results on vector-valued 3D deformation fields resulting from non-rigid registration of ventricles in MRI of the brain.