1000 resultados para Canale di laminazione, profilo, laminati a caldo, controllo statistico di processo
Resumo:
Il lavoro eseguito comprende 3 differenti studi inerenti l’approfondimento di diversi aspetti della fisiopatologia della prostata, in particolare l’aspetto clinico, biochimico ed ormonale. Per quanto riguarda l’aspetto clinico è stato eseguito uno studio ecografico sull’accrescimento e sviluppo della ghiandola, a partire dai 4 giorni di vita all’anno di età del cane. L’aspetto biochimico dell’organo è stato indagato nel secondo studio, analizzando l’eventuali differenze nel profilo proteico e nel profilo dello zinco, valutato con spettrofotometria ad assorbimento atomico, su campioni di plasma seminale di cani sani o cani affetti da iperplasia prostatica benigna sintomatica od asintomatica. Lo studio è stato eseguito allo scopo di valutare se l’approccio biochimico ai problemi prostatici possa essere d’aiuto nella diagnosi della più comune patologia della prostata, l’iperplasia prostatica benigna. Il terzo studio inerente l’aspetto ormonale della prostata, completa lo studio precedente, analizzando le eventuali differenze ormonali (Testosterone, Estrogeni e Progesterone) riscontrabili fra due gruppi di cani: i cani sani e quelli affetti da iperplasia prostatica benigna.
Resumo:
The assessment of the RAMS (Reliability, Availability, Maintainability and Safety) performances of system generally includes the evaluations of the “Importance” of its components and/or of the basic parameters of the model through the use of the Importance Measures. The analytical equations proposed in this study allow the estimation of the first order Differential Importance Measure on the basis of the Birnbaum measures of components, under the hypothesis of uniform percentage changes of parameters. The aging phenomena are introduced into the model by assuming exponential-linear or Weibull distributions for the failure probabilities. An algorithm based on a combination of MonteCarlo simulation and Cellular Automata is applied in order to evaluate the performance of a networked system, made up of source nodes, user nodes and directed edges subjected to failure and repair. Importance Sampling techniques are used for the estimation of the first and total order Differential Importance Measures through only one simulation of the system “operational life”. All the output variables are computed contemporaneously on the basis of the same sequence of the involved components, event types (failure or repair) and transition times. The failure/repair probabilities are forced to be the same for all components; the transition times are sampled from the unbiased probability distributions or it can be also forced, for instance, by assuring the occurrence of at least a failure within the system operational life. The algorithm allows considering different types of maintenance actions: corrective maintenance that can be performed either immediately upon the component failure or upon finding that the component has failed for hidden failures that are not detected until an inspection; and preventive maintenance, that can be performed upon a fixed interval. It is possible to use a restoration factor to determine the age of the component after a repair or any other maintenance action.
Resumo:
I nanomateriali presentano proprietà molto differenti dai corrispondenti materiali bulk; per questo motivo, negli ultimi anni, se ne è sempre più diffuso l’utilizzo. In particolare, recentemente ha suscitato grande interesse l’impiego di nanoparticelle bimetalliche, le cui proprietà ottiche, morfologiche e dimensionali possono essere modulate sulla base della composizione. L’interesse del mondo industriale allo studio di materiali con dimensioni nano-metriche deriva principalmente dalle loro possibili applicazioni su grande scala ed è quindi di fondamentale importanza la messa a punto di metodologie di sintesi versatili, facilmente scalabili ed a basso impatto ambientale. L’ottimizzazione della sintesi è un aspetto molto importante in quanto deve assicurare un accurato controllo di forma, dimensioni e composizione. A tale scopo è stata sviluppata una sintesi a basso impatto ambientale, in acqua, basata sull’azione riducente del sistema glucosio – NaOH, che permette di ottenere nanoparticelle stabili e con dimensioni omogenee. Nel corso dello studio il riscaldamento è stato effettuato mediante un sistema a microonde: una tecnologia affidabile e sicura che permette un riscaldamento rapido ed omogeneo. La tesi ha come scopo:• l’ottimizzazione e la caratterizzazione di nanosospensioni monometalliche di Pd mediante la sintesi già ottimizzata in lavori precedenti per i metalli: Au, Ag e Cu; •lo studio di sistemi bimetallici Pd/Cu e Pd/Au con morfologia di lega, ottenuti per co-riduzione dei sali precursori; •lo studio dell’attività catalitica delle nanoparticelle sintetizzate nella reazione di riduzione del 4-nitrofenolo a 4-amminofenolo mediante NaBH4; •lo studio della supportazione su carbone di Pd/Au per applicazioni elettrocatalitiche. Per poter studiare e valutare l’eventuale presenza di effetti sinergici tra i metalli coinvolti nella sintesi sono stati confrontati sistemi monometallici con sistemi bimetallici a differenti composizioni (Pd/Cu e Pd/Au). In particolare è stato possibile apprezzare un miglioramento delle prestazioni catalitiche per i sistemi bimetallici Pd/Au rispetto ai metalli di partenza, al contrario i sistemi bimetallici Pd/Cu mostrano un peggioramento dell’attività catalitica all’aumentare del contenuto di rame. La nanosospensione Pd/Au risultata con le maggiori prestazioni catalitiche, è stata supportata su carbone per applicazioni nel campo dell’elettrocatalisi. Da uno studio preliminare sulle tecniche di supportazione è emerso che il metodo migliore per depositare le nanoparticelle sul carbone è l’impregnazione fisica.
Resumo:
Il calcestruzzo è uno dei materiali più utilizzati nell’edilizia, ma il meno sostenibile. Per la sua produzione vengono sfruttate elevate quantità di risorse naturali non rinnovabili con un impatto ambientale non trascurabile, sia per le sostanze emesse in atmosfera, sia per le macerie derivate post utilizzo. L’ingresso nel XXI secolo ha segnato definitivamente l’affermazione del concetto di sviluppo sostenibile nei riguardi di tutti i processi produttivi dei beni, che devono essere necessariamente strutturati secondo una logica di risparmio energetico e di controllo della produzione di scorie e rifiuti, prevedendone un loro riutilizzo in altri settori, o un loro smaltimento senza provocare danni all’ambiente. Anche l’industria del cemento e del calcestruzzo è chiamata a svolgere il proprio ruolo per contribuire ad un miglior bilancio ecologico globale, indirizzando la ricerca verso possibilità d’impiego di materiali “innovativi”, che siano in grado di sostituire parzialmente o totalmente l’uso di materie prime non rinnovabili, tenendo conto dell’enorme richiesta futura di infrastrutture, soprattutto nei paesi in via di sviluppo. Negli ultimi anni si sta sempre più affermando il potenziale del riciclo dei materiali ottenuti dalla demolizione di edifici (C&DW – Construction and Demolition Waste), questo dovuto anche a politiche di gestione dei rifiuti che incentivano il risparmio, il riutilizzo, il riciclo e la valorizzazione dei beni. I calcestruzzi con aggregati di riciclo sono generalmente suddivisi in due macrogruppi: quelli ottenuti da aggregati di riciclo di solo calcestruzzo (RCA – Recycled Coarse Aggregate) e quelli da aggregati da demolizione totale (MRA – Mixed Recycled Aggregate) che però contengono molte impurità. Come anche uno può subito pensare gli aggregati riciclati hanno delle proprietà diverse da quelli naturali, questi contengono oltre l’aggregato naturale anche il legante coeso, polveri di laterizio, vetro, ceramica, plastica eccet., i quali offrono una miscela ricca di cloruri, solfati, silice amorfa ed altri componenti dannosi per la nuova miscela di calcestruzzo. In presenza di questi prodotti, gli aggregati non solo non soddisfano i requisiti chimici, ma influiscono negativamente anche sulle proprietà fisico-meccaniche del calcestruzzo. Per questo vedremmo in questa tesi tramite un accurata analisi degli aggregati, e del loro “contributo” per il corretto comportamento del calcestruzzo, leggendo criticamente come le normative regolano i requisiti che gli aggregati debbono soddisfare, vedendo le varie possibilità di riutilizzo dei materiali di riciclo da demolizione. La tesi mira all'incentivo dei materiali da riciclo, come scelta sostenibile per il futuro dell'edilizia. E' stato calcolato che la produzione totale di macerie da demolizione nel mondo, non supera il 20% in massa degli aggregati che vengono utilizzati per la produzione del calcestruzzo nei paesi sviluppati. Dai vari studi è stato valutato in media che col solo 20% di riciclato sostituito, le caratteristiche del calcestruzzo indurito cambiano di poco dal normale miscelato con aggregati naturali; ovviamente se gli aggregati da riciclo sono stati selezionati e sottoposti ai vari test delle norme europee standardizzate. Quindi uno può subito pensare in linea teorica, tralasciando i costi di gestione, trasporto eccet. , che basta utilizzare per ogni metro cubo di calcestruzzo 20% di riciclato, per rispondere allo smaltimento dei rifiuti da C&D; abbassando cosi i costi degli inerti naturali, sempre parlando di economie di scala. Questo è in linea teorica, ma riflette un dato rilevante. Nel presente lavoro si partirà da una veloce lettura sul comportamento del calcestruzzo, su i suoi principali costituenti, concentrandoci sugli aggregati, analizzandone le sue proprietà fisico-meccaniche, quali la granulometria, la resistenza meccanica e la rigidezza, valutando l’importanza dei legami coesivi tra aggregato alla pasta cementizia. Verranno inoltre analizzate le azioni deleterie che possono instaurarsi tra aggregato di riciclo e pasta cementizia. Dopo aver visto le varie politiche sulla gestione dei rifiuti, la legislazione passata e presente sull’uso dei materiali riciclati, si analizzeranno vari studi sulle proprietà fisico-meccaniche dei calcestruzzi con aggregati di riciclo seguiti da università e poli di ricerca internazionali. Se gli aggregati di riciclo sono selezionati con metodo, in presenza di piani di gestione regionale e/o nazionale, è possibile soddisfare le prestazioni richieste del calcestruzzo, nel rispetto delle politiche di sostenibilità economico-ambientali. Può essere il calcestruzzo riciclato una scelta non solo sostenibile, ma anche economica per il settore edile? Si può avere un calcestruzzo riciclato ad alte prestazioni? Quali sono le politiche da mettere in atto per un mercato di produzione sostenibile del riciclato? Questo e molto altro verrà approfondito nelle pagine seguenti di questa tesi.
Resumo:
Questa tesi tratta del progetto di un impianto fotovoltaico ad isola. Il sistema si compone di diversi blocchi che verranno tutti analizzati nel corso della tesi con particolare enfasi al circuito di controllo e gestione della potenza. Le principali originalità consistono nell'utilizzo di un apposito circuito per l'avviamento dei carichi capacitivi (gestione delle inrush current) e un driver flottante per Cùk con pochi componenti discreti. Si è realizzato il prototipo che viene dettagliatamente descritto all'interno della dissertazione.
Interfaccia web per un sistema di condivisione semantica dell'informazione: studio e implementazione
Resumo:
Questa tesi progettuale nasce per integrare gli sforzi attuali sullo sviluppo del web semantico. La piattaforma di riferimento sulla quale è stato svolto il presente lavoro è SMART-M3. Questa piattaforma mette a disposizione uno spazio condiviso di informazioni, rappresentate e accessibili secondo le tecnologie del web semantico. In questo scenario, nasce la necessità di disporre di un'interfaccia web capace di interagire con la piattaforma - in grado di risolvere la complessità intrinseca dei dati semantici - allo scopo di averne un completo controllo; ricerche precedenti a questo proposito hanno dato come frutto una libreria PHP che mi è stata consegnata come strumento per lo sviluppo dell'interfaccia. La tesi si è articolata in 3 fasi principali: una fase iniziale di documentazione sull'argomento, eseguita principalmente sul libro “A developer's guide to the semantic web” di Liyang Yu e sulla tesi “Ontologie per il web semantico: un'analisi comparativa.” di Indrit Beqiri; una seconda fase, quella principale, di sviluppo del progetto informatico; una terza fase, infine, di sviluppo di questo elaborato di tesi, da considerarsi come la trattazione di tutto il percorso soprascritto, dall'inizio alla fine, secondo l'ordine cronologico in cui si svolto l'intero processo della tesi.
Resumo:
Questa tesi tratta dello sviluppo di un progetto chiamato Faxa e di una sua concreta applicazione nell’ambito della domotica (CasaDomotica). Faxa è un framework per la comunicazione via wireless tra dispositivi che supportano il sistema operativo Android e dispositivi Arduino Ethernet, comunicazione che avviene localmente attraverso il wi-fi. Il progetto si inserisce nel panorama più ampio chiamato “Internet of Things”, ovvero internet delle cose, dove ogni oggetto di uso domestico è collegato ad Internet e può essere quindi manipolato attraverso la rete in modo da realizzare una vera e propria “smart house”; perchè ciò si attui occorre sviluppare applicazioni semplici e alla portata di tutti. Il mio contributo comincia con la realizzazione del framework Faxa, così da fornire un supporto semplice e veloce per comporre programmi per Arduino e Android, sfruttando metodi ad alto livello. Il framework è sviluppato su due fronti: sul lato Android è composto sia da funzioni di alto livello, necessarie ad inviare ordini e messaggi all'Arduino, sia da un demone per Android; sul lato Arduino è composto dalla libreria, per inviare e ricevere messaggi. Per Arduino: sfruttando le librerie Faxa ho redatto un programma chiamato “BroadcastPin”. Questo programma invia costantemente sulla rete i dati dei sensori e controlla se ci sono ordini in ricezione. Il demone chiamato “GetItNow” è una applicazione che lavora costantemente in background. Il suo compito è memorizzare tutti i dati contenuti nei file xml inviati da Arduino. Tali dati corrispondono ai valori dei sensori connessi al dispositivo. I dati sono salvati in un database pubblico, potenzialmente accessibili a tutte le applicazioni presenti sul dispositivo mobile. Sul framework Faxa e grazie al demone “GetItNow” ho implementato “CasaDomotica”, un programma dimostrativo pensato per Android in grado di interoperare con apparecchi elettrici collegati ad un Arduino Ethernet, impiegando un’interfaccia video semplice e veloce. L’utente gestisce l’interfaccia per mezzo di parole chiave, a scelta comandi vocali o digitali, e con essa può accendere e spegnere luci, regolare ventilatori, attuare la rilevazione di temperatura e luminosità degli ambienti o quanto altro sia necessario. Il tutto semplicemente connettendo gli apparecchi all’Arduino e adattando il dispositivo mobile con pochi passi a comunicare con gli elettrodomestici.
Resumo:
Il termine extravergine, per un olio di alta qualità, rappresenta solo un pre-requisito: la categoria merceologica, intesa come conformità ad una serie di analisi chimico-sensoriali previste dalla normativa Europea, non è sufficiente ad esaltare il valore aggiunto che un olio può avere in termini di attributi di qualità sensoriale e salutistica. Questi ultimi sono fortemente influenzati dalla presenza di alcuni composti minori, come le molecole volatili e quelle a struttura fenolica (biofenoli). I composti volatili sono i principali responsabili dell'aroma di un olio extravergine d’oliva, mentre i biofenoli lo sono per gli attributi positivi, di amaro e piccante, già normati dal legislatore. Lo studio ha riguardato le relazioni esistenti tra le sostanze volatili e biofenoliche e le percezioni sensoriali ad esse associate. Tra gli oli extravergini di oliva partecipanti all’International Olive Oil Award di Zurigo 2012, sono stati selezionati 28 campioni monovarietali di diversa provenienza geografica (principalmente Italia, Spagna e Grecia). La valutazione sensoriale è stata eseguita dal panel dell’Institute of Food and Beverage Innovation di Zurigo con l’impiego di una scheda di profilo più descrittiva di quella ufficiale (Reg. CE 640/2008), contenente numerosi attributi positivi secondari valutati su scala discreta a 4 punti, oltre ad armonia e persistenza, su scala continua di 10 cm. I campioni sono stati sottoposti alla caratterizzazione della frazione biofenolica (indice di amaro, contenuto in fenoli totali ed analisi delle principali molecole fenoliche mediante HPLC-DAD/MSD) e dei composti volatili (SPME/GC-MSD). I dati ottenuti sono stati elaborati con l’ausilio di tecniche di analisi multivariata nel tentativo di valutare le correlazioni esistenti tra le variabili e di individuare gruppi omogenei di oli. La finalità di questo lavoro è stata quella di suggerire attributi discriminanti la qualità sensoriale di oli di pregio, che possano essere impiegati come leve di promozione dei prodotti, così come indicatori addizionali di autenticità.
Resumo:
Lo sviluppo negli ultimi decenni di strumentazioni sempre più pratiche, versatili, veloci ed economicamente accessibili, ha notevolmente incrementato la capacità delle aziende, in particolar modo quelle operanti nel settore dell'industria alimentare, nel cogliere le potenzialità di una tecnologia che applica rigore scientifico a una materia a lungo considerata liminale e di secondaria rilevanza, quale quella cromatica. A fronte di ciò, si è ritenuto opportuno introdurre strumenti di misura formalizzati a livello internazionale, atti a individuare e verificare parametri di colore, i quali attestassero la qualità della materia prima utilizzata, nonché riconducibili a una tecnologia di produzione di massa. L’attuale progetto deriva dalla necessità di un’azienda produttrice di concentrati in pasta e semi-lavorati in polvere per la gelateria e la pasticceria, di introdurre un sistema di misurazione oggettiva del colore, che vada a sostituirsi a una valutazione soggettiva, a lungo ritenuta come unico metodo valido di analisi. Il ruolo rivestito all’interno di tale azienda ha consentito, grazie anche al supporto fornito dal Controllo Qualità, la realizzazione di un elaborato finale di sintesi, contenente i risultati delle analisi colorimetriche condotte su alcune paste concentrate. A partire dunque dalla letteratura scientifica elaborata in materia, si è proceduto inizialmente, alla realizzazione di una parte generale riguardante la descrizione del colore, delle sue proprietà e manifestazioni, e dei metodi di misurazione, ripercorrendo le tappe dalla nascita delle prime teorie fino all’adozione di uno spazio di colore universale; una seconda sperimentale, in cui si elaborano- tramite software statistici (Anova , Spectra Magic Nx)- i parametri colorimetrici e il pH dei singoli campioni. In particolare, la determinazione del colore su paste concentrate, ha permesso di valutare in maniera oggettiva le variazioni di colore in termini di coordinate L*, a*, b*, che avvengono durante il periodo di conservazione (24-36 mesi). Partendo dai dati oggettivi di colore, sono state definite semplici equazioni che descrivono l'andamento dei parametri in funzione dei mesi di conservazione e del pH del prodotto. Nell’ottica del miglioramento della gestione della qualità delle aziende specializzate nella produzione di semilavorati-concentrati per le gelaterie, il presente lavoro ha fornito uno spunto per la realizzazione e l’applicazione di un sistema di controllo del colore durante la conservazione del prodotto; ha anche permesso di definire le linee per un sistema di analisi colorimetrica utile alla messa a punto di un database aziendale comprensivo d’indici, stime e annotazioni. Tale database dovrà essere mirato all’ottenimento di un sempre più alto livello di qualità del prodotto, suggerendo allo stesso tempo possibili interventi correttivi (maggior standardizzazione del colore e possibile definizione di un adeguato intervallo di tolleranza), ma anche a un miglioramento nella gestione di problematiche in fase di produzione e quindi, l’incremento della capacità produttiva con conseguente riduzione dei tempi di evasione degli ordini. Tale contributo ha consentito a delineare le future prospettive di sviluppo favorendo l’implementazione (nella realtà aziendale) di un approccio strumentale e quindi oggettivo, in relazione alle più comuni problematiche di tipo colorimetrico, al fine di migliorare il valore qualitativo del prodotto.
Resumo:
L’obiettivo del presente elaborato di tesi è stato quello di mettere a punto una metodica in estrazione in fase solida (SPE) per la determinazione dei composti polari, in alternativa alla metodica ufficiale prevista dalla Circ. Minisan 11.01.91 n.1. Durante la frittura avvengono diverse trasformazioni chimiche che portano alla formazione di composti polari come monogliceridi e digliceridi, acidi grassi liberi, acidi grassi dimeri e polimerizzati, trigliceridi dimeri e polimerizzati. Tali composti, dal punto di vista nutrizionale, sono quelli più importanti poiché rimangono nell’olio, sono assorbiti dall’alimento, e di conseguenza ingeriti. I composti polari hanno una notevole importanza a livello nutrizionale e fisiologico, infatti diversi studi hanno evidenziano come essi possano avere un impatto sull’organismo umano. In seguito a tutte queste motivazioni, per prevenire possibili rischi per il consumatore, derivanti dall’uso improprio o eccessivamente ripetuto di oli e grassi per frittura, l’Istituto Superiore di Sanità prevede che il tenore dei composti polari non debba essere superiore a 25 g/100 g, infatti i composti polari sono l’unico parametro sottoposto ad un controllo ufficiale negli oli da frittura. La metodica ufficiale per la determinazione dei composti polari negli oli da frittura, è descritta nella Circ. Minisan dell’11.1.91 n.1. Tuttavia, tale metodica presenta diverse problematiche, poiché richiede un’elevata manualità da parte dell’operatore ed elevati quantitativi di solventi, con il conseguente impatto economico ed ambientale. Nella fase di messa a punto della metodica SPE, sono stati considerati diversi parametri: tipo di fase stazionaria, quantità di olio, miscele eluenti (in diverse quantità e rapporti). E’ stata scelta l’oleina di palma come matrice di prova della messa a punto, perché è molto utilizzata in frittura e perché, tra gli oli da frittura, risulta essere quello con maggior contenuto in composti polari. I migliori risultati sono stati ottenuti con una colonnina SPE in gel di silice (55 µm, 70 A) avente una capacità di 5 g/20 mL, depositando 400 mg di olio ed eluendo il campione con 80 mL di esano: etere dietilico (90:10, v/v) (composti apolari), e 20 mL di etere dietilico (composti polari). L’efficienza separativa della SPE è stata verificata tramite gascromatografia. Per poter valutare la ripetibilità, efficienza ed attendibilità della metodica SPE, è stata utilizzata l’oleina di palma prima e dopo essere soggetta a diversi cicli di frittura (dopo il primo e quinto giorno di frittura), in modo da avere diversi livelli di composti polari sulla stessa matrice. La metodica SPE ha mostrato un’eccellente ripetibilità analitica intra-giorno, indipendentemente dal livello di composti polari rilevati nell’oleina di palma (14,1-25,5%); infatti, la ripetibilità intra-giorno non ha superato l’1,5%. Inoltre, la ripetibilità intra-giorno non ha subito modifiche in funzione del contenuto di composti polari. Di conseguenza, si è osservato anche un’ottima ripetibilità analitica inter-giorno, che è variata da 0,64% a l’1,18%. Entrambi valori di ripetibilità (intra ed inter-giorni) attestano che questa metodica in estrazione in fase solida può essere utilizzata per la valutazione dei composti polari negli oli da frittura. Confrontando i livelli medi di composti polari ottenuti tramite la metodica SPE e quella ufficiale applicate all’oleina di palma tal quale, dopo il primo e quinto giorno di frittura, sono state rilevate delle piccole differenze (non significative) tra le due metodiche, essendo i livelli di composti polari in tutti i casi leggermente superiori nei dati della SPE. Entrambe le metodiche hanno presentato un’ottima ripetibilità intra-giorno (< 1,5% e < 3,5% per la SPE e la metodica ufficiale, rispettivamente) e sono risultate comunque confrontabili tra loro. La metodica SPE e quella ufficiale sono state poi applicate anche su altri oli vegetali (extravergine di oliva, olio di girasole alto oleico: olio di palma (60:40, v/v) ed olio di palma: olio di girasole alto oleico (55:45, v/v) ) e confrontate. In effetti, è stato osservato che le percentuali dei composti polari rilevati nello stessa tipologia d’olio sono molto simili, indipendentemente dalla metodica con cui siano stati valutati; è stata infatti confermata un’eccellente correlazione lineare tra i dati. Questo stesso andamento è stato riscontrato negli oli sottoposti a diversi cicli di frittura, il che conferma che entrambe metodiche analitiche sono capaci di separare efficientemente ed in modo analogo i composti non polari da quelli polari. Negli oli analizzati, sono state trovate delle percentuali di composti polari diverse, strettamente correlate all’origine dell’olio, alla sua composizione ed al processo di estrazione. Per ultimo, l’analisi dei costi (che includeva materiali, solventi, personale, ed elettricità) di entrambe le metodiche analitiche ha confermato che l’analisi SPE costerebbe € 22-30, a differenza di quella ufficiale, il cui costo sarebbe di circa € 45. Tale differenza è dovuta principalmente ai costi legati all’operatore ed ai consumi di solventi e di elettricità. Pertanto, la metodica SPE è risultata essere più conveniente in termini economici, poiché porta ad un risparmio di ca. € 15-20 per analisi, oltre che ad un dimezzamento dei solventi. Un altro aspetto importante da sottolineare è il diverso tempo che ciascuna delle metodiche prevede per l’analisi dei composti polari, essendo nettamente più veloce la metodica SPE (circa 1,30 h) rispetto alla metodica ufficiale (circa 3 h). La metodica SPE qui sviluppata ha quindi dimostrato di avere un’efficienza separativa e ripetibilità simili a quella della metodica ufficiale, rendendo possibile una minore manipolazione da parte dell’operatore, tempi più brevi di analisi e l’impiego di bassi quantitativi di solventi, portando così ad una riduzione dell’impatto ambientale ed a costi inferiori di operazione. Pertanto, la metodica SPE può rappresentare una valida alternativa alla metodica ufficiale, prevista dalla Circ. Minisan 11.1.91 n.1.
Resumo:
Strongylosis in equids, despite being very common, have never been studied from a strictly ecological point of view. Mathematical models are important ecological tools used to study the temporal dynamics of parasite populations, and are useful to study the effect of different biological parameters, as well as to analyse the outcome produced by perturbations such as anthelmintic treatments. This work describes the study of the temporal dynamics of strongyles infection in an organic donkey population, performed using coprological quantitative analysis and donkeys’ age as a proxy of the time of infection. Force of infection was then estimated for Strongylus vulgaris and small strongyles and the results used as the basis for the development of mathematical models. In particular, the comparison of models output and field data made it possible to estimate the transmission coefficient and to consequently calculate the basic reproduction number R0 and the threshold host density. Small strongyles model includes hypobiosis and, more interestingly as never found in literature, a density-dependent development rate of hypobiotic larvae in adult parasites in order to simulate a negative feedback between larvae emergence from hypobiosis and adult parasite abundance. Simulations of pharmacological and environmental treatments showed that parasite eradication was possible for S. vulgaris only, while small strongyles, due to hypobiosis and density-dependent development rate of their hypobiotic larvae, are very difficult to control and impossible to eradicate. In addition, density-dependence in larval development has been demonstrated to act as a key factor in improving parasite population survival and abundance even in absence of human intervention.
Resumo:
Transmissible spongiform encephalopathies (TSE) are neurodegenerative diseases caused by the conversion of the host-encoded cellular protein (PrPC) to a disease-associated isoform (PrPSc). The agent responsible for prion diseases may exist as different strains with specific biological and biochemical properties. According to the protein-only hypothesis, prion strain diversity is enciphered in PrPSc conformation. Molecular strain typing methods are based on the electrophoretic mobility of protease resistant core of PrPSc, on the susceptibility to protease digestion, on the glycosylation profile of PrPres and on the conformational stability of PrPSc. In this study a new conformational stability assay was developed based on the differential solubility of PrPC and PrPSc: CSSA (conformational stability and solubility assay). The conformational stability assay was performed by measuring PrPSc solubility in homogenates treated with increasing concentrations of GdnHCl, in the absence of proteinase K. Indeed, dose-response curves allowed estimation of the concentration of GdnHCl able to solubilise 50% of PrPSc. The results showed that this method is valuable for the biochemical typing of strains in bank voles and it is also a promising tool for molecular analysis of natural prion isolates. CSSA also revealed strain-specific PrPSc conformational stabilities of ovine natural isolates so that this feature, combined with the N-terminal PrPSc cleavage, allowed differentiation of classical scrapie, including CH1641-like, from natural goat BSE and experimental sheep BSE. In view of the implications concerning strain similarity between animal and human TSEs, the physico-chemical properties of the Nor98 with two human prion diseases (VPSPr and GSS) were compared in order to investigate the extent of the similarity between animal and human prion strains. The results showed an unexpected heterogeneity of the molecular features among human and sheep TSEs associated with internal PrPres fragments with the possible exception of Nor98 and a case of GSS P102L. These similarities and differences need further investigation by N- and C-terminal sequencing and biological characterization.