7 resultados para Sicurezza stradale, motociclisti

em Universita di Parma


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Background: sulla base delle evidenze emerse dalle rassegne sistematiche in materia (Johnstone, 1994; Cohen et al.,1998; Robson et al., 2012; Burke et al., 2006; Ricci et al., 2015) si è ipotizzato che la formazione alla salute e sicurezza sul lavoro sia maggiormente efficace quando non è presentata come obbligatoria e venga articolata su più livelli di apprendimento, attraverso metodologie adeguate per ogni livello, con docenti che abbiano caratteristiche corrispondenti allo specifico obiettivo di apprendimento e la cui durata sia parametrata all’obiettivo stesso. Obiettivo di questa ricerca è valutare se esista e quanto sia intensa la relazione causale tra la formazione alla sicurezza sul lavoro e i suoi effetti sul miglioramento delle conoscenze, degli atteggiamenti, dei comportamenti, degli esiti per la salute, del clima di sicurezza aziendale, del controllo comportamentale percepito dai lavoratori, delle condizioni operative e procedure interne, oltre l’eventuale effetto di moderazione determinato da caratteristiche socio-demografiche dei partecipanti e dal gradimento della formazione. Metodo: la variabile indipendente è costituita dell’intervento formativo erogato, articolato in tre condizioni: formazione obbligatoria, formazione non obbligatoria, gruppo di controllo: sono stati posti a confronto due interventi di pari durata (16 settimane, per 10h complessive), realizzati con identiche modalità (step1 audio-visivo; step2 affiancamento su lavoro da parte del preposto; step3 discussione di auto-casi), ma differenziati rispetto all’essere presentati uno come formazione obbligatoria, l’altro come non obbligatoria. I due gruppi sono anche stati confrontati con un gruppo di controllo per il quale la formazione è prevista successivamente. I partecipanti sono stati assegnati in modo casuale al gruppo con obbligo formativo, senza obbligo formativo, di controllo. Sono stati presi come indicatori (variabili dipendenti) per valutare l’effetto della formazione: I livello – conoscenze: riconoscimento o produzione di un maggior numero di risposte corrette. II livello – atteggiamenti e credenze: maggiore propensione a mettere in atto comportamenti auto ed etero protettivi. III livello – comportamenti: comportamenti osservati più adeguati per la tutela della salute propria e altrui. IV livello – salute: maggior grado di benessere bio-psico-sociale auto-riferito. Le misure di esito consistono nella variazione tra la rilevazione iniziale e ogni rilevazione successiva, sulla base delle diverse misure registrate per ognuno dei quattro livelli dell’intervento formativo. Lo stesso confronto del tempo è stato realizzato per le misure del clima di sicurezza aziendale, del controllo comportamentale percepito dai lavoratori, delle condizioni operative e procedure interne, oltre l’eventuale effetto di moderazione determinato da caratteristiche socio-demografiche dei partecipanti e dal gradimento della formazione, quest’ultimo misurato solo immediatamente al termine dell’intervento. Risultati: le condizioni di intervento non differiscono in termini di efficacia, la formazione determina infatti gli stessi risultati per i partecipanti del gruppo obbligo formativo e di quello non obbligo, con una significativa differenza post-intervento rispetto al gruppo di controllo. La formazione ha un effetto forte nel miglioramento delle conoscenze che solo parzialmente decade nel tempo, ma comunque mantenendo un livello maggiore rispetto ai valori iniziali. In relazione al miglioramento di atteggiamenti e comportamenti sicuri nel lavoro al Videoterminale, l’effetto della formazione è modesto: per gli atteggiamenti si registra solo un miglioramento verso l’applicazione delle procedure come utili realmente e non come mero adempimento, ma tale effetto decade entro quattro mesi riportando i partecipanti su valori iniziali; i comportamenti invece migliorano nel tempo, ma con deboli differenze tra partecipanti alla formazione e gruppo di controllo, tuttavia tale miglioramento non decade in seguito. Non si registrano invece effetti della formazione nella direzione attesa in termini di esiti per la salute, per il miglioramento del clima di sicurezza e come maggior controllo comportamentale percepito, non risultano nemmeno dati evidenti di moderazione degli effetti dovuti a caratteristiche socio-demografiche dei partecipanti. Inoltre emerge che il gradimento per la formazione è correlato con migliori atteggiamenti (strumento audio-visivo), il miglioramento del clima di sicurezza e un maggior controllo comportamentale percepito (studio di auto-casi), ovvero gli step che hanno visto l’intervento di formatori qualificati. Infine, la formazione ha determinato migliori condizioni operative e l’adeguamento delle procedure interne. Conclusioni: la presente ricerca ci consente di affermare che la formazione erogata è stata efficace, oltre che molto gradita dai partecipanti, in particolare quando il formatore è qualificato per questa attività (step1 e 3). L’apprendimento prodotto è tanto più stabile nel tempo quanto più i contenuti sono in stretta relazione con l’esperienza lavorativa quotidiana dei partecipanti, mentre negli altri casi il decremento degli effetti è alquanto rapido, di conseguenza ribadiamo la necessità di erogare la formazione con continuità nel tempo. E’ risultato comunque modesto l’effetto della formazione per migliorare gli atteggiamenti e i comportamenti nel lavoro al VDT, ma, al di là di alcuni limiti metodologici, sono obiettivi ambiziosi che richiedono più tempo di quanto abbiamo potuto disporre in questa occasione e il cui conseguimento risente molto delle prassi reali adottate nel contesto lavorativo dopo il termine della formazione. Le evidenze finora prodotte non hanno poi chiarito in modo definitivo se attraverso la formazione si possano determinare effetti significativi nel miglioramento di esiti per la salute, anche eventualmente attraverso interventi di supporto individuale. Inoltre l’assenza di differenze significative negli effetti tra i partecipanti assegnati alla condizione di obbligo e quelli di non obbligo, eccezion fatta in direzione opposta alle attese per la misura del danno da lavoro, suggeriscono che nell’erogare la formazione, occorre sottolineare in misura molto rilevante l’importanza dell’intervento che viene realizzato, anche qualora esistesse una prescrizione normativa cogente. Infine, la ricerca ci ha fornito anche indicazioni metodologiche e misure valide che invitano ad estendere questa formazione, e la sua valutazione di efficacia, a diversi comparti economici e svariate mansioni. Nel fare questo è possibile fare riferimento, e testare nuovamente, un modello che indica la corretta percezione del rischio (conoscenza) come fattore necessario, ma non sufficiente per ottenere, con la mediazione di atteggiamenti favorevoli allo specifico comportamento, azioni sicure, attraverso le quali si rinforza l’atteggiamento e migliorano le conoscenze. La formazione, per raggiungere i propri obiettivi, deve tuttavia agire anche sui meccanismi di conformismo sociale favorevoli alla safety, questi originano da conoscenze e azioni sicure e reciprocamente le rinforzano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro presentato in questa tesi di Dottorato è incentrato sullo sviluppo di strategie analitiche innovative basate sulla sensoristica e su tecniche di spettrometria di massa in ambito biologico e della sicurezza alimentare. Il primo capitolo tratta lo studio di aspetti metodologici ed applicativi di procedure sensoristiche per l’identificazione e la determinazione di biomarkers associati alla malattia celiaca. In tale ambito, sono stati sviluppati due immunosensori, uno a trasduzione piezoelettrica e uno a trasduzione amperometrica, per la rivelazione di anticorpi anti-transglutaminasi tissutale associati a questa malattia. L’innovazione di questi dispositivi riguarda l’immobilizzazione dell’enzima tTG nella conformazione aperta (Open-tTG), che è stato dimostrato essere quella principalmente coinvolta nella patogenesi. Sulla base dei risultati ottenuti, entrambi i sistemi sviluppati si sono dimostrati una valida alternativa ai test di screening attualmente in uso per la diagnosi della celiachia. Rimanendo sempre nel contesto della malattia celiaca, ulteriore ricerca oggetto di questa tesi di Dottorato, ha riguardato lo sviluppo di metodi affidabili per il controllo di prodotti “gluten-free”. Il secondo capitolo tratta lo sviluppo di un metodo di spettrometria di massa e di un immunosensore competitivo per la rivelazione di prolammine in alimenti “gluten-free”. E’ stato sviluppato un metodo LC-ESI-MS/MS basato su un’analisi target con modalità di acquisizione del segnale selected reaction monitoring per l’identificazione di glutine in diversi cereali potenzialmente tossici per i celiaci. Inoltre ci si è focalizzati su un immunosensore competitivo per la rivelazione di gliadina, come metodo di screening rapido di farine. Entrambi i sistemi sono stati ottimizzati impiegando miscele di farina di riso addizionata di gliadina, avenine, ordeine e secaline nel caso del sistema LC-MS/MS e con sola gliadina nel caso del sensore. Infine i sistemi analitici sono stati validati analizzando sia materie prime (farine) che alimenti (biscotti, pasta, pane, etc.). L’approccio sviluppato in spettrometria di massa apre la strada alla possibilità di sviluppare un test di screening multiplo per la valutazione della sicurezza di prodotti dichiarati “gluten-free”, mentre ulteriori studi dovranno essere svolti per ricercare condizioni di estrazione compatibili con l’immunosaggio competitivo, per ora applicabile solo all’analisi di farine estratte con etanolo. Terzo capitolo di questa tesi riguarda lo sviluppo di nuovi metodi per la rivelazione di HPV, Chlamydia e Gonorrhoeae in fluidi biologici. Si è scelto un substrato costituito da strips di carta in quanto possono costituire una valida piattaforma di rivelazione, offrendo vantaggi grazie al basso costo, alla possibilità di generare dispositivi portatili e di poter visualizzare il risultato visivamente senza la necessità di strumentazioni. La metodologia sviluppata è molto semplice, non prevede l’uso di strumentazione complessa e si basa sull’uso della isothermal rolling-circle amplification per l’amplificazione del target. Inoltre, di fondamentale importanza, è l’utilizzo di nanoparticelle colorate che, essendo state funzionalizzate con una sequenza di DNA complementare al target amplificato derivante dalla RCA, ne permettono la rivelazione a occhio nudo mediante l’uso di filtri di carta. Queste strips sono state testate su campioni reali permettendo una discriminazione tra campioni positivi e negativi in tempi rapidi (10-15 minuti), aprendo una nuova via verso nuovi test altamente competitivi con quelli attualmente sul mercato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilizzo di nanomateriali, ovvero una nuova classe di sostanze composte da particelle ultrafini con dimensioni comprese fra 1 e 100 nm (American Society for Testing Materials - ASTM), è in costante aumento a livello globale. La particolarità di tali sostanze è rappresentata da un alto rapporto tra la superficie e il volume delle particelle, che determina caratteristiche chimico-fisiche completamente differenti rispetto alle omologhe macrosostanze di riferimento. Tali caratteristiche sono tali da imporre una loro classificazione come nuovi agenti chimici (Royal Society & Royal Academy of Engineering report 2004). Gli impieghi attuali dei nanomateriali risultano in continua evoluzione, spaziando in diversi ambiti, dall’industria farmaceutica e cosmetica, all’industria tessile, elettronica, aerospaziale ed informatica. Diversi sono anche gli impieghi in campo biomedico; tra questi la diagnostica e la farmacoterapia. È quindi prevedibile che in futuro una quota sempre maggiore di lavoratori e consumatori risulteranno esposti a tali sostanze. Allo stato attuale non vi è una completa conoscenza degli effetti tossicologici ed ambientali di queste sostanze, pertanto, al fine di un loro utilizzo in totale sicurezza, risulta necessario capirne meglio l’impatto sulla salute, le vie di penetrazione nel corpo umano e il rischio per i lavoratori conseguente al loro utilizzo o lavorazione. La cute rappresenta la prima barriera nei confronti delle sostanze tossiche che possono entrare in contatto con l’organismo umano. Successivamente agli anni ‘60, quando si riteneva che la cute rappresentasse una barriera totalmente impermeabile, è stato dimostrato come essa presenti differenti gradi di permeabilità nei confronti di alcuni xenobiotici, dipendente dalle caratteristiche delle sostanze in esame, dal sito anatomico di penetrazione, dal grado di integrità della barriera stessa e dall’eventuale presenza di patologie della cute. La mucosa del cavo orale funge da primo filtro nei confronti delle sostanze che entrano in contatto con il tratto digestivo e può venir coinvolta in contaminazioni di superficie determinate da esposizioni occupazionali e/o ambientali. È noto che, rispetto alla cute, presenti una permeabilità all’acqua quattro volte maggiore, e, per tale motivo, è stata studiata come via di somministrazione di farmaci, ma, ad oggi, pochi sono gli studi che ne hanno valutato le caratteristiche di permeazione nei confronti delle nanoparticelle (NPs). Una terza importante barriera biologica è quella che ricopre il sistema nervoso centrale, essa è rappresentata da tre foglietti di tessuto connettivo, che assieme costituiscono le meningi. Questi tre foglietti rivestono completamente l’encefalo permettendone un isolamento, tradizionalmente ritenuto completo, nei confronti degli xenobiotici. L’unica via di assorbimento diretto, in questo contesto, è rappresentata dalla via intranasale. Essa permette un passaggio diretto di sostanze dall’epitelio olfattivo all’encefalo, eludendo la selettiva barriera emato-encefalica. Negli ultimi anni la letteratura scientifica si è arricchita di studi che hanno indagato le caratteristiche di assorbimento di farmaci attraverso questa via, ma pochissimi sono gli studi che hanno indagato la possibile penetrazione di nanoparticelle attraverso questa via, e nessuno, in particolar modo, ha indagato le caratteristiche di permeazione delle meningi. L’attività di ricerca svolta nell’ambito del presente dottorato ha avuto per finalità l’indagine delle caratteristiche di permeabilità e di assorbimento della cute, della mucosa del cavo orale e delle meningi nei confronti di alcune nanoparticelle, scelte fra quelle più rappresentative in relazione alla diffusione d’utilizzo a livello globale. I risultati degli esperimenti condotti hanno dimostrato, in vitro, che l’esposizione cutanea a Pt, Rh, Co3O4 e Ni NPs determinano permeazione in tracce dei medesimi metalli attraverso la cute, mentre per le TiO2 NPs tale permeazione non è stata dimostrata. È stato riscontrato, inoltre, che la mucosa del cavo orale e le meningi sono permeabili nei confronti dell’Ag in forma nanoparticellare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo principale della politica di sicurezza alimentare è quello di garantire la salute dei consumatori attraverso regole e protocolli di sicurezza specifici. Al fine di rispondere ai requisiti di sicurezza alimentare e standardizzazione della qualità, nel 2002 il Parlamento Europeo e il Consiglio dell'UE (Regolamento (CE) 178/2002 (CE, 2002)), hanno cercato di uniformare concetti, principi e procedure in modo da fornire una base comune in materia di disciplina degli alimenti e mangimi provenienti da Stati membri a livello comunitario. La formalizzazione di regole e protocolli di standardizzazione dovrebbe però passare attraverso una più dettagliata e accurata comprensione ed armonizzazione delle proprietà globali (macroscopiche), pseudo-locali (mesoscopiche), ed eventualmente, locali (microscopiche) dei prodotti alimentari. L'obiettivo principale di questa tesi di dottorato è di illustrare come le tecniche computazionali possano rappresentare un valido supporto per l'analisi e ciò tramite (i) l’applicazione di protocolli e (ii) miglioramento delle tecniche ampiamente applicate. Una dimostrazione diretta delle potenzialità già offerte dagli approcci computazionali viene offerta nel primo lavoro in cui un virtual screening basato su docking è stato applicato al fine di valutare la preliminare xeno-androgenicità di alcuni contaminanti alimentari. Il secondo e terzo lavoro riguardano lo sviluppo e la convalida di nuovi descrittori chimico-fisici in un contesto 3D-QSAR. Denominata HyPhar (Hydrophobic Pharmacophore), la nuova metodologia così messa a punto è stata usata per esplorare il tema della selettività tra bersagli molecolari strutturalmente correlati e ha così dimostrato di possedere i necessari requisiti di applicabilità e adattabilità in un contesto alimentare. Nel complesso, i risultati ci permettono di essere fiduciosi nel potenziale impatto che le tecniche in silico potranno avere nella identificazione e chiarificazione di eventi molecolari implicati negli aspetti tossicologici e nutrizionali degli alimenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo della presente tesi è evidenziare l’importanza dell’approccio critico alla valutazione della vulnerabilità sismica di edifici in muratura e misti Il contributo della tesi sottolinea i diversi risultati ottenuti nella modellazione di tre edifici esistenti ed uno ipotetico usando due diversi programmi basati sul modello del telaio equivalente. La modellazione delle diverse ipotesi di vincolamento ed estensione delle zone rigide ha richiesto la formulazione di quattro modelli di calcolo in Aedes PCM ed un modello in 3muri. I dati ottenuti sono stati confrontati, inoltre, con l’analisi semplificata speditiva per la valutazione della vulnerabilità a scala territoriale prevista nelle “Linee Guida per la valutazione e riduzione del rischio sismico del Patrimonio Culturale”. Si può notare che i valori ottenuti sono piuttosto diversi e che la variabilità aumenta nel caso di edifici non regolari, inoltre le evidenze legate ai danni realmente rilevati sugli edifici mostrano un profondo iato tra la previsione di danno ottenuta tramite calcolatore e le lesioni rilevate; questo costituisce un campanello d’allarme nei confronti di un approccio acritico nei confronti del mero dato numerico ed un richiamo all’importanza del processo conoscitivo. I casi di studio analizzati sono stati scelti in funzione delle caratteristiche seguenti: il primo è una struttura semplice e simmetrica nelle due direzioni che ha avuto la funzione di permettere di testare in modo controllato le ipotesi di base. Gli altri sono edifici reali: il Padiglione Morselli è un edificio in muratura a pianta a forma di C, regolare in pianta ed in elevazione solamente per quanto concerne la direzione y: questo ha permesso di raffrontare il diverso comportamento dei modelli di calcolo nelle sue direzioni; il liceo Marconi è un edificio misto in cui elementi in conglomerato cementizio armato affiancano le pareti portanti in muratura, che presenta un piano di copertura piuttosto irregolare; il Corpo 4 dell’Ospedale di Castelfranco Emilia è un edificio in muratura, a pianta regolare che presenta le medesime irregolarità nel piano sommitale del precedente. I dati ottenuti hanno dimostrato un buon accordo per la quantificazione dell’indice di sicurezza per i modelli regolari e semplici con uno scarto di circa il 30% mentre il delta si incrementa per le strutture irregolari, in particolare quando le pareti portanti in muratura vengono sostituite da elementi puntuali nei piani di copertura arrivando a valori massimi del 60%. I confronti sono stati estesi per le tre strutture anche alla modellazione proposta dalle Linee Guida per la valutazione dell’indice di sicurezza sismica a scala territoriale LV1 mostrando differenze nell’ordine del 30% per il Padiglione Morselli e del 50% per il Liceo Marconi; il metodo semplificato risulta correttamente cautelativo. È, quindi, possibile affermare che tanto più gli edifici si mostrano regolari in riferimento a masse e rigidezze, tanto più la modellazione a telaio equivalente restituisce valori in accordo tra i programmi e di più immediata comprensione. Questa evidenza può essere estesa ad altri casi reali divenendo un vero e proprio criterio operativo che consiglia la suddivisione degli edifici esistenti in muratura, solitamente molto complessi poiché frutto di successive stratificazioni, in parti più semplici, ricorrendo alle informazioni acquisite attraverso il percorso della conoscenza che diviene in questo modo uno strumento utile e vitale. La complessità dell’edificato storico deve necessariamente essere approcciata in una maniera più semplice identificando sub unità regolari per percorso dei carichi, epoca e tecnologia costruttiva e comportamento strutturale dimostrato nel corso del tempo che siano più semplici da studiare. Una chiara comprensione del comportamento delle strutture permette di agire mediante interventi puntuali e meno invasivi, rispettosi dell’esistente riconducendo, ancora una volta, l’intervento di consolidamento ai principi propri del restauro che includono i principi di minimo intervento, di riconoscibilità dello stesso, di rispetto dei materiali esistenti e l’uso di nuovi compatibili con i precedenti. Il percorso della conoscenza diviene in questo modo la chiave per liberare la complessità degli edifici storici esistenti trasformando un mero tecnicismo in una concreta operazione culturale . Il presente percorso di dottorato è stato svolto in collaborazione tra l’Università di Parma, DICATeA e lo Studio di Ingegneria Melegari mediante un percorso di Apprendistato in Alta Formazione e Ricerca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The causal relationship between Human Papilloma Virus (HPV) infection and cervical cancer has motivated the development, and further improvement, of prophylactic vaccines against this virus. 70% of cervical cancers, 80% of which in low-resources countries, are associated to HPV16 and HPV18 infection, with 13 additional HPV types, classified as high-risk, responsible for the remaining 30% of tumors. Current vaccines, Cervarix® (GlaxoSmithKline) and Gardasil®(Merk), are based on virus-like particles (VLP) obtained by self-assembly of the major capsid protein L1. Despite their undisputable immunogenicity and safety, the fact that protection afforded by these vaccines is largely limited to the cognate serotypes included in the vaccine (HPV 16 and 18, plus five additional viral types incorporated into a newly licensed nonavalent vaccine) along with high production costs and reduced thermal stability, are pushing the development of 2nd generation HPV vaccines based on minor capsid protein L2. The increase in protection broadness afforded by the use of L2 cross-neutralizing epitopes, plus a marked reduction of production costs due to bacterial expression of the antigens and a considerable increase in thermal stability could strongly enhance vaccine distribution and usage in low-resource countries. Previous studies from our group identified three tandem repeats of the L2 aa. 20-38 peptide as a strongly immunogenic epitope if exposed on the scaffold protein thioredoxin (Trx). The aim of this thesis work is the improvement of the Trx-L2 vaccine formulation with regard to cross-protection and thermostability, in order to identify an antigen suitable for a phase I clinical trial. By testing Trx from different microorganisms, we selected P. furiosus thioredoxin (PfTrx) as the optimal scaffold because of its sustained peptide epitope constraining capacity and striking thermal stability (24 hours at 100°C). Alternative production systems, such as secretory Trx-L2 expression in the yeast P. pastoris, have also been set-up and evaluated as possible means to further increase production yields, with a concomitant reduction of production costs. Limitations in immune-responsiveness caused by MHC class II polymorphisms –as observed, for example, in different mouse strains- have been overcome by introducing promiscuous T-helper (Th) epitopes, e.g., PADRE (Pan DR Epitope), at both ends of PfTrx. This allowed us to obtain fairly strong immune responses even in mice (C57BL/6) normally unresponsive to the basic Trx-L2 vaccine. Cross-protection was not increased, however. I thus designed, produced and tested a novel multi-epitope formulation consisting of 8 and 11 L2(20-38) epitopes derived from different HPV types, tandemly joined into a single thioredoxin molecule (“concatemers”). To try to further increase immunogenicity, I also fused our 8X and 11X PfTrx-L2 concatemers to the N-terminus of an engineered complement-binding protein (C4bp), capable to spontaneously assemble into ordered hepatmeric structures, previously validated as a molecular adjuvant. Fusion to C4bp indeed improved antigen presentation, with a fairly significant increase in both immunogenicity and cross-protection. Another important issue I addressed, is the reduction of vaccine doses/treatment, which can be achieved by increasing immunogenicity, while also allowing for a delayed release of the antigen. I obtained preliminary, yet quite encouraging results in this direction with the use of a novel, solid-phase vaccine formulation, consisting of the basic PfTrx-L2 vaccine and its C4bp fusion derivative adsorbed to mesoporus silica-rods (MSR).