6 resultados para effetto domino sicurezza rischio propagazione

em Universita di Parma


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Background: sulla base delle evidenze emerse dalle rassegne sistematiche in materia (Johnstone, 1994; Cohen et al.,1998; Robson et al., 2012; Burke et al., 2006; Ricci et al., 2015) si è ipotizzato che la formazione alla salute e sicurezza sul lavoro sia maggiormente efficace quando non è presentata come obbligatoria e venga articolata su più livelli di apprendimento, attraverso metodologie adeguate per ogni livello, con docenti che abbiano caratteristiche corrispondenti allo specifico obiettivo di apprendimento e la cui durata sia parametrata all’obiettivo stesso. Obiettivo di questa ricerca è valutare se esista e quanto sia intensa la relazione causale tra la formazione alla sicurezza sul lavoro e i suoi effetti sul miglioramento delle conoscenze, degli atteggiamenti, dei comportamenti, degli esiti per la salute, del clima di sicurezza aziendale, del controllo comportamentale percepito dai lavoratori, delle condizioni operative e procedure interne, oltre l’eventuale effetto di moderazione determinato da caratteristiche socio-demografiche dei partecipanti e dal gradimento della formazione. Metodo: la variabile indipendente è costituita dell’intervento formativo erogato, articolato in tre condizioni: formazione obbligatoria, formazione non obbligatoria, gruppo di controllo: sono stati posti a confronto due interventi di pari durata (16 settimane, per 10h complessive), realizzati con identiche modalità (step1 audio-visivo; step2 affiancamento su lavoro da parte del preposto; step3 discussione di auto-casi), ma differenziati rispetto all’essere presentati uno come formazione obbligatoria, l’altro come non obbligatoria. I due gruppi sono anche stati confrontati con un gruppo di controllo per il quale la formazione è prevista successivamente. I partecipanti sono stati assegnati in modo casuale al gruppo con obbligo formativo, senza obbligo formativo, di controllo. Sono stati presi come indicatori (variabili dipendenti) per valutare l’effetto della formazione: I livello – conoscenze: riconoscimento o produzione di un maggior numero di risposte corrette. II livello – atteggiamenti e credenze: maggiore propensione a mettere in atto comportamenti auto ed etero protettivi. III livello – comportamenti: comportamenti osservati più adeguati per la tutela della salute propria e altrui. IV livello – salute: maggior grado di benessere bio-psico-sociale auto-riferito. Le misure di esito consistono nella variazione tra la rilevazione iniziale e ogni rilevazione successiva, sulla base delle diverse misure registrate per ognuno dei quattro livelli dell’intervento formativo. Lo stesso confronto del tempo è stato realizzato per le misure del clima di sicurezza aziendale, del controllo comportamentale percepito dai lavoratori, delle condizioni operative e procedure interne, oltre l’eventuale effetto di moderazione determinato da caratteristiche socio-demografiche dei partecipanti e dal gradimento della formazione, quest’ultimo misurato solo immediatamente al termine dell’intervento. Risultati: le condizioni di intervento non differiscono in termini di efficacia, la formazione determina infatti gli stessi risultati per i partecipanti del gruppo obbligo formativo e di quello non obbligo, con una significativa differenza post-intervento rispetto al gruppo di controllo. La formazione ha un effetto forte nel miglioramento delle conoscenze che solo parzialmente decade nel tempo, ma comunque mantenendo un livello maggiore rispetto ai valori iniziali. In relazione al miglioramento di atteggiamenti e comportamenti sicuri nel lavoro al Videoterminale, l’effetto della formazione è modesto: per gli atteggiamenti si registra solo un miglioramento verso l’applicazione delle procedure come utili realmente e non come mero adempimento, ma tale effetto decade entro quattro mesi riportando i partecipanti su valori iniziali; i comportamenti invece migliorano nel tempo, ma con deboli differenze tra partecipanti alla formazione e gruppo di controllo, tuttavia tale miglioramento non decade in seguito. Non si registrano invece effetti della formazione nella direzione attesa in termini di esiti per la salute, per il miglioramento del clima di sicurezza e come maggior controllo comportamentale percepito, non risultano nemmeno dati evidenti di moderazione degli effetti dovuti a caratteristiche socio-demografiche dei partecipanti. Inoltre emerge che il gradimento per la formazione è correlato con migliori atteggiamenti (strumento audio-visivo), il miglioramento del clima di sicurezza e un maggior controllo comportamentale percepito (studio di auto-casi), ovvero gli step che hanno visto l’intervento di formatori qualificati. Infine, la formazione ha determinato migliori condizioni operative e l’adeguamento delle procedure interne. Conclusioni: la presente ricerca ci consente di affermare che la formazione erogata è stata efficace, oltre che molto gradita dai partecipanti, in particolare quando il formatore è qualificato per questa attività (step1 e 3). L’apprendimento prodotto è tanto più stabile nel tempo quanto più i contenuti sono in stretta relazione con l’esperienza lavorativa quotidiana dei partecipanti, mentre negli altri casi il decremento degli effetti è alquanto rapido, di conseguenza ribadiamo la necessità di erogare la formazione con continuità nel tempo. E’ risultato comunque modesto l’effetto della formazione per migliorare gli atteggiamenti e i comportamenti nel lavoro al VDT, ma, al di là di alcuni limiti metodologici, sono obiettivi ambiziosi che richiedono più tempo di quanto abbiamo potuto disporre in questa occasione e il cui conseguimento risente molto delle prassi reali adottate nel contesto lavorativo dopo il termine della formazione. Le evidenze finora prodotte non hanno poi chiarito in modo definitivo se attraverso la formazione si possano determinare effetti significativi nel miglioramento di esiti per la salute, anche eventualmente attraverso interventi di supporto individuale. Inoltre l’assenza di differenze significative negli effetti tra i partecipanti assegnati alla condizione di obbligo e quelli di non obbligo, eccezion fatta in direzione opposta alle attese per la misura del danno da lavoro, suggeriscono che nell’erogare la formazione, occorre sottolineare in misura molto rilevante l’importanza dell’intervento che viene realizzato, anche qualora esistesse una prescrizione normativa cogente. Infine, la ricerca ci ha fornito anche indicazioni metodologiche e misure valide che invitano ad estendere questa formazione, e la sua valutazione di efficacia, a diversi comparti economici e svariate mansioni. Nel fare questo è possibile fare riferimento, e testare nuovamente, un modello che indica la corretta percezione del rischio (conoscenza) come fattore necessario, ma non sufficiente per ottenere, con la mediazione di atteggiamenti favorevoli allo specifico comportamento, azioni sicure, attraverso le quali si rinforza l’atteggiamento e migliorano le conoscenze. La formazione, per raggiungere i propri obiettivi, deve tuttavia agire anche sui meccanismi di conformismo sociale favorevoli alla safety, questi originano da conoscenze e azioni sicure e reciprocamente le rinforzano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’utilizzo di nanomateriali, ovvero una nuova classe di sostanze composte da particelle ultrafini con dimensioni comprese fra 1 e 100 nm (American Society for Testing Materials - ASTM), è in costante aumento a livello globale. La particolarità di tali sostanze è rappresentata da un alto rapporto tra la superficie e il volume delle particelle, che determina caratteristiche chimico-fisiche completamente differenti rispetto alle omologhe macrosostanze di riferimento. Tali caratteristiche sono tali da imporre una loro classificazione come nuovi agenti chimici (Royal Society & Royal Academy of Engineering report 2004). Gli impieghi attuali dei nanomateriali risultano in continua evoluzione, spaziando in diversi ambiti, dall’industria farmaceutica e cosmetica, all’industria tessile, elettronica, aerospaziale ed informatica. Diversi sono anche gli impieghi in campo biomedico; tra questi la diagnostica e la farmacoterapia. È quindi prevedibile che in futuro una quota sempre maggiore di lavoratori e consumatori risulteranno esposti a tali sostanze. Allo stato attuale non vi è una completa conoscenza degli effetti tossicologici ed ambientali di queste sostanze, pertanto, al fine di un loro utilizzo in totale sicurezza, risulta necessario capirne meglio l’impatto sulla salute, le vie di penetrazione nel corpo umano e il rischio per i lavoratori conseguente al loro utilizzo o lavorazione. La cute rappresenta la prima barriera nei confronti delle sostanze tossiche che possono entrare in contatto con l’organismo umano. Successivamente agli anni ‘60, quando si riteneva che la cute rappresentasse una barriera totalmente impermeabile, è stato dimostrato come essa presenti differenti gradi di permeabilità nei confronti di alcuni xenobiotici, dipendente dalle caratteristiche delle sostanze in esame, dal sito anatomico di penetrazione, dal grado di integrità della barriera stessa e dall’eventuale presenza di patologie della cute. La mucosa del cavo orale funge da primo filtro nei confronti delle sostanze che entrano in contatto con il tratto digestivo e può venir coinvolta in contaminazioni di superficie determinate da esposizioni occupazionali e/o ambientali. È noto che, rispetto alla cute, presenti una permeabilità all’acqua quattro volte maggiore, e, per tale motivo, è stata studiata come via di somministrazione di farmaci, ma, ad oggi, pochi sono gli studi che ne hanno valutato le caratteristiche di permeazione nei confronti delle nanoparticelle (NPs). Una terza importante barriera biologica è quella che ricopre il sistema nervoso centrale, essa è rappresentata da tre foglietti di tessuto connettivo, che assieme costituiscono le meningi. Questi tre foglietti rivestono completamente l’encefalo permettendone un isolamento, tradizionalmente ritenuto completo, nei confronti degli xenobiotici. L’unica via di assorbimento diretto, in questo contesto, è rappresentata dalla via intranasale. Essa permette un passaggio diretto di sostanze dall’epitelio olfattivo all’encefalo, eludendo la selettiva barriera emato-encefalica. Negli ultimi anni la letteratura scientifica si è arricchita di studi che hanno indagato le caratteristiche di assorbimento di farmaci attraverso questa via, ma pochissimi sono gli studi che hanno indagato la possibile penetrazione di nanoparticelle attraverso questa via, e nessuno, in particolar modo, ha indagato le caratteristiche di permeazione delle meningi. L’attività di ricerca svolta nell’ambito del presente dottorato ha avuto per finalità l’indagine delle caratteristiche di permeabilità e di assorbimento della cute, della mucosa del cavo orale e delle meningi nei confronti di alcune nanoparticelle, scelte fra quelle più rappresentative in relazione alla diffusione d’utilizzo a livello globale. I risultati degli esperimenti condotti hanno dimostrato, in vitro, che l’esposizione cutanea a Pt, Rh, Co3O4 e Ni NPs determinano permeazione in tracce dei medesimi metalli attraverso la cute, mentre per le TiO2 NPs tale permeazione non è stata dimostrata. È stato riscontrato, inoltre, che la mucosa del cavo orale e le meningi sono permeabili nei confronti dell’Ag in forma nanoparticellare.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Freshwater is extremely precious; but even more precious than freshwater is clean freshwater. From the time that 2/3 of our planet is covered in water, we have contaminated our globe with chemicals that have been used by industrial activities over the last century in a unprecedented way causing harm to humans and wildlife. We have to adopt a new scientific mindset in order to face this problem so to protect this important resource. The Water Framework Directive (European Parliament and the Council, 2000) is a milestone legislative document that transformed the way that water quality monitoring is undertaken across all Member States by introducing the Ecological and Chemical Status. A “good or higher” Ecological Status is expected to be achieved for all waterbodies in Europe by 2015. Yet, most of the European waterbodies, which are determined to be at risk, or of moderate to bad quality, further information will be required so that adequate remediation strategies can be implemented. To date, water quality evaluation is based on five biological components (phytoplankton, macrophytes and benthic algae, macroinvertebrates and fishes) and various hydromorphological and physicochemical elements. The evaluation of the chemical status is principally based on 33 priority substances and on 12 xenobiotics, considered as dangerous for the environment. This approach takes into account only a part of the numerous xenobiotics that can be present in surface waters and could not evidence all the possible causes of ecotoxicological stress that can act in a water section. The mixtures of toxic chemicals may constitute an ecological risk not predictable on the basis of the single component concentration. To improve water quality, sources of contamination and causes of ecological alterations need to be identified. On the other hand, the analysis of the community structure, which is the result of multiple processes, including hydrological constrains and physico-chemical stress, give back only a “photograph” of the actual status of a site without revealing causes and sources of the perturbation. A multidisciplinary approach, able to integrate the information obtained by different methods, such as community structure analysis and eco-genotoxicological studies, could help overcome some of the difficulties in properly identifying the different causes of stress in risk assessment. In synthesis, the river ecological status is the result of a combination of multiple pressures that, for management purposes and quality improvement, have to be disentangled from each other. To reduce actual uncertainty in risk assessment, methods that establish quantitative links between levels of contamination and community alterations are needed. The analysis of macrobenthic invertebrate community structure has been widely used to identify sites subjected to perturbation. Trait-based descriptors of community structure constitute a useful method in ecological risk assessment. The diagnostic capacity of freshwater biomonitoring could be improved by chronic sublethal toxicity testing of water and sediment samples. Requiring an exposure time that covers most of the species’ life cycle, chronic toxicity tests are able to reveal negative effects on life-history traits at contaminant concentrations well below the acute toxicity level. Furthermore, the responses of high-level endpoints (growth, fecundity, mortality) can be integrated in order to evaluate the impact on population’s dynamics, a highly relevant endpoint from the ecological point of view. To gain more accurate information about potential causes and consequences of environmental contamination, the evaluation of adverse effects at physiological, biochemical and genetic level is also needed. The use of different biomarkers and toxicity tests can give information about the sub-lethal and toxic load of environmental compartments. Biomarkers give essential information about the exposure to toxicants, such as endocrine disruptor compounds and genotoxic substances whose negative effects cannot be evidenced by using only high-level toxicological endpoints. The increasing presence of genotoxic pollutants in the environment has caused concern regarding the potential harmful effects of xenobiotics on human health, and interest on the development of new and more sensitive methods for the assessment of mutagenic and cancerogenic risk. Within the WFD, biomarkers and bioassays are regarded as important tools to gain lines of evidence for cause-effect relationship in ecological quality assessment. Despite the scientific community clearly addresses the advantages and necessity of an ecotoxicological approach within the ecological quality assessment, a recent review reports that, more than one decade after the publication of the WFD, only few studies have attempted to integrate ecological water status assessment and biological methods (namely biomarkers or bioassays). None of the fifteen reviewed studies included both biomarkers and bioassays. The integrated approach developed in this PhD Thesis comprises a set of laboratory bioassays (Daphnia magna acute and chronic toxicity tests, Comet Assay and FPG-Comet) newly-developed, modified tacking a cue from standardized existing protocols or applied for freshwater quality testing (ecotoxicological, genotoxicological and toxicogenomic assays), coupled with field investigations on macrobenthic community structures (SPEAR and EBI indexes). Together with the development of new bioassays with Daphnia magna, the feasibility of eco-genotoxicological testing of freshwater and sediment quality with Heterocypris incongruens was evaluated (Comet Assay and a protocol for chronic toxicity). However, the Comet Assay, although standardized, was not applied to freshwater samples due to the lack of sensitivity of this species observed after 24h of exposure to relatively high (and not environmentally relevant) concentrations of reference genotoxicants. Furthermore, this species demonstrated to be unsuitable also for chronic toxicity testing due to the difficult evaluation of fecundity as sub-lethal endpoint of exposure and complications due to its biology and behaviour. The study was applied to a pilot hydrographic sub-Basin, by selecting section subjected to different levels of anthropogenic pressure: this allowed us to establish the reference conditions, to select the most significant endpoints and to evaluate the coherence of the responses of the different lines of evidence (alteration of community structure, eco-genotoxicological responses, alteration of gene expression profiles) and, finally, the diagnostic capacity of the monitoring strategy. Significant correlations were found between the genotoxicological parameter Tail Intensity % (TI%) and macrobenthic community descriptors SPEAR (p<0.001) and EBI (p<0.05), between the genotoxicological parameter describing DNA oxidative stress (ΔTI%) and mean levels of nitrates (p<0.01) and between reproductive impairment (Failed Development % from D. magna chronic bioassays) and TI% (p<0.001) as well as EBI (p<0.001). While correlation among parameters demonstrates a general coherence in the response to increasing impacts, the concomitant ability of each single endpoint to be responsive to specific sources of stress is at the basis of the diagnostic capacity of the integrated approach as demonstrated by stations presenting a mismatch among the different lines of evidence. The chosen set of bioassays, as well as the selected endpoints, are not providing redundant indications on the water quality status but, on the contrary, are contributing with complementary pieces of information about the several stressors that insist simultaneously on a waterbody section providing this monitoring strategy with a solid diagnostic capacity. Our approach should provide opportunities for the integration of biological effects into monitoring programmes for surface water, especially in investigative monitoring. Moreover, it should provide a more realistic assessment of impact and exposure of aquatic organisms to contaminants. Finally this approach should provide an evaluation of drivers of change in biodiversity and its causalities on ecosystem function/services provision, that is the direct and indirect contributions to human well-being.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obiettivo della presente tesi è evidenziare l’importanza dell’approccio critico alla valutazione della vulnerabilità sismica di edifici in muratura e misti Il contributo della tesi sottolinea i diversi risultati ottenuti nella modellazione di tre edifici esistenti ed uno ipotetico usando due diversi programmi basati sul modello del telaio equivalente. La modellazione delle diverse ipotesi di vincolamento ed estensione delle zone rigide ha richiesto la formulazione di quattro modelli di calcolo in Aedes PCM ed un modello in 3muri. I dati ottenuti sono stati confrontati, inoltre, con l’analisi semplificata speditiva per la valutazione della vulnerabilità a scala territoriale prevista nelle “Linee Guida per la valutazione e riduzione del rischio sismico del Patrimonio Culturale”. Si può notare che i valori ottenuti sono piuttosto diversi e che la variabilità aumenta nel caso di edifici non regolari, inoltre le evidenze legate ai danni realmente rilevati sugli edifici mostrano un profondo iato tra la previsione di danno ottenuta tramite calcolatore e le lesioni rilevate; questo costituisce un campanello d’allarme nei confronti di un approccio acritico nei confronti del mero dato numerico ed un richiamo all’importanza del processo conoscitivo. I casi di studio analizzati sono stati scelti in funzione delle caratteristiche seguenti: il primo è una struttura semplice e simmetrica nelle due direzioni che ha avuto la funzione di permettere di testare in modo controllato le ipotesi di base. Gli altri sono edifici reali: il Padiglione Morselli è un edificio in muratura a pianta a forma di C, regolare in pianta ed in elevazione solamente per quanto concerne la direzione y: questo ha permesso di raffrontare il diverso comportamento dei modelli di calcolo nelle sue direzioni; il liceo Marconi è un edificio misto in cui elementi in conglomerato cementizio armato affiancano le pareti portanti in muratura, che presenta un piano di copertura piuttosto irregolare; il Corpo 4 dell’Ospedale di Castelfranco Emilia è un edificio in muratura, a pianta regolare che presenta le medesime irregolarità nel piano sommitale del precedente. I dati ottenuti hanno dimostrato un buon accordo per la quantificazione dell’indice di sicurezza per i modelli regolari e semplici con uno scarto di circa il 30% mentre il delta si incrementa per le strutture irregolari, in particolare quando le pareti portanti in muratura vengono sostituite da elementi puntuali nei piani di copertura arrivando a valori massimi del 60%. I confronti sono stati estesi per le tre strutture anche alla modellazione proposta dalle Linee Guida per la valutazione dell’indice di sicurezza sismica a scala territoriale LV1 mostrando differenze nell’ordine del 30% per il Padiglione Morselli e del 50% per il Liceo Marconi; il metodo semplificato risulta correttamente cautelativo. È, quindi, possibile affermare che tanto più gli edifici si mostrano regolari in riferimento a masse e rigidezze, tanto più la modellazione a telaio equivalente restituisce valori in accordo tra i programmi e di più immediata comprensione. Questa evidenza può essere estesa ad altri casi reali divenendo un vero e proprio criterio operativo che consiglia la suddivisione degli edifici esistenti in muratura, solitamente molto complessi poiché frutto di successive stratificazioni, in parti più semplici, ricorrendo alle informazioni acquisite attraverso il percorso della conoscenza che diviene in questo modo uno strumento utile e vitale. La complessità dell’edificato storico deve necessariamente essere approcciata in una maniera più semplice identificando sub unità regolari per percorso dei carichi, epoca e tecnologia costruttiva e comportamento strutturale dimostrato nel corso del tempo che siano più semplici da studiare. Una chiara comprensione del comportamento delle strutture permette di agire mediante interventi puntuali e meno invasivi, rispettosi dell’esistente riconducendo, ancora una volta, l’intervento di consolidamento ai principi propri del restauro che includono i principi di minimo intervento, di riconoscibilità dello stesso, di rispetto dei materiali esistenti e l’uso di nuovi compatibili con i precedenti. Il percorso della conoscenza diviene in questo modo la chiave per liberare la complessità degli edifici storici esistenti trasformando un mero tecnicismo in una concreta operazione culturale . Il presente percorso di dottorato è stato svolto in collaborazione tra l’Università di Parma, DICATeA e lo Studio di Ingegneria Melegari mediante un percorso di Apprendistato in Alta Formazione e Ricerca.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The causal relationship between Human Papilloma Virus (HPV) infection and cervical cancer has motivated the development, and further improvement, of prophylactic vaccines against this virus. 70% of cervical cancers, 80% of which in low-resources countries, are associated to HPV16 and HPV18 infection, with 13 additional HPV types, classified as high-risk, responsible for the remaining 30% of tumors. Current vaccines, Cervarix® (GlaxoSmithKline) and Gardasil®(Merk), are based on virus-like particles (VLP) obtained by self-assembly of the major capsid protein L1. Despite their undisputable immunogenicity and safety, the fact that protection afforded by these vaccines is largely limited to the cognate serotypes included in the vaccine (HPV 16 and 18, plus five additional viral types incorporated into a newly licensed nonavalent vaccine) along with high production costs and reduced thermal stability, are pushing the development of 2nd generation HPV vaccines based on minor capsid protein L2. The increase in protection broadness afforded by the use of L2 cross-neutralizing epitopes, plus a marked reduction of production costs due to bacterial expression of the antigens and a considerable increase in thermal stability could strongly enhance vaccine distribution and usage in low-resource countries. Previous studies from our group identified three tandem repeats of the L2 aa. 20-38 peptide as a strongly immunogenic epitope if exposed on the scaffold protein thioredoxin (Trx). The aim of this thesis work is the improvement of the Trx-L2 vaccine formulation with regard to cross-protection and thermostability, in order to identify an antigen suitable for a phase I clinical trial. By testing Trx from different microorganisms, we selected P. furiosus thioredoxin (PfTrx) as the optimal scaffold because of its sustained peptide epitope constraining capacity and striking thermal stability (24 hours at 100°C). Alternative production systems, such as secretory Trx-L2 expression in the yeast P. pastoris, have also been set-up and evaluated as possible means to further increase production yields, with a concomitant reduction of production costs. Limitations in immune-responsiveness caused by MHC class II polymorphisms –as observed, for example, in different mouse strains- have been overcome by introducing promiscuous T-helper (Th) epitopes, e.g., PADRE (Pan DR Epitope), at both ends of PfTrx. This allowed us to obtain fairly strong immune responses even in mice (C57BL/6) normally unresponsive to the basic Trx-L2 vaccine. Cross-protection was not increased, however. I thus designed, produced and tested a novel multi-epitope formulation consisting of 8 and 11 L2(20-38) epitopes derived from different HPV types, tandemly joined into a single thioredoxin molecule (“concatemers”). To try to further increase immunogenicity, I also fused our 8X and 11X PfTrx-L2 concatemers to the N-terminus of an engineered complement-binding protein (C4bp), capable to spontaneously assemble into ordered hepatmeric structures, previously validated as a molecular adjuvant. Fusion to C4bp indeed improved antigen presentation, with a fairly significant increase in both immunogenicity and cross-protection. Another important issue I addressed, is the reduction of vaccine doses/treatment, which can be achieved by increasing immunogenicity, while also allowing for a delayed release of the antigen. I obtained preliminary, yet quite encouraging results in this direction with the use of a novel, solid-phase vaccine formulation, consisting of the basic PfTrx-L2 vaccine and its C4bp fusion derivative adsorbed to mesoporus silica-rods (MSR).