8 resultados para esistenza versione regolare probabilità condizionata attesa condizionata spazi polacchi sigma algebre numerabilmente generate
em Universita di Parma
Resumo:
La diagnosi di neoplasia epiteliale maligna polmonare è legata tradizionalmente alla distinzione tra carcinoma a piccole cellule (small-cell lung cancer, SCLC) e carcinoma non-a piccole cellule del polmone (non-small-cell lung cancer, NSCLC). Nell’ambito del NSCLC attualmente è importante di-stinguere l’esatto istotipo (adenocarcinoma, carcinoma squamocellulare e carcinoma neuroendocrino) perchè l’approccio terapeutico cambia a seconda dell’istotipo del tumore e la chemioterapia si dimostra molto spesso inefficace. Attualmente alcuni nuovi farmaci a bersaglio molecolare per il gene EGFR, come Erlotinib e Gefitinib, sono utilizzati per i pazienti refrattari al trattamento chemioterapico tradizionale, che non hanno risposto a uno o più cicli di chemioterapia o che siano progrediti dopo questa. I test per la rilevazione di specifiche mutazioni nel gene EGFR permettono di utilizzare al meglio questi nuovi farmaci, applicandoli anche nella prima linea di trattamento sui pazienti che hanno una maggiore probabilità di risposta alla terapia. Sfortunatamente, non tutti i pazienti rispondono allo stesso modo quando trattati con farmaci anti-EGFR. Di conseguenza, l'individuazione di biomarcatori predittivi di risposta alla terapia sarebbe di notevole importanza per aumentare l'efficacia dei questi farmaci a target molecolare e trattare con farmaci diversi i pazienti che con elevata probabilità non risponderebbero ad essi. I miRNAs sono piccole molecole di RNA endogene, a singolo filamento di 20-22 nucleotidi che svolgono diverse funzioni, una delle più importanti è la regolazione dell’espressione genica. I miRNAs possono determinare una repressione dell'espressione genica in due modi: 1-legandosi a sequenze target di mRNA, causando così un silenziamento del gene (mancata traduzione in proteina), 2- causando la degradazione dello specifico mRNA. Lo scopo della ricerca era di individuare biomarcatori capaci di identificare precocemente i soggetti in grado di rispondere alla terapia con Erlotinib, aumentando così l'efficacia del farmaco ed evitan-do/riducendo possibili fenomeni di tossicità e il trattamento di pazienti che probabilmente non ri-sponderebbero alla terapia offrendo loro altre opzioni prima possibile. In particolare, il lavoro si è fo-calizzato sul determinare se esistesse una correlazione tra la risposta all'Erlotinib ed i livelli di espressione di miRNAs coinvolti nella via di segnalazione di EGFR in campioni di NSCLC prima dell’inizio della terapia. Sono stati identificati 7 microRNA coinvolti nel pathway di EGFR: miR-7, -21, 128b, 133a, -133b, 146a, 146b. Sono stati analizzati i livelli di espressione dei miRNA mediante Real-Time q-PCR in campioni di NSCLC in una coorte di pazienti con NSCLC metastatico trattati con Erlotinib dal 1° gennaio 2009 al 31 dicembre 2014 in 2°-3° linea dopo fallimento di almeno un ciclo di chemioterapia. I pazienti sottoposti a trattamento con erlotinib per almeno 6 mesi senza presentare progressione alla malattia sono stati definiti “responders” (n=8), gli altri “non-responders” (n=25). I risultati hanno mostrato che miR-7, -133b e -146a potrebbero essere coinvolti nella risposta al trat-tamento con Erlotinib. Le indagini funzionali sono state quindi concentrate su miR-133b, che ha mo-strato la maggiore espressione differenziale tra i due gruppi di pazienti. E 'stata quindi studiata la capacità di miR-133b di regolare l'espressione di EGFR in due linee di cellule del cancro del polmone (A549 e H1299). Sono stati determinati gli effetti di miR-133b sulla crescita cellulare. E’ stato anche analizzato il rapporto tra miR-133b e sensibilità a Erlotinib nelle cellule NSCLC. L'aumento di espressione di miR-133b ha portato ad una down-regolazione del recettore di EGF e del pathway di EGFR relativo alla linea cellulare A549. La linea cellulare H1299 era meno sensibili al miR-133b up-regulation, probabilmente a causa dell'esistenza di possibili meccanismi di resistenza e/o di com-pensazione. La combinazione di miR-133b ed Erlotinib ha aumentato l'efficacia del trattamento solo nella linea cellulare A549. Nel complesso, questi risultati indicano che miR-133b potrebbe aumentare / ripristinare la sensibilità di Erlotinib in una frazione di pazienti.
Resumo:
La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.
Resumo:
Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.
Resumo:
Background: sulla base delle evidenze emerse dalle rassegne sistematiche in materia (Johnstone, 1994; Cohen et al.,1998; Robson et al., 2012; Burke et al., 2006; Ricci et al., 2015) si è ipotizzato che la formazione alla salute e sicurezza sul lavoro sia maggiormente efficace quando non è presentata come obbligatoria e venga articolata su più livelli di apprendimento, attraverso metodologie adeguate per ogni livello, con docenti che abbiano caratteristiche corrispondenti allo specifico obiettivo di apprendimento e la cui durata sia parametrata all’obiettivo stesso. Obiettivo di questa ricerca è valutare se esista e quanto sia intensa la relazione causale tra la formazione alla sicurezza sul lavoro e i suoi effetti sul miglioramento delle conoscenze, degli atteggiamenti, dei comportamenti, degli esiti per la salute, del clima di sicurezza aziendale, del controllo comportamentale percepito dai lavoratori, delle condizioni operative e procedure interne, oltre l’eventuale effetto di moderazione determinato da caratteristiche socio-demografiche dei partecipanti e dal gradimento della formazione. Metodo: la variabile indipendente è costituita dell’intervento formativo erogato, articolato in tre condizioni: formazione obbligatoria, formazione non obbligatoria, gruppo di controllo: sono stati posti a confronto due interventi di pari durata (16 settimane, per 10h complessive), realizzati con identiche modalità (step1 audio-visivo; step2 affiancamento su lavoro da parte del preposto; step3 discussione di auto-casi), ma differenziati rispetto all’essere presentati uno come formazione obbligatoria, l’altro come non obbligatoria. I due gruppi sono anche stati confrontati con un gruppo di controllo per il quale la formazione è prevista successivamente. I partecipanti sono stati assegnati in modo casuale al gruppo con obbligo formativo, senza obbligo formativo, di controllo. Sono stati presi come indicatori (variabili dipendenti) per valutare l’effetto della formazione: I livello – conoscenze: riconoscimento o produzione di un maggior numero di risposte corrette. II livello – atteggiamenti e credenze: maggiore propensione a mettere in atto comportamenti auto ed etero protettivi. III livello – comportamenti: comportamenti osservati più adeguati per la tutela della salute propria e altrui. IV livello – salute: maggior grado di benessere bio-psico-sociale auto-riferito. Le misure di esito consistono nella variazione tra la rilevazione iniziale e ogni rilevazione successiva, sulla base delle diverse misure registrate per ognuno dei quattro livelli dell’intervento formativo. Lo stesso confronto del tempo è stato realizzato per le misure del clima di sicurezza aziendale, del controllo comportamentale percepito dai lavoratori, delle condizioni operative e procedure interne, oltre l’eventuale effetto di moderazione determinato da caratteristiche socio-demografiche dei partecipanti e dal gradimento della formazione, quest’ultimo misurato solo immediatamente al termine dell’intervento. Risultati: le condizioni di intervento non differiscono in termini di efficacia, la formazione determina infatti gli stessi risultati per i partecipanti del gruppo obbligo formativo e di quello non obbligo, con una significativa differenza post-intervento rispetto al gruppo di controllo. La formazione ha un effetto forte nel miglioramento delle conoscenze che solo parzialmente decade nel tempo, ma comunque mantenendo un livello maggiore rispetto ai valori iniziali. In relazione al miglioramento di atteggiamenti e comportamenti sicuri nel lavoro al Videoterminale, l’effetto della formazione è modesto: per gli atteggiamenti si registra solo un miglioramento verso l’applicazione delle procedure come utili realmente e non come mero adempimento, ma tale effetto decade entro quattro mesi riportando i partecipanti su valori iniziali; i comportamenti invece migliorano nel tempo, ma con deboli differenze tra partecipanti alla formazione e gruppo di controllo, tuttavia tale miglioramento non decade in seguito. Non si registrano invece effetti della formazione nella direzione attesa in termini di esiti per la salute, per il miglioramento del clima di sicurezza e come maggior controllo comportamentale percepito, non risultano nemmeno dati evidenti di moderazione degli effetti dovuti a caratteristiche socio-demografiche dei partecipanti. Inoltre emerge che il gradimento per la formazione è correlato con migliori atteggiamenti (strumento audio-visivo), il miglioramento del clima di sicurezza e un maggior controllo comportamentale percepito (studio di auto-casi), ovvero gli step che hanno visto l’intervento di formatori qualificati. Infine, la formazione ha determinato migliori condizioni operative e l’adeguamento delle procedure interne. Conclusioni: la presente ricerca ci consente di affermare che la formazione erogata è stata efficace, oltre che molto gradita dai partecipanti, in particolare quando il formatore è qualificato per questa attività (step1 e 3). L’apprendimento prodotto è tanto più stabile nel tempo quanto più i contenuti sono in stretta relazione con l’esperienza lavorativa quotidiana dei partecipanti, mentre negli altri casi il decremento degli effetti è alquanto rapido, di conseguenza ribadiamo la necessità di erogare la formazione con continuità nel tempo. E’ risultato comunque modesto l’effetto della formazione per migliorare gli atteggiamenti e i comportamenti nel lavoro al VDT, ma, al di là di alcuni limiti metodologici, sono obiettivi ambiziosi che richiedono più tempo di quanto abbiamo potuto disporre in questa occasione e il cui conseguimento risente molto delle prassi reali adottate nel contesto lavorativo dopo il termine della formazione. Le evidenze finora prodotte non hanno poi chiarito in modo definitivo se attraverso la formazione si possano determinare effetti significativi nel miglioramento di esiti per la salute, anche eventualmente attraverso interventi di supporto individuale. Inoltre l’assenza di differenze significative negli effetti tra i partecipanti assegnati alla condizione di obbligo e quelli di non obbligo, eccezion fatta in direzione opposta alle attese per la misura del danno da lavoro, suggeriscono che nell’erogare la formazione, occorre sottolineare in misura molto rilevante l’importanza dell’intervento che viene realizzato, anche qualora esistesse una prescrizione normativa cogente. Infine, la ricerca ci ha fornito anche indicazioni metodologiche e misure valide che invitano ad estendere questa formazione, e la sua valutazione di efficacia, a diversi comparti economici e svariate mansioni. Nel fare questo è possibile fare riferimento, e testare nuovamente, un modello che indica la corretta percezione del rischio (conoscenza) come fattore necessario, ma non sufficiente per ottenere, con la mediazione di atteggiamenti favorevoli allo specifico comportamento, azioni sicure, attraverso le quali si rinforza l’atteggiamento e migliorano le conoscenze. La formazione, per raggiungere i propri obiettivi, deve tuttavia agire anche sui meccanismi di conformismo sociale favorevoli alla safety, questi originano da conoscenze e azioni sicure e reciprocamente le rinforzano.
Resumo:
Background e scopi dello studio. Il carcinoma renale rappresenta circa il 3% delle neoplasie e la sua incidenza è in aumento nel mondo. Il principale approccio terapeutico alla malattia in stadio precoce è rappresentato dalla chirurgia (nefrectomia parziale o radicale), sebbene circa il 30-40% dei pazienti vada incontro a recidiva di malattia dopo tale trattamento. La probabilità di recidivare può essere stimata per mezzo di alcuni noti modelli prognostici sviluppati integrando sia parametri clinici che anatomo-patologici. Il limite principale all’impiego nella pratica clinica di questi modelli è legata alla loro complessità di calcolo che li rende di difficile fruizione. Inoltre la stratificazione prognostica dei pazienti in questo ambito ha un ruolo rilevante nella pianificazione ed interpretazione dei risultati degli studi di terapia adiuvante dopo il trattamento chirurgico del carcinoma renale in stadio iniziale. Da un' analisi non pre-pianificata condotta nell’ambito di uno studio prospettico e randomizzato multicentrico italiano di recente pubblicazione, è stato sviluppato un nuovo modello predittivo e prognostico (“score”) che utilizza quattro semplici parametri: l’età del paziente, il grading istologico, lo stadio patologico del tumore (pT) e della componente linfonodale (pN). Lo scopo del presente studio era quello di validare esternamente tale score. Pazienti e Metodi. La validazione è stata condotta su due coorti retrospettive italiane (141 e 246 pazienti) e su una prospettica americana (1943 pazienti). Lo score testato prevedeva il confronto tra due gruppi di pazienti, uno a prognosi favorevole (pazienti con almeno due parametri positivi tra i seguenti: età < 60 anni, pT1-T3a, pN0, grading 1-2) e uno a prognosi sfavorevole (pazienti con meno di due fattori positivi). La statistica descrittiva è stata utilizzata per mostrare la distribuzione dei diversi parametri. Le analisi di sopravvivenza [recurrence free survival (RFS) e overall survival (OS)] sono state eseguite il metodo di Kaplan-Meier e le comparazioni tra i vari gruppi di pazienti sono state condotte utilizzando il Mantel-Haenszel log-rank test e il modello di regressione di Cox. Il metodo di Greenwood è stato utilizzato per stimare la varianza e la costruzione degli intervalli di confidenza al 95% (95% CI), la “C-statistic” è stata utilizzata per descrivere l’ accuratezza dello score. Risultati. I risultati della validazione dello score condotta sulle due casistiche retrospettive italiane, seppur non mostrando una differenza statisticamente significativa tra i due gruppi di pazienti (gruppo favorevole versus sfavorevole), sono stati ritenuti incoraggianti e meritevoli di ulteriore validazione sulla casistica prospettica americana. Lo score ha dimostrato di performare bene sia nel determinare la prognosi in termini di RFS [hazard ratio (HR) 1.85, 95% CI 1.57-2.17, p < 0.001] che di OS [HR 2.58, 95% CI 1.98-3.35, p < 0.001]. Inoltre in questa casistica lo score ha realizzato risultati sovrapponibili a quelli dello University of California Los Angeles Integrated Staging System. Conclusioni. Questo nuovo e semplice score ha dimostrato la sua validità in altre casistiche, sia retrospettive che prospettiche, in termini di impatto prognostico su RFS e OS. Ulteriori validazioni su casistiche internazionali sono in corso per confermare i risultati qui presentati e per testare l’eventuale ruolo predittivo di questo nuovo score.
Resumo:
Questo lavoro analizza le imprese italiane uscite dal mercato tra il 2008 e il 2012 a seguito di una procedura fallimentare o di una liquidazione volontaria e individua le principali caratteristiche aziendali correlate a tale fenomeno. L’analisi econometrica condotta sui bilanci delle società di capitali indica che la probabilità di cessazione dell’attività produttiva è stata maggiore per le aziende più piccole e per quelle di più recente costituzione. A parità di altre caratteristiche delle imprese, come la dimensione, il settore produttivo o l’area in cui esse sono localizzate, l’apertura di una procedura fallimentare è risultata maggiormente correlata a squilibri nella struttura finanziaria, come un elevato leverage, mentre la probabilità di liquidazione è stata influenzata in misura superiore dai bassi livelli di redditività.
Resumo:
L’obiettivo della presente tesi è evidenziare l’importanza dell’approccio critico alla valutazione della vulnerabilità sismica di edifici in muratura e misti Il contributo della tesi sottolinea i diversi risultati ottenuti nella modellazione di tre edifici esistenti ed uno ipotetico usando due diversi programmi basati sul modello del telaio equivalente. La modellazione delle diverse ipotesi di vincolamento ed estensione delle zone rigide ha richiesto la formulazione di quattro modelli di calcolo in Aedes PCM ed un modello in 3muri. I dati ottenuti sono stati confrontati, inoltre, con l’analisi semplificata speditiva per la valutazione della vulnerabilità a scala territoriale prevista nelle “Linee Guida per la valutazione e riduzione del rischio sismico del Patrimonio Culturale”. Si può notare che i valori ottenuti sono piuttosto diversi e che la variabilità aumenta nel caso di edifici non regolari, inoltre le evidenze legate ai danni realmente rilevati sugli edifici mostrano un profondo iato tra la previsione di danno ottenuta tramite calcolatore e le lesioni rilevate; questo costituisce un campanello d’allarme nei confronti di un approccio acritico nei confronti del mero dato numerico ed un richiamo all’importanza del processo conoscitivo. I casi di studio analizzati sono stati scelti in funzione delle caratteristiche seguenti: il primo è una struttura semplice e simmetrica nelle due direzioni che ha avuto la funzione di permettere di testare in modo controllato le ipotesi di base. Gli altri sono edifici reali: il Padiglione Morselli è un edificio in muratura a pianta a forma di C, regolare in pianta ed in elevazione solamente per quanto concerne la direzione y: questo ha permesso di raffrontare il diverso comportamento dei modelli di calcolo nelle sue direzioni; il liceo Marconi è un edificio misto in cui elementi in conglomerato cementizio armato affiancano le pareti portanti in muratura, che presenta un piano di copertura piuttosto irregolare; il Corpo 4 dell’Ospedale di Castelfranco Emilia è un edificio in muratura, a pianta regolare che presenta le medesime irregolarità nel piano sommitale del precedente. I dati ottenuti hanno dimostrato un buon accordo per la quantificazione dell’indice di sicurezza per i modelli regolari e semplici con uno scarto di circa il 30% mentre il delta si incrementa per le strutture irregolari, in particolare quando le pareti portanti in muratura vengono sostituite da elementi puntuali nei piani di copertura arrivando a valori massimi del 60%. I confronti sono stati estesi per le tre strutture anche alla modellazione proposta dalle Linee Guida per la valutazione dell’indice di sicurezza sismica a scala territoriale LV1 mostrando differenze nell’ordine del 30% per il Padiglione Morselli e del 50% per il Liceo Marconi; il metodo semplificato risulta correttamente cautelativo. È, quindi, possibile affermare che tanto più gli edifici si mostrano regolari in riferimento a masse e rigidezze, tanto più la modellazione a telaio equivalente restituisce valori in accordo tra i programmi e di più immediata comprensione. Questa evidenza può essere estesa ad altri casi reali divenendo un vero e proprio criterio operativo che consiglia la suddivisione degli edifici esistenti in muratura, solitamente molto complessi poiché frutto di successive stratificazioni, in parti più semplici, ricorrendo alle informazioni acquisite attraverso il percorso della conoscenza che diviene in questo modo uno strumento utile e vitale. La complessità dell’edificato storico deve necessariamente essere approcciata in una maniera più semplice identificando sub unità regolari per percorso dei carichi, epoca e tecnologia costruttiva e comportamento strutturale dimostrato nel corso del tempo che siano più semplici da studiare. Una chiara comprensione del comportamento delle strutture permette di agire mediante interventi puntuali e meno invasivi, rispettosi dell’esistente riconducendo, ancora una volta, l’intervento di consolidamento ai principi propri del restauro che includono i principi di minimo intervento, di riconoscibilità dello stesso, di rispetto dei materiali esistenti e l’uso di nuovi compatibili con i precedenti. Il percorso della conoscenza diviene in questo modo la chiave per liberare la complessità degli edifici storici esistenti trasformando un mero tecnicismo in una concreta operazione culturale . Il presente percorso di dottorato è stato svolto in collaborazione tra l’Università di Parma, DICATeA e lo Studio di Ingegneria Melegari mediante un percorso di Apprendistato in Alta Formazione e Ricerca.
Reformulation of a thermostable broadly protective recombinant vaccine against human papilloma virus
Resumo:
The causal relationship between Human Papilloma Virus (HPV) infection and cervical cancer has motivated the development, and further improvement, of prophylactic vaccines against this virus. 70% of cervical cancers, 80% of which in low-resources countries, are associated to HPV16 and HPV18 infection, with 13 additional HPV types, classified as high-risk, responsible for the remaining 30% of tumors. Current vaccines, Cervarix® (GlaxoSmithKline) and Gardasil®(Merk), are based on virus-like particles (VLP) obtained by self-assembly of the major capsid protein L1. Despite their undisputable immunogenicity and safety, the fact that protection afforded by these vaccines is largely limited to the cognate serotypes included in the vaccine (HPV 16 and 18, plus five additional viral types incorporated into a newly licensed nonavalent vaccine) along with high production costs and reduced thermal stability, are pushing the development of 2nd generation HPV vaccines based on minor capsid protein L2. The increase in protection broadness afforded by the use of L2 cross-neutralizing epitopes, plus a marked reduction of production costs due to bacterial expression of the antigens and a considerable increase in thermal stability could strongly enhance vaccine distribution and usage in low-resource countries. Previous studies from our group identified three tandem repeats of the L2 aa. 20-38 peptide as a strongly immunogenic epitope if exposed on the scaffold protein thioredoxin (Trx). The aim of this thesis work is the improvement of the Trx-L2 vaccine formulation with regard to cross-protection and thermostability, in order to identify an antigen suitable for a phase I clinical trial. By testing Trx from different microorganisms, we selected P. furiosus thioredoxin (PfTrx) as the optimal scaffold because of its sustained peptide epitope constraining capacity and striking thermal stability (24 hours at 100°C). Alternative production systems, such as secretory Trx-L2 expression in the yeast P. pastoris, have also been set-up and evaluated as possible means to further increase production yields, with a concomitant reduction of production costs. Limitations in immune-responsiveness caused by MHC class II polymorphisms –as observed, for example, in different mouse strains- have been overcome by introducing promiscuous T-helper (Th) epitopes, e.g., PADRE (Pan DR Epitope), at both ends of PfTrx. This allowed us to obtain fairly strong immune responses even in mice (C57BL/6) normally unresponsive to the basic Trx-L2 vaccine. Cross-protection was not increased, however. I thus designed, produced and tested a novel multi-epitope formulation consisting of 8 and 11 L2(20-38) epitopes derived from different HPV types, tandemly joined into a single thioredoxin molecule (“concatemers”). To try to further increase immunogenicity, I also fused our 8X and 11X PfTrx-L2 concatemers to the N-terminus of an engineered complement-binding protein (C4bp), capable to spontaneously assemble into ordered hepatmeric structures, previously validated as a molecular adjuvant. Fusion to C4bp indeed improved antigen presentation, with a fairly significant increase in both immunogenicity and cross-protection. Another important issue I addressed, is the reduction of vaccine doses/treatment, which can be achieved by increasing immunogenicity, while also allowing for a delayed release of the antigen. I obtained preliminary, yet quite encouraging results in this direction with the use of a novel, solid-phase vaccine formulation, consisting of the basic PfTrx-L2 vaccine and its C4bp fusion derivative adsorbed to mesoporus silica-rods (MSR).