778 resultados para Nanosatelliti Cubesat struttura


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel seguente elaborato presenterò una proposta di traduzione di alcuni parti del sito internet ufficiale del Tour de France, famosa gara ciclistica che si svolge ogni anno nel mese di luglio in Francia. Inizierò con una parte teorica sui siti web, riportandone gli aspetti principali e spiegherò brevemente che cos’è la localizzazione di un sito. Nella seconda parte studierò in modo dettagliato la struttura del sito del Tour France e, di seguito, analizzerò le caratteristiche dei testi estrapolati e scelti dal sito con relative osservazioni, possibili difficoltà nella loro traduzione e presenterò inoltre il mio metodo traduttivo. Nella terza parte riporterò quindi i testi tradotti cercando di adattarne il più possibile il layout al sito web originale. Seguirà, nella quarta parte, il commento e la spiegazione delle scelte traduttive da me effettuate, con riferimento agli aspetti morfosintattici e lessicali dei testi. A questa parte aggiungerò un breve glossario, creato durante la fase di traduzione. Seguiranno le conclusioni e la bibliografia/sitografia, indispensabili nella fase di studio teorico ma anche in quella di traduzione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa Tesi si occupa di una derivazione di un meccanismo con amplificazione inerziale per lo smorzamento delle vibrazioni, il quale è stato usato come un meccanismo costituente di un oscillatore semplice, ovvero di un modello matematico fondamentale su cui è basata la dinamica strutturale, aumentandogli notevolmente la sua complessità geometrica. Viene studiata la risposta dinamica ottenuta dall’analisi armonica, in quanto lo stesso è soggetto alla forzante passiva. Lo studio del comportamento dinamico ingloba un percorso, il quale parte dalla descrizione matematica dell’equilibrio dinamico, nonché delle condizioni al contorno, tramite l’uso di analisi matriciale delle strutture e del calcolo complesso, e si conclude, derivando le grandezze cinematiche e dinamiche, necessarie affinché si possa determinare, in un modo chiaro e privo di ambiguità, lo stato del sistema dinamico. Il passo successivo risiede nell’analisi analitica e numerica dei risultati ottenuti e anche della visualizzazione grafica ed interpretazione degli stessi. Affinché i risultati possano essere considerati validi, occorre che gli stessi passino la procedura di validazione tramite l’uso degli esempi numerici. Successivamente, i risultati validati vengono confrontati con la stessa tipologia dei risultati derivati per gli oscillatori classici o gli oscillatori di riferimento, il quale comportamento è già noto nell’ambito della dinamica strutturale. La Tesi procede con l’applicazione pratica degli oscillatori per lo smorzamento delle vibrazioni. In particolare si studia la loro capacità di alterare la risposta dinamica complessiva del sistema di cui fanno parte, rispetto al caso in cui la stessa struttura è priva di essi. In fine la Tesi si conclude, mettendo in evidenza i vantaggi e gli svantaggi dell’oscillatore dotato di un meccanismo con amplificazione inerziale rispetto agli altri oscillatori classici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della presente tesi è quello di illustrare alcuni dei principali strumenti messi a disposizione dai controlli automatici a servizio dell’ingegneria, in particolare analizzando la struttura generale di una fabbrica automatica e descrivendone i principali sistemi di controllo. L’elaborato è suddiviso in tre macro parti: la prima ha l’obiettivo di inquadrare quella che è la fabbrica automatica, partendo dal precedente concetto di fabbrica tradizionale fino ad arrivare alla fabbrica moderna, caratterizzata da una spinta flessibilità produttiva determinata da una politica di produzione per lotti con elevati livelli di caratterizzazione. Della fabbrica automatica viene poi approfondita l’integrazione con i calcolatori attraverso il sistema concettuale del CIM, Computer Integrated Manufacturing, e l’impiego di celle di fabbricazione flessibili, ovvero le FMS, Flexible Manufacturing System. La seconda parte è incentrata sull’analisi delle logiche di controllo impiegate all’interno di tutto il processo di progettazione e di produzione, suddivise in tre gruppi: il primo focalizzato sui sistemi per la produzione automatica, NC e DNC; il secondo sui sistemi di simulazione e testing del prodotto, CAD, CAM e CAT; il terzo sui sistemi di controllo e sviluppo dati, SCADA, MES e DCS. La terza ed ultima parte è circoscritta all’approfondimento di un particolare sistema di controllo per la gestione dei processi, ovvero sull’uso del PLC, il Controllore Logico Programmabile. Vengono analizzate le componenti fisiche che lo costituiscono, il funzionamento base, i tempi di esecuzione delle istruzioni, i criteri di scelta e di dimensionamento ed altri aspetti rilevanti. Infine è presente un esempio applicativo di alcuni aspetti sovra citati con il caso dell’azienda bolognese G.D, leader del settore delle macchine automatiche a controllo numerico per la fabbricazione e l’impacchettamento delle sigarette.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’internazionalizzazione dei contesti industriali e l’aumento della competizione sopravvenuti nel mondo contemporaneo hanno reso necessari diversi mutamenti nelle attività produttive e legate ai servizi, dalla diversificazione dei prodotti, alla riduzione dei lead time, alla razionalizzazione dei costi a tutti i livelli della supply chain, non solo relativamente alle materie prime e alla diminuzione dei prezzi di vendita, ma anche di tutti i costi indiretti, che assumono un peso importante. La rapidità nella sostituzione dei prodotti e la necessità di contenere al massimo i tempi di risposta spingono sempre più le aziende a rivedere la propria struttura in modo da eliminare gli sprechi. Le imprese operano in un ambiente molto complesso, di conseguenza si rende necessario il coinvolgimento non solo delle funzioni interne ad un’azienda, ma anche di quelle esterne, nell’ottimizzazione delle attività che producono valore e di quelle necessarie che non intervengono direttamente. Tra tutte queste attività si cerca, in questo elaborato, di porre un focus su quelle legate alla gestione delle scorte all’interno della supply chain e all’integrazione dei fornitori nella rete logistica aziendale. Verranno ripresi i concetti fondamentali della teoria di gestione delle scorte, e sarà esposto il percorso intrapreso dall’azienda Carpigiani Group, leader mondiale nella produzione e commercializzazione di macchine per la produzione di gelato artigianale ed “espresso”, di integrazione dei fornitori all’interno della catena di approvvigionamento, attraverso un sistema kanban di fornitura e politiche di approvvigionamento riconducibili al consignment stock, con il fine ultimo di ottimizzare i livelli di scorte a magazzino e di servire le linee produttive con efficacia ed efficienza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborato verte sulla simulazione della gestione dei materiali dell’azienda Robopac. Il modello esposto è stato creato tramite il software Arena, il quale permette la riproduzione di una struttura aziendale reale ed è, per questo, uno strumento validissimo per esaminare situazioni critiche, nonché per confrontare alternative progettuali e validarle. Nello specifico, in tale tesi ci si propone di verificare, attraverso un’attenta analisi, come l’azienda Robopac gestisca i materiali nel suo percorso di elaborazione e trasformazione. Per gestione dei materiali si intende il coordinamento degli arrivi, il controllo sulle materie, il trasporto di tali materiali nei magazzini appositi e il successivo spostamento in linea. Questa indagine permetterà di valutare l’efficienza e l’utilizzo delle risorse, le tempistiche delle movimentazioni e l’eventuale creazione di code, così da cercare soluzioni che potrebbero migliorare e ottimizzare le operazioni. Il modello creato con Arena considera i sei codici-prodotto più rappresentativi e rende possibile una riproduzione conforme a ciò che è stato osservato. Inoltre sono analizzati i report forniti automaticamente da tale software e valutati l’utilizzo delle risorse e le giacenze a magazzino. Sarebbe interessante ampliare la simulazione esposta, prendendo in considerazione l’intero numero di codici prodotti, così da poter analizzare la totale gestione dei materiali e considerare eventuali differenze o scostamenti rispetto a quanto svolto in questa tesi. Un ulteriore ampliamento altrettanto valido potrebbe essere quello di coniugare la simulazione della gestione dei materiali con il modello della linea produttiva principale già realizzato con Arena. Ciò permetterebbe una più completa visione dell’azienda e l’indagine della realtà imprenditoriale diventerebbe più ampia, approfondita e dettagliata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

At head of title: Guido Villa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

v.1., fasc.1. Relazione preliminare ed elencho delle Stazioni / di A. Senna -- fasc.2. Sulla struttura di alcune larve (Pelagosphæra) di Sipunculidi / di A. Senna -- fasc.3. Larve pelagiche di Attiniari / di A. Senna -- fasc.4. Molluschi. pt.I. Cefalopodi planctonici / di R. Issel -- fasc.5. Anellidi. pt.I. Tomopteridi / di D. Rosa -- v.2., fasc.1. Ctenofori / del A. Ghigi --fasc.2. Molluschi. pt.II. Eteropodi / di R. Issel -- fasc.3. Anellidi. pt.II. Alciopidi e Fillodocidi / di L. Granata -- fasc.4. Molluschi. pt.III. Pteropodi / di R. Issel -- fasc.5. Chetognati / di V. Baldasseroni -- fasc.6. Crostacei. pt.I. Ostracodi / di L. Granata -- fasc.7. Crostacei. pt.II. Eufausiacei / di G. Colosi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro ha lo scopo di comprendere i processi sottesi ai pattern di coesistenza tra le specie di invertebrati sorgentizi, distinguendo tra dinamiche stocastiche e deterministiche. Le sorgenti sono ecosistemi complessi e alcune loro caratteristiche (ad esempio l’insularità, la stabilità termica, la struttura ecotonale “a mosaico”, la frequente presenza di specie rare ed endemiche, o l’elevata diversità in taxa) le rendono laboratori naturali utili allo studio dei processi ecologici, tra cui i processi di assembly. Al fine di studiare queste dinamiche è necessario un approccio multi-scala, per questo motivi sono state prese in considerazione tre scale spaziali. A scala locale è stato compiuto un campionamento stagionale su sette sorgenti (quattro temporanee e tre permanenti) del Monte Prinzera, un affioramento ofiolitico vicino alla città di Parma. In questa area sono stati valutati l’efficacia e l’impatto ambientale di diversi metodi di campionamento e sono stati analizzati i drivers ecologici che influenzano le comunità. A scala più ampia sono state campionate per due volte 15 sorgenti della regione Emilia Romagna, al fine di identificare il ruolo della dispersione e la possibile presenza di un effetto di niche-filtering. A scala continentale sono state raccolte informazioni di letteratura riguardanti sorgenti dell’area Paleartica occidentale, e sono stati studiati i pattern biogeografici e l’influenza dei fattori climatici sulle comunità. Sono stati presi in considerazione differenti taxa di invertebrati (macroinvertebrati, ostracodi, acari acquatici e copepodi), scegliendo tra quelli che si prestavano meglio allo studio dei diversi processi in base alle loro caratteristiche biologiche e all’approfondimento tassonomico raggiungibile. I campionamenti biologici in sorgente sono caratterizzati da diversi problemi metodologici e possono causare impatti sugli ambienti. In questo lavoro sono stati paragonati due diversi metodi: l’utilizzo del retino con un approccio multi-habitat proporzionale e l’uso combinato di trappole e lavaggio di campioni di vegetazione. Il retino fornisce dati più accurati e completi, ma anche significativi disturbi sulle componenti biotiche e abiotiche delle sorgenti. Questo metodo è quindi raccomandato solo se il campionamento ha come scopo un’approfondita analisi della biodiversità. D’altra parte l’uso delle trappole e il lavaggio della vegetazione sono metodi affidabili che presentano minori impatti sull’ecosistema, quindi sono adatti a studi ecologici finalizzati all’analisi della struttura delle comunità. Questo lavoro ha confermato che i processi niche-based sono determinanti nello strutturare le comunità di ambienti sorgentizi, e che i driver ambientali spiegano una rilevante percentuale della variabilità delle comunità. Infatti le comunità di invertebrati del Monte Prinzera sono influenzate da fattori legati al chimismo delle acque, alla composizione e all’eterogeneità dell’habitat, all’idroperiodo e alle fluttuazioni della portata. Le sorgenti permanenti mostrano variazioni stagionali per quanto riguarda le concentrazioni dei principali ioni, mentre la conduttività, il pH e la temperatura dell’acqua sono più stabili. È probabile che sia la stabilità termica di questi ambienti a spiegare l’assenza di variazioni stagionali nella struttura delle comunità di macroinvertebrati. L’azione di niche-filtering delle sorgenti è stata analizzata tramite lo studio della diversità funzionale delle comunità di ostracodi dell’Emilia-Romagna. Le sorgenti ospitano più del 50% del pool di specie regionale, e numerose specie sono state rinvenute esclusivamente in questi habitat. Questo è il primo studio che analizza la diversità funzionale degli ostracodi, è stato quindi necessario stilare una lista di tratti funzionali. Analizzando il pool di specie regionale, la diversità funzionale nelle sorgenti non è significativamente diversa da quella misurata in comunità assemblate in maniera casuale. Le sorgenti non limitano quindi la diversità funzionale tra specie coesistenti, ma si può concludere che, data la soddisfazione delle esigenze ecologiche delle diverse specie, i processi di assembly in sorgente potrebbero essere influenzati da fattori stocastici come la dispersione, la speciazione e le estinzioni locali. In aggiunta, tutte le comunità studiate presentano pattern spaziali riconoscibili, rivelando una limitazione della dispersione tra le sorgenti, almeno per alcuni taxa. Il caratteristico isolamento delle sorgenti potrebbe essere la causa di questa limitazione, influenzando maggiormente i taxa a dispersione passiva rispetto a quelli a dispersione attiva. In ogni caso nelle comunità emiliano-romagnole i fattori spaziali spiegano solo una ridotta percentuale della variabilità biologica totale, mentre tutte le comunità risultano influenzate maggiormente dalle variabili ambientali. Il controllo ambientale è quindi prevalente rispetto a quello attuato dai fattori spaziali. Questo risultato dimostra che, nonostante le dinamiche stocastiche siano importanti in tutte le comunità studiate, a questa scala spaziale i fattori deterministici ricoprono un ruolo prevalente. I processi stocastici diventano più influenti invece nei climi aridi, dove il disturbo collegato ai frequenti eventi di disseccamento delle sorgenti provoca una dinamica source-sink tra le diverse comunità. Si è infatti notato che la variabilità spiegata dai fattori ambientali diminuisce all’aumentare dell’aridità del clima. Disturbi frequenti potrebbero provocare estinzioni locali seguite da ricolonizzazioni di specie provenienti dai siti vicini, riducendo la corrispondenza tra gli organismi e le loro richieste ambientali e quindi diminuendo la quantità di variabilità spiegata dai fattori ambientali. Si può quindi concludere che processi deterministici e stocastici non si escludono mutualmente, ma contribuiscono contemporaneamente a strutturare le comunità di invertebrati sorgentizi. Infine, a scala continentale, le comunità di ostracodi sorgentizi mostrano chiari pattern biogeografici e sono organizzate lungo gradienti ambientali principalmente collegati altitudine, latitudine, temperatura dell’acqua e conducibilità. Anche la tipologia di sorgente (elocrena, reocrena o limnocrena) è influente sulla composizione delle comunità. La presenza di specie rare ed endemiche inoltre caratterizza specifiche regioni geografiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La governance del settore alimentare si fonda su una struttura multilivello, ove poteri locali, nazionali, sovranazionali e globali interagiscono. In tale assetto, ogni regolatore è chiamato a proteggere interessi diversi tra loro, tra cui l'ambiente, la salute umana, il benessere animale e la libera concorrenza. La regolazione del settore alimentare, inoltre, impone la considerazione di aspetti etici e culturali, dotati di una forte matrice territoriale. In questo sistema, i valori che entrano in gioco non sono egualmente rappresentati, ma quelli considerati "minori" sono sovente sovrastati dalle esigenze di protezione di un unico interesse: la libera concorrenza su scala globale. Ne deriva che la regolazione del settore alimentare necessita di un nuovo equilibrio. Questo può richiedere sia l'adozione di nuove regole - soprattutto a livello sovranazionale - sia un'interpretazione maggiormente inclusiva dei principi e delle regole già esistenti da parte delle Corti. Tuttavia, risulta maggiormente urgente e di immediata efficacia permettere ai soggetti interessati, siano essi privati o pubblici, di partecipare alla formulazione delle politiche e delle decisioni inerenti il settore alimentare. La partecipazione procedurale è in grado di soddisfare esigenze differenti e talvolta opposte, pertanto essa è regolata dal legislatore a seconda dello scopo finale prefissato. Principalmente, essa è vista come una applicazione diretta dei principi di democrazia e trasparenza; tuttavia, il suo reale impatto sul risultato finale delle decisioni pubbliche può scostarsi considerevolemente da tale paradigma. Lo scopo di tale lavoro è analizzare i diversi modelli partecipativi implementati nei vari livelli di governo, al fine di determinarne il reale impatto sui soggetti interessati e sul bilanciamento degli interessi in gioco. La conclusione dimostra un certo livello di perplessità per ciò che riguarda l'assetto di tali garanzie nella regolazione del settore alimentare, dove lo sviluppo del concetto di democrazia partecipativa e di bilancio tra gli interessi rilevanti è ancora acerbo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Italia molti edifici sono stati costruiti senza tenere in considerazione l'azione sismica. La necessità di adeguare tali edifici in accordo con la normativa italiana vigente è stato il motivo scatenante di questa ricerca. Per l'adeguamento sismico, vengono qui proposti differenti approcci in base al tipo di struttura e, in particolare, in base alla loro deformabilità. Per le strutture flessibili come le scaffalature di acciaio adibite alla stagionatura del Parmigiano Reggiano, sono stati utilizzati dispositivi passivi di dissipazione energetica. Sono state condotte analisi di sensitività per determinare il coefficiente di smorzamento in grado di minimizzare lo stato tensionale nelle sezioni di interesse. I risultati delle analisi mostrano l'efficacia delle soluzioni proposte e potrebbero rappresentare un punto di partenza per la definizione di possibili contromisure standar per l'adeguamento sismico. Per le strutture rigide, come i ponti in muratura, sono stati definiti alcuni criteri per la modellazione e la verifica delle sezioni di interesse, utilizzando modelli semplificati ma dall'efficacia comprovata come termine di paragone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro tratta dei tassi e della rischiosità delle imprese. In particolare, si esamina il collegamento esistente fra i tassi a medio-lungo termine europei e quelli americani e come ad esempio i tassi d’interesse forward dell’Eurirs derivino dall’euro e dalla struttura a termine dei tassi IRS sul dollaro. Le tecniche econometriche applicate sono la cointegrazione, la causalità di Granger, il GMM, il metodo di Rigobon e Sack (2004). Nella seconda parte si introduce una relazione per la stima dell’EONIA prima e durante la politica di full allottment della BCE. Nell’analisi empirica si usano tre differenti stimatori: OLS, Tobit e NLS e si considera il fatto che l’EONIA si muove all’interno del corridoio dei tassi, (formato dal tasso sui deposit facilities e sui marginal lending). L’ultima parte è dedicata allo studio della rischiosità delle imprese per mezzo dei principali indicatori di rischio (le tre formulazioni dello Z score di Altman e l’indice di Ohlson) a livello italiano ed europeo. I metodi d’analisi statistica utilizzati sono la regressione quantile, il Logit e il Probit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo della presente tesi è evidenziare l’importanza dell’approccio critico alla valutazione della vulnerabilità sismica di edifici in muratura e misti Il contributo della tesi sottolinea i diversi risultati ottenuti nella modellazione di tre edifici esistenti ed uno ipotetico usando due diversi programmi basati sul modello del telaio equivalente. La modellazione delle diverse ipotesi di vincolamento ed estensione delle zone rigide ha richiesto la formulazione di quattro modelli di calcolo in Aedes PCM ed un modello in 3muri. I dati ottenuti sono stati confrontati, inoltre, con l’analisi semplificata speditiva per la valutazione della vulnerabilità a scala territoriale prevista nelle “Linee Guida per la valutazione e riduzione del rischio sismico del Patrimonio Culturale”. Si può notare che i valori ottenuti sono piuttosto diversi e che la variabilità aumenta nel caso di edifici non regolari, inoltre le evidenze legate ai danni realmente rilevati sugli edifici mostrano un profondo iato tra la previsione di danno ottenuta tramite calcolatore e le lesioni rilevate; questo costituisce un campanello d’allarme nei confronti di un approccio acritico nei confronti del mero dato numerico ed un richiamo all’importanza del processo conoscitivo. I casi di studio analizzati sono stati scelti in funzione delle caratteristiche seguenti: il primo è una struttura semplice e simmetrica nelle due direzioni che ha avuto la funzione di permettere di testare in modo controllato le ipotesi di base. Gli altri sono edifici reali: il Padiglione Morselli è un edificio in muratura a pianta a forma di C, regolare in pianta ed in elevazione solamente per quanto concerne la direzione y: questo ha permesso di raffrontare il diverso comportamento dei modelli di calcolo nelle sue direzioni; il liceo Marconi è un edificio misto in cui elementi in conglomerato cementizio armato affiancano le pareti portanti in muratura, che presenta un piano di copertura piuttosto irregolare; il Corpo 4 dell’Ospedale di Castelfranco Emilia è un edificio in muratura, a pianta regolare che presenta le medesime irregolarità nel piano sommitale del precedente. I dati ottenuti hanno dimostrato un buon accordo per la quantificazione dell’indice di sicurezza per i modelli regolari e semplici con uno scarto di circa il 30% mentre il delta si incrementa per le strutture irregolari, in particolare quando le pareti portanti in muratura vengono sostituite da elementi puntuali nei piani di copertura arrivando a valori massimi del 60%. I confronti sono stati estesi per le tre strutture anche alla modellazione proposta dalle Linee Guida per la valutazione dell’indice di sicurezza sismica a scala territoriale LV1 mostrando differenze nell’ordine del 30% per il Padiglione Morselli e del 50% per il Liceo Marconi; il metodo semplificato risulta correttamente cautelativo. È, quindi, possibile affermare che tanto più gli edifici si mostrano regolari in riferimento a masse e rigidezze, tanto più la modellazione a telaio equivalente restituisce valori in accordo tra i programmi e di più immediata comprensione. Questa evidenza può essere estesa ad altri casi reali divenendo un vero e proprio criterio operativo che consiglia la suddivisione degli edifici esistenti in muratura, solitamente molto complessi poiché frutto di successive stratificazioni, in parti più semplici, ricorrendo alle informazioni acquisite attraverso il percorso della conoscenza che diviene in questo modo uno strumento utile e vitale. La complessità dell’edificato storico deve necessariamente essere approcciata in una maniera più semplice identificando sub unità regolari per percorso dei carichi, epoca e tecnologia costruttiva e comportamento strutturale dimostrato nel corso del tempo che siano più semplici da studiare. Una chiara comprensione del comportamento delle strutture permette di agire mediante interventi puntuali e meno invasivi, rispettosi dell’esistente riconducendo, ancora una volta, l’intervento di consolidamento ai principi propri del restauro che includono i principi di minimo intervento, di riconoscibilità dello stesso, di rispetto dei materiali esistenti e l’uso di nuovi compatibili con i precedenti. Il percorso della conoscenza diviene in questo modo la chiave per liberare la complessità degli edifici storici esistenti trasformando un mero tecnicismo in una concreta operazione culturale . Il presente percorso di dottorato è stato svolto in collaborazione tra l’Università di Parma, DICATeA e lo Studio di Ingegneria Melegari mediante un percorso di Apprendistato in Alta Formazione e Ricerca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Sequenza Sismica Emiliana del 2012 ha colpito la zona compresa tra Mirandola e Ferrara con notevoli manifestazioni cosismiche e post-sismiche secondarie, soprattutto legate al fenomeno della liquefazione delle sabbie e alla formazione di fratturazioni superficiali del terreno. A fronte del fatto che la deformazione principale, osservata tramite tecniche di remote-sensing, ha permesso di individuare la posizione della struttura generatrice, ci si è interrogati sul rapporto tra strutture profonde e manifestazioni secondarie superficiali. In questa tesi è stato svolto un lavoro di integrazione di dati a varia scala, dalla superficie al sottosuolo, fino profondità di alcuni chilometri, per analizzare il legame tra le strutture geologiche che hanno generato il sisma e gli effetti superficiali percepiti dagli osservatori. Questo, non solo in riferimento allo specifico del sisma emiliano del 2012, ma al fine di trarre utili informazioni in una prospettiva storica e geologica sugli effetti di un terremoto “tipico”, in una regione dove le strutture generatrici non affiorano in superficie. Gli elementi analizzati comprendono nuove acquisizioni e rielaborazioni di dati pregressi, e includono cartografie geomorfologiche, telerilevamenti, profili sismici a riflessione superficiale e profonda, stratigrafie e informazioni sulla caratterizzazione dell’area rispetto al rischio sismico. Parte dei dati di nuova acquisizione è il risultato dello sviluppo e la sperimentazione di metodologie innovative di prospezione sismica in corsi e specchi d’acqua continentali, che sono state utilizzate con successo lungo il Cavo Napoleonico, un canale artificiale che taglia ortogonalmente la zona di massima deformazione del sisma del 20 Maggio. Lo sviluppo della nuova metodologia di indagine geofisica, applicata ad un caso concreto, ha permesso di migliorare le tecniche di imaging del sottosuolo, oltre a segnalare nuove evidenze co-sismiche che rimanevano nascoste sotto le acque del canale, e a fornire elementi utili alla stratigrafia del terreno. Il confronto tra dati geofisici e dati geomorfologici ha permesso di cartografare con maggiore dettaglio i corpi e le forme sedimentarie superficiali legati alla divagazione fluviale dall’VIII sec a.C.. I dati geofisici, superficiali e profondi, hanno evidenziato il legame tra le strutture sismogeniche e le manifestazioni superficiali seguite al sisma emiliano. L’integrazione dei dati disponibili, sia nuovi che da letteratura, ha evidenziato il rapporto tra strutture profonde e sedimentazione, e ha permesso di calcolare i tassi geologici di sollevamento della struttura generatrice del sisma del 20 Maggio. I risultati di questo lavoro hanno implicazioni in vari ambiti, tra i quali la valutazione del rischio sismico e la microzonazione sismica, basata su una caratterizzazione geomorfologico-geologico-geofisica dettagliata dei primi 20 metri al di sotto della superficie topografica. Il sisma emiliano del 2012 ha infatti permesso di riconoscere l’importanza del substrato per lo sviluppo di fenomeni co- e post-sismici secondari, in un territorio fortemente eterogeneo come la Pianura Padana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The causal relationship between Human Papilloma Virus (HPV) infection and cervical cancer has motivated the development, and further improvement, of prophylactic vaccines against this virus. 70% of cervical cancers, 80% of which in low-resources countries, are associated to HPV16 and HPV18 infection, with 13 additional HPV types, classified as high-risk, responsible for the remaining 30% of tumors. Current vaccines, Cervarix® (GlaxoSmithKline) and Gardasil®(Merk), are based on virus-like particles (VLP) obtained by self-assembly of the major capsid protein L1. Despite their undisputable immunogenicity and safety, the fact that protection afforded by these vaccines is largely limited to the cognate serotypes included in the vaccine (HPV 16 and 18, plus five additional viral types incorporated into a newly licensed nonavalent vaccine) along with high production costs and reduced thermal stability, are pushing the development of 2nd generation HPV vaccines based on minor capsid protein L2. The increase in protection broadness afforded by the use of L2 cross-neutralizing epitopes, plus a marked reduction of production costs due to bacterial expression of the antigens and a considerable increase in thermal stability could strongly enhance vaccine distribution and usage in low-resource countries. Previous studies from our group identified three tandem repeats of the L2 aa. 20-38 peptide as a strongly immunogenic epitope if exposed on the scaffold protein thioredoxin (Trx). The aim of this thesis work is the improvement of the Trx-L2 vaccine formulation with regard to cross-protection and thermostability, in order to identify an antigen suitable for a phase I clinical trial. By testing Trx from different microorganisms, we selected P. furiosus thioredoxin (PfTrx) as the optimal scaffold because of its sustained peptide epitope constraining capacity and striking thermal stability (24 hours at 100°C). Alternative production systems, such as secretory Trx-L2 expression in the yeast P. pastoris, have also been set-up and evaluated as possible means to further increase production yields, with a concomitant reduction of production costs. Limitations in immune-responsiveness caused by MHC class II polymorphisms –as observed, for example, in different mouse strains- have been overcome by introducing promiscuous T-helper (Th) epitopes, e.g., PADRE (Pan DR Epitope), at both ends of PfTrx. This allowed us to obtain fairly strong immune responses even in mice (C57BL/6) normally unresponsive to the basic Trx-L2 vaccine. Cross-protection was not increased, however. I thus designed, produced and tested a novel multi-epitope formulation consisting of 8 and 11 L2(20-38) epitopes derived from different HPV types, tandemly joined into a single thioredoxin molecule (“concatemers”). To try to further increase immunogenicity, I also fused our 8X and 11X PfTrx-L2 concatemers to the N-terminus of an engineered complement-binding protein (C4bp), capable to spontaneously assemble into ordered hepatmeric structures, previously validated as a molecular adjuvant. Fusion to C4bp indeed improved antigen presentation, with a fairly significant increase in both immunogenicity and cross-protection. Another important issue I addressed, is the reduction of vaccine doses/treatment, which can be achieved by increasing immunogenicity, while also allowing for a delayed release of the antigen. I obtained preliminary, yet quite encouraging results in this direction with the use of a novel, solid-phase vaccine formulation, consisting of the basic PfTrx-L2 vaccine and its C4bp fusion derivative adsorbed to mesoporus silica-rods (MSR).