280 resultados para retorinen metodi


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attività di ricerca del dottorando è stata rivolta allo studio della trasmissione del rumore per via strutturale negli edifici. Questo argomento e' di notevole interesse sia fondamentale che applicativo. Il fenomeno e le problematiche ad essa connesse contribuiscono alla diminuzione delle prestazioni fonoisolanti, sia per le strutture verticali (usualmente valutate rispetto al rumore aereo), sia per quelle orizzontali (valutate anche rispetto al rumore impattivo) ed è tipico degli edifici con struttura portante a telaio e tamponatura in laterizi. Si tratta delle tipiche tipologie edilizie italiane, per le quali il problema risulta amplificato rispetto ad altre tipologie. La metodologia di studio è stata di tipo sperimentale. La scelta è dettata sia dall’insufficiente avanzamento dello stato dell’arte dei metodi di calcolo teorici, o delle loro versioni numeriche, sia dalla necessità di disporre di dati certi da confrontare con i valori forniti dai metodi previsionali semplificati indicati nelle norme UNI (modello CEN); infatti queste ultime sono un recepimento letterale di quelle europee, sebbene esse si basino su tipologie costruttive, materiali e tecniche di realizzazione differenti da quelle comunemente in uso in Italia; da qui la difformità di risultati tra formule previsionali e misurazioni sperimentali. Al fine di realizzare uno studio completo delle principali casistiche della trasmissione laterale sono state utilizzate 6 configurazioni in scala reale, con elementi edilizi diversamente collegati fra loro in modo da simulare i nodi strutturali comunemente realizzati negli edifici. La parte sperimentale della ricerca è stata svolta presso le “Camere Acustiche di Prova” del Laboratorio del Lazzaretto “R. Alessi” del DIENCA. Oltre alle usuali misurazioni di isolamento acustico, sono state eseguite numerose misurazioni di vibrazione. Infatti, dal confronto dei livelli di velocità di vibrazione dei diversi elementi di una struttura, rigidamente connessi, è possibile determinare l’indice di riduzione delle vibrazioni Kij che è la grandezza chiave per modellizzare il fenomeno della trasmissione laterale. La possibilità di determinare sperimentalmente tali valori nel contesto di un lavoro di ricerca finalizzato a determinare i meccanismi di propagazione delle vibrazioni nelle strutture, permette di valutare la precisione delle formule previsionali del modello CEN e di proporne varianti e integrazioni. I valori di Kij così determinati assumono grande importanza anche in fase di progetto, fornendo dati attendibili da utilizzare per la progettazione acustica degli edifici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The increasing aversion to technological risks of the society requires the development of inherently safer and environmentally friendlier processes, besides assuring the economic competitiveness of the industrial activities. The different forms of impact (e.g. environmental, economic and societal) are frequently characterized by conflicting reduction strategies and must be holistically taken into account in order to identify the optimal solutions in process design. Though the literature reports an extensive discussion of strategies and specific principles, quantitative assessment tools are required to identify the marginal improvements in alternative design options, to allow the trade-off among contradictory aspects and to prevent the “risk shift”. In the present work a set of integrated quantitative tools for design assessment (i.e. design support system) was developed. The tools were specifically dedicated to the implementation of sustainability and inherent safety in process and plant design activities, with respect to chemical and industrial processes in which substances dangerous for humans and environment are used or stored. The tools were mainly devoted to the application in the stages of “conceptual” and “basic design”, when the project is still open to changes (due to the large number of degrees of freedom) which may comprise of strategies to improve sustainability and inherent safety. The set of developed tools includes different phases of the design activities, all through the lifecycle of a project (inventories, process flow diagrams, preliminary plant lay-out plans). The development of such tools gives a substantial contribution to fill the present gap in the availability of sound supports for implementing safety and sustainability in early phases of process design. The proposed decision support system was based on the development of a set of leading key performance indicators (KPIs), which ensure the assessment of economic, societal and environmental impacts of a process (i.e. sustainability profile). The KPIs were based on impact models (also complex), but are easy and swift in the practical application. Their full evaluation is possible also starting from the limited data available during early process design. Innovative reference criteria were developed to compare and aggregate the KPIs on the basis of the actual sitespecific impact burden and the sustainability policy. Particular attention was devoted to the development of reliable criteria and tools for the assessment of inherent safety in different stages of the project lifecycle. The assessment follows an innovative approach in the analysis of inherent safety, based on both the calculation of the expected consequences of potential accidents and the evaluation of the hazards related to equipment. The methodology overrides several problems present in the previous methods proposed for quantitative inherent safety assessment (use of arbitrary indexes, subjective judgement, build-in assumptions, etc.). A specific procedure was defined for the assessment of the hazards related to the formations of undesired substances in chemical systems undergoing “out of control” conditions. In the assessment of layout plans, “ad hoc” tools were developed to account for the hazard of domino escalations and the safety economics. The effectiveness and value of the tools were demonstrated by the application to a large number of case studies concerning different kinds of design activities (choice of materials, design of the process, of the plant, of the layout) and different types of processes/plants (chemical industry, storage facilities, waste disposal). An experimental survey (analysis of the thermal stability of isomers of nitrobenzaldehyde) provided the input data necessary to demonstrate the method for inherent safety assessment of materials.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Premessa: nell’aprile 2006, l’American Heart Association ha approvato la nuova definizione e classificazione delle cardiomiopatie (B. J. Maron e coll. 2006), riconoscendole come un eterogeneo gruppo di malattie associate a disfunzione meccanica e/o elettrica riconducibili ad un ampia variabilità di cause. La distinzione tra le varie forme si basa non più sui processi etiopatogenetici che ne sono alla base, ma sulla modalità di presentazione clinica della malattia. Si distinguono così le forme primarie, a prevalente od esclusivo interessamento cardiaco, dalle forme secondarie in cui la cardiomiopatia rientra nell’ambito di un disordine sistemico dove sono evidenziabili anche disturbi extracardiaci. La nostra attenzione è, nel presente studio, focalizzata sull’analisi delle cardiomiopatie diagnosticate nei primi anni di vita in cui si registra una più alta incidenza di forme secondarie rispetto all’adulto, riservando un particolare riguardo verso quelle forme associate a disordini metabolici. Nello specifico, il nostro obiettivo è quello di sottolineare l’influenza di una diagnosi precoce sull’evoluzione della malattia. Materiali e metodi: abbiamo eseguito uno studio descrittivo in base ad un’analisi retrospettiva di tutti i pazienti giunti all’osservazione del Centro di Cardiologia e Cardiochirurgia Pediatrica e dell’ Età Evolutiva del Policlinico S. Orsola- Malpighi di Bologna, dal 1990 al 2006, con diagnosi di cardiomiopatia riscontrata nei primi due anni di vita. Complessivamente sono stati studiati 40 pazienti di cui 20 con cardiomiopatia ipertrofica, 18 con cardiomiopatia dilatativa e 2 con cardiomiopatia restrittiva con un’età media alla diagnosi di 4,5 mesi (range:0-24 mesi). Per i pazienti descritti a partire dal 2002, 23 in totale, sono state eseguite le seguenti indagini metaboliche: emogasanalisi, dosaggio della carnitina, metabolismo degli acidi grassi liberi (pre e post pasto), aminoacidemia quantitativa (pre e post pasto), acidi organici, mucopolisaccaridi ed oligosaccaridi urinari, acilcarnitine. Gli stessi pazienti sono stati inoltre sottoposti a prelievo bioptico di muscolo scheletrico per l’analisi ultrastrutturale, e per l’analisi dell’attività enzimatica della catena respiratoria mitocondriale. Nella stessa seduta veniva effettuata la biopsia cutanea per l’eventuale valutazione di deficit enzimatici nei fibroblasti. Risultati: l’età media alla diagnosi era di 132 giorni (range: 0-540 giorni) per le cardiomiopatie ipertrofiche, 90 giorni per le dilatative (range: 0-210 giorni) mentre le 2 bambine con cardiomiopatia restrittiva avevano 18 e 24 mesi al momento della diagnosi. Le indagini metaboliche eseguite sui 23 pazienti ci hanno permesso di individuare 5 bambini con malattia metabolica (di cui 2 deficit severi della catena respiratoria mitocondriale, 1 con insufficienza della β- ossidazione per alterazione delle acilcarnitine , 1 con sindrome di Barth e 1 con malattia di Pompe) e un caso di cardiomiopatia dilatativa associata a rachitismo carenziale. Di questi, 4 sono deceduti e uno è stato perduto al follow-up mentre la forma associata a rachitismo ha mostrato un netto miglioramento della funzionalità cardiaca dopo appropriata terapia con vitamina D e calcio. In tutti la malattia era stata diagnosticata entro l’anno di vita. Ciò concorda con gli studi documentati in letteratura che associano le malattie metaboliche ad un esordio precoce e ad una prognosi infausta. Da un punto di vista morfologico, un’evoluzione severa si associava alla forma dilatativa, ed in particolare a quella con aspetto non compaction del ventricolo sinistro, rispetto alla ipertrofica e, tra le ipertrofiche, alle forme con ostruzione all’efflusso ventricolare. Conclusioni: in accordo con quanto riscontrato in letteratura, abbiamo visto come le cardiomiopatie associate a forme secondarie, ed in particolare a disordini metabolici, sono di più frequente riscontro nella prima infanzia rispetto alle età successive e, per questo, l’esordio molto precoce di una cardiomiopatia deve essere sempre sospettata come l’espressione di una malattia sistemica. Abbiamo osservato, inoltre, una stretta correlazione tra l’età del bambino alla diagnosi e l’evoluzione della cardiomiopatia, registrando un peggioramento della prognosi in funzione della precocità della manifestazione clinica. In particolare la diagnosi eseguita in epoca prenatale si associava, nella maggior parte dei casi, ad un’evoluzione severa, comportandosi come una variabile indipendente da altri fattori prognostici. Riteniamo, quindi, opportuno sottoporre tutti i bambini con diagnosi di cardiomiopatia effettuata nei primi anni di vita ad uno screening metabolico completo volto ad individuare quelle forme per le quali sia possibile intraprendere una terapia specifica o, al contrario, escludere disordini che possano controindicare, o meno, l’esecuzione di un trapianto cardiaco qualora se ne presenti la necessità clinica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“Il tocco pianistico: premesse storiche e sviluppi scientifici” si pone l’obiettivo di provare la politimbricità del pianoforte. A tal fine, ho indagato la relazione tra il gesto, la meccanica del pianoforte e il suono, problema sfiorato da alcuni maestri del Novecento, ma mai approfondito e sviscerato per ovvie ragioni riguardanti la mancanza di una tecnologia idonea e competenze difficili da trovare in una medesima persona. Per quest’ultima ragione mi sono avvalsa della collaborazione sia del Laboratorio di Anatomia Funzionale dell'Apparato Locomotore del Dipartimento di Morfologia Umana dell’Università di Milano, dove lavorano esperti delle più moderne tecnologie idonee alla registrazione del movimento, sia dell’ingegnere Alberto Amendola, docente a contratto di Acustica musicale presso l’Università di Parma per ciò che concerne l’analisi del suono e i rilievi acustici. La tesi si articola in due parti organizzate in quattro capitoli. Nel primo, La didattica pianistica nel primo trentennio del Novecento: il tocco e il timbro come parole chiave, dopo aver tracciato un quadro generale riguardante i concetti di ‘tocco’ e ‘timbro’ incontrati nei metodi e trattati del Sette/Ottocento, già affrontati nella tesi di laurea, procedo ad analizzare alcuni dei lavori più rappresentativi scritti tra la fine dell’Ottocento e gli anni Trenta del Novecento (The Leschetizky Method. A Guide to Fine and Correct Piano Playing di Malwine Brée, Über die physiologischen Fehler und die Umgestaltung der Klaviertechnik di Albert Maria Steinhausen, Die Grundlagen der Klaviertechnik di Rudolph Maria Breithaupt e The Phisiological Mechanics of Piano Technique di Otto Ortmann). Tali studi presentano una parte dedicata alle diverse modalità di produzione sonora e, quasi tutti, giungono ad una medesima conclusione: pur nella sua ricchezza, il pianoforte è uno strumento monotimbrico, dove la differenza tra i suoni è data dall’intensità e dall’agogica. Al fine di provare la politimbricità del pianoforte, il mio percorso di studi si è scontrato sia con la meccanica del pianoforte sia con l’acustica musicale. Ho fatto precedere quindi l’indagine scientifica, che confluisce nel capitolo IV, da una sezione in cui presento l’evoluzione della meccanica del pianoforte fino a giungere alla descrizione della meccanica moderna (capitolo II, Il Pianoforte: meccanica e modalità di produzione del suono), e da un’altra in cui affronto i fondamenti di acustica musicale, al fine di fornire al lettore i mezzi basilari per cimentarsi con la parte scientifica (capitolo III, Cenni di acustica musicale). Il capitolo IV è il resoconto organico e sistematico delle sperimentazioni svolte durante il dottorato presso il laboratorio di Anatomia funzionale dell’apparato locomotore dell’Università di Milano. La presentazione ripercorre necessariamente le tappe della ricerca considerata la novità assoluta dell’oggetto indagato. All’illustrazione dei dati di ogni fase segue sempre la discussione e l’interpretazione dei risultati per garantire la validità dell’esperimento. L’interesse della ricerca è stato condiviso oltre che dal dipartimento di Anatomia, anche dalla casa costruttrice di pianoforti Bechstein che ha costruito una meccanica speciale, e dalla ditta di pianoforti Angelo Fabbrini, che ha messo a disposizione un mezza coda Bechstein per effettuare i rilievi. Il capitolo IV, che rappresenta, dunque, il cuore della presente dissertazione dottorale, dimostra che il pianoforte è uno strumento politimbrico: mettendo in relazione il gesto pianistico, la reazione della meccanica e il suono è risultato che al movimento del martello, ripetibilmente diverso a seconda del tocco pianistico, corrisponde una reazione acustica che varia ripetibilmente in maniera differente a seconda del tocco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'Appenino Emiliano è tra le zone più franose al mondo; i fenomeni che la interessano sono abbastanza lenti e quindi mai catastrofici, ma, vista la loro diffusione, molto dannosi per le infrastrutture. La ricerca della pericolosità associata alle frane si distingue in previsione spaziale e previsione temporale; la prima, detta anche suscettività, è il tema del presente lavoro. La suscettività è volta alla realizzazione di carte di propensione al dissesto, relative e indipendenti dal tempo. Dall'inizio degli anni '90 sono disponibili in letteratura diversi modelli per rispondere a questa esigenza, i quali sono generalmente costituiti da una componente geo-meccanica (di solito il modello del Pendio Infinito) e una idrologica. Il presente lavoro si concentra su quest'ultima che, nei diversi modelli, presenta la maggiore varietà, e cerca di capire quale sia il contributo che questa componente può dare all'analisi di suscettività in un'area argillosa. Per valutare questo contributo, sono stati applicati ad un'area di studio rappresentativa, diversi modelli fisicamente basati noti in letteratura o creati appositamente. Le informazioni dinamiche dei modelli transitori sono state integrate nel tempo secondo diversi metodi che tengono conto della permanenza delle condizioni critiche nel versante. I risultati dell'analisi suggeriscono che, nell'area di studio, e presumibilmente nelle aree a prevalenza argillosa in genere, per la determinazione della suscettività alle frane, il contributo di un modello fisicamente basato, completo di componente geo-meccanica e componente idrologica accoppiate, è assolutamente trascurabile rispetto ad un semplice modello geo-meccanico basato sulla sola pendenza come quello del Pendio Infinito. Le indicazioni provenienti da un modello completo possono essere ridondanti o addirittura fuorvianti se questo non è adatto alle caratteristiche dell'area in studio e ben calibrato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio “Lotta biologica a Fusarium solani f.sp. cucurbitae su zucchino” si colloca nell’ambito della difesa integrata delle colture orticole dalle fitopatie fungine, in particolare quelle causate da patogeni ad habitat terricolo nei confronti dei quali è sempre più frequente il ricorso a mezzi di lotta diversi dai prodotti chimici. Interessante e innovativa appare la prospettiva di utilizzare microrganismi adatti a svilupparsi nel suolo, competenti per la rizosfera delle piante e con spiccate caratteristiche d’antagonismo verso i patogeni tellurici e di stimolazione delle difese sistemiche della pianta. Il marciume del colletto delle cucurbitacee, causato da diversi patogeni tra cui Fusarium solani f.sp. cucurbitae, rappresenta la principale malattia fungina di tipo tellurica che colpisce lo zucchino ed il melone nella Pianura Padana e che può portare a consistenti perdite produttive. Indagini condotte dal 2004 da parte del Diproval nell’areale bolognese, hanno evidenziato un’elevata frequenza del patogeno su zucchino coltivato soprattutto in tunnel. Considerata la carenza di conoscenze locali di F. solani f.sp. cucurbitae e di mezzi chimici di lotta efficaci, la ricerca svolta ha inteso approfondire la diagnosi della malattia e le caratteristiche biologiche degli isolati locali, e valutare la possibilità di utilizzare metodi biologici di lotta contro questo patogeno, nonché di studiare alcune delle possibili modalità d’azione di microrganismi antagonisti. Sono state pertanto prelevate, da zone diverse del Bolognese, campioni di piante di zucchino che presentavano sintomi di marciume del colletto ed è stato isolato il patogeno, che in base alle caratteristiche morfologiche macro e microscopiche, alle prove di patogenicità su diversi ospiti e a saggi biomolecolari, è stato identificato come Fusarium solani f. sp. cucurbitae W.C. Snyder & H.N. Hansen razza 1. Dagli isolati di campo sono state realizzate un centinaio di colture monosporiche venti delle quali sono state utilizzate per la prosecuzione delle prove. I venti ceppi sono stati saggiati per la loro patogenicità inoculandoli in terriccio sterile e con trapianto di giovani piante di zucchino. E’ risultata un’elevata variabilità del livello di virulenza tra i ceppi, stimata da 39% a 83% riguardo la gravità della malattia e da 61 a 96% per la frequenza di malattia. Sono state condotte prove di accrescimento miceliare che hanno evidenziato differenze tra i ceppi e tra gli esperimenti condotti a tre diverse temperature (17, 23 e 28°C) alla luce ed al buio. La crescita maggiore complessivamente è stata ottenuta a 23°C. I venti ceppi hanno anche mostrato di produrre, in vitro, vari livelli di enzimi di patogenesi quali cellulasi, poligalatturonasi, pectin liasi e proteasi. E’ stata evidenziata unan correlazione significativa tra attività cellulasica e pectin liasica con frequenza e gravità della malattia dei venti ceppi del patogeno. Le prove relative al contenimento della malattia sono state condotte in cella climatica. Sono stati considerati prodotti commerciali (Remedier, Rootshield, Cedomon, Mycostop, Proradix, Clonotry) a base rispettivamente dei seguenti microrganismi: Trichoderma harzianum ICC012 + T. viride ICC080, T. harzianum T22, Pseudomonas chlororaphis MA342, Streptomyces griseoviridis K61, P. fluorescens proradix DSM13134 e T. harzianum + Clonostachys rosea). I prodotti sono stati somministrati sul seme, al terreno e su seme+terreno (esperimenti 1 e 2) e in vivaio, al trapianto e vivaio+trapianto (esperimenti 3 e 4), riproducendo situazioni di pratico impiego. L’inoculazione del patogeno (un ceppo ad elevata patogenicità, Fs7 ed uno a bassa patogenicità, Fs37) è stata effettuata nel terreno distribuendo uno sfarinato secco di semi di miglio e cereali colonizzati dal patogeno. La malattia è stata valutata come intensità e gravità. I prodotti sono stati impiegati in situazioni di particolare stress, avendo favorito particolarmente la crescita del patogeno. Complessivamente i risultati hanno evidenziato effetti di contenimento maggiore della malattia nel caso del ceppo Fs37, meno virulento. La malattia è stata ridotta quasi sempre da tutti i formulati e quello che l’ha ridotta maggiormente è stato Cedomon. Il contenimento della malattia somministrando i prodotti solo nel terreno di semina o di trapianto è stato in generale quello più basso. Il contenimento più elevato è stato ottenuto con la combinazione di due tipologie di trattamento, seme+terreno e vivaio+trapianto. Le differenze tra i prodotti sono risultate più evidenti nel caso del ceppo Fs7. Per quanto riguarda lo studio di alcune delle modalità d’azione dei microrganismi contenuti nei formulati più efficaci, è stato verificato che tutti sono stati in grado di inibire, se pur in vario modo, la crescita del patogeno in vitro. Gli antagonisti più efficaci sono stati S. griseoviridis K61 (Mycostop) e P. fluorescens proradix DSM13134). I ceppi di Trichoderma, ed in particolare T.harzianum T22 (Rootshield), sono risultati i più attivi colonizzatori del substrato. Riguardo il fenomeno dell’antibiosi, il batterio P. fluorescens proradix DSM13134 ha mostrato di produrre i metaboliti non volatili più efficaci nel ridurre lo sviluppo del patogeno. Nelle condizioni sperimentali adottate anche i due ceppi di T. viride ICC080 e T. harzianum ICC012 hanno dimostrato di produrre metaboliti efficaci. Tali risultati, anche se relativi a prove in vitro, possono contribuire alla comprensione dei meccanismi dei microrganismi sul contenimento dell’infezione relativamente al rapporto diretto sul patogeno. E’ stato inoltre verificato che tutti i microrganismi saggiati sono dotati di competenza rizosferica e solo i batteri di endofitismo. Si conclude che, nonostante l’elevata pressione infettiva del patogeno che ha certamente influito negativamente sull’efficacia dei microrganismi studiati, i microrganismi antagonisti possono avere un ruolo nel ridurre l’infezione di F. solani f.sp. cucurbitae razza 1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il trasporto intermodale ha acquisito un ruolo sempre più importante nello scenario dei trasporti comunitari merci durante gli ultimi quindici anni. La sfida che si era posta a inizi anni novanta in Europa consisteva nello sviluppo di una rete europea di trasporto combinato strada-ferrovia. A questo fine è stata fondamentale la cooperazione tra gli operatori del settore e le istituzioni (comunitarie e nazionali), nonché l’impulso dato dalla liberalizzazione del trasporto ferroviario, che fortemente influenza il trasporto combinato. Questa tesi, in particolare, intende studiare il ruolo del Sistema Gateway come strumento innovativo e di nuovo impulso per lo sviluppo della rete di trasporto combinato strada-rotaia in ambito europeo. Grazie a questo sistema, le unità di carico, dirette in una determinata regione, giungono ad un "Terminal Gateway", dove secondo un sistema di tipo “hub-and-spoke” vengono trasbordate a mezzo gru su treni “Shuttle” verso la destinazione finale. Tutto ciò avviene con operazioni fortemente automatizzate e veloci con sensibile vantaggio in termini di tempo e costi. La tesi parte da una descrizione del trasporto intermodale, facendo un focus sugli aspetti strutturali, tecnici e organizzativi del trasporto combinato strada – rotaia e del suo funzionamento. Passando attraverso l’analisi delle reti di trasporto merci in Europa, nel secondo capitolo. Il terzo capitolo entra nel vivo della Tesi introducendo l’oggetto dell’indagine: il Sistema Gateway nell’ambito dello sviluppo della rete europea del traffico combinato strada-ferrovia. Nella seconda parte della tesi è voluto studiare il Sistema Gateway con l’ausilio dei metodi d’analisi che vengono applicati per la scelta fra progetti alternativi nel campo della pianificazione dei trasporti, pertanto sono stati presi in rassegna e descritti i metodi più utilizzati: l’Analisi Benefici-Costi e l’Analisi Multicriteria. Nel caso applicativo è stata utilizzata l’Analisi Benefici-Costi. Infine nel capitolo sesto è stato presentato dettagliatamente il caso reale di studio che riguarda il progetto per la trasformazione del terminal di Verona Quadrante Europa in un terminal gateway.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La valutazione dell’intensità secondo una procedura formale trasparente, obiettiva e che permetta di ottenere valori numerici attraverso scelte e criteri rigorosi, rappresenta un passo ed un obiettivo per la trattazione e l’impiego delle informazioni macrosismiche. I dati macrosismici possono infatti avere importanti applicazioni per analisi sismotettoniche e per la stima della pericolosità sismica. Questa tesi ha affrontato il problema del formalismo della stima dell’intensità migliorando aspetti sia teorici che pratici attraverso tre passaggi fondamentali sviluppati in ambiente MS-Excel e Matlab: i) la raccolta e l’archiviazione del dataset macrosismico; ii), l’associazione (funzione di appartenenza o membership function) tra effetti e gradi di intensità della scala macrosismica attraverso i principi della logica dei fuzzy sets; iii) l’applicazione di algoritmi decisionali rigorosi ed obiettivi per la stima dell’intensità finale. L’intera procedura è stata applicata a sette terremoti italiani sfruttando varie possibilità, anche metodologiche, come la costruzione di funzioni di appartenenza combinando le informazioni macrosismiche di più terremoti: Monte Baldo (1876), Valle d’Illasi (1891), Marsica (1915), Santa Sofia (1918), Mugello (1919), Garfagnana (1920) e Irpinia (1930). I risultati ottenuti hanno fornito un buon accordo statistico con le intensità di un catalogo macrosismico di riferimento confermando la validità dell’intera metodologia. Le intensità ricavate sono state poi utilizzate per analisi sismotettoniche nelle aree dei terremoti studiati. I metodi di analisi statistica sui piani quotati (distribuzione geografica delle intensità assegnate) si sono rivelate in passato uno strumento potente per analisi e caratterizzazione sismotettonica, determinando i principali parametri (localizzazione epicentrale, lunghezza, larghezza, orientazione) della possibile sorgente sismogenica. Questa tesi ha implementato alcuni aspetti delle metodologie di analisi grazie a specifiche applicazioni sviluppate in Matlab che hanno permesso anche di stimare le incertezze associate ai parametri di sorgente, grazie a tecniche di ricampionamento statistico. Un’analisi sistematica per i terremoti studiati è stata portata avanti combinando i vari metodi per la stima dei parametri di sorgente con i piani quotati originali e ricalcolati attraverso le procedure decisionali fuzzy. I risultati ottenuti hanno consentito di valutare le caratteristiche delle possibili sorgenti e formulare ipotesi di natura sismotettonica che hanno avuto alcuni riscontri indiziali con dati di tipo geologico e geologico-strutturale. Alcuni eventi (1915, 1918, 1920) presentano una forte stabilità dei parametri calcolati (localizzazione epicentrale e geometria della possibile sorgente) con piccole incertezze associate. Altri eventi (1891, 1919 e 1930) hanno invece mostrato una maggiore variabilità sia nella localizzazione dell’epicentro che nella geometria delle box: per il primo evento ciò è probabilmente da mettere in relazione con la ridotta consistenza del dataset di intensità mentre per gli altri con la possibile molteplicità delle sorgenti sismogenetiche. Anche l’analisi bootstrap ha messo in evidenza, in alcuni casi, le possibili asimmetrie nelle distribuzioni di alcuni parametri (ad es. l’azimut della possibile struttura), che potrebbero suggerire meccanismi di rottura su più faglie distinte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Porous materials are widely used in many fields of industrial applications, to achieve the requirements of noise reduction, that nowadays derive from strict regulations. The modeling of porous materials is still a problematic issue. Numerical simulations are often problematic in case of real complex geometries, especially in terms of computational times and convergence. At the same time, analytical models, even if partly limited by restrictive simplificative hypotheses, represent a powerful instrument to capture quickly the physics of the problem and general trends. In this context, a recently developed numerical method, called the Cell Method, is described, is presented in the case of the Biot's theory and applied for representative cases. The peculiarity of the Cell Method is that it allows for a direct algebraic and geometrical discretization of the field equations, without any reduction to a weak integral form. Then, the second part of the thesis presents the case of interaction between two poroelastic materials under the context of double porosity. The idea of using periodically repeated inclusions of a second porous material into a layer composed by an original material is described. In particular, the problem is addressed considering the efficiency of the analytical method. A analytical procedure for the simulation of heterogeneous layers based is described and validated considering both conditions of absorption and transmission; a comparison with the available numerical methods is performed. ---------------- I materiali porosi sono ampiamente utilizzati per diverse applicazioni industriali, al fine di raggiungere gli obiettivi di riduzione del rumore, che sono resi impegnativi da norme al giorno d'oggi sempre più stringenti. La modellazione dei materiali porori per applicazioni vibro-acustiche rapprensenta un aspetto di una certa complessità. Le simulazioni numeriche sono spesso problematiche quando siano coinvolte geometrie di pezzi reali, in particolare riguardo i tempi computazionali e la convergenza. Allo stesso tempo, i modelli analitici, anche se parzialmente limitati a causa di ipotesi semplificative che ne restringono l'ambito di utilizzo, rappresentano uno strumento molto utile per comprendere rapidamente la fisica del problema e individuare tendenze generali. In questo contesto, un metodo numerico recentemente sviluppato, il Metodo delle Celle, viene descritto, implementato nel caso della teoria di Biot per la poroelasticità e applicato a casi rappresentativi. La peculiarità del Metodo delle Celle consiste nella discretizzazione diretta algebrica e geometrica delle equazioni di campo, senza alcuna riduzione a forme integrali deboli. Successivamente, nella seconda parte della tesi viene presentato il caso delle interazioni tra due materiali poroelastici a contatto, nel contesto dei materiali a doppia porosità. Viene descritta l'idea di utilizzare inclusioni periodicamente ripetute di un secondo materiale poroso all'interno di un layer a sua volta poroso. In particolare, il problema è studiando il metodo analitico e la sua efficienza. Una procedura analitica per il calcolo di strati eterogenei di materiale viene descritta e validata considerando sia condizioni di assorbimento, sia di trasmissione; viene effettuata una comparazione con i metodi numerici a disposizione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

E’ stato affrontato in modo approfondito lo studio dei campi gravitazionali della relatività generale (RG) che producono un’accelerazione uniforme, e si è confrontato tale studio con i sistemi si riferimento (SR) accelerati della relatività ristretta (RR). Nel corso di quest’analisi sono stati trovati alcuni aspetti non evidenziati in precedenza nella letteratura scientifica, di cui il più rilevante è il fatto che la metrica di Rindler produce un campo che, osservato con misure di tipo radar, appare uniforme a un osservatore solidale con il campo stesso. Si è inoltre trovata più di una metrica cui corrisponde un’accelerazione che non dipende dalla coordinata di partenza. Per il campo di Rindler è stata eseguita anche un’analisi approfondita, tramite un’applicazione diretta del principio di equivalenza (PE). La metodologia utilizzata e i risultati sono un contributo originale di questa tesi e sono di interesse da un punto di vista didattico. Nel corso dell’analisi delle proprietà del campo di Rindler sono stati analizzati in modo operativo: il confronto del ritmo di marcia di due orologi che si trovano a una quota differente, la deflessione dei raggi luminosi e la traiettoria di un corpo in caduta libera. Infine si è indagato sulla forma della metrica di una distribuzione di massa a simmetrica planare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Adhesive bonding provides solutions to realize cost effective and low weight aircraft fuselage structures, in particular where the Damage Tolerance (DT) is the design criterion. Bonded structures that combine Metal Laminates (MLs) and eventually Selective Reinforcements can guarantee slow crack propagation, crack arrest and large damage capability. To optimize the design exploiting the benefit of bonded structures incorporating selective reinforcement requires reliable analysis tools. The effect of bonded doublers / selective reinforcements is very difficult to be predicted numerically or analytically due to the complexity of the underlying mechanisms and failures modes acting. Reliable predictions of crack growth and residual strength can only be based on sound empirical and phenomenological considerations strictly related to the specific structural concept. Large flat stiffened panels that combine MLs and selective reinforcements have been tested with the purpose of investigating solutions applicable to pressurized fuselages. The large test campaign (for a total of 35 stiffened panels) has quantitatively investigated the role of the different metallic skin concepts (monolithic vs. MLs) of the aluminum, titanium and glass-fiber reinforcements, of the stringers material and cross sections and of the geometry and location of doublers / selective reinforcements. Bonded doublers and selective reinforcements confirmed to be outstanding tools to improve the DT properties of structural elements with a minor weight increase. However the choice of proper materials for the skin and the stringers must be not underestimated since they play an important role as well. A fuselage structural concept has been developed to exploit the benefit of a metal laminate design concept in terms of high Fatigue and Damage Tolerance (F&DT) performances. The structure used laminated skin (0.8mm thick), bonded stringers, two different splicing solutions and selective reinforcements (glass prepreg embedded in the laminate) under the circumferential frames. To validate the design concept a curved panel was manufactured and tested under loading conditions representative of a single aisle fuselage: cyclic internal pressurization plus longitudinal loads. The geometry of the panel, design and loading conditions were tailored for the requirements of the upper front fuselage. The curved panel has been fatigue tested for 60 000 cycles before the introduction of artificial damages (cracks in longitudinal and circumferential directions). The crack growth of the artificial damages has been investigated for about 85 000 cycles. At the end a residual strength test has been performed with a “2 bay over broken frame” longitudinal crack. The reparability of this innovative concept has been taken into account during design and demonstrated with the use of an external riveted repair. The F&DT curved panel test has confirmed that a long fatigue life and high damage tolerance can be achieved with a hybrid metal laminate low weight configuration. The superior fatigue life from metal laminates and the high damage tolerance characteristics provided by integrated selective reinforcements are the key concepts that provided the excellent performances. The weight comparison between the innovative bonded concept and a conventional monolithic riveted design solution showed a significant potential weight saving but the weight advantages shall be traded off with the additional costs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivi: Valutare la modalità  più efficace per la riabilitazione funzionale del limbo libero di fibula "single strut", dopo ampie resezioni per patologia neoplastica maligna del cavo orale. Metodi: Da una casistica di 62 ricostruzioni microvascolari con limbo libero di fibula, 11 casi sono stati selezionati per essere riabilitati mediante protesi dentale a supporto implantare. 6 casi sono stati trattati senza ulteriori procedure chirurgiche ad eccezione dell'implantologia (gruppo 1), affrontando il deficit di verticalità  della fibula attraverso la protesi dentaria, mentre i restanti casi sono stati trattati con la distrazione osteogenetica (DO) della fibula prima della riabilitazione protesica (gruppo 2). Il deficit di verticalità  fibula/mandibola è stato misurato. I criteri di valutazione utilizzati includono la misurazione clinica e radiografica del livello osseo e dei tessuti molli peri-implantari, ed il livello di soddisfazione del paziente attraverso un questionario appositamente redatto. Risultati: Tutte le riabilitazioni protesiche sono costituite da protesi dentali avvitate su impianti. L'età  media è di 52 anni, il rapporto uomini/donne è di 6/5. Il numero medio di impianti inseriti nelle fibule è di 5. Il periodo massimo di follow-up dopo il carico masticatorio è stato di 30 mesi per il gruppo 1 e di 38.5 mesi (17-81) di media per il gruppo 2. Non abbiamo riportato complicazioni chirurgiche. Nessun impianto è stato rimosso dai pazienti del gruppo 1, la perdita media di osso peri-implantare registrata è stata di 1,5 mm. Nel gruppo 2 sono stati riportati un caso di tipping linguale del vettore di distrazione durante la fase di consolidazione e un caso di frattura della corticale basale in assenza di formazione di nuovo osso. L'incremento medio di osso in verticalità è stato di 13,6 mm (12-15). 4 impianti su 32 (12.5%) sono andati persi dopo il periodo di follow-up. Il riassorbimento medio peri-implantare, è stato di 2,5 mm. Conclusioni: Le soluzioni più utilizzate per superare il deficit di verticalità  del limbo libero di fibula consistono nell'allestimento del lembo libero di cresta iliaca, nel posizionare la fibula in posizione ideale da un punto di vista protesico a discapito del profilo osseo basale, l'utilizzo del lembo di fibula nella versione descritta come "double barrel", nella distrazione osteogenetica della fibula. La nostra esperienza concerne il lembo libero di fibula che nella patologia neoplastica maligna utilizziamo nella versione "single strut", per mantenere disponibili tutte le potenzialità  di lunghezza del peduncolo vascolare, senza necessità  di innesti di vena. Entrambe le soluzioni, la protesi dentale ortopedica e la distrazione osteogenetica seguita da protesi, entrambe avvitate su impianti, costituiscono soluzioni soddisfacenti per la riabilitazione funzionale della fibula al di là  del suo deficit di verticalità . La prima soluzione ha preso spunto dall'osservazione dei buoni risultati della protesi dentale su impianti corti, avendo un paragonabile rapporto corona/radice, la DO applicata alla fibula, sebbene sia risultata una metodica con un numero di complicazioni più elevato ed un maggior livello di riassorbimento di osso peri-implantare, costituisce in ogni caso una valida opzione riabilitativa, specialmente in caso di notevole discrepanza mandibulo/fibulare. Decisiva è la scelta del percorso terapeutico dopo una accurata valutazione di ogni singolo caso. Vengono illustrati i criteri di selezione provenienti dalla nostra esperienza.