480 resultados para Semantica operazionale strutturale sintassi
Resumo:
La capacità di estrarre entità da testi, collegarle tra loro ed eliminare possibili ambiguità tra di esse è uno degli obiettivi del Web Semantico. Chiamato anche Web 3.0, esso presenta numerose innovazioni volte ad arricchire il Web con dati strutturati comprensibili sia dagli umani che dai calcolatori. Nel reperimento di questi temini e nella definizione delle entities è di fondamentale importanza la loro univocità. Il nostro orizzonte di lavoro è quello delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. L’insieme di informazioni di partenza, per sua natura, vede la presenza di ambiguità. Attenendoci il più possibile alla sua semantica, abbiamo studiato questi dati ed abbiamo risolto le collisioni presenti sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità e le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati, rappresentati tramite un data cluster. In questo docu delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. Partendo da un insieme di informazioni che, per sua natura, vede la presenza di ambiguità, lo abbiamo studiato attenendoci il più possibile alla sua semantica, ed abbiamo risolto le collisioni che accadevano sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità, le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati tramite la costruzione di un data cluster.
Resumo:
Nel presente lavoro di tesi ho sviluppato un metodo di analisi di dati di DW-MRI (Diffusion-Weighted Magnetic Resonance Imaging)cerebrale, tramite un algoritmo di trattografia, per la ricostruzione del tratto corticospinale, in un campione di 25 volontari sani. Il diffusion tensor imaging (DTI) sfrutta la capacità del tensore di diffusione D di misurare il processo di diffusione dell’acqua, per stimare quantitativamente l’anisotropia dei tessuti. In particolare, nella sostanza bianca cerebrale la diffusione delle molecole di acqua è direzionata preferenzialmente lungo le fibre, mentre è ostacolata perpendicolarmente ad esse. La trattografia utilizza le informazioni ottenute tramite il DW imaging per fornire una misura della connettività strutturale fra diverse regioni del cervello. Nel lavoro si è concentrata l’attenzione sul fascio corticospinale, che è coinvolto nella motricità volontaria, trasmettendo gli impulsi dalla corteccia motoria ai motoneuroni del midollo spinale. Il lavoro si è articolato in 3 fasi. Nella prima ho sviluppato il pre-processing di immagini DW acquisite con un gradiente di diffusione sia 25 che a 64 direzioni in ognuno dei 25 volontari sani. Si è messo a punto un metodo originale ed innovativo, basato su “Regions of Interest” (ROIs), ottenute attraverso la segmentazione automatizzata della sostanza grigia e ROIs definite manualmente su un template comune a tutti i soggetti in esame. Per ricostruire il fascio si è usato un algoritmo di trattografia probabilistica che stima la direzione più probabile delle fibre e, con un numero elevato di direzioni del gradiente, riesce ad individuare, se presente, più di una direzione dominante (seconda fibra). Nella seconda parte del lavoro, ciascun fascio è stato suddiviso in 100 segmenti (percentili). Sono stati stimati anisotropia frazionaria (FA), diffusività media, probabilità di connettività, volume del fascio e della seconda fibra con un’analisi quantitativa “along-tract”, per ottenere un confronto accurato dei rispettivi percentili dei fasci nei diversi soggetti. Nella terza parte dello studio è stato fatto il confronto dei dati ottenuti a 25 e 64 direzioni del gradiente ed il confronto del fascio fra entrambi i lati. Dall’analisi statistica dei dati inter-subject e intra-subject è emersa un’elevata variabilità tra soggetti, dimostrando l’importanza di parametrizzare il tratto. I risultati ottenuti confermano che il metodo di analisi trattografica del fascio cortico-spinale messo a punto è risultato affidabile e riproducibile. Inoltre, è risultato che un’acquisizione con 25 direzioni di DTI, meglio tollerata dal paziente per la minore durata dello scan, assicura risultati attendibili. La principale applicazione clinica riguarda patologie neurodegenerative con sintomi motori sia acquisite, quali sindromi parkinsoniane sia su base genetica o la valutazione di masse endocraniche, per la definizione del grado di contiguità del fascio. Infine, sono state poste le basi per la standardizzazione dell’analisi quantitativa di altri fasci di interesse in ambito clinico o di studi di ricerca fisiopatogenetica.
Resumo:
La tesi si propone di investigare, mediante un approccio puramente quantitativo, il contenuto informativo e la morfologia della lingua del manoscritto di Voynich (VMS), noto per essere redatto in un alfabeto sconosciuto e tuttora non decodificato. Per prima cosa, a partire dal concetto di entropia, sviluppato nel contesto della teoria della informazione, si costruisce una misura del contenuto informativo di un testo (misura di Montemurro-Zanette); quindi, si presentano diversi esperimenti in cui viene misurata l'informazione di testi sottoposti a trasformazioni linguistiche di vario genere(lemmatizzazione, traduzione, eccetera). In particolare, l'applicazione al VMS di questa misura unita ad altre tecniche, ci permette di indagare la struttura tematica del manoscritto e le relazioni tra i suoi contenuti, verificando che esiste una continuità semantica tra pagine consecutive appartenenti a una stessa sezione. La grande quantità di hapax nel manoscritto ci porta poi a considerazioni di tipo morfologico: suggerisce infatti che la lingua del manoscritto sia particolarmente flessiva. La ricerca, in particolare, di sequenze di hapax consecutivi, ci porta a identificare -verosimilmente- alcuni nomi propri. Proprio per approfondire la morfologia della lingua si costruisce infine un grafo linguistico basato sostanzialmente sulla distanza di Hamming; confrontando la topologia di questi grafi per alcune lingue e per la lingua del VMS si osserva che quest'ultimo si distingue per maggiore densità e connessione. Traendo le conclusioni, i forti indizi a favore della presenza di un contenuto informativo nel testo confermano l'ipotesi che questo sia scritto in una vera lingua. Tuttavia, data la notevole semplicità delle regole di costruzione morfologiche, a nostro parere non sembra assimilabile ad una lingua naturale conosciuta, ma piuttosto ad una artificiale, creata appositamente per questo testo.
Resumo:
Il presente lavoro ha come obiettivo la descrizione dello studio del degassamento diffuso di CO2 (acquisizione dei dati e loro trattazione) effettuato nell'area vulcanica dei Campi Flegrei (NA), nello specifico nell'area della Solfatara di Pozzuoli. Questo infatti rappresenta attualmente il punto di massimo rilascio di fluidi ed energia dell'intero Distretto Vulcanico Flegreo attraverso attività quali fumarole e degassamento diffuso dal suolo, nonché deformazioni del terreno (bradisismo). Tramite l'acquisizione dei valori di flusso diffuso e delle temperature dei primi 10 cm di suolo, attraverso una trattazione dei dati statistica e geostatistica, è stato possibile distinguere e caratterizzare le sorgenti di CO2 (biologica o vulcanica), la realizzazione di sviluppo di mappe di probabilità e di flusso medio e la quantificazione dell'output totale giornaliero di CO2. Il lavoro è stato suddiviso in due fasi principali: 1. La prima fase ha riguardato l'acquisizione dei dati sul campo nei giorni 19 e 20 marzo 2015, tramite l'utilizzo di una camera d'accumulo ed un termometro munito di sonda, in 434 punti all'interno del cratere della Solfatara e nelle aree circostanti. 2. Nella seconda fase sono stati elaborati i dati, utilizzando il metodo statistico GSA (Graphical Statistic Approach) ed il metodo geostatistico della simulazione sequenziale Gaussiana (sGs). Tramite il GSA è stato possibile ripartire i dati in popolazioni e definire una media (con relativa varianza) per ognuna di esse. Con la sGs è stato possibile trattare i dati, considerando la loro distribuzione spaziale, per simulare valori per le aree prive di misurazioni; ciò ha permesso di generare delle mappe che mostrassero l'andamento dei flussi e la geometria della struttura del degassamento diffuso (Diffuse Degassing Structure, DDS; Chiodini et al., 2001). Infine i dati ottenuti sono stati confrontati con i risultati di precedenti studi e si è messo in relazione la geometria e l'intensità di degassamento con la geologia strutturale dell'area flegrea indagata.
Resumo:
Zwetschge sucht Streusel è un romanzo rosa umoristico scritto da Petra Klotz e Susanne Schönfeld ambientato a Ulm, città del Baden-Württemberg. Il testo presenta numerosi elementi legati a questa particolare regione tedesca, come l'uso del dialetto svevo e riferimenti a canzoni, personaggi e leggende locali. Dopo una breve introduzione alle autrici, al testo e all'ambiente culturale nel quale si colloca, l'elaborato sviluppa un'analisi sulle strategie traduttive formulate da Reiß, sui concetti di Fremdes e Eigenes, sulla natura della Komik e il suo rapporto con la traduzione. Viene quindi proposta una traduzione di alcune pagine del romanzo, seguite da un commento al testo e alle strategie traduttive, che analizza lessico e sintassi, giochi di parole e culture-specific items incontrati.
Resumo:
In questo lavoro è presentato l'utilizzo della spettroscopia di assorbimento di raggi X applicata all'indagine inerente il numero e la natura degli atomi vicini di un centro metallico a due diversi stati di ossidazione [Cu(I) e Cu(II)] all'interno di complessi fosfinici e/o azotati. Gli spettri sono stati registrati nella loro completezza, comprendendo sia la soglia sia lo spettro esteso di assorbimento, e le transizioni elettroniche 1s→3d e 1s→4p sono state oggetto d'esame per avere indicazioni circa l'intorno locale del fotoassorbitore (l'atomo centrale). La tecnica più utilizzata, tuttavia, è stata l'analisi EXAFS (Extended X-ray Absorption Fine Structure) che ha permesso di determinare l’effettiva coordinazione di Cu(I) e (II) nel caso dei complessi studiati. Il metodo consiste nella costruzione di un segnale teorico più simile possibile a quello ottenuto sperimentalmente, e l’approccio per raggiungere questo obiettivo consiste nel seguire una procedura di fitting eseguita computazionalmente (tramite il pacchetto software GNXAS), per la quale è necessario un modello strutturale già esistente o creato ex novo da una molecola di partenza molto simile. Sarà presentato lo studio degli esperimenti ottenuti su campioni sia solidi che in soluzione: in questo modo è stato possibile effettuare un confronto tra le due forme dello stesso composto nonché si è potuto osservare i cambiamenti riguardanti l’interazione metallo-solvente a diverse concentrazioni. Come sarà mostrato in seguito, l’analisi sui solidi è risultata più affidabile rispetto a quella riferita alle soluzioni; infatti il basso rapporto segnale/rumore caratterizzante le misure di queste ultime ha limitato le informazioni ottenibili dai relativi spettri di assorbimento di raggi X.
Resumo:
I materiali compositi rivestono un ruolo fondamentale nell’industria aeronautica e nel settore delle competizioni automobilistiche. La possibilità di progettare i materiali in funzione della loro applicazione permette una crescente diffusione del loro utilizzo, e l’ampliamento delle applicazioni a moltissimi altri settori, sia per componenti di tipo strutturale, sia di tipo estetico. Nonostante la quantità di studi sul comportamento a fatica dei compositi, non sono ancora presenti risultati attendibili per la previsione della resistenza e della vita a fatica in relazione ad un determinato tipo di sollecitazione; non almeno a livello dei materiali tradizionali. L’obiettivo della tesi è indagare eventuali variazioni del comportamento a fatica di un laminato in CFRP in relazione al variare di parametri quali dimensioni e sequenza di impilamento delle ply. Per tale scopo sono state realizzate delle prove per il calcolo del comportamento a fatica, in particolare prove di flessione in 3 punti, e si sono poi confrontati tra loro i risultati sperimentali e correlati al variare dei parametri di interesse.
Resumo:
In questo lavoro di Tesi Magistrale si sono esaminate le problematiche relative agli impatti ambientali delle materie plastiche, tenendo in considerazione il loro ambito di applicazione. Per quanto riguarda le materie plastiche destinate al packaging alimentare si è visto che uno smaltimento tramite discarica, incenerimento o riciclo non può essere sostenibile sul lungo periodo. Una soluzione può essere lo sviluppo di un materiale che al termine del ciclo di vita possa essere biodegradato tramite compostaggio. Al fine di eliminare la dipendenza di questo materiale plastico dalle risorse fossili, esso deve poter essere ricavato da fonti rinnovabili. Il poli(butilene furanoato) è un buon candidato come materiale plastico per il packaging alimentare, ma possiede scarse caratteristiche di biodegradabilità. Si è quindi realizzato un sistema copolimerico in cui il poli(butilene furanoato) viene statisticamente copolimerizzato con il poli(butilene diglicolato), anche quest'ultimo interamente ottenibile da fonti rinnovabili. I materiali sintetizzati sono stati sottoposti a diversi tipi di analisi, al fine di determinarne le proprietà in funzione di una possibile applicazione nel packaging alimentare: analisi strutturale, caratterizzazione termica, studio delle proprietà meccaniche e di permeabilità a diversi tipi di gas e infine valutazione della compostabilità.
Resumo:
Lo scopo di questa tesi è quello di evidenziare, attraverso varie analisi statistiche ed applicazione di modelli stocastici, il comportamento strutturale e funzionale dei dinucleotidi che compongono le sequenze di DNA di diversi organismi. Gli organismi che abbiamo scelto di prendere in considerazione sono l'uomo, il topo e l'Escherichia coli. Questa scelta non è stata casuale, ma oculata, al fine di mettere in risalto alcune differenze tra organismi eucarioti, quali l'uomo e il topo, ed organismi procarioti come il batterio E.coli. Nella prima parte del nostro studio, abbiamo computato le distanze che intercorrono tra occorrenze successive dello stesso dinucleotide lungo la sequenza, usando un metodo di non sovrapposizione, ed abbiamo iterato il calcolo per tutti i 16 dinucleotidi. Dopodiché ci siamo preoccupati di graficare le distribuzioni di distanza dei 16 dinucleotidi per l'E.Coli, il topo e l'uomo; gli istogrammi evidenziano un comportamento anomalo della distribuzione di CG che accomuna gli organismi eucarioti e di cui, invece, è esente l'organismo procariote esaminato. Questo dato statistico trova una spiegazione nei processi biologici di metilazione che possono innescarsi sul dinucleotide CG nelle sequenze eucariotiche. In seguito, per determinare quanto ciascuna delle 16 distribuzioni si discosti dalle altre abbiamo usato la divergenza di Jensen-Shannon. Per quantificare le differenze sostanziali tra le distribuzioni di CG dei 3 organismi considerati abbiamo deciso di verificare quale fosse il miglior fit per tali curve tra un esponenziale ed una power-law. L'esponenziale rappresenta un buon fit per le code delle distribuzioni di CG del topo e dell'uomo; ciò rivela la presenza di una lunghezza caratteristica per entrambi gli organismi. Nella seconda parte dello studio, i risultati vengono confrontati con modelli markoviani: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi). Quest'ultima riproduce abbastanza fedelmente la sequenza biologica di partenza, per cui abbiamo scelto di utilizzare la catena Markov del 1° ordine per altre analisi statistiche riguardanti le distribuzioni dei nucleotidi, dinucleotidi, ed anche dei trinucleotidi con particolare interesse per quelli in cui è contenuto CG, in modo da verificare se l'anomalia si ripercuote anche in essi. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per confermare le peculiarità biologiche e per migliorare l'individuazione delle aree di interesse, come le isole CpG, ed eventualmente promotori e Lamina Associated Domains (LAD), nel genoma di diversi organismi.
Resumo:
I carboidrati, come il D-glucosio, sono i principali costituenti della biomasse e potrebbero rappresentare un’alternativa concreta alla chimica tradizionale del petrolio per la produzione dei building-blocks, utili quest’ultimi per lo sviluppo della filiera produttiva della chimica industriale. Dal D-glucosio è possibile ottenere epimeri importanti per la medicina o zuccheri largamente utilizzati in campo alimentare come il D-fruttosio tramite isomerizzazione strutturale del D-glucosio. Attualmente, la maggior parte dei metodi di sintesi di questa molecole prevedono l’utilizzo enzimi, o la catalisi omogenea con impiego di grandi quantità di basi e acidi minerali dannosi per l’ambiente. Lo scopo di questo lavoro è stato lo studio di innovativi catalizzatori eterogenei capaci operare in soluzione acquosa la conversione acido catalizzata del D-glucosio in prodotti di epimerizzazione e isomerizzazione strutturale. I catalizzatori dei nostri test sono stati caratterizzati tramite tecniche BET, ATR-IR, DRUv-Vis e XRD. Lo studio, quindi, è stato focalizzato sulle valutazioni delle prestazioni catalitiche di questi sistemi e sull’individuazione, tramite caratterizzazione strumentale, degli ioni costituenti questi solidi responsabili delle alte selettività nelle reazioni di riarrangiamento strutturale del D-glucosio. Gli studi condotti hanno portato alla conclusione che, grazie all’utilizzo di questi sistemi inorganici è possibile ottenere con alte selettività prodotti di riarrangiamento strutturale del D-glucosio, evitando al contempo la degradazione del substrato che in genere accompagna queste reazioni in condizioni di catalisi acida. Ulteriori studi riguardanti questi catalizzatori apriranno con buone probabilità la strada allo sviluppo di un nuovo processo industriale per la sintesi di questi zuccheri derivati, rendendo possibile una via produttiva sostenibile da un punto di vista economico che ambientale.
Resumo:
Il tema delle coperture in ambito archeologico è particolarmente presente nel dibattito architettonico attuale per le implicazioni che una tale struttura comporta nella relazione con un manufatto antico, nella lettura che ne può dare al pubblico e anche nello sviluppo di tecniche costruttive che consenta di coprire grandi luci interferendo il meno possibile con lo strato archeologico. I temi sviluppati in questa tesi di laurea partono dagli studi intrapresi durante il Laboratorio di Laurea “Archeologia e Progetto di Architettura” nell’anno accademico 2013-2014, che si è occupato delle analisi della città romana di Suasa, nel territorio marchigiano, con l’obiettivo di confrontarsi con le tematiche della musealizzazione e della progettazione in un ambito delicato come quello archeologico con tutte le sue particolarità. La tesi si occupa del progetto strutturale della copertura iniziato in gruppo con due miei colleghi, Thomas Fabbri e Sara Salvigni, la cui prima parte si è conclusa nel 2015 nella loro tesi di laurea intitolata Rileggere le tracce: valorizzazione e musealizzazione della città romana di Suasa.
Resumo:
Homeorhetic Assemblies indaga le potenzialità tettoniche ed architettoniche derivanti dallo studio dei sistemi biologici decentralizzati, dei loro comportamenti e delle relazioni dinamiche con la colonia in termini di processi adattativi e costruttivi continui nel tempo. La ragione di questo interesse è radicata nei principi dell’ecologia applicata al design ed alle tecnologie di fabbricazione contemporanee, che vanno al di là della mera imitazione formale: ci si è quindi chiesto come raggiungere una spazialità complessa ed articolata, omogeneità di prestazioni ed una struttura continua caratterizzata da molti elementi aventi le stesse caratteristiche di forma e materiale. L’ecologia è lo studio di un insieme di economie, ovvero rapporti di scambio, tra un organismo ed il suo ambiente e l’efficenza dei pattern distributivi che derivano da queste relazioni sono fondamentali al fine del successo evolutivo del sistema stesso. I sistemi su cui ci si è concentrati sono caratterizzati dalla capacità di creare strutture a buon mercato (con l’uso di istruzioni semplici ed un unico materiale) e ad elevato grado di complessità ed efficienza, armonizzando l’aspetto formale con l’organizzazione materica e fisiologica. Il modello di comportamento considerato riguarda le dinamiche alla base della creazione degli alveari naturali creati dalle api millifere. Queste caratteristiche sono state codificate nella programmazione di un sistema multi agente composto da agenti autonomi in grado di interagire in un ambiente eterogeneo e capaci di depositare selettivamente elementi in una struttura composta da springs e particles, periodicamente stabilizzata ed ottimizzata. In un tale sistema, a priori sono note solo le relazioni locali per i singoli agenti ed il comportamento strutturale generale, mentre gli oggetti e gli eventi emergono in maniera non predeterminata come risultato di queste interazioni nello spazio e nel tempo. I risultati appaiono estremamente complessi ed eterogenei nella loro organizzazione spaziale, pur emergendo un set di elementi identificabili nella loro specifica singolarità (come ad esempio superfici, colonne, capriate etc...) ma che generano strutture continue, e creano grande differenziazione di densità e di disposizione dei singoli elementi all’interno della struttura. La ridondanza strutturale ottenuta è una scelta deliberata e permessa dall’automatizzazione della fase di costruzione attraverso la programmazione di robot, tramite i quali si intende realizzare un prototipo fisico delle strutture ottenute.
Resumo:
La geometria frattale descrive la complessità strutturale di oggetti che presentano, entro certi limiti, invarianza a fattori di scala. Obiettivo di questa tesi è l’analisi di indici frattali della morfologia cerebrale e cerebellare da immagini di risonanza magnetica (MRI) pesate T1 e della loro correlazione con l’età. A tale scopo sono state analizzate la dimensione frattale (D0) e la lacunarità (λs), indice di eterogeneità strutturale, della sostanza grigia (GM) e bianca (WM), calcolate mediante algoritmi di box counting e di differential gliding box, implementati in linguaggio C++, e regressione lineare con scelta automatica delle scale spaziali. Gli algoritmi sono stati validati su fantocci 3D ed è stato proposto un metodo per compensare la dipendenza di λs dalle dimensioni dell’immagine e dalla frazione di immagine occupata. L’analisi frattale è stata applicata ad immagini T1 a 3T del dataset ICBM (International Consortium for Brain Mapping) composto da 86 soggetti (età 19-85 anni). D0 e λs sono state rispettivamente 2.35±0.02 (media±deviazione standard) e 0.41±0.05 per la GM corticale, 2.34±0.03 e 0.35±0.05 per la WM cerebrale, 2.19±0.05 e 0.17±0.02 per la GM cerebellare, 1.95±0.06 e 0.30±0.04 per la WM cerebellare. Il coefficiente di correlazione lineare tra età e D0 della GM corticale è r=−0.38 (p=0.003); tra età e λs, r=0.72 (p<0.001) (mostrando che l’eterogeneità strutturale aumenta con l’invecchiamento) e tra età e λs compensata rispetto al volume della GM cerebrale (GMV), r=0.51 (p<0.001), superiore in valore assoluto a quello tra età e GMV (r=−0.45, p<0.001). In un modello di regressione lineare multipla, dove l’età è stata modellata da D0, λ e GMV della GM corticale, λs è risultato l’unico predittore significativo (r parziale=0.62, p<0.001). La lacunarità λs è un indice sensibile alle variazioni strutturali dovute all’invecchiamento cerebrale e si candida come biomarcatore nella valutazione della complessità cerebrale nelle malattie neurodegenerative.
Resumo:
L'azienda IMA S.p.a., leader nel settore delle macchine automatiche per il packging, intende approfondire la conoscenza sui processi di manifattura additiva con l'obiettivo futuro di riuscire a realizzare il 5% di componenti che compongono le macchine della gamma dell'azienda mediante l'utilizzo di queste nuove tecnologie. Il raggiungimento di tale obiettivo comporta un radicale cambio di mentalità rispetto al passato e la creazione di nuove figure professionali e procedure di progettazione dei componenti totalmente nuove ed innovative. In questo contesto, vengono in aiuto i metodi numerici di ottimizzazione topologica. Noti carichi, vincoli, materiali e geometria d'ingombro del particolare, questi metodi vanno a determinare l'ottimale distribuzione del materiale per ottenere un incremento delle prestazioni del componente, andando a collocare il materiale solo in corrispondenza delle zone dove è strettamente necessario. L'ottimizzazione topologica strutturale, ottenimento della massima rigidezza specifica, è stato proprio l'argomento di questo elaborato. E' stato impiegato il software COMSOL Multiphysics 5.2 per implementare il problema di ottimizzazione. Inizialmente abbiamo affrontato problemi semplici, i cui risultati sono reperibili in letteratura. Dopo aver validato la correttezza della nostra implementazione, abbiamo infine esteso il problema a un caso di studio di un componente di una macchina IMA. Il caso di studio riguardava un componente che esegue l'estrazione della fustella piana dal magazzino in cui l'intero pacco fustelle viene riposto dall'operatore. I risultati ottenuti su questo componente sono stati positivi ottenendo un miglioramento della rigidezza specifica di quest'ultimo. L'obiettivo primario dell'elaborato è stato quello di realizzare una panoramica dei metodi di ottimizzazione topologica e riuscire ad applicare questi ad un caso concreto per valutare se tale tipo di progettazione potesse essere adeguato alle esigenze di IMA. L'obiettivo è stato largamente raggiunto.
Resumo:
Il presente elaborato ha lo scopo di descrivere le fasi di riparazione del trave di coda di un Cessna Super Skymaster 337A danneggiatosi durante le fasi di rimessaggio in hangar. Per prima cosa andremo ad analizzare le normative in materia di manutenzione degli aeromobili, in particolare la circolare 13 del RAI (Metodi accettabili per la manutenzione degli aeromobili) e la circolare 43.13-1A delle FAA (Acceptable methods, techniques, and practices-Aircraft ispection and repair). Verificheremo poi la tipologia del danno subito dal velivolo e, rifacendoci anche al Service Manual del costruttore, andremo a progettare la riparazione. Riparazioni estese a rivestimenti resistenti su strutture a guscio, infatti, devono preferibilmente essere fatte seguendo le specifiche raccomandazioni del costruttore dell’aeromobile. In molti casi, soprattutto se il danno non è esteso, le parti della riparazione possono essere progettate, e ne può essere dimostrata l’adeguata resistenza, senza calcolare i carichi e le sollecitazioni di progetto, considerando nel modo dovuto il materiale e le dimensioni delle parti originali e dei giunti chiodati. La cosa importante è che la parte riparata dovrà risultare pari all’originale per quanto riguarda la robustezza in relazione a tutti i tipi di carichi e alla rigidezza generale. Nel nostro caso andremo comunque a effettuare un’analisi strutturale per verificare l’effettiva correttezza dei principi contenuti nel manuale di manutenzione. Una volta verificato questo, procederemo con la realizzazione della riparazione soffermandoci sulle caratteristiche dei materiali utilizzati e sulle metodologie utilizzate durante la lavorazione. A lavoro ultimato trarremo poi le dovute conclusioni.