582 resultados para retorinen metodi


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di illustrare gli standard IEEE 802.22 WRAN e IEEE 802.16e Mobile WiMAX. Di questi standard verranno analizzate le caratteristiche principali, i metodi di funzoinamento ed alcuni protocolli. Nel primo capitolo viene fatta una breve spiegazione delle tecnologie wireless con un focus sullo spettro radio, sulle tecniche di modulazione dell’onda radio, sugli scenari operativi LOS, nLOS ed NLOS, sulle tecniche di duplexing e le tecniche di accesos multiplo, inoltre vengono brevente illustrate alcune delle problematiche che affliggono le trasmissioni senza fili ed infine vengono illustrate i quattro più comuni livelli di QoS. Nel secondo capitolo viene illustrato lo standard IEEE 802.22 con un focus sullo stato dell’arte della tecnologia WRAN, come si è sviluppato lo standard e per quali motivi è stato redatto, lo spettro di frequeza utilizzato e come, il funzionamento delle Cognitive Radio, i dispositivi che caratterizzano le reti WRAN e la topologia di rete utilizzata. In seguito sono spiegati nello specifico i livelli fisico e MAC e le loro caratteristiche e metodi di funzionamento. Nel terzo capitolo vengono illustrate le caratteristiche dello standard IEEE 802.16e cercando di riprendere gli stessi punti toccati nel capitolo precedente con una caratterizzazione dello standard nei suoi particolari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato affronta le varie fasi progettuali relative alle opere di riqualifica delle infrastrutture di volo dell'aeroporto Marco Polo di venezia. Partendo da nozioni di carattere teorico, come i vari metodi di dimensionamento di una sovrastruttura aeroportuale, si è arrivati ad affrontare in modo pratico il calcolo di verifica delle pavimentazioni esistenti e quello di dimensionamento di due soluzioni progettuali ipotizzate. Infine è stato considerato anche l'aspetto ecosostenibile della progettazione, ipotizzando la possibilità di riutilizzare il materiale fresato dalla vecchia pavimentazione esistente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella maggior parte dei casi, i soggetti affetti da Disturbo dello Spettro Autistico hanno un deficit di comunicazione, sia esso verbale o non verbale. Nonostante, ad oggi, non esista una cura per questo disturbo, una diagnosi precoce entro il terzo anno di vita del soggetto e un programma educativo coerente con le necessità del paziente, permettono al bambino con autismo di raggiungere quantomeno le abilità comunicative di base. Recenti studi hanno dimostrato che l’utilizzo di Information and Communication Technology (ICT) nel trattamento di soggetti affetti da Disturbo dello Spettro Autistico può portare molti benefici, dato che, da un lato, computer, tablet e smartphone sono strumenti strutturati e prevedibili e, dall’altro, i sintetizzatori vocali, se presenti, sono privi di inflessioni verbali. A questo proposito, durante il mio tirocinio di tesi magistrale presso l’azienda “CSP – Innovazioni nelle ICT” di Torino, ho sviluppato un’applicazione per tablet Android che permette a psicologi, educatori, logopedisti, insegnanti e genitori di creare tabelle comunicative circostanziate alle esigenze del soggetto e che consente a quest’ultimo di utilizzare questo strumento come efficace mediatore sociale. Questo software si va a inserire in un progetto più ampio, denominato “tools4Autism”, nato dalla collaborazione tra il centro di ricerca di cui sopra, la “Fondazione ASPHI Onlus – ICT per migliorare la qualità di vita delle persone con disabilità” e il “Centro Autismo e Sindrome di Asperger” di Mondovì (CN). L’applicazione prevede principalmente due metodi di utilizzo: il primo, definito “modalità operatore”, è un editor che permette di creare tabelle composte da un numero variabile di immagini che possono essere pittogrammi, fotografie personali, disegni del bambino e possono essere accompagnate o meno da un testo. Una volta create le tabelle, l’operatore ha la possibilità di modificarle, eliminarle, variarne l’ordine, esportarle su altri dispositivi o importare tabelle precedentemente create. Il secondo metodo di utilizzo, definito “modalità utente”, permette al soggetto affetto da Disturbo Autistico di comunicare con altre persone sfruttando le tabelle create dall’operatore coerentemente con le sue necessità. Al tocco dell’immagine da parte del bambino, essa viene evidenziata tramite un contorno rosso e, se abilitato, il sintetizzatore vocale riproduce il testo associato a tale immagine. I principali fattori di innovazione dell’applicazione sono la gratuità, la semplicità di utilizzo, la rapidità nella creazione e nell’aggiornamento delle tabelle comunicative, la portabilità dello strumento e l’utilizzo della sintesi vocale. Il software sarà sperimentato presso il “Centro Autismo e Sindrome di Asperger”, centro di neuropsichiatria infantile specializzato nello studio del Disturbo Autistico. Tale sperimentazione si pone come obiettivo quello di verificare gli effettivi miglioramenti nella velocità e nella qualità di apprendimento delle fondamentali abilità comunicative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In alcuni paesi in via di sviluppo la forte crescita demografica ha favorito l’insinuarsi di un sistema consumistico, che comporta la generazione di ingenti quantitativi di rifiuti urbani. In tali paesi il problema è aggravato dalla progressiva urbanizzazione, con la conseguente necessità di smaltire i rifiuti solidi urbani nelle immediate vicinanze delle città dove vengono prodotti in gran quantità.Storicamente nei piani di gestione dei rifiuti si è sempre tenuta in considerazione la tutela della salute pubblica e dell’ambiente; negli ultimi anni è cresciuta l’attenzione verso l’utilizzo dei rifiuti come fonte di materie prime o di energia. Ai metodi di smaltimento tradizionali, rappresentati dalle discariche e dagli impianti di incenerimento, si sono progressivamente affiancate tecniche per la valorizzazione dei rifiuti: alcune di queste differenziano i rifiuti in base al materiale di cui sono costituiti per ottenere materie prime (raccolta differenziata), altre invece ricavano energia mediante opportuni trattamenti termici(termovalorizzazione). Se l’incenerimento dei rifiuti è nato con l’obiettivo di ridurne il volume e di distruggere le sostanze pericolose in essi presenti, la termovalorizzazione comprende un secondo obiettivo, che è quello di valorizzare il potere calorifico dei rifiuti, recuperando la potenza termica sviluppata durante la combustione e utilizzandola per produrre vapore, successivamente impiegato per produrre energia elettrica o come vettore termico per il teleriscaldamento. Il presente lavoro di tesi fa seguito ad un tirocinio svolto presso il termovalorizzatore costituito dal forno F3 per rifiuti speciali anche pericolosi della società Herambiente, ubicato in via Baiona a Ravenna. L’impianto utilizza un forno a tamburo rotante, scelto proprio per la sua versatilità nell’incenerire varie tipologie di rifiuti: solidi, liquidi organici e inorganici, fluidi fangosi. Negli ultimi anni si è delineato un aumento della richiesta di incenerimento di liquidi inorganici pericolosi, che sono prodotti di scarto di processi industriali derivanti dagli impianti del polo chimico ravennate. La presenza di un’elevata quantità di liquidi inorganici in ingresso al forno fa calare l’energia disponibile per la combustione e, di conseguenza, porta ad un consumo maggiore di combustibile ausiliario (metano). Si pone un problema di ottimo e cioè, a parità di potenza elettrica prodotta, occorre trovare la portata di rifiuti inorganici da inviare al forno che limiti la portata di metano in ingresso in modo da ottenere un utile netto positivo; ovviamente la soluzione ottimale è influenzata dal prezzo del metano e dalla remunerazione che il gestore riceve per lo smaltimento dei reflui inorganici. L’impostazione del problema di ottimo richiede la soluzione dei bilanci di materia e di energia per il termovalorizzatore. L’obiettivo del lavoro di tesi è stato l’impostazione in un foglio di calcolo dei bilanci di materia e di energia per il tamburo rotante e per la camera statica di post-combustione a valle del tamburo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La stima degli indici idrometrici in bacini non strumentati rappresenta un problema che la ricerca internazionale ha affrontato attraverso il cosiddetto PUB (Predictions on Ungauged Basins – IAHS, 2002-2013). Attraverso l’analisi di un’area di studio che comprende 61 bacini del Sud-Est americano, si descrivono e applicano due tecniche di stima molto diverse fra loro: il metodo regressivo ai Minimi Quadrati Generalizzati (GLS) e il Topological kriging (TK). Il primo considera una serie di fattori geomorfoclimatici relativi ai bacini oggetto di studio, e ne estrae i pesi per un modello di regressione lineare dei quantili; il secondo è un metodo di tipo geostatistico che considera il quantile come una variabile regionalizzata su supporto areale (l’area del bacino), tenendo conto della dislocazione geografica e l’eventuale struttura annidata dei bacini d’interesse. L’applicazione di questi due metodi ha riguardato una serie di quantili empirici associati ai tempi di ritorno di 10, 50, 100 e 500 anni, con lo scopo di valutare le prestazioni di un loro possibile accoppiamento, attraverso l’interpolazione via TK dei residui GLS in cross-validazione jack-knife e con differenti vicinaggi. La procedura risulta essere performante, con un indice di efficienza di Nash-Sutcliffe pari a 0,9 per tempi di ritorno bassi ma stazionario su 0,8 per gli altri valori, con un trend peggiorativo all’aumentare di TR e prestazioni pressoché invariate al variare del vicinaggio. L’applicazione ha mostrato che i risultati possono migliorare le prestazioni del metodo GLS ed essere paragonabili ai risultati del TK puro, confermando l’affidabilità del metodo geostatistico ad applicazioni idrologiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scelta di Venezia come ambito operativo rientra nella volontà di confrontarsi con il tema del riuso della preesistenza all'interno della città storica. Contemporaneamente ad una permanenza nella città lagunare, la ricerca si è sviluppata sia secondo il fronte teorico che secondo quello progettuale, aventi entrambi per scopo la ricerca di un possibile ambito operativo della storia all'interno del progetto contemporaneo di architettura. Convinti che i problemi dell'oggi siano soltanto riedizioni "moderne" di quelli relativi a secoli precedenti, l'esercizio interpretativo dell'ex unità conventuale di S.Maria della Misericordia a Venezia persegue l'obbiettivo di testare metodi alternativi rispetto agli atteggiamenti estremamente conservativi imperanti nella città storica. La Storia intesa quindi come eterna mutazione, fornisce la base per un metodo basato sulla reinterpretazione della vita all'interno di un luogo come atto progettuale, al fine di generare una nuova unità tra l'uomo contemporaneo ed il contesto stratificato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'esame clinico della palpazione manuale dei tessuti è ancora oggi l'indagine preliminare più diffusa per l'identificazione e la diagnosi delle lesioni superficiali. L'esame è infatti in grado di fornire al medico esaminatore una valutazione qualitativa circa le proprietà meccaniche dei tessuti indagati, in particolare per quanto concerne la rigidità. I limiti fondamentali e intrinseci della palpazione sono l'impossibilità di raggiungere i tessuti in profondità, limitando quindi l'analisi agli elementi anatomici superficiali, e la grandezza delle lesioni rilevabili. L'elastografia si inserisce in tale contesto come strumento diagnostico in grado di valutare le proprietà meccaniche dei tessuti in funzione della profondità, con una risoluzione spaziale non ottenibile attraverso la semplice palpazione. L'elastosonografia rappresenta la metodologia elastografica attualmente più diffusa, caratterizzata da numerose tecnologie specializzate nell'indagine di diversi elementi anatomici. Il vantaggio fondamentale dell'elastosonografia rispetto ad altre metodiche come l'elastografia a risonanza magnetica o l'elastografia tattile risiede nell'integrazione efficace con la tradizionale indagine ecografica. L'elaborato si pone l'obiettivo di descrivere e valutare le varianti implementative dell'elastosonografia e la loro efficacia come strumento diagnostico. La prima parte (parte I) riassume i concetti fondamentali alla base dell'indagine ecografica, fornendo le nozioni teoriche ed un contesto adeguato alla comprensione dell'elastosonografia. Entrambe le indagini sono infatti basate principalmente sull'emissione e ricezione di ultrasuoni. La parte centrale (parte II) dell'elaborato analizza le principali tecniche elastosonografiche attualmente esistenti. I metodi descritti, a prescindere dal principio di funzionamento specifico, sono accomunati dalla medesima dinamica fondamentale che comprende una eccitazione meccanica del tessuto e l'osservazione della relativa risposta, per fornire una misura qualitativa o quantitativa della rigidità del tessuto in esame. L'ultima parte (parte III) analizza alcuni casi applicativi di particolare rilevanza, soffermandosi sulla valutazione dal punto di vista statistico del contributo fornito dalla specifica tecnica elastosonografica rispetto alle indagini tradizionali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della tesi è studiare la logica dell'identità e delle descrizioni attraverso l'introduzione di metodi sempre più sofisticati che ci permettano di intraprendere attivamente questo studio, senza limitarci a recepire passivamente dei contenuti. L'approccio scelto è quello della deduzione naturale, in particolare il metodo delle derivazioni introdotto da Frederick Fitch.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato presenta un metodo per lo sviluppo di correlazioni lineari con lo scopo di determinare le proprietà meccaniche di un acciaio laminato e zincato utilizzando un sensore che percepisce la magnetizzazione residua del materiale. Vengono utilizzati metodi statistici di analisi della varianza per lo studio delle funzioni di regressione lineari. Lo studio effettuato è stato sviluppato per la lavorazione di zincatura di coils presso Marcegaglia spa, stabilimento di Ravenna. È risultato evidente che la sola misurazione della magnetizzazione residua non fosse sufficiente per la determinazione delle proprietà meccaniche, a tale proposito sono stati sviluppati dei modelli di calcolo con funzioni multivariabili e, attraverso risolutori che minimizzano la differenza quadratica dell'errore, si sono determinati i coefficienti di regressione. Una delle principali problematiche riscontrate per la definizione delle correlazioni è stato il reperimento dei dati necessari per considerare affidabili i risultati ottenuti. Si sono infatti analizzate solamente le famiglie di materiale più numerose. Sono stati sviluppati tre modelli di calcolo differenti per parametri di processo di produzione utilizzati per la definizione delle correlazioni. Sono stati confrontati gli errori percentuali medi commessi dalle funzioni, gli indici di regressione che indicano la qualità della correlazione e i valori di significatività di ogni singolo coefficiente di regressione delle variabili. Si è dimostrato che la magnetizzazione residua influisce notevolmente, così come i parametri dei processo di ricottura del materiale, come le temperature in forno, lo spessore e le velocità. Questo modello di calcolo è stato utilizzato direttamente in linea per lo sviluppo di un ciclo ottimale per la produzione di un nuovo materiale bifasico. Utilizzando il modello per la predizione delle proprietà meccaniche si è concluso che per limiti impiantistici la chimica del materiale utilizzata non fosse idonea. Si è perciò utilizzato un acciaio con percentuali di carbonio, manganese e cromo differenti. In conclusione del progetto si sono formulate delle possibili alternative di funzioni di regressione che utilizzano il valore della durezza piuttosto che il valore di magnetizzazione residua. Si è appurato che l'utilizzo di un durometro, anziché il sensore studiato, potrebbe risultare una valida alternativa al sensore studiato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sonnolenza durante la guida è un problema di notevole entità e rappresenta la causa di numerosi incidenti stradali. Rilevare i segnali che precedono la sonnolenza è molto importante in quanto, é possibile mettere in guardia i conducenti dei mezzi adottando misure correttive e prevenendo gli incidenti. Attualmente non esiste una metodica efficace in grado di misurare la sonnolenza in maniera affidabile, e che risulti di facile applicazione. La si potrebbe riconoscere da mutazioni di tipo comportamentale del soggetto come: presenza di sbadigli, chiusura degli occhi o movimenti di caduta della testa. I soggetti in stato di sonnolenza presentano dei deficit nelle loro capacità cognitive e psicomotorie. Lo stesso vale per i conducenti i quali, quando sono mentalmente affaticati non sono in grado di mantenere un elevato livello di attenzione. I tempi di reazione si allungano e la capacità decisionale si riduce. Ciò è associato a cambiamenti delle attività delta, theta e alfa di un tracciato EEG. Tramite lo studio dei segnali EEG è possibile ricavare informazioni utili sullo stato di veglia e sull'insorgenza del sonno. Come strumento di classificazione per elaborare e interpretare tali segnali, in questo studio di tesi sono state utilizzate le support vector machines(SVM). Le SVM rappresentano un insieme di metodi di apprendimento che permettono la classicazione di determinati pattern. Necessitano di un set di dati di training per creare un modello che viene testato su un diverso insieme di dati per valutarne le prestazioni. L'obiettivo è quello di classicare in modo corretto i dati di input. Una caratteristica delle SVM è una buona capacità di generalizzare indipendentemente dalla dimensione dello spazio di input. Questo le rende particolarmente adatte per l'analisi di dati biomedici come le registrazioni EEG multicanale caratterizzate da una certa ridondanza intrinseca dei dati. Nonostante sia abbastanza semplice distinguere lo stato di veglia dallo stato di sonno, i criteri per valutarne la transizione non sono ancora stati standardizzati. Sicuramente l'attività elettro-oculografica (EOG) riesce a dare informazioni utili riguardo l'insorgenza del sonno, in quanto essa è caratterizzata dalla presenza di movimenti oculari lenti rotatori (Slow Eye Movements, SEM) tipici della transizione dalla veglia alla sonno. L'attività SEM inizia prima dello stadio 1 del sonno, continua lungo tutta la durata dello stesso stadio 1, declinando progressivamente nei primi minuti dello stadio 2 del sonno fino a completa cessazione. In questo studio, per analizzare l'insorgere della sonnolenza nei conducenti di mezzi, sono state utilizzate registrazioni provenienti da un solo canale EEG e da due canali EOG. Utilizzare un solo canale EEG impedisce una definizione affidabile dell'ipnogramma da parte dei clinici. Quindi l'obiettivo che ci si propone, in primo luogo, è quello di realizzare un classificatore del sonno abbastanza affidabile, a partire da un solo canale EEG, al fine di verificare come si dispongono i SEM a cavallo dell'addormentamento. Quello che ci si aspetta è che effettivamente l'insorgere della sonnolenza sia caratterizzata da una massiccia presenza di SEM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato ha lo scopo di descrivere le principali caratteristiche e applicazioni delle biomembrane lipidiche artificiali utilizzate nel campo biochimico e biomedico. Nel Capitolo 1. viene presentata una panoramica generale della membrana cellulare, descrivendo la sua struttura a “mosaico fluido” e i principali componenti che la costituiscono, cioè i lipidi e le proteine transmembrana. Viene quindi descritto uno dei ruoli fondamentali della membrana cellulare, ovvero il trasporto di soluti all’interno e all’esterno della cellula. Vengono schematizzate le tipologie di trasporto, attivo e passivo, e la funzione dei canali ionici, un particolare tipo di proteina transmembrana che permette il passaggio selettivo di ioni dall'esterno all'interno della cellula o viceversa. Il Capitolo 2. si focalizza sui principali modelli di biomembrane lipidiche artificiali. Infatti, a seconda del tipo di metodo e di materiale utilizzato, è possibile ottenere dei prototipi che differiscono per caratteristiche e funzionalità. Verranno illustrate le membrane lipidiche nere (BLM), i doppi strati lipidici (bilayer) con supporto solido (SLB), i bilayer lipidici ibridi e i doppi strati con ammortizzatore polimerico. Per ognuna di queste biomembrane artificiali verranno analizzati i metodi di formazione e gli utilizzi in campo biomedico. Verranno poi descritti i metodi di incorporazione delle proteine nel doppio strato lipidico e le tecniche per stabilizzare il bilayer e realizzare una piattaforma sensoriale. Nel Capitolo 3 verranno presentate le principali applicazioni che utilizzano membrane artificiali, sia per lo studio dei principali processi cellulari di membrana e screening dei farmaci sia per la realizzazione di piattaforme sensorizzate. Infine nel Capitolo 4. si considereranno le innovazioni attese nel campo delle biomembrane artificiali anticipando le loro potenziali applicazioni future. Infatti, le prospettive in questo campo sono molto promettenti soprattutto per quel che riguarda lo screening di nuovi farmaci.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisi strutturale dell’ala di un UAV (velivolo senza pilota a bordo), sviluppata usando varie metodologie: misurazioni sperimentali statiche e dinamiche, e simulazioni numeriche con l’utilizzo di programmi agli elementi finiti. L’analisi statica è stata a sua volta portata avanti seguendo due differenti metodi: la classica e diretta determinazione degli spostamenti mediante l’utilizzo di un catetometro e un metodo visivo, basato sull’elaborazione di immagini e sviluppato appositamente a tale scopo in ambiente Matlab. Oltre a ciò è stata svolta anche una analisi FEM volta a valutare l’errore che si ottiene affrontando il problema con uno studio numerico. Su tale modello FEM è stata svolta anche una analisi di tipo dinamico con lo scopo di confrontare tali dati con i dati derivanti da un test dinamico sperimentale per ottenere informazioni utili per una seguente possibile analisi aeroelastica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il bisogno di creare dei metodi per l’identificazione delle performance e strumenti di diagnosi è sempre maggiore nelle turbomacchine. Le case costruttrici di motori, in generale, sono guidate dalle richieste del mercato e da normative sempre più severe, e ricercano quindi da un lato, sempre migliori prestazioni come ad esempio la diminuzione dei consumi e, dall’altro, l’abbattimento degli agenti inquinanti. In ambito industriale si ha l’esigenza di rendere più rapidi i tempi di progettazione e sviluppo dei motori per l’abbattimento dei costi di progettazione e per minimizzare il tempo di commercializzazione. Ecco perché entra in gioco, ed assume importanza, l’uso della simulazione numerica che fornisce informazioni utili sia in fase di verifica, che in fase di progetto di tutti i componenti del motore, anche quelli che sarebbero difficilmente accessibili per misure sperimentali. Al contempo i calcolatori moderni diventano facilmente e rapidamente sempre più potenti riducendo così i tempi di calcolo, e ciò ha consentito l’uso di tecniche numeriche che prima sarebbero risultate impensabili da utilizzare. Per mezzo dell’uso di codici di tipo bi o tri-dimensionale è possibile conoscere e valutare i valori delle grandezze termodinamiche del fluido che attraversa il motore punto per punto. Questi metodi presentano un elevata accuratezza ma hanno anche lo svantaggio di richiedere un elevato costo computazionale con conseguente aumento dei tempi di calcolo. In più hanno bisogno di molti dati di input per il modello matematico, e dipendono fortemente dalle condizioni iniziali e dalle condizioni al contorno. Nasce quindi l'esigenza di un ambiente di sviluppo che consenta una modellazione semplificata degli elementi costituenti il motore, ed un rapido interfacciamento con modelli locali più sofisticati. Inoltre, se si vogliono ottimizzare dei parametri relativi all’impianto globale oppure se si desidera avere un quadro generale delle prestazioni del motore è sufficiente usare modelli 0-D e 1-D per i vari componenti del motore. Sono stati svolti molti studi concentrati sullo sviluppo di strumenti capaci di supportare operazioni di pianificazione e/o per validare analisi di diagnosi.