1000 resultados para Realtà aumentata metodologie di progetto settore aerospaziale
Resumo:
Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.
Resumo:
L’idea fondamentale da cui prende avvio la presente tesi di dottorato è che sia possibile parlare di una svolta nel modo di concettualizzare e implementare le politiche sociali, il cui fuoco diviene sempre più la costruzione di reti di partnership fra attori pubblici e privati, in cui una serie di soggetti sociali plurimi (stakeholders) attivano fra loro una riflessività relazionale. L’ipotesi generale della ricerca è che, dopo le politiche improntate a modelli statalisti e mercatisti, o un loro mix, nella politica sociale italiana emerga l’esigenza di una svolta riflessiva e relazionale, verso un modello societario, sussidiario e plurale, e che di fatto – specie a livello locale – stiano sorgendo molte iniziative in tal senso. Una delle idee più promettenti sembra essere la creazione di distretti sociali per far collaborare tra loro attori pubblici, privati e di Terzo settore al fine di creare forme innovative di servizi per la famiglia e la persona. La presente tesi si focalizza sul tentativo della Provincia di Trento di distrettualizzare le politiche per la famiglia. Tramite l’analisi del progetto “Trentino – Territorio Amico della Famiglia” e di una sua verticalizzazione, il Distretto Famiglia, si è studiato l’apporto delle partnership pubblico-privato nella formazione di strumenti innovativi di governance che possano determinare una svolta morfogenetica nell’elaborazione di politiche per la famiglia. Le conclusioni del lavoro, attraverso una comparazione tra esperienze territoriali, presentano la differenziazione delle partnership sociali, in base ad alcuni variabili (pluralità di attori, pluralità di risorse, shared project, capitale sociale, decision making, mutual action, logiche di lavoro relazionale, sussidiarietà). Le diverse modalità di gestione delle partnership (capacitante, professionale e generativa) sintetizzano i portati culturali, strutturali e personali coinvolti nelle singole costruzioni. Solo le partnership che interpretano il loro potenziale regolativo e promozionale secondo la riflessività relazionale tendono a generare beni comuni nel contesto sociale.
Resumo:
Scopo del nostro studio è quello di valutare i disturbi cognitivi in relazione al tasso di microembolia cerebrale in due gruppi di pazienti trattati per lesione carotidea asintomatica con endoarterectomia (CEA) o stenting (CAS). Comparando le due metodiche mediante l’utilizzo di risonanza magnetica in diffusione (DW-MRI), neuromarkers (NSE e S100β) e test neuropsicometrici. MATERIALE E METODI: 60 pazienti sono stati sottoposti a rivascolarizzazione carotidea (CEA n=32 e CAS n=28). Sono stati tutti valutati con DW-MRI e Mini-Mental State Examination (MMSE) test nel preoperatorio, a 24 ore, a 6 ed a 12 mesi dall’intervento. In tutti sono stati dosati i livelli sierici di NSE e S100β mediante 5 prelievi seriati nel tempo, quello basale nel preoperatorio, l’ultimo a 24 ore. L’ananlisi statistica è stata effettuata con test t di Student per confronti multipli per valori continui e con test χ2 quadro e Fisher per le variabili categoriche. Significatività P <0,05. RISULTATI: Non vi è stato alcun decesso. Un paziente del gruppo CAS ha presentato un ictus ischemico. In 6 pazienti CAS ed in 1 paziente CEA si sono osservate nuove lesioni subcliniche alla RMN-DWI post-operatoria (21,4% vs 3% p=0,03). Nel gruppo CAS le nuove lesioni presenti alla RMN sono risultate significativamente associate ad un declino del punteggio del MMSE (p=0,001). L’analisi dei livelli di NSE e S100β ha mostrato un significativo aumento a 24 ore nei pazienti CAS (P = .02). A 12 mesi i pazienti che avevano presentato nuove lesioni ischemiche nel post-operatorio hanno mostrato minor punteggio al MMSE, non statisticamente significativo. CONCLUSIONI: I neuromarkers in combinazione con MMSE e RMN-DWI possono essere utilizzati nella valutazione del declino cognitivo correlato a lesioni silenti nell’immediato postoperatorio di rivascolarizzazione carotidea. Quest’ultime dovrebbero essere valutate quindi non solo rispetto al tasso di mortalità e ictus, ma anche rispetto al tasso di microembolia.
Educazione sostenibile. Progetto di riqualificazione del complesso scolastico Ponte Pietra a Cesena.
Resumo:
Oggetto di questa tesi è la riqualificazione energetica del complesso scolastico, formato dalla scuola materna "i Girasoli" e dalla scuola elementare "il Gelso", localizzate a Ponte Pietra, frazione di Cesena. La strategia di intervento prevede l'assunzione degli obiettivi funzionali fissati dall‟Amministrazione, ma anche una riqualificazione urbana del sito in esame e una riqualificazione architettonica delle due scuole. Per definire gli obiettivi di progetto e quindi le strategie da adottare, è stata effettuata una analisi dell'area in cui si andava ad operare e soprattutto una analisi dei due edifici in oggetto. A scala urbana, analizzando le funzioni dell'area di intervento è emerso che il lotto all‟interno del quale è inserito il polo scolastico è centrale per la frazione, ospitando infatti i principali edifici pubblici. Dall‟ analisi sono emerse diverse criticità, tra cui la localizzazione su una strada ad alto scorrimento, si è perciò previsto di inserire una "zona 30" e di riqualificare i percorsi esistenti, per garantire la massima permeabilità e valorizzare la fruizione pedonale dell'area. Per quanto concerne le funzioni, il progetto ha proposto di recuperare un edificio di quest‟area e adibirlo a spazio ricreativo costituendo un polo attrattivo che aumenti la fruizione dell‟area in ogni ora della giornata e che sia anche punto di incontro per la comunità, sia per i più piccoli sia per gli anziani. A scala architettonica, gli due edifici presentano numerosi inconvenienti. Innanzi tutto la relazione con il contesto: l‟ingresso alle due scuole risulta infatti pericoloso perché localizzato sulla strada a scorrimento veloce, e inoltre scomodo perché servito da un insufficiente parcheggio. All‟interno degli edifici,la disposizione degli spazi non permette di sfruttare appieno le potenzialità delle due piccole scuole, inoltre alcuni ambienti risultano sottodimensionati rispetto alla normativa vigente. Il progetto prevede una ridistribuzione interna dei vari ambienti, anche per consentire agli edifici di soddisfare le mutate esigenze dell'utenza . Per quanto concerne gli obiettivi di contenimento dei consumi energetici dell‟edificio fissati dall'Amministrazione, il fabbisogno attuale è stato verificato tramite un software certificato. Quindi si è proceduto ipotizzando diversi step di progressivo miglioramento delle prestazioni energetiche, simulate tramite il software, fino a fare raggiungere agli edifici la Classe energetica A. Ciò ha richiesto di intervenire sia sull'involucro che sul sistema impiantistico esistente. La tesi ha valutato anche alcuni elementi del quadro economico e finanziario dell'intervento, determinando il tempo di ritorno degli investimenti necessari per la riqualificazione energetica, in relazione alla riduzione dei consumi futuri che essa è permette di conseguire.
Resumo:
La tesi qui presentata è stata svolta all’interno del Laboratorio di Sintesi Finale “Architettura sostenibile" e propone la riqualificazione di un edificio ACER, sito a Bologna in via Gandusio, un’area strategicamente centrale a ridosso del centro storico e al contempo inserita all’interno delle dinamiche urbane della prima periferia. Si tratta di un complesso di edilizia residenziale sociale e, perciò, è stato necessario elaborare preliminarmente una sorta di quadro conoscitivo per individuare le problematiche e le tendenze comuni sia a casistiche italiane che europee. Dopo un inquadramento generale sulla situazione dei modelli famigliari e dell’abitare; è stata effettuata una panoramica su alcuni interventi europei, dai quali si è cercato di attingere e elaborare soluzioni e metodologie di intervento innovative, prendendo in considerazione sia elementi di rigenerazione del tessuto urbano, sia soluzioni tecnologiche e costruttive applicate a casi specifici. La situazione dell’edilizia residenziale sociale, attualmente, vede una forte scarsità di alloggi, tale da non riuscire a soddisfare tutte le richieste della popolazione. Negli ultimi trenta anni, la quota di produzione di alloggi di edilizia sociale è progressivamente calata, contrariamente agli altri paesi europei, caratterizzati da un andamento costante. Al contempo, si è registrato l’aumento di persone in condizioni di disagio abitativo e sociale. Il progetto risponde alle eterogenee esigenze dei rinnovati modelli famigliari contemporanei, prevedendo opere di completamento funzionale e una diversificazione dell’offerta tipologica degli alloggi, unita all’integrazione di nuovi servizi per gli abitanti e alla rivalorizzazione dell’identità dell’edificio in quanto manufatto polarizzante. Il progetto adotta il metodo della riqualificazione sostenibile e delle tematiche ad essa inerenti, approfondite durante il percorso di lavoro svolto all’interno del Laboratorio di Sintesi Finale “Architettura Sostenibile”. Tutti gli interventi eseguiti sul manufatto sono stati incentrati sul tema della sostenibilità, per ridurre l’uso dei materiali e l’uso del territorio. Sono stati ridotti i deficit tecnologici e soprattutto energetici dell’involucro edilizio, combinando all’applicazione di soluzioni tecnologiche la riqualificazione dello spazio urbano e della funzionalità degli spazi dell’abitare. Questo lavoro si propone di confrontarsi con la condizione attuale dell’housing sociale, cercando di rispondere alle esigenze abitative contemporanee, riqualificando e ripensando gli spazi e migliorandone il comportamento strutturale in caso di evento sismico. Per evitare di trattarlo come un episodio sporadico, un’anomalia, l’intervento ha cercato di collocarsi all’interno del contesto urbano e del tessuto insediativo, dialogando con essi per fornire risposte a problematiche concrete e reali. Per questo si è deciso di intervenire anche sulle aree adiacenti, provando a fornire soluzioni alle dinamiche incompiute e alle esigenze sociali del quartiere.
Resumo:
Il presente studio si concentra sulle diverse applicazioni del telerilevamento termico in ambito urbano. Vengono inizialmente descritti la radiazione infrarossa e le sue interazioni con l’atmosfera terrestre, le leggi principali che regolano lo scambio di calore per irraggiamento, le caratteristiche dei sensori e le diverse applicazioni di termografia. Successivamente sono trattati nel dettaglio gli aspetti caratteristici della termografia da piattaforma satellitare, finalizzata principalmente alla valutazione del fenomeno dell'Urban Heat Island; vengono descritti i sensori disponibili, le metodologie di correzione per gli effetti atmosferici, per la stima dell'emissività delle superfici e per il calcolo della temperatura superficiale dei pixels. Viene quindi illustrata la sperimentazione effettuata sull'area di Bologna mediante immagini multispettrali ASTER: i risultati mostrano come sull'area urbana sia riscontrabile la presenza dell'Isola di Calore Urbano, anche se la sua quantificazione risulta complessa. Si procede quindi alla descrizione di potenzialità e limiti della termografia aerea, dei suoi diversi utilizzi, delle modalità operative di rilievo e degli algoritmi utilizzati per il calcolo della temperatura superficiale delle coperture edilizie. Tramite l’analisi di alcune esperienze precedenti vengono trattati l’influenza dell’atmosfera, la modellazione dei suoi effetti sulla radianza rilevata, i diversi metodi per la stima dell’emissività. Viene quindi introdotto il progetto europeo Energycity, finalizzato alla creazione di un sistema GeoWeb di supporto spaziale alle decisioni per la riduzione di consumi energetici e produzione di gas serra su sette città dell'Europa Centrale. Vengono illustrate le modalità di rilievo e le attività di processing dei datasets digitali per la creazione di mappe di temperatura superficiale da implementare nel sistema SDSS. Viene infine descritta la sperimentazione effettuata sulle immagini termiche acquisite nel febbraio 2010 sulla città di Treviso, trasformate in un mosaico georiferito di temperatura radiometrica tramite correzioni geometriche e radiometriche; a seguito della correzione per l’emissività quest’ultimo verrà trasformato in un mosaico di temperatura superficiale.
Resumo:
Introduzione L’efficacia dei chemio/radioterapici ha aumentato notevolmente l’aspettativa di vita delle pazienti oncologiche, tuttavia, questi trattamenti possono compromettere la funzionalità ovarica. La crioconservazione di tessuto ovarico, con il successivo reimpianto, ha lo scopo di preservare la fertilità delle pazienti a rischio di fallimento ovarico precoce. Scopo dello studio Definire la migliore procedura di crioconservazione e reimpianto in grado di ottenere la neovascolarizzazione del tessuto reimpiantato nel minor tempo possibile al fine di diminuire la perdita follicolare causata dall’ischemia durante la procedura. Materiali e metodi Per ciascuna paziente (3) le biopsie ovariche, sono state prelevate laparoscopicamente e crioconservate secondo il protocollo di congelamento lento/scongelamento rapido. Campioni di corticale ovarica sono stati processati per l’analisi istologica, ultrastrutturale, immuistochimica e confocale per valutare la preservazione morfologiaca del tessuto. Le fettine di corticale ovarica sono state scongelate e reimpiantate ortotopicamente (2), nelle ovaia e in due tasche peritoneali, o eterotopicamente (1), in due tasche create nel sottocute sovrapubico. Risultati Le analisi di microscopia hanno mostrato il mantenimento di una discreta morfologia dello stroma, e dei vasi criopreservati e un lieve ma non significativo danneggiamento dei follicoli scongelati. Tutte le pazienti hanno mostrato la ripresa della funzionalità endocrina rispettivamente dopo 2/4 mesi dal reimpianto. Il color-doppler, inoltre ha rivelato un significativo aumento della vascolarizzazione ovarica rispetto alla quasi totale assenza di vascolarizzazione prima del reimpianto, quando le pazienti mostravano una conclamata menopausa. Conclusioni Lo studio ha confermato la ripresa della vascolarizzazione dell’ovaio in seguito a reimpianto avascolare di fettine di corticale, senza l’impiego di fattori esogeni o meccanici aggiuntivi, in tempi concordanti con i dati della letteratura. I risultati sono incoraggianti e l’avanzare degli studi e della ricerca potranno contribuire allo sviluppo di nuove metodologie di reimpianto che possano avere un successo clinico ed una sicurezza superiori a quelle finora ottenute.
Resumo:
Il pomodoro è una delle colture principali del panorama agro-alimentare italiano e rappresenta un ingrediente base della tradizione culinaria nazionale. Il pomodoro lavorato dall’industria conserviera può essere trasformato in diverse tipologie merceologiche, che si differenziano in base alla tecniche di lavorazione impiegate ed alle caratteristiche del prodotto finito. la percentuale di spesa totale destinata all’acquisto di cibo fuori casa è in aumento a livello globale e l’interesse dell’industria alimentare nei confronti di questo canale di vendita è quindi crescente. Mentre sono numerose le indagine in letteratura che studiano i processi di acquisto dei consumatori finali, non ci sono evidenze di studi simili condotti sugli operatori del Food Service. Obiettivo principale della ricerca è quello di valutare le preferenze dei responsabili acquisti del settore Food Service per diverse tipologie di pomodoro trasformato, in relazione ad una gamma di attributi rilevanti del prodotto e di caratteristiche del cliente. La raccolta dei dati è avvenuta attraverso un esperimento di scelta ipotetico realizzato in Italia e alcuni mercati esteri. Dai risultati ottenuti dall’indagine emerge che i Pelati sono la categoria di pomodoro trasformato preferita dai responsabili degli acquisti del settore Food Service intervistati, con il 35% delle preferenze dichiarate nell'insieme dei contesti di scelta proposti, seguita dalla Polpa (25%), dalla Passata (20%) e dal Concentrato (15%). Dai risultati ottenuti dalla stima del modello econometrico Logit a parametri randomizzati è emerso che alcuni attributi qualitativi di fiducia (credence), spesso impiegati nelle strategie di differenziazione e posizionamento da parte dell’industria alimentare nel mercato Retail, possono rivestire un ruolo importante anche nell’influenzare le preferenze degli operatori del Food Service. Questo potrebbe quindi essere un interessante filone di ricerca da sviluppare nel futuro, possibilmente con l'impiego congiunto di metodologie di analisi basate su esperimenti di scelta ipotetici e non ipotetici.
Resumo:
Nel seguente elaborato verrà presentato il lavoro volto alla progettazione di una protesi di piede realizzata con materiale composito in fibra di carbonio riciclato. Per il suo conseguimento sono state prese in considerazione due scelte progettuali che permetteranno una futura realizzazione semplice ed economica. Una volta determinate le scelte progettuali, si sono generati dei semplici modelli di primo approccio, per i quali sono stati previsti modellazione CAD e simulazioni di opportuni modelli agli elementi finiti. Su quest’ultimi sono stati applicati i carichi e i vincoli secondo la norma UNI ISO 22675 e sono state eseguite diverse simulazioni al variare di alcuni parametri geometrici e del numero e orientamenti degli strati componenti le lamine. Dalle simulazioni sono stati ricavati i valori di tensione, ai quali è stato applicato il criterio di resistenza strutturale per i materiali compositi di Tsai – Hill. Dal confronto di tutti i risultati, si sono determinati i parametri di progetto ottimali per ognuna delle due varianti progettuali proposte. Sulla base dei risultati ottenuti sono stati realizzati nuovi modelli CAD più dettagliati, per i quali è stata condotta l’analisi FEM e la verifica del criterio strutturale come per i modelli di primo approccio. I modelli cosi definiti possono essere la base di partenza per la definizione del progetto costruttivo del prototipo di una o entrambe le varianti progettuali.
Resumo:
Uno dei problemi più diffusi, nell'ambito della logistica, è rappresentato dai costi di trasporto. La gestione dei flussi merci, l'approvvigionamento dei clienti, e la relativa pianifcazione della movimentazione dei veicoli, hanno incidenze notevoli sui costi di gestione aziendali, i quali vengono stimati mediamente nel 45% dei costi logistici. A ragione di questo, sono sempre di più le aziende che ricorrono all'impiego di uffici dedicati alla pianifcazione delle consegne e la gestione dei trasporti in generale. Sebbene le voci di bilancio relative al trasporto raggiungano cifre rilevanti, fno al 4% del fatturato annuo, il tema della pianifcazione viene spesso sottovalutato. Infatti la soluzione a problemi di pianifcazione e monitoraggio dei costi, è spesso demandata a procedure manuali senza supporto informatico. Nasce da qui l'esigenza di proporre uno strumento informatico che supporti gli addetti preposti alla pianifcazione, sviluppando un sistema che copra esigenze di pianifcazione dei viaggi, controllo e consuntivazione dei costi di trasporto, e monitoraggio dei mezzi in tempo reale. La proposta di Gesp srl, Geographic Information Systems, azienda italiana che opera da anni nel campo delle applicazioni software geo-spaziali, prende il nome di Nuovo Sistema Trasporti, o più semplicemente, NST. In quest'ambito prende corpo questa tesi, la quale si pone l'obiettivo di illustrare le fasi di nascita, analisi, progettazione e sviluppo di un software generico per il supporto alla logistica. Saranno così analizzati: le problematiche affrontate nella fase di defnizione, e kick-off (avvio), del progetto, il problema del routing, o Vehicle Routing Problem e le tecniche di Ricerca Operativa che vengono applicate per la sua risoluzione; le moderne metodologie di gestione e sviluppo di un software; l'architettura e le tecnologie impiegate per la distribuzione dell'applicativo.
Resumo:
Nel 2011, circa 5 milioni di persone usavano regolarmente applicativi mobi-le basati su qualche forma di realtà aumentata. Secondo alcune previsioni entro il 2020 servizi che sfruttano questa tecnologia avranno una base di utenti che rasenta un settimo della popolazione mondiale, rendendo di fatto la realtà aumentata l’ottavo mezzo di comunicazione di massa dopo la stampa, l’audio registrato, il cinema, la radio, la televisione, internet ed infine i servizi multimediali mobile. La tesi si propone di illustrare le caratteristiche di questa tecnologia distinguendo varie tecniche e strumenti a disposizione degli sviluppatori per costruire l’esperienza di augmented reality. Entrando nel merito dello sviluppo software si analizza una architettura di riferimento proposta per sistemi di realtà aumentata e pattern per lo sviluppo dei diversi componenti. Infine vengono confrontati gli SDK oggi più diffusi cercando di evidenziarne caratteristiche comuni e peculiarità.
Resumo:
Il bisogno di creare dei metodi per l’identificazione delle performance e strumenti di diagnosi è sempre maggiore nelle turbomacchine. Le case costruttrici di motori, in generale, sono guidate dalle richieste del mercato e da normative sempre più severe, e ricercano quindi da un lato, sempre migliori prestazioni come ad esempio la diminuzione dei consumi e, dall’altro, l’abbattimento degli agenti inquinanti. In ambito industriale si ha l’esigenza di rendere più rapidi i tempi di progettazione e sviluppo dei motori per l’abbattimento dei costi di progettazione e per minimizzare il tempo di commercializzazione. Ecco perché entra in gioco, ed assume importanza, l’uso della simulazione numerica che fornisce informazioni utili sia in fase di verifica, che in fase di progetto di tutti i componenti del motore, anche quelli che sarebbero difficilmente accessibili per misure sperimentali. Al contempo i calcolatori moderni diventano facilmente e rapidamente sempre più potenti riducendo così i tempi di calcolo, e ciò ha consentito l’uso di tecniche numeriche che prima sarebbero risultate impensabili da utilizzare. Per mezzo dell’uso di codici di tipo bi o tri-dimensionale è possibile conoscere e valutare i valori delle grandezze termodinamiche del fluido che attraversa il motore punto per punto. Questi metodi presentano un elevata accuratezza ma hanno anche lo svantaggio di richiedere un elevato costo computazionale con conseguente aumento dei tempi di calcolo. In più hanno bisogno di molti dati di input per il modello matematico, e dipendono fortemente dalle condizioni iniziali e dalle condizioni al contorno. Nasce quindi l'esigenza di un ambiente di sviluppo che consenta una modellazione semplificata degli elementi costituenti il motore, ed un rapido interfacciamento con modelli locali più sofisticati. Inoltre, se si vogliono ottimizzare dei parametri relativi all’impianto globale oppure se si desidera avere un quadro generale delle prestazioni del motore è sufficiente usare modelli 0-D e 1-D per i vari componenti del motore. Sono stati svolti molti studi concentrati sullo sviluppo di strumenti capaci di supportare operazioni di pianificazione e/o per validare analisi di diagnosi.
Resumo:
Nel presente lavoro di tesi, in seguito ad acquisizioni di dati effettuate nella sala prove del "Laboratorio di Macchine e Propulsione" della Scuola di Ingegneria e Architettura di Forlì sul turboshaft Allison 250 C18, in una prima fase sono state ricavate le mappe prestazionali dei singoli componenti del motore, elaborando i dati sperimentali in ambiente MatLab. Le acquisizioni sono state effettuate mediante l'utilizzo di sensori di pressione, temperatura e velocità installati in precedenza sul motore e opportunamente calibrati. In seguito alla realizzazione delle mappe prestazionali, si è passati all'allestimento completo di un modello dinamico in ambiente Simulink, del motore Allison 250 C18. Tale modello riproduce, in opportuni blocchi, ciascun componente facente parte della motorizzazione. Ogni blocco riceve in ingresso le caratteristiche fisiche di interesse del flusso (temperatura, pressione, calore specifico a pressione costante e gamma) provenienti dal blocco precedente tramite un "filo", le rielabora al suo interno risolvendo le equazioni tipiche di ciascun componente e interpolando le mappe di prestazione ricavate precedentemente in MatLab, e le invia come input al blocco successivo o in retroazione ai blocchi precedenti. In ogni blocco è stato realizzato un sistema di dinamica di pressione che, ad ogni istante, risolve un'equazione differenziale dipendente dalla differenza di portata a monte e a valle di un componente e dal volume di controllo, che restituisce il valore di pressione in uscita proporzionale alla variazione di portata stessa. Nel presente lavoro di tesi si è cercato di stabilizzare questo complesso sistema in una condizione di progetto, fissata a 30000 rpm del gruppo gas generator. Un sistema di controllo del numero di giri tramite variazione di portata di combustibile è stato realizzato al fine di poter, in futuro, far funzionare il modello anche fuori dalla condizione di progetto e riuscire a simulare l'andamento delle prove sperimentali reali.
Resumo:
La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.
Resumo:
Megalopoli Bogotà si è svelata una realtà articolata e complessa, ricca di contraddizioni che convivono in un'apparente armonia. Le difformità di situazioni legate alla città sono causa ed effetto di una sorta di dualismo urbano in cui ogni aspetto sembra trovare la sua ragione nella propria antitesi. La stessa contraddizione è stata letta nel tessuto urbano in cui il rigido schema a griglia, proprio delle fondazioni coloniali, si è mostrato irregolare a fronte di limiti topografici del territorio, di espansioni urbane incontrollate, e di realtà intrinseche proprie di isole urbane. Questo è stato il punto di partenza per la comprensione della realtà urbana, ed attraverso una ricerca che è, mano a mano, scesa di scala, si è tentato di interpretare e risolvere le criticità emerse. A partire da queste considerazioni si è configurato un metaprogetto con la volontà di ricucire la struttura urbana interrotta, attraverso un sistema di segni urbani, in cui l'identità della griglia è stata adottata come principio per la ricomposizione delle parti. Grazie al conoscimento della città è stato possibile identificare un'area di studio, nel punto di convergenza dei vari tessuti è emerso un settore che non ha saputo, o potuto, rispondere all'esigenza di riconnettere le diverse parti, sfuggendo così alla struttura urbana e presentandosi come elemento di negazione della griglia. Grazie allo svoglimento della tesi all'estero è stato possibile comprendere, tramite una ricerca svolta in archivio, come l'area si fosse configurata nel tempo, e tramite ripetuti sopraluoghi percepire peculiarità e criticità del luogo; infine, la presenza della Piazza di Mercato Paloquemao, elemento emblematico a livello sia urbano sia sociale, ha condotto la ricerca sino allo studio dello spazio pubblico nella città. Si è giunti, in questo percorso, alla progettazione di una nuova centralità per l'area, in supporto all'esistente Piazza di Mercato, con l'ambizione di poter risolvere le problematiche di un luogo costituito da convergenze urbane.