640 resultados para Prestazioni dirigibilicaratteristiche dirigibilistoria dirigibili
Resumo:
Obiettivo di questo studio è fornire le prestazioni ambientali della lana riciclata e l’individuazione delle aree di miglioramento all'interno del ciclo di vita per poi verificare se gli impatti ambientali di questo prodotto, a parità di caratteristiche tecniche, siano inferiori rispetto al processo di realizzazione di lana vergine. è stata usata la metodologia PEF per lo studio LCA. Lo studio si è esteso anche ai filati di lana rigenerata.
Resumo:
Modellazione di un impianto fotovoltaico connesso alla rete. Simulazione con software Simulink del funzionamento dell'intero sistema fotovoltaico e confronto delle prestazioni legate all'utilizzo degli algoritmi MPPT più comuni, quali Hill Climbing e Incremental Conductance.
Resumo:
La galleria del vento "Wintaer" (WINd Tunnel itAER) è una piccola galleria subsonica con flusso incomprimibile utilizzata per scopi didattici, dotata di ventola assiale "Varofoil" a passo variabile per la regolazione della velocità del flusso. Lo scopo di questo elaborato è analizzare la qualità del flusso della galleria al fine di determinare le prestazioni del sistema ed alcune proprietà fondamentali, ovvero l'uniformità spaziale del flusso attraverso l'acquisizione di profili di velocità e l'intensità di turbolenza. Dalla conduzione delle prove sperimentali è emerso che la galleria permette il raggiungimento di un range di velocità compreso tra i 16 m/s e i 43 m/s, ha poca uniformità spaziale e presenta alti livelli di turbolenza. Per quanto riguarda il range di velocità si sono riscontrate problematiche relative all'impossibilità di raggiungere le basse velocità (fino a 7 m/s) a causa, molto probabilmente, di blocchi meccanici che limitano l'intervallo di angoli di calettamento (e quindi il passo) delle pale della ventola, ed è quindi necessario l'intervento della ditta per effettuare un'operazione di revisione della ventola. Relativamente ai profili di velocità, acquisiti con tubo di Pitot, e all'intensità di turbolenza, acquisita con anemometro a filo caldo, è emerso che i risultati sono stati disturbati da errori introdotti a causa dell'instabilità termica della galleria, ovvero un aumento progressivo di temperatura nell'impianto. Tale instabilità può essere risolta rimettendo in funzione l'unità di scambio di calore di cui la galleria è equipaggiata. L'attendibilità dei risultati ottenuti è quindi condizionata dall'instabilità termica, dunque, per una più preciso studio della qualità del flusso è necessario effettuare le prove sperimentali in condizioni di stabilità termica, la quale sarà essa stessa oggetto di analisi una volta rimesso in funzione il sistema di raffreddamento. Infine sono proposte soluzioni per il miglioramento della geometria dell'impianto, poco efficiente, in particolare per quanto riguarda i raddrizzatori di filetti fluidi (honeycombs) e il raccordo tra convergente e camera di prova, per il passaggio dalla sezione circolare del convergente a quella rettangolare della camera di prova. Si suggerisce lo spostamento di tale raccordo a monte della camera di calma, l'adozione di un convergente a sezione rettangolare e di una camera di calma a sezione rettangolare con honeycombs esagonali e l'aggiunta di reti per la diminuzione della turbolenza del flusso.
Resumo:
La gestione del traffico è una delle principali problematiche delle città moderne, e porta alla definizione di nuove sfide per quanto riguarda l’ottimizzazione del flusso veicolare. Il controllo semaforico è uno degli elementi fondamentali per ottimizzare la gestione del traffico. Attualmente la rilevazione del traffico viene effettuata tramite sensori, tra i quali vengono maggiormente utilizzate le spire magnetiche, la cui installazione e gestione implica costi elevati. In questo contesto, il progetto europeo COLOMBO si pone come obiettivo l’ideazione di nuovi sistemi di regolazione semaforica in grado di rilevare il traffico veicolare mediante sensori più economici da installare e mantenere, e capaci, sulla base di tali rilevazioni, di auto organizzarsi, traendo ispirazione dal campo dell’intelligenza artificiale noto come swarm intelligence. Alla base di questa auto organizzazione semaforica di COLOMBO vi sono due diversi livelli di politiche: macroscopico e microscopico. Nel primo caso le politiche macroscopiche, utilizzando il feromone come astrazione dell’attuale livello del traffico, scelgono la politica di gestione in base alla quantità di feromone presente nelle corsie di entrata e di uscita. Per quanto riguarda invece le politiche microscopiche, il loro compito è quello di deci- dere la durata dei periodi di rosso o verde modificando una sequenza di fasi, chiamata in COLOMBO catena. Le catene possono essere scelte dal sistema in base al valore corrente della soglia di desiderabilità e ad ogni catena corrisponde una soglia di desiderabilità. Lo scopo di questo elaborato è quello di suggerire metodi alternativi all’attuale conteggio di questa soglia di desiderabilità in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Ogni algoritmo complesso ha bisogno di essere ottimizzato per migliorarne le performance. Anche in questo caso, gli algoritmi proposti hanno subito un processo di parameter tuning per ottimizzarne le prestazioni in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Sulla base del lavoro di parameter tuning, infine, sono state eseguite delle simulazioni per valutare quale degli approcci suggeriti sia il migliore.
Resumo:
Tra le numerose tecnologie che impiegano l'energia solare per la produzione di elettricità una tra le più promettenti è quella degli impianti a Central Receiving System (CRS). Tale sistema consiste in un campo di specchi altamente riflettenti, detti eliostati, che concentrano la radiazione solare su una superficie assorbente posizionata in cima a una torre. La quantità di radiazione concentrabile da un sistema CRS, e quindi l'energia effettivamente prodotta, dipende in maniera cruciale dalla precisione del puntamento degli eliostati. I sistemi attualmente disponibili sono in grado di ottenere un'alta effcienza ma necessitano di componenti meccanici ad alto costo, che siano in grado di ottenere precisioni di puntamento molto elevate. Le molte sorgenti di errore presenti nel sistema possono però portare a un decremento significativo di tale efficienza. Alcuni di questi errori (tolleranze meccaniche dell'installazione, agenti atmosferici) possono essere compensati mediante opportuni sistemi di controllo ad anello chiuso. Il risultato è di aumentare il potere di concentrazione dell'impianto, riducendo al contempo i costi, vista la possibilità di utilizzo di componenti meccanici meno precisi. Questa tesi si propone di sviluppare un sistema di controllo a basso costo in retroazione per orientare nello spazio tridimensionale un eliostato. Tale sistema deve essere in grado di soddisfare le specifiche sulla precisione di puntamento fornite dalla modellistica degli impianti CRS. Sono illustrati i metodi per ottenere le quantità necessarie a determinare l'orientazione da misure statiche di accelerazione e campo magnetico.Sono stati esaminati i modelli teorici di accelerometri e magnetometri e le procedure, presenti nella letteratura, per una loro corretta calibrazione. Si sono quindi confrontate le prestazioni delle differenti calibrazioni in una misura con un sensore reale. Si è valutato l'impatto di vari tipi di filtraggio digitale nel diminuire l'incertezza di determinazione degli angoli caratteristici fino ai valori forniti dalle specifiche.
Resumo:
Il compressed sensing è un’innovativa tecnica per l’acquisizione dei dati, che mira all'estrazione del solo contenuto informativo intrinseco di un segnale. Ciò si traduce nella possibilità di acquisire informazione direttamente in forma compressa, riducendo la quantità di risorse richieste per tale operazione. In questa tesi è sviluppata un'architettura hardware per l'acquisizione di segnali analogici basata sul compressed sensing, specializzata al campionamento con consumo di potenza ridotto di segnali biomedicali a basse frequenze. Lo studio è svolto a livello di sistema mediante l'integrazione della modulazione richiesta dal compressed sensing in un convertitore analogico-digitale ad approssimazioni successive, modificandone la logica di controllo. Le prestazioni risultanti sono misurate tramite simulazioni numeriche e circuitali. Queste confermano la possibilità di ridurre la complessità hardware del sistema di acquisizione rispetto allo stato dell'arte, senza alterarne le prestazioni.
Resumo:
L’acustica delle aule scolastiche è uno dei fattori che influenzano principalmente la qualità ed il livello di apprendimento degli alunni. L'obiettivo della tesi è quello di dimostrare come si possono avere miglioramenti in termini di qualità acustica negli edifici scolastici con interventi mirati e dai costi ragionevoli. L’analisi è stata condotta su un edificio esistente che ospita una scuola media. Sono stati misurati in situ tutti gli aspetti acustici rilevanti e richiesti per legge: l’isolamento di facciata, il rumore di calpestio ed il tempo di riverberazione. Sono stati studiati anche altri parametri importanti, ma spesso trascurati o sconosciuti come Sti o Sti-PA, capaci di quantificare il grado di comprensione del parlato in ambienti chiusi. Lo studente, oltre ad aver contribuito allo svolgimento delle misurazioni, ha elaborato i dati e rilevato le criticità presenti nell’edificio scolastico. Attraverso l’uso di software di simulazione ha studiato gli interventi necessari per il ripristino e per il miglioramento dei requisiti acustici dei locali. Le soluzioni adottate sono un compromesso tra un buon livello di prestazioni acustiche ed i costi necessari per gli interventi proposti
Resumo:
L’agricoltura e la trasformazione dei prodotti agro-alimentari hanno un forte impatto sull’ambiente. Su questo aspetto converge l’attenzione sia delle politiche nazionali ed internazionali sia del singolo consumatore. E’ quindi sempre più necessario valutare questo impatto lungo tutta la filiera dei prodotti agro-alimentari per capire dove e come intervenire per aumentarne le prestazioni ambientali. La presente tesi, svolta in collaborazione con la società di ingegneria ambientale E&NGI srl, si propone quindi di analizzare, attraverso la metodologia di Life Cycle Assessment, gli impatti del ciclo di vita di grano e mais, prodotti, trasportati e trattati dalla cooperativa agricola Capa Cologna, in provincia di Ferrara. I cereali sono stati seguiti dalla produzione fino ai cancelli dell’azienda e i dati relativi a tutti i flussi uscenti ed entranti dal processo produttivo sono stati raccolti in campo o ottenuti dall’applicazione di modelli previsionali o, quando necessario, ricavati da banche dati esistenti. Questi flussi hanno costituito un inventario implementato nel software Gabi 6. Successivamente i flussi sono stati convertiti in impatti potenziali utilizzando due metodi (CML 2001 e USEtox) e selezionando sette categorie d’impatto potenziale: esaurimento delle risorse abiotiche, acidificazione, eutrofizzazione, effetto serra, assottigliamento della fascia di ozono stratosferico, smog fotochimico ed ecotossicità acquatica. Dall’analisi è emerso che per entrambi i cereali la fase del ciclo di vita maggiormente impattante è quella di coltivazione. Ciò è dovuto, soprattutto, alla produzione dei fertilizzanti chimici, dei fitofarmaci e alle loro emissioni in ambiente. Sui metodi per la stima di queste emissioni è stata svolta un’analisi di sensitività. Infine, non essendo ipotizzabile intervenire nella fase agricola, in quanto la cooperativa deve seguire un rigido disciplinare, si sono proposte azioni di miglioramento sull’impianto di Capa Cologna. In particolare, si è proposto uno scenario alternativo in cui l’impianto è alimentato ad energia solare fotovoltaica.
Analisi del cammino in acqua tramite sensori inerziali: Accuratezza strumentale e fasce di normalita
Resumo:
La biocinematica è una branca della biomeccanica che studia il movimento dei segmenti corporei senza considerare le cause che lo determinano. Le grandezze fisiche di interesse (posizione, velocità ed accelerazione) vengono determinate grazie ai sistemi di analisi del movimento che sfruttano principi fisici di funzionamento differenti con vari gradi di invasività. Lo sviluppo di nuove tecnologie di costruzione dei sensori inerziali, ha fornito una valida alternativa alle tecniche classiche per l’analisi del movimento umano. Gli IMUs (Inertial Measurement Units) sono facilmente indossabili, possono essere facilmente utilizzati fuori dal laboratorio, hanno un costo molto inferiore rispetto a quello dei sistemi opto-elettronici, non richiedono particolari abilità per essere utilizzati dall’utente e si configurano facilmente. In questa tesi verrà analizzato il cammino e costruite le bande di normalità sia in laboratorio che in acqua tramite i sensori inerziali. L’utilizzo in acqua delle tecniche classiche di analisi del movimento presenta dei problemi di accuratezza (legati ad esempio alla presenza delle bolle d’aria in acqua) che impediscono di effettuare un confronto tra i risultati ottenuti dai sensori e quelli ottenuti con un gold standard. Per questo motivo, è stato implementato un test per valutare l’accuratezza dei sensori e l’influenza dei disturbi magnetici sui magnetometri nelle stesse condizioni ambientali in cui si desidera registrare il cammino. Quest’analisi strumentale ha consentito anche di individuare, tra i diversi algoritmi di fusione utilizzati (algoritmo di fabbrica e algoritmo di Madgwick), quello da impiegare nell’analisi del suddetto task motorio per stimare in maniera più accurata l’orientamento dei sensori in acqua e in laboratorio. L'algoritmo di fabbrica viene escluso dal processo di sensor fusion poiché mostra un'accuratezza peggiore rispetto all'algoritmo di Madgwick. Dal momento che il protocollo implementato di analisi del cammino attraverso i sensori inerziali è già stato validato a secco e che le prestazioni dei sensori sono analoghe a secco e in acqua, il protocollo può essere utilizzato per la stima della cinematica degli arti inferiori nell'acqua. Le differenze riscontrate tra le curve del cammino sono da imputare sia alla diversa condizione ambientale che alla minore velocità di progressione che i soggetti manifestano in acqua. Infatti, la velocità media di progressione è 151.1 cm/s in laboratorio e 40.7 cm/s in acqua.
Resumo:
Tutti gli apparati elettronici richiedono un'alimentazione in tensione continua. Qualunque sia la fonte di energia elettrica, una batteria (in DC) o la rete di distribuzione (in AC), l’alimentatore ha il compito di regolare la tensione continua di uscita per consentire il corretto funzionamento del dispositivo alimentato. La stabilizzazione della tensione DC in uscita deve avvenire nonostante la presenza di ripple e di disturbi sulla alimentazione primaria, di ampie variazioni sulle correnti assorbite dal carico, di ampie escursioni di temperatura e deve essere garantita nel tempo, anche a fronte di sostituzione di alcuni componenti del circuito. In questa tesi si prenderanno in considerazione i regolatori lineari. Sebbene si tratti di circuiti che operano in condizioni di linearità e quindi, quasi per definizione, poco efficienti, in realtà il loro impiego diventa quasi obbligatorio per applicazioni in cui è richiesta una tensione di alimentazione poco rumorosa. Se utilizzati a valle di un alimentatore switching possono aumentare notevolmente la qualità della tensione di uscita operando con livelli di efficienza e di dissipazione del tutto accettabili e con minimo aumento di costo del sistema. Gli alimentatori lineari non sono dunque “superati” dai più recenti alimentatori switching ma sono, piuttosto, “alternativi” e, in molti alimentatori moderni, di complemento. Per questo motivo, anche di recente, sono stati sviluppati e trovano importanti quote di mercato innovative architetture di regolatori lineari dalle prestazioni molto migliorate e vi sono circuiti come il regolatore di John Linsley Hood che non possono non suscitare il più vivo interesse della comunità audiofila
Resumo:
L’analisi del cammino è uno strumento in grado di fornire importanti informazioni sul ciclo del passo; in particolare è fondamentale per migliorare le conoscenze biomeccaniche del cammino, sia normale che patologico, e su come questo viene eseguito dai singoli soggetti. I parametri spazio temporali del passo rappresentano alcuni degli indici più interessanti per caratterizzare il cammino ed il passo nelle sue diverse fasi. Essi permettono infatti il confronto e il riconoscimento di patologie e disturbi dell’andatura. Negli ultimi anni è notevolmente aumentato l’impiego di sensori inerziali (Inertial Measurement Unit, IMU), che comprendono accelerometri, giroscopi e magnetometri. Questi dispositivi, utilizzati singolarmente o insieme, possono essere posizionati direttamente sul corpo dei pazienti e sono in grado fornire, rispettivamente, il segnale di accelerazione, di velocità angolare e del campo magnetico terrestre. A partire da questi segnali, ottenuti direttamente dal sensore, si è quindi cercato di ricavare i parametri caratteristici dell’andatura, per valutare il cammino anche al di fuori dell’ambiente di laboratorio. Vista la loro promettente utilità e la potenziale vasta applicabilità nell’analisi del ciclo del cammino; negli ultimi anni un vasto settore della ricerca scientifica si è dedicata allo sviluppo di algoritmi e metodi per l’estrazione dei parametri spazio temporali a partire da dati misurati mediante sensori inerziali. Data la grande quantità di lavori pubblicati e di studi proposti è emersa la necessità di fare chiarezza, riassumendo e confrontando i metodi conosciuti, valutando le prestazioni degli algoritmi, l’accuratezza dei parametri ricavati, anche in base alla tipologia del sensore e al suo collocamento sull’individuo, e gli eventuali limiti. Lo scopo della presente tesi è quindi l’esecuzione di una revisione sistematica della letteratura riguardante la stima dei parametri spazio temporali mediante sensori inerziali. L’intento è di analizzare le varie tecniche di estrazione dei parametri spazio temporali a partire da dati misurati con sensori inerziali, utilizzate fino ad oggi ed indagate nella letteratura più recente; verrà utilizzato un approccio prettamente metodologico, tralasciando l’aspetto clinico dei risultati.
Resumo:
Valutazione della possibilità di realizzare un macchinario radiologico che presenti al suo interno schermature di protezione contro le radiazioni ionizzanti prive di piombo (lead-free), materiale tossico e nocivo per gli individui. A questo scopo la scelta è ricaduta su tecnopolimeri radiopachi, i quali presentano le stesse caratteristiche schermanti del piombo attualmente utilizzato. Su questi tecnopolimeri sono stati effettuati test di varia natura, per andare a valutare se le loro prestazioni risultassero soddisfacenti sia dal punto di vista della radiopacità che della durata nel lungo periodo (attraverso prove accelerate).
Resumo:
Negli ultimi anni si è assistito ad un notevole sviluppo e diffusione dei sistemi di produzione di energia rinnovabile, in particolar modo di sistemi eolici e fotovoltaici. La sempre maggior richiesta di energia e la necessità di far fronte ai problemi di inquinamento sempre più intenso, a causa dei combustibili fossili, ha portato ad una crescita nell’interesse ad adottare queste nuove tecnologie per il sostentamento energetico della popolazione. In seguito all’adozione di tali sistemi si è verificata un’intensificazione della ricerca e dello sviluppo tecnologico in tale ambito al fine di massimizzare la produzione dell’energia. Un ruolo chiave nella gestione dell’energia ed in particolar modo l’interfacciamento del sistema di produzione con il carico è svolto elettronica di potenza. L’obiettivo principale della ricerca in tale ambito consiste nella individuazione di nuove tecnologie che permettano un incremento dell’efficienza di conversione anche di soli pochi punti percentuale. L’attività di tesi, svolta presso il LEMAD (Laboratorio di Macchine e Azionamenti del Dipartimento DEI), è stata quindi focalizzata nella progettazione e in seguito realizzazione di un convertitore per applicazioni fotovoltaiche. L’interesse nei confronti delle nuovetecnologie ha portato ad una scelta innovativa per quanto riguarda la configurazione dell’inverter costituente il convertitore. Tale configurazione, che prende il nome di Full Bridge DC Bypass o più semplicemente ponte H6, ha permesso la realizzazione di un convertitore compatto poiché non necessitante di un trasformatore per garantire l’isolamento tra i moduli PV e la rete. Inoltre l’adozione di due switch aggiuntivi rispetto ad un comune ponte H ha garantito una notevole riduzione delle perdite dovute alla tensione di modo comune(CMV)con conseguente incremento dell’efficienza. La ricerca di nuove tecnologie non è stata concentrata solamente nello studio di nuove configurazioni di inverter ma anche nell’individuazione di innovativi dispositivi di potenza. In particolar modo il silicon carbide o SiC ha dimostrato in diverse occasioni di essere un materiale superiore al silicio nelle applicazioni di potenza. Sono stati quindi realizzati due convertitori utilizzanti due differenti dispositivi di potenza (MOSFET in SiC e IGBT in Si)in modo tale da determinare le diverse prestazioni. Un ulteriore studio è stato svolto sulle tecniche di modulazione al fine di valutarne le differenti caratteristiche ed individuare quella più conveniente nella conversione utilizzante il ponte H6.
Resumo:
La tesi tratta lo studio del sistema QNX e dello sviluppo di un simulatore di task hard/soft real-time, tramite uso di un meta-scheduler. Al termine dello sviluppo vengono valutate le prestazioni del sistema operativo QNX Neutrino.
Resumo:
Lo scopo di questo lavoro è la caratterizzazione fisica del flat panel PaxScan4030CB Varian, rivelatore di raggi X impiegato in un ampio spettro di applicazioni cliniche, dalla radiografia generale alla radiologia interventistica. Nell’ambito clinico, al fine di una diagnosi accurata, è necessario avere una buona qualità dell’immagine radiologica mantenendo il più basso livello di dose rilasciata al paziente. Elemento fondamentale per ottenere questo risultato è la scelta del rivelatore di radiazione X, che deve garantire prestazioni fisiche (contrasto, risoluzione spaziale e rumore) adeguati alla specifica procedura. Le metriche oggettive che misurano queste caratteristiche sono SNR (Signal-to-Noise Ratio), MTF (Modulation Transfer Function) ed NPS (Noise Power Spectrum), che insieme contribuiscono alla misura della DQE (Detective Quantum Efficiency), il parametro più completo e adatto a stabilire le performance di un sistema di imaging. L’oggettività di queste misure consente anche di mettere a confronto tra loro diversi sistemi di rivelazione. La misura di questi parametri deve essere effettuata seguendo precisi protocolli di fisica medica, che sono stati applicati al rivelatore PaxScan4030CB presente nel laboratorio del Centro di Coordinamento di Fisica Medica, Policlinico S.Orsola. I risultati ottenuti, conformi a quelli dichiarati dal costruttore, sono stati confrontati con successo con alcuni lavori presenti in letteratura e costituiscono la base necessaria per la verifica di procedure di ottimizzazione dell’immagine radiologica attraverso interventi sul processo di emissione dei raggi X e sul trattamento informatico dell’immagine (Digital Subtraction Angiography).