977 resultados para misfire, emissioni acustiche, microfono, diagnosi, controllo
Resumo:
The Schroeder's backward integration method is the most used method to extract the decay curve of an acoustic impulse response and to calculate the reverberation time from this curve. In the literature the limits and the possible improvements of this method are widely discussed. In this work a new method is proposed for the evaluation of the energy decay curve. The new method has been implemented in a Matlab toolbox. Its performance has been tested versus the most accredited literature method. The values of EDT and reverberation time extracted from the energy decay curves calculated with both methods have been compared in terms of the values themselves and in terms of their statistical representativeness. The main case study consists of nine Italian historical theatres in which acoustical measurements were performed. The comparison of the two extraction methods has also been applied to a critical case, i.e. the structural impulse responses of some building elements. The comparison underlines that both methods return a comparable value of the T30. Decreasing the range of evaluation, they reveal increasing differences; in particular, the main differences are in the first part of the decay, where the EDT is evaluated. This is a consequence of the fact that the new method returns a “locally" defined energy decay curve, whereas the Schroeder's method accumulates energy from the tail to the beginning of the impulse response. Another characteristic of the new method for the energy decay extraction curve is its independence on the background noise estimation. Finally, a statistical analysis is performed on the T30 and EDT values calculated from the impulse responses measurements in the Italian historical theatres. The aim of this evaluation is to know whether a subset of measurements could be considered representative for a complete characterization of these opera houses.
Resumo:
La recente Direttiva 31/2010 dell’Unione Europea impone agli stati membri di riorganizzare il quadro legislativo nazionale in materia di prestazione energetica degli edifici, affinchè tutte le nuove costruzioni presentino dal 1° gennaio 2021 un bilancio energetico tendente allo zero; termine peraltro anticipato al 1° gennaio 2019 per gli edifici pubblici. La concezione di edifici a energia “quasi” zero (nZEB) parte dal presupposto di un involucro energeticamente di standard passivo per arrivare a compensare, attraverso la produzione preferibilmente in sito di energia da fonti rinnovabili, gli esigui consumi richiesti su base annuale. In quest’ottica la riconsiderazione delle potenzialità dell’architettura solare individua degli strumenti concreti e delle valide metodologie per supportare la progettazione di involucri sempre più performanti che sfruttino pienamente una risorsa inesauribile, diffusa e alla portata di tutti come quella solare. Tutto ciò in considerazione anche della non più procrastinabile necessità di ridurre il carico energetico imputabile agli edifici, responsabili come noto di oltre il 40% dei consumi mondiali e del 24% delle emissioni di gas climalteranti. Secondo queste premesse la ricerca pone come centrale il tema dell’integrazione dei sistemi di guadagno termico, cosiddetti passivi, e di produzione energetica, cosiddetti attivi, da fonte solare nell’involucro architettonico. Il percorso sia analitico che operativo effettuato si è posto la finalità di fornire degli strumenti metodologici e pratici al progetto dell’architettura, bisognoso di un nuovo approccio integrato mirato al raggiungimento degli obiettivi di risparmio energetico. Attraverso una ricognizione generale del concetto di architettura solare e dei presupposti teorici e terminologici che stanno alla base della stessa, la ricerca ha prefigurato tre tipologie di esito finale: una codificazione delle morfologie ricorrenti nelle realizzazioni solari, un’analisi comparata del rendimento solare nelle principali aggregazioni tipologiche edilizie e una parte importante di verifica progettuale dove sono stati applicati gli assunti delle categorie precedenti
Resumo:
La Sindrome da Asfissia Perinatale (PAS) è una delle più comuni patologie che colpiscono il puledro neonato nelle prime 72 h di vita. È una patologia difficile da diagnosticare in quanto non esistono parametri o segni clinici specifici, la sintomatologia è molto variabile in base alla durata e all’intensità dell’insulto ipossico ischemico e al tipo di organo maggiormente colpito. Lo scopo di questo studio è la ricerca e la valutazione di alcuni parametri biochimico-clinici e di alcuni biomarkers per la diagnosi precoce e il corretto trattamento dei puledri affetti da PAS. Nei puledri neonati che presentano questa patologia è stata riscontrata un’ipermagnesiemia al momento del ricovero associata a prognosi infausta, probabilmente causata da un grave danno cellulare con rilascio in circolo del magnesio intracellulare. La PAS potrebbe essere un’ulteriore causa di Euthyroid Sick Syndrome, in quanto abbiamo riscontrato una diminuzione delle concentrazioni di T3 e T4 nei puledri malati rispetto ai sani della stessa età, come avviene in altre malattie sistemiche. Lo studio del profilo proteomico ha permesso di separare le più importanti frazioni proteiche del liquido amniotico di cavalla, mettendo in evidenza similitudini e differenze qualitative e quantitative nei ferogrammi dei puledri sani e di quelli affetti da PAS ed una maggiore variabilità è stata riscontrata nei profili dei liquidi amniotici dei puledri malati. Il glutatione è risultato poco espresso nel puledro neonato, i puledri sani presentano concentrazioni più basse sia rispetto ai malati della stessa età sia agli adulti ma con una tendenza all’aumento nelle prime 24 ore di vita per i sani ed un calo nei malati. La somministrazione della terapia antiradicalica non influisce sulle concentrazioni di glutatione totale ed i puledri deceduti presentano concentrazioni più alte.
Resumo:
The object of this work has been the analysis of natural processes controlling the geological evolution of the Montenegro and Northern Albania Continental Margin (MACM) during the Late Quaternary. These include the modern sediment dispersal system and oceanographic regime, the building and shaping of the shelf margin at the scale of 100 kyr and relative to the most recent transition between glacial and interglacial periods. The analysis of the new data shows that the MACM is a shelf-slope system formed by a suite of physiographic elements, including: an inner and an outer continental shelf, separated by two tectonically-controlled morphological highs; a lobated drowned mid-shelf paleodelta, formed during the last sea level fall and low stand; an upper continental slope, affected by gravity-driven instability and a system of extensional faults with surficial displacement, featuring an orientation coherent with the regional tectonics. The stratigraphic study of the MACM shows a clear correspondence between the Late Pleistocene/Holocene mud-wedge and the low reflectivity sectors of the inner shelf. Conversely, most of the outer shelf and part of the continental slope expose deposits from the last sea level low stand, featuring a general sediment starving condition or the presence of a thin postglacial sediments cover. The MACM shows uplift in correspondence of the Kotor and Bar ridges, and subsidence in the outer shelf and upper slope sectors. In fact, seaward of these tectonic ridges, the sparker seismic profile show the presence of four well-defined seismo-stratigraphic sequences, interpreted as forced regression deposits, formed during the last four main glacial phases. In this way, the MACM records the 100 kyr scale sea level fluctuations on its seismo-stratigraphic architecture over the last 350 kyr. Over such time range, through the identification of the paleoshoreline deposits, we estimated an average subsidence rate of about 1.2 mm/yr.
Resumo:
Studio prospettico su 75 pazienti con malattia paranale di Crohn che ha come obiettivo quello di confrontare i risultati tra le nuove terapie medico-chirurgiche emergenti. La prima procedura è comune a tutti i pazienti e consiste in un intervento di incisione degli ascessi, fistulectomia e posizionamento di setoni di drenaggio nei tramiti fistolosi per il controllo della sepsi.Successivamente i pazienti vengono divisi in cinque gruppi e sottoposti ai trattamenti per la chiusura dei tramiti fistolosi: terapia sistemica con Infliximab,terapia sistemica con Adalimumab,confezionamento di Flap endoanale, instillazione di colla di fibrina o posizionamento di protesi biologiche. Abbiamo osservato una chiusura completa dei tramiti fistolosi nel 60% dei pazienti trattati con Infliximab, 53% di quelli trattati con Adalimumab, 40% di quelli in terapia con colla di fibrina, 80% di quelli sottoposti a Flap endoanale e 60% di quelli trattati con protesi biologiche. Gli ottimi risultati raggiunti in con le diverse metodiche di trattamento chirurgico locale rappresentano una valida alternativa alla terapia con farmaci biologici. Tali nuove metodiche risultano anzi fondamentali per il trattamento di quei pazienti che dopo una terapia con farmaci biologici non hanno raggiunto una completa risoluzione del quadro (rescue therapy). Terapia biologica e nuove tecniche chirurgiche risultano pertanto complementari, la prima contribuendo al miglioramento della qualità della mucosa del canale anale e del retto basso sulla quale risulta quindi più agevole agire con le seconde con una percentuale di successo sempre maggiore.
Resumo:
Uno dei problemi più diffusi, nell'ambito della logistica, è rappresentato dai costi di trasporto. La gestione dei flussi merci, l'approvvigionamento dei clienti, e la relativa pianifcazione della movimentazione dei veicoli, hanno incidenze notevoli sui costi di gestione aziendali, i quali vengono stimati mediamente nel 45% dei costi logistici. A ragione di questo, sono sempre di più le aziende che ricorrono all'impiego di uffici dedicati alla pianifcazione delle consegne e la gestione dei trasporti in generale. Sebbene le voci di bilancio relative al trasporto raggiungano cifre rilevanti, fno al 4% del fatturato annuo, il tema della pianifcazione viene spesso sottovalutato. Infatti la soluzione a problemi di pianifcazione e monitoraggio dei costi, è spesso demandata a procedure manuali senza supporto informatico. Nasce da qui l'esigenza di proporre uno strumento informatico che supporti gli addetti preposti alla pianifcazione, sviluppando un sistema che copra esigenze di pianifcazione dei viaggi, controllo e consuntivazione dei costi di trasporto, e monitoraggio dei mezzi in tempo reale. La proposta di Gesp srl, Geographic Information Systems, azienda italiana che opera da anni nel campo delle applicazioni software geo-spaziali, prende il nome di Nuovo Sistema Trasporti, o più semplicemente, NST. In quest'ambito prende corpo questa tesi, la quale si pone l'obiettivo di illustrare le fasi di nascita, analisi, progettazione e sviluppo di un software generico per il supporto alla logistica. Saranno così analizzati: le problematiche affrontate nella fase di defnizione, e kick-off (avvio), del progetto, il problema del routing, o Vehicle Routing Problem e le tecniche di Ricerca Operativa che vengono applicate per la sua risoluzione; le moderne metodologie di gestione e sviluppo di un software; l'architettura e le tecnologie impiegate per la distribuzione dell'applicativo.
Resumo:
In questo lavoro ci si propone di descrivere la realizzazione di un sistema laser con cavit´a esterna e di un apparato da ultra-alto-vuoto, che verranno impiegati in un esperimento di miscele di atomi ultrafreddi che utilizza due specie atomiche di bosoni: 87Rb e 41K. Speciale attenzione viene rivolta verso le caratteristiche dello schema utilizzato e sul sistema di controllo in temperatura, che rendono questo sistema laser particolarmente stabile in frequenza e insensibile alle vibrazioni e variazioni di temperatura. Si sono poi analizzate le propriet´a dei materiali impiegati e delle procedure sperimentali adottate per la realizzazione del nuovo apparato da vuoto, al fine di garantire migliori prestazioni rispetto al sistema attualmente in uso.
Resumo:
E’ previsto che l’emissione in atmosfera di anidride carbonica (CO2) da parte dell’uomo e la conseguente acidificazione delle acque dei mari provocherà effetti negativi di vasta portata sui processi biologici di diversi ecosistemi marini. L’acidificazione del mare può provocare effetti negativi su tutti gli stadi del ciclo vitale degli organismi marini, influenzandone la fisiologia, morfologia, comportamento ed alcune fasi della riproduzione e del reclutamento. Esistono poche informazioni riguardo gli effetti dell’acidificazione sulla riproduzione sessuale dei coralli. Questo studio ha lo scopo di quantificare la capacità riproduttiva di Astroides calycularis (scleractinia coloniale mediterranea azooxantellata) in colonie trapiantate lungo un gradiente naturale di pH, generato dalle emissioni di CO2 del cratere vulcanico sottomarino di Panarea (Isole Eolie). Le colonie sono state trapiantate in 4 siti, dal centro del cratere, dove si riscontra la condizione più acida (pH 7.40), alla periferia, caratterizzata da condizioni di pH normali (pH 8.07). La popolazione di A. calycularis di Panarea ha mostrato una sessualità mista a livello coloniale (polipi gonocorici in colonie ermafrodite), in contrapposizione alla condizione gonocorica riscontrata nella stessa specie studiata a Palinuro e a Punta de la Mona (Spagna). I risultati preliminari sembrerebbero mostrare un effetto negativo dell’acidificazione sullo sviluppo gonadico femminile della specie. L’ipotesi è che esso sia dovuto ad una riallocazione delle energie sui processi di calcificazione a danno dell’ovogenesi. La spermatogenesi risentirebbe meno degli effetti negativi dell’acidificazione nelle fasi di sviluppo interne all’ individuo, in quanto meno dispendiose da un punto di vista energetico rispetto alle fasi di ovogenesi. Gli spermatozoi potrebbero invece essere influenzati negativamente dall’ ambiente più acido una volta entrati in contatto con esso, con conseguenze sulla riuscita della fecondazione. Questo studio necessita di ulteriori dati e verrà completato con le analisi istologiche in corso.
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.
Resumo:
L'integrazione multisensoriale è la capacità da parte del sistema nervoso centrale di integrare informazioni provenienti da diverse sorgenti sensoriali. In particolare, l'integrazione audio-visiva avviene anche nelle cortecce visive e acustiche, in principio ritenute puramente unisensoriali. L'integrazione audio-visiva non è un'abilità innata, ma si sviluppa progressivamente nel tempo sulla base dell'esperienza. In questa Tesi viene presentato un modello matematico di rete neurale in grado di simulare lo sviluppo in un ambiente multisensoriale dei neuroni delle cortecce primarie visive e uditive nei primi mesi di vita di un neonato, e gli effetti dell'integrazione audio-visiva successivi a tale addestramento. In particolare il modello vuole mostrare, a partire da una condizione basale in cui i neuroni visivi e acustici non sono in grado di discriminare spazialmente la posizione degli input esterni e in cui non sussiste alcuna correlazione tra le due aree corticali primarie visive e uditive, come l'addestramento migliori la precisione della percezione spaziale degli stimoli esterni e come si stabiliscano tra le due aree in esame dei collegamenti stabili a lungo termine. Terminato l'addestramento, si verifica se la rete sia in grado di riprodurre gli effetti di integrazione audio-visiva nella corteccia primaria, quali la "cattura" dello stimolo acustico da parte di quello visivo (ventriloquismo) e il rafforzamento della risposta neurale allo stimolo acustico se contemporaneamente accompagnato da uno stimolo visivo nella stessa posizione spaziale (enhancement). Il modello potrebbe essere utilizzato in futuro anche per simulare altri fenomeni illusori come il fenomeno offline del ventriloquismo e il ventriloquismo a livello temporale.
Resumo:
Il presente elaborato propone una metodologia di valutazione della carbon footprint di un aeroporto e ne presenta un’applicazione per l’aeroporto “Guglielmo Marconi” di Bologna. Attraverso l'individuazione di macrocategorie di fonti di emissione, viene inoltre discussa l'efficacia di alcuni interventi di riduzione delle emissioni di anidride carbonica.
Resumo:
Il presente lavoro e’ stato svolto nell'ambito della collaborazione NUCLEX, esperimento della Commissione Nazionale 3 dell'INFN per lo studio della dinamica delle reazioni nucleari indotte da ioni pesanti. In particolare l'oggetto della tesi riguarda l'analisi della competizione fra i diversi processi di emissione di particelle cariche leggere da sistemi composti. Piu’ precisamente in questa tesi si studiano e si confrontano le emissioni da sorgenti equilibrate e di pre-equilibrio di particelle alfa e protoni per due diverse reazioni di fusione, 16O +65Cu a 256 MeV e 19F +62Ni a 304 MeV, che portano entrambe alla formazione del nucleo composto 81Rb. I due sistemi sono stati scelti in modo da avere una reazione indotta da un proiettile costituito da un numero intero di particelle alfa (alfa-cluster) (16O) ed una seconda indotta da un proiettile non alfa cluster (19F), con la medesima energia del fascio (16 MeV/n). Lo scopo e’ di cercare evidenze sulla struttura a cluster di alfa dei nuclei con numero di massa A multiplo di 4 ed N=Z. Allo scopo di evidenziare i contributi delle diverse sorgenti di emissione delle particelle si e’ appli- cata la tecnica del Moving Source Fit agli spettri delle particlelle emesse e rivelate con l'apparato GARFIELD in coincidenza con i residui di evaporazione misurati tramite il rivelatore anulare Ring Counter. I risultati sperimentali ottenuti applicando la tecnica del Moving Source Fit ai nostri dati sperimentali sono interessanti e sembrano contraddire la maggiore emissione di particelle alfa da parte del sistema con proiettile a struttura alfa-cluster 16O. Le possibili ipotesi alla base di questo risultato abbastanza sorprendente sono tuttora in fase di discussione e saranno oggetto di ulteriori verifiche tramite lo studio di correlazioni piu’ esclusive e confronto con modelli di pre-equilibrio complessi.
Resumo:
La diffusione di Internet negli ultimi anni e lo sviluppo sempre crescente nell'ambito delle reti di telecomunicazione, hanno portato oggi ad una vera e propria esplosione della diffusione di nuove tecnologie di trasmissione. Inizialmente il protocollo di trasporto dati, TCP, non era stato pensata per operare in scenari diversi da quello della rete fissa. Con l'introduzione di nuovi scenari, come quello wireless, wimax e satellitare, si è notato come le prestazioni peggiorino in questi ambienti. Proprio per questo, il protocollo TCP ha subito parecchie modifiche negli anni e sono state realizzate alternative atte a migliorare l'inefficienza del protocollo. Le modifiche, a cui il TCP è stato sottoposto, sono basate su alcuni criteri di valutazione e l'introduzione di meccanismi come il controllo del flusso o il controllo di congestione in modo da migliorare le performance in ambienti “ostili”. Molti ricercatori si sono concentrati nello studio e modifica di questi nuovi meccanismi cercando di adattare al meglio il TCP secondo diversi scenari di rete, trascurando così altri criteri un pò meno noti. Dopo aver introdotto lo scenario con la descrizione del protocollo TCP, andremo a descrivere e illustrare questi “nuovi criteri” presentando alcuni recenti studi effettuati, in seguito andremo a presentare un nuova versione del protocollo chiamata Early Warning TCP e nell'ultimo capitolo andremo a presentare delle conclusioni degli studi presentati.
Resumo:
Trovare una fonte alternativa ai combustibili fossili non costituisce più una scelta, ma un obbligo. Lo sfruttamento dell’energia geotermica sta diventando una realtà sempre più diffusa, in quanto una forma di energia rinnovabile, pulita, economicamente conveniente, e con una giusta politica energetica potrebbe dare il suo importante contributo all’energia ottenuta da fonte rinnovabile. Ci sono però dei fattori da non sottovalutare, l’installazione e il funzionamento di impianti geotermici per il riscaldamento o raffrescamento di edifici può produrre alterazioni sull’ambiente circostante e nella falda acquifera. Attraverso un attento studio vengono presi in considerazione tutti i fattori che potrebbero provocare un cambiamento dell’equilibrio preesistente, e vengono individuate le soluzioni che permettono la fattibilità del progetto rispettando i parametri imposti dalla legge. Nell’istallazione di sistemi geotermici a bassa entalpia, il principale elemento da tenere sotto osservazione riguarda la previsione e il controllo delle temperature, in modo tale da impedire lo sviluppo di anomalie termiche. Il sistema preso in considerazione in questa tesi è un sistema geotermico open loop: attraverso un pozzo di adduzione viene prelevata acqua direttamente dalla falda acquifera, per il riscaldamento o il raffrescamento di un edificio, e reimmessa, ad una temperatura diversa, attraverso un pozzo di reimmissione. Si valuta l’impatto del sistema nel sottosuolo e le temperature raggiunte a seguito della messa in opera dell’impianto. In particolare, è proposto un modello numerico MODFLOW di un sistema open loop in un acquifero di sabbia e ghiaia, al fine di determinare l’influenza della reimmissione dal punto di vista idrico e termico. I dati risultanti da questo modello saranno confrontati con quelli ottenuti utilizzando un potente software, COMSOL MULTIPHYSICS. Infine si effettua l’analisi e il confronto dei dati ottenuti dai due software nelle diverse configurazioni del sistema e se ne individua la più adatta alle caratteristiche del sito in esame.
Resumo:
Il successo di XML ha rinnovato l'interesse per il controllo delle modifiche sugli alberi e i dati semi-strutturati. Le necessità principali sono gestire le revisioni dei documenti, interrogare e monitorare i cambiamenti e scambiare efficientemente i documenti e i loro aggiornamenti. I cambiamenti che si verificano tra due versioni di un documento sono sconosciuti al sistema. Quindi, un algoritmo di diffing viene utilizzato per costruire un delta che rappresenta i cambiamenti. Sono stati proposti vari algoritmi di diffing. Alcuni considerano la struttura ad albero dei documenti XML, mentre altri non lo fanno. Inoltre, alcuni algoritmi possono trovare una sequenza più "sintetica" delle modifiche. Questo migliora la qualità del monitoraggio e l'interrogazione delle modifiche. Esistono altri approcci sviluppati per monitorare i cambiamenti sui documenti XML, differenti dagli algoritmi di diffing, ma che comunque ottengono risultati quasi identici ed offrono un'interrogazione delle modifiche più agevole per gli utenti umani. Esistono infatti programmi di editing con strumenti di change tracking, che permettono a più autori di modificare diverse versioni dei documenti contemporaneamente e registrando in tempo reale tutti i cambiamenti da loro apportati. In questo lavoro studio i diversi strumenti e confronto i loro risultati sulla base di esperimenti condotti su documenti XML opportunamente modificati per riconoscere determinati cambiamenti. Ci sono anche diverse proposte di formati del delta per rappresentare i cambiamenti in XML, ma non vi è ancora alcuno standard. Espongo le principali proposte in base alle loro specifiche, le loro implementazioni e sui risultati degli esperimenti condotti. L'obiettivo è di fornire una valutazione della qualità degli strumenti e, sulla base di questo, guidare gli utenti nella scelta della soluzione appropriata per le loro applicazioni.