204 resultados para riduttore ibrido elettrico trasmissione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con lo sviluppo di nuovi sistemi di telecomunicazione e con i progressi nelle applicazioni mediche ed industriali, l’uomo è sempre più esposto a campi elettromagnetici. Sorge quindi la volontà di indagare sui loro potenziali effetti nocivi, manifestatasi nel corso di diversi decenni di ricerca. Risultano di particolare interesse sanitario i campi elettromagnetici ad alta frequenza (HF-EMF) prodotti dai telefoni cellulari, in quanto il loro utilizzo implica il posizionamento dell’apparecchio in prossimità dell’orecchio, e quindi del cervello. Nel 2011 l’Agenzia Internazionale dell'OMS per la Ricerca sul Cancro (IARC), ha classificato gli HF-EMF come “possibilmente cancerogeni”, in quanto l’evidenza epidemiologica è stata giudicata “limitata”. Successivamente l’OMS si è espressa in favore di ulteriori ricerche giustificate dal crescente uso di telefoni cellulari, mentre non è stata richiesta l’adozione di misure precauzionali di limitazione al loro utilizzo. Emerge dunque la necessità di proseguire gli studi, che con questa tesi abbiamo indirizzato all’enzima acetilcolinesterasi (AChE). L’AChE svolge un ruolo importante nella trasmissione sinaptica in quanto catalizza l’idrolisi dell’acetilcolina (ACh), importante neurotrasmettitore nel sistema nervoso umano e animale. Lo studio dell’attività dell’AChE presenta una rilevante importanza dal punto di vista sanitario considerando che il deterioramento progressivo delle cellule neuronali, riscontrato nel Morbo di Alzheimer, è attribuito ad una diminuzione del livello del neurotrasmettitore ACh (Lane et al. 2005). A partire dagli anni 80, sono stati svolti studi sull’attività dell’enzima a seguito di esposizioni a EMF, i quali hanno evidenziato nella maggior parte dei casi un cambiamento dell’attività stessa. Il presente lavoro si avvale di un valido sistema di irraggiamento ad alta frequenza che simula l’esposizione ai segnali GSM; lo studio è stato svolto sulla linea cellulare PC12, cellule tumorali derivanti da feocromocitoma di ratto capaci di secernere e immagazzinare ACh e AChE. Sono state valutate in particolare l’attività enzimatica e l’espressione genica dell’AChE nelle cellule PC12 esposte ad una frequenza portante di 1,8 GHz con frequenza di modulazione di 217 Hz, condizioni alle quali lavorano comunemente gli apparati di telefonia mobile in modalità GSM, per un periodo di 24 h. I risultati ottenuti mostrano un aumento dell’attività dell’enzima AChE dei campioni irraggiati rispetto ai controlli, con variazione della Vmax ma non della Km, mentre non è stata rilevata alcuna variazione significativa dell’espressione genica, analizzata mediante PCR real-time. Nelle cellule PC12, si aveva una maggiore attività ed espressione genica dell’enzima in cellule trattate con forskolin e dbcAMP, impiegati come stimoli positivi. Questi risultati suggeriscono il coinvolgimento del sistema AMPc–dipendente nel controllo dell’espressione genica dell’enzima. L’AMPc, pur agendo tipicamente come secondo messaggero nella trasduzione del segnale chimico, in molte cellule di diversi organismi sembra essere aumentato anche in condizioni di stress. In particolare l’effetto si esplicava infatti sulla isoforma AChER, indotta in condizioni di stress. Il fatto che l’aumento dell’attività enzimatica di AChE indotto da HF-EMF non sia associato né all’aumento dell’affinità per il substrato, né all’aumento del numero di molecole, suggerisce l’ipotesi che i campi elettromagnetici ad alta frequenza agiscano sul microambiente di membrana che circonda l’enzima, per esempio determinando cambiamenti delle condizioni all’interno della matrice lipidica, influenzando fortemente la sua attività. Sarà interessante valutare in futuro come l’aumento della Vmax di reazione venga indotto in assenza di aumento dei trascritti genici. In conclusione il presente lavoro non fornisce risposte circa gli effetti del segnale GSM sulla salute umana, ma consente di affermare l’esistenza di un’interazione dei campi elettromagnetici con il modello biologico da noi utilizzato, richiamando l’attenzione sull’attività di questo enzima come possibile “indicatore” dell’interazione cellulare con tali segnali. Tale “indicatore”, ricercato da molti anni, non è mai stato individuato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo che questo elaborato si pone è la realizzazione di un prototipo di smart meter distribuito che, in modalità Near-Real-Time, acquisisca ed invii ad un database remoto i consumi relativi ad ogni singolo carico elettrico presente in una abitazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi cinquant’anni, in particolare dal 1956 al 2010, grazie a miglioramenti di tipo economico e sociale, il territorio urbanizzato italiano è aumentato di circa 600 mila ettari, cioè una superficie artificializzata pari quasi a quella dell’intera regione Friuli Venezia Giulia, con un aumento del 500% rispetto agli anni precedenti. Quando si parla di superfici “artificializzate” ci si riferisce a tutte quelle parti di suolo che perdono la propria caratteristica pedologica per essere asportate e divenire urbanizzate, cioè sostituite da edifici, spazi di pertinenza, parcheggi, aree di stoccaggio, strade e spazi accessori. La costruzione di intere periferie e nuclei industriali dagli anni ’50 in poi, è stata facilitata da un basso costo di mano d’opera e da una supposta presenza massiccia di risorse disponibili. Nonché tramite adeguati piani urbanistico-territoriali che hanno accompagnato ed assecondato questo orientamento. All’oggi, è evidente come questa crescita tumultuosa del tessuto urbanizzato non sia più sostenibile. Il consumo del suolo provoca infatti vari problemi, in particolare di natura ecologica e ambientale, ma anche sanitaria, economica e urbana. Nel dettaglio, secondo il dossier Terra Rubata1, lanciato all’inizio del 2012 dal FAI e WWF gli aspetti che vengono coinvolti direttamente ed indirettamente dalla conversione urbana dei suoli sono complessivamente i seguenti. Appartenenti alla sfera economico-energetica ritroviamo diseconomie dei trasporti, sperperi energetici, riduzione delle produzioni agricole. Per quanto riguarda la sfera idro-geo-pedologica vi è la possibilità di destabilizzazione geologica, irreversibilità d’uso dei suoli, alterazione degli assetti idraulici ipo ed epigei. Anche la sfera fisico-climatica non è immune a questi cambiamenti, ma può invece essere soggetta ad accentuazione della riflessione termica e dei cambiamenti 1 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 2 climatici, ad una riduzione della capacità di assorbimento delle emissioni, ad effetti sul sequestro del carbonio e sulla propagazione spaziale dei disturbi fisico-chimici. In ultimo, ma non per importanza, riguardo la sfera eco-biologica, ritroviamo problemi inerenti l’erosione fisica e la distruzione degli habitat, la frammentazione eco sistemica, la distrofia dei processi eco-biologici, la penalizzazione dei servizi ecosistemici dell’ambiente e la riduzione della «resilienza» ecologica complessiva. Nonostante ci sia ancora la speranza che questo orientamento possa “invertire la rotta”, non è però possibile attendere ancora. È necessario agire nell’immediato, anche adottando adeguati provvedimenti normativi e strumenti pianificatori ed operativi nell’azione delle pubbliche amministrazioni analogamente a quanto, come evidenziato nel dossier sopracitato2, hanno fatto altri paesi europei. In un recente documento della Commissione Europea3 viene posto l’anno 2050 come termine entro il quale “non edificare più su nuove aree”. Per fare ciò la Commissione indica che nel periodo 2000-2020 occorre che l’occupazione di nuove terre sia ridotta in media di 800 km2 totali. È indispensabile sottolineare però, che nonostante la stabilità demografica della situazione attuale, se non la sua leggera decrescenza, e la società attuale ha necessità di spazi di azione maggiori che non nel passato e possiede una capacità di spostamento a velocità infinitamente superiori. Ciò comporta una variazione enorme nel rapporto tra le superfici edificate (quelle cioè effettivamente coperte dal sedime degli edifici) e le superfici urbanizzate (le pertinenze pubbliche e private e la viabilità). Nell’insediamento storico, dove uno degli obiettivi progettuali era quello di minimizzare i tempi di accesso tra abitazioni e servizi urbani, questo rapporto varia tra il 70 e il 90%, mentre nell’insediamento urbano moderno è quasi sempre inferiore al 40-50% fino a valori anche inferiori al 20% in taluni agglomerati commerciali, 2 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 3 Tabella di marcia verso un’Europa efficiente nell’impiego delle risorse, settembre 2011 3 industriali o direzionali nei quali il movimento dei mezzi o le sistemazioni paesaggistiche di rappresentanza richiedono maggiori disponibilità di spazi. Come conciliare quindi la necessità di nuovi spazi e la necessità di non edificare più su nuove aree? Dai dati Istat il 3% del territorio Italiano risulta occupato da aree dismesse. Aree che presentano attualmente problemi di inquinamento e mancata manutenzione ma che potrebbero essere la giusta risorsa per rispondere alle necessità sopracitate. Enormi spazi, costruiti nella precedente epoca industriale, che possono essere restituiti al pubblico sotto forma di luoghi destinati alla fruizione collettiva come musei, biblioteche, centri per i giovani, i bambini, gli artisti. Allo stesso tempo questi spazi possono essere, completamente o in parte, rinaturalizzati e trasformati in parchi e giardini. La tematica, cosiddetta dell’archeologia industriale non si presenta come una novità, ma come una disciplina, definita per la sua prima volta in Inghilterra nel 1955, che vanta di esempi recuperati in tutta Europa. Dagli anni ’60 l’opinione pubblica cominciò ad opporsi alla demolizione di alcune strutture industriali, come ad esempio la Stazione Euston a Londra, riconoscendone l’importanza storica, culturale ed artistica. Questo paesaggio industriale, diviene oggi testimonianza storica di un’epoca e quindi per questo necessita rispetto e attenzione. Ciò non deve essere estremizzato fino alla esaltazione di questi immensi edifici come rovine intoccabili, ma deve invitare l’opinione pubblica e i progettisti a prendersene cura, a reintegrarli nel tessuto urbano donando loro nuove funzioni compatibili con la struttura esistente che andrà quindi lasciata il più possibile inalterata per mantenere una leggibilità storica del manufatto. L’Europa presenta vari casi di recupero industriale, alcuni dei quali presentano veri e propri esempi da seguire e che meritano quindi una citazione ed un approfondimento all’interno di questo saggio. Tra questi l’ex stabilimento FIAT del Lingotto a Torino, 4 la celebre Tate Modern di Londra, il Leipzig Baumwollspinnerei, il Matadero Madrid e la Cable Factory a Elsinky. Questi edifici abbandonati risultano all’oggi sparsi in maniera disomogenea anche in tutta Italia, con una maggiore concentrazione lungo le linee ferroviarie e nei pressi delle città storicamente industrializzate. Essi, prima di un eventuale recupero, risultano come rifiuti abbandonati. Ma come sopradetto questi rifiuti urbani possono essere recuperati, reinventati, riabilitati, ridotati di dignità, funzione, utilità. Se questi rifiuti urbani possono essere una nuova risorsa per le città italiane come per quelle Europee, perché non provare a trasformare in risorse anche i rifiuti di altra natura? Il problema dei rifiuti, più comunemente chiamati come tali, ha toccato direttamente l’opinione pubblica italiana nel 2008 con il caso drammatico della regione Campania e in particolare dalla condizione inumana della città di Napoli. Il rifiuto è un problema dovuto alla società cosiddetta dell’usa e getta, a quella popolazione che contrariamente al mondo rurale non recupera gli scarti impiegandoli in successive lavorazioni e produzioni, ma li getta, spesso in maniera indifferenziata senza preoccuparsi di ciò che ne sarà. Nel passato, fino agli anni ’60, il problema dello smaltimento dei rifiuti era molto limitato in quanto in genere gli scatti del processo industriale, lavorativo, costruttivo venivano reimpiegati come base per una nuova produzione; il materiale da riciclare veniva di solito recuperato. Il problema degli scarti è quindi un problema moderno e proprio della città, la quale deve quindi farsene carico e trasformarlo in un valore, in una risorsa. Se nell’equilibrio ecologico la stabilità è rappresentata dalla presenza di cicli chiusi è necessario trovare una chiusura anche al cerchio del consumo; esso non può terminare in un oggetto, il rifiuto, ma deve riuscire a reinterpretarlo, a trovare per 5 esso una nuova funzione che vada ad attivare un secondo ciclo di vita, che possa a sua volta generare un terzo ciclo, poi un quarto e cosi via. Una delle vie possibili, è quella di riciclare il più possibile i nostri scarti e quindi di disassemblarli per riportare alla luce le materie prime che stavano alla base della loro formazione. Uno degli ultimi nati, su cui è possibile agire percorrendo questa strada è il rifiuto RAEE4. Esso ha subito un incremento del 30,7% negli ultimi 5 anni arrivando ad un consumo di circa 19 kilogrammi di rifiuti all’anno per abitante di cui solo 4 kilogrammi sono attualmente smaltiti nelle aziende specializzate sul territorio. Dismeco s.r.l. è una delle aziende sopracitate specializzata nello smaltimento e trattamento di materiale elettrico ed elettronico, nata a Bologna nel 1977 come attività a gestione familiare e che si è poi sviluppata divenendo la prima in Italia nella gestione specifica dei RAEE, con un importante incremento dei rifiuti dismessi in seguito all'apertura del nuovo stabilimento ubicato nel Comune di Marzabotto, in particolare nel lotto ospitante l’ex-cartiera Rizzoli-Burgo. L’azienda si trova quindi ad operare in un contesto storicamente industriale, in particolare negli edifici in cui veniva stoccato il caolino e in cui veniva riciclata la carta stampata. Se la vocazione al riciclo è storica dell’area, grazie all’iniziativa dell’imprenditore Claudio Tedeschi, sembra ora possibile la creazione di un vero e proprio polo destinato alla cultura del riciclo, all’insegnamento e all’arte riguardanti tale tematica. L’intenzione che verrà ampliamente sviluppata in questo saggio e negli elaborati grafici ad esso allegati è quella di recuperare alcuni degli edifici della vecchia cartiera e donane loro nuove funzioni pubbliche al fine di rigenerare l’area. 4 RAEE: Rifiuti di Apparecchiature Elettriche ed Elettroniche, in lingua inglese: Waste of electric and electronic equipment (WEEE) o e-waste). Essi sono rifiuti di tipo particolare che consistono in qualunque apparecchiatura elettrica o elettronica di cui il possessore intenda disfarsi in quanto guasta, inutilizzata, o obsoleta e dunque destinata all'abbandono. 6 Il progetto, nello specifico, si occuperà di riqualificare energeticamente il vecchio laboratorio in cui veniva riciclata la carta stampata e di dotarlo di aree per esposizioni temporanee e permanenti, sale conferenze, aule didattiche, zone di ristoro e di ricerca. Per quanto riguarda invece l’area del lotto attualmente artificializzata, ma non edificata, vi è l’intenzione di riportarla a zona verde attraverso la creazione di un “Parco del Riciclo”. Questa zona verde restituirà al lotto un collegamento visivo con le immediate colline retrostanti, accoglierà i visitatori e li ospiterà nelle stagioni più calde per momenti di relax ma al tempo stesso di apprendimento. Questo perché come già detto i rifiuti sono risorse e quando non possono essere reimpiegati come tali vi è l’arte che se ne occupa. Artisti del calibro di Picasso, Marinetti, Rotella, Nevelson e molti altri, hanno sempre operato con i rifiuti e da essi sono scaturite opere d’arte. A scopo di denuncia di una società consumistica, semplicemente come oggetti del quotidiano, o come metafora della vita dell’uomo, questi oggetti, questi scarti sono divenuti materia sotto le mani esperte dell’artista. Se nel 1998 Lea Vergine dedicò proprio alla Trash Art una mostra a Rovereto5 significa che il rifiuto non è scarto invisibile, ma oggetto facente parte della nostra epoca, di una generazione di consumatori frugali, veloci, e indifferenti. La generazione dell’”usa e getta” che diviene invece ora, per necessita o per scelta generazione del recupero, del riciclo, della rigenerazione. L’ipotesi di progetto nella ex-cartiera Burgo a Lama di Reno è proprio questo, un esempio di come oggi il progettista possa guardare con occhi diversi queste strutture dismesse, questi rifiuti, gli scarti della passata società e non nasconderli, ma reinventarli, riutilizzarli, rigenerarli per soddisfare le necessità della nuova generazione. Della generazione riciclo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il concetto di “direct drive”, cioè l’applicazione diretta del motore all’utilizzatore, in modo da eliminare elementi di connessione intermedi (riduttori, pulegge, ecc…) con il vantaggio di migliorare il rendimento, ridurre gli ingombri, semplificare l’intera struttura, ridurre la manutenzione, è applicato con sempre maggior frequenza. L’azienda Graham Packaging Company Italia s.r.l. produce macchinari industriali per la produzione di packaging plastico, i quali montano un gruppo di estrusione a monte della macchina che alimenta il gruppo di soffiaggio: si possono, quindi, intuire alcuni vantaggi derivanti dall’applicazione del “direct drive”. Nella soluzione attualmente adottata dall’azienda la vite di estrusione, che gira a velocità relativamente basse, è collegata tramite un riduttore ad un motore asincrono trifase, che ruota a velocità significativamente superiori. L’ipotesi di una soluzione differente prevederebbe l’accoppiamento della vite ad un motore coppia (torque motor) caratterizzato da una elevata coppia e giri relativamente bassi. I vantaggi di tale accoppiamento sarebbero fondamentalmente il risparmio energetico derivante dall’esclusione del riduttore dal meccanismo e la maggiore facilità di regolazione della velocità e di conseguenza anche della portata dell’estrusore. La tesi ha lo scopo di analizzare nel particolare l’attuale situazione dal punto di vista del consumo energetico delle 11 taglie di estrusori, di valutare una soluzione con motore coppia consultando diversi fornitori di motori, di comparare le due varianti dal punto di vista dell’efficienza e dei vantaggi economici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Studio e dimensionamento di un compressore assiale da inserire in un gruppo turbofan in cui la camera di combustione verrebbe sostituita da un motore diesel ad alte prestazioni che a sua volta andrebbe, tramite un riduttore, a trascinare il gruppo delle eliche; inoltre i gas combusti fornirebbero energia ad una turbina per il funzionamento del compressore assiale stesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una delle tecnologie radio che negli ultimi anni ha subito il maggior sviluppo è quella dell’identificazione a radio frequenza (Radio Frequency Identification), utilizzata in un gran numero di ambiti quali la logistica, il tracciamento, l’autenticazione e i pagamenti elettronici. Tra le tecnologie specifiche legate all’RFID si ritrova la Near Field Communication (NFC). Questa è una tecnologia di trasmissione dati a corto raggio che rappresenta un’evoluzione dell’RFID. Una delle caratteristiche dell’NFC è quella di instaurare una comunicazione tra due dispositivi in maniera semplice e intuitiva. L’oggetto che instaura la comunicazione è il Reader, nell’ambito RFID è un dispositivo altamente specializzato, poiché può lavorare a diverse frequenze operative. L’elemento innovativo che ha consentito il successo dell’NFC è il fatto che questa tecnologia possa integrare il Reader in uno strumento di comunicazione di largo uso, ovvero lo smartphone. Questo permette di inizializzare lo scambio dati, sia esso di lettura di un circuito integrato passivo o una trasmissione peer-to-peer, a seguito del naturale gesto di avvicinare lo smartphone. Analisti ed esperti del settore sono convinti del successo dell’NFC, nonostante siano state smentite le attese che vedevano l’NFC integrato in oltre la metà dei cellulari entro il 2010. Tra le molteplici applicazioni NFC in questo elaborato ci si soffermerà in particolare sul cosiddetto Smart Poster. Questo utilizzo può essere molto efficace avendo una gamma di impiego molto vasta. Per l’immagazzinamento dei dati nei Tag o nelle Smart Card si è utilizzato un protocollo d’incapsulamento dati chiamato NDEF (NFC Data Exchange Format) trattato nel capitolo 3 di questa trattazione. Nella seconda parte dell’elaborato si è realizzata una sperimentazione per misurare le distanze di funzionamento di cellulari e Reader per PC. In questo ambito si è realizzato quello che si è definito lo Smart Brick, cioè un mattone che comunica con dispositivi NFC grazie all’installazione di un Tag al suo interno. Si parlerà della realizzazione e degli strumenti software/hardware che hanno permesso di realizzare e programmare questo ”mattone elettronico”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si propone come informativa dei principali metodi di produzione di energia rinnovabile e su come ottimizzare tali produzioni tenendo conto dei vincoli imposti dal sistema elettrico all'immissione in rete di potenza elettrica intermittente. Viene proposto, in particolare, l'accumulo di energia sotto forma di aria compressa (sistema CAES).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Cognitive Radio è un dispositivo in grado di reagire ai cambiamenti dell’ambiente radio in cui opera, modificando autonomamente e dinamicamente i propri parametri funzionali tra cui la frequenza, la potenza di trasmissione e la modulazione. Il principio di base di questi dispositivi è l’accesso dinamico alle risorse radio potenzialmente non utilizzate, con cui utenti non in possesso di licenze possono sfruttare le frequenze che in un determinato spazio temporale non vengono usate, preoccupandosi di non interferire con gli utenti che hanno privilegi su quella parte di spettro. Devono quindi essere individuati i cosiddetti “spectrum holes” o “white spaces”, parti di spettro assegnate ma non utilizzate, dai quali prendono il nome i dispositivi.Uno dei modi per individuare gli “Spectrum holes” per una Cognitive Radio consiste nel cercare di captare il segnale destinato agli utenti primari; questa tecnica è nota con il nome di Spectrum Sensing e consente di ottenere essenzialmente una misura all’interno del canale considerato al fine di determinare la presenza o meno di un servizio protetto. La tecnica di sensing impiegata da un WSD che opera autonomamente non è però molto efficiente in quanto non garantisce una buona protezione ai ricevitori DTT che usano lo stesso canale sul quale il WSD intende trasmettere.A livello europeo la soluzione che è stata ritenuta più affidabile per evitare le interferenze sui ricevitori DTT è rappresentata dall’uso di un geo-location database che opera in collaborazione con il dispositivo cognitivo.Lo scopo di questa tesi è quello di presentare un algoritmo che permette di combinare i due approcci di geo-location database e Sensing per definire i livelli di potenza trasmissibile da un WSD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di Tesi Magistrale, si focalizza sulla più importante delle aritmie atriali, ovvero la Fibrillazione Atriale, e sul trattamento della stessa attraverso le procedure di ablazione a radio frequenza (RF). Il lavoro di tesi, svolto presso l'Ospedale 'M. Bufalini' di Cesena, affronta in particolare l'uso della tecnologia EnSite NavX (un sistema di mappaggio elettroanatomico delle cavità cardiache) ed EnSite Contact (un sistema basato sulla misura dell'impedenza locale per la valutazione del contatto elettrodo tessuto). L'acquisizione e l'analisi dei dati di ECI (indice di accoppiamento elettrico), forniti dal modulo Contact, hanno permesso di comprendere come questo parametro, derivato dalla misura dell'impedenza locale, possa contribuire a fornire importanti informazioni in real-time all'elettrofisiologo e come lo studio della sua dinamica, con particolare attenzione alle variazioni tra pre e post ablazione, possa risultare utile per verificare l'avvenuta erogazione di energia ai tessuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi tratta della fabbricazione e del funzionamento di transistors elettrochimici organici (OECTs) composti da fi�lm sottili di poly(3,4-ethylenedioxythiophene) disperso con polystyrenesulfonic acid, o PEDOT:PSS, oltre che del loro possibile utilizzo come sensori. La trattazione si apre con una panoramica sui polimeri conduttivi, siano essi puri o drogati, e sulle loro caratteristiche chimiche ed elettriche: diversi metodi di drogaggio consentono il loro utilizzo come semiconduttori. Tra questi polimeri, il PEDOT �e uno dei pi�u utilizzati poich�e presenta accessibilit�a d'uso e ottima stabilit�a nel suo stato drogato, pur risultando insolubile in acqua; per ovviare a questo problema lo si polimerizza con PSS. Le propriet�a di questo composto sono poi ampiamente discusse, soprattutto in ambito di applicazioni tecniche, per le quali �e neccessario che il polimero in soluzione sia depositato su un substrato. A questo scopo vengono presentate le principali techiche che consentono la deposizione, permettendo di creare fil�lm sottili di materiale da utilizzarsi, nell'ambito di questa tesi, come gate e canale dei transistors elettrochimici. A seguire viene esposta la struttura degli OECTs e spiegato il loro funzionamento, modellizzando i dispositivi con un semplice circuito elettrico. Il confronto dei meno noti OECTs con i meglio conosciuti transistors a eff�etto campo semplifi�ca la comprensione del funzionamento dei primi, i quali sono rilevanti ai fi�ni di questa trattazione per il loro possibile funzionamento come sensori. In seguito alla spiegazione teorica, vengono illustrati i metodi seguiti per la deposizione di �film sottili di PEDOT:PSS tramite Spin Coating e per la fabbricazione degli OECTs su cui sono state eff�ettuate le misure, le quali sono state scelte e presentate in base ai risultati gi�a ottenuti in letteratura e a seconda dei dati ritenuti necessari alla caratterizzazione del transistor elettrochimico nell'ottica di un suo possibile utilizzo come sensore. Perci�o sono state eseguite misure amperometriche in funzione delle tensioni di gate e di drain, alternatamente tenendo costante una e variando l'altra, oltre che in funzione della concentrazione di elettrolita, dell'area del canale e del tempo. In conclusione sono presentati i dati sperimentali ottenuti ed una loro analisi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel 2004 due Fisici dell’Università di Manchester, nel Regno Unito, hanno isolato per la prima volta un materiale dallo spessore di un singolo atomo: il grafene. Questo materiale, composto da un reticolo di atomi di carbonio disposti a nido d’ape, possiede interessanti proprietà chimiche e fisiche, tra le quali una elevata resistenza chimica e meccanica, un’eccellente trasporto termico ed elettrico ed una elevata trasparenza. Il crescente fermento attorno al grafene ha suscitato un forte interesse a livello europeo, al punto che il 28 gennaio di quest’anno la Comunità Europea ha approvato i due più grandi progetti di ricerca mai finanziati in Europa. Tra questi il Graphene Flagship Project (www.graphene-flagship.eu) che coinvolge oltre 120 gruppi di ricerca da 17 Stati Europei e distribuirà nei prossimi anni 1,000 milioni di euro per lo sviluppo di tecnologie e dispositivi a base grafene. Nel mio elaborato di Tesi ho seguito le ricerche del gruppo grafene dell’Istituto per la Microelettronica e i Microsistemi del Consiglio Nazionale delle Ricerche di Bologna, approfondendo il funzionamento del sistema di sintesi di questo materiale chiamato Chemical Vapour Deposition e le tecniche sperimentali che permettono il trasferimento del grafene su substrati come il silicio, ma anche materiali polimerici flessibili come il PET, per la realizzazione di elettrodi conduttivi, trasparenti per applicazioni nell’elettronica flessibile. Questa esperienza e stata molto importante per la mia formazione e mi ha dato modo di lavorare ad un soggetto di ricerca cosi attuale, importante e promettente come il grafene. Nutro personalmente grande passione e aspettativa per questo materiale e sono convinto che nel prossimo futuro la tecnologia del grafene saprà entrare nella vita quotidiana di tutti noi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il silicio, materiale di base per la realizzazione di gran parte dei dispositivi microelettronici, non trova largo impiego in fotonica principalmente a causa delle sue proprietà elettromagnetiche: oltre ad un band-gap indiretto, il silicio presenta difatti una elevata simmetria reticolare che non permette la presenza di alcuni effetti, come quello elettro-ottico, che sono invece utilmente sfruttati in altri materiali per la fotonica. E’ stato recentemente dimostrato che la deformazione indotta dalla deposizione di film ad alto stress intrinseco potrebbe indurre alcuni di questi effetti, rompendo le simmetrie della struttura. In questo lavoro di tesi viene studiata, mediante simulazioni, microfabbricazione di dispositivi, e caratterizzazione sperimentale, la deformazione reticolare indotta su strutture di tipo ridge micrometriche in silicio mediante deposizione di un film di Si3N4. La deformazione e’ stata analizzata tramite simulazione, utilizzando il metodo agli elementi finiti ed analisi di strain tramite la tecnica di microscopia ottica a trasmissione Convergent-Beam Electron Diffraction. Questa tecnica permette di ottenere delle mappe 2D di strain con risoluzione spaziale micrometrica e sensibilita’ dell’ordine di 100microstrain. Il confronto fra le simulazioni e le misure ha messo in evidenza un accordo quantitativo fra le due analisi, da una parte confermando la validità del modello numerico utilizzato e dall’altro verificando l’accuratezza della tecnica di misura, impiegata innovativamente su strutture di questo tipo. Si sono inoltre stimate le grandezze ottiche: birifrangenza e variazione dell’indice di rifrazione efficace rispetto al caso deformato.di una guida SOI su cui e’ deposto uno strato di nituro. I valori stimati, per uno spessore di 350 nm sono rispettivamente di 0.014 e -0.00475. Questi valori lasciano credere che la tecnologia sia promettente, e che un’evoluzione nei processi di fabbricazione in grado migliorare il controllo delle deformazione potrebbe aprire la strada ad un utilizzo del silicio deformato nella realizzazione di dispositivi ottici ed elettro-ottici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente dissertazione investiga la possibilità di ottimizzare l’uso di energia a bordo di una nave per trasporto di prodotti chimici e petrolchimici. Il software sviluppato per questo studio può essere adattato a qualsiasi tipo di nave. Tale foglio di calcolo fornisce la metodologia per stimare vantaggi e miglioramenti energetici, con accuratezza direttamente proporzionale ai dati disponibili sulla configurazione del sistema energetico e sui dispositivi installati a bordo. Lo studio si basa su differenti fasi che permettono la semplificazione del lavoro; nell’introduzione sono indicati i dati necessari per svolgere un’accurata analisi ed è presentata la metodologia adottata. Inizialmente è fornita una spiegazione sul layout dell’impianto, sulle sue caratteristiche e sui principali dispositivi installati a bordo. Vengono dunque trattati separatamente i principali carichi, meccanico, elettrico e termico. In seguito si procede con una selezione delle principali fasi operative della nave: è seguito tale approccio in modo da comprendere meglio la ripartizione della richiesta di potenza a bordo della nave e il suo sfruttamento. Successivamente è svolto un controllo sul dimensionamento del sistema elettrico: ciò aiuta a comprendere se la potenza stimata dai progettisti sia assimilabile a quella effettivamente richiesta sulla nave. Si ottengono in seguito curve di carico meccanico, elettrico e termico in funzione del tempo per tutte le fasi operative considerate: tramite l’uso del software Visual Basic Application (VBA) vengono creati i profili di carico che possono essere gestiti nella successiva fase di ottimizzazione. L’ottimizzazione rappresenta il cuore di questo studio; i profili di potenza ottenuti dalla precedente fase sono gestiti in modo da conseguire un sistema che sia in grado di fornire potenza alla nave nel miglior modo possibile da un punto di vista energetico. Il sistema energetico della nave è modellato e ottimizzato mantenendo lo status quo dei dispositivi di bordo, per i quali sono considerate le configurazioni di “Load following”, “two shifts” e “minimal”. Una successiva investigazione riguarda l’installazione a bordo di un sistema di accumulo di energia termica, così da migliorare lo sfruttamento dell’energia disponibile. Infine, nella conclusione, sono messi a confronto i reali consumi della nave con i risultati ottenuti con e senza l’introduzione del sistema di accumulo termico. Attraverso la configurazione “minimal” è possibile risparmiare circa l’1,49% dell’energia totale consumata durante un anno di attività; tale risparmio è completamente gratuito poiché può essere raggiunto seguendo alcune semplici regole nella gestione dell’energia a bordo. L’introduzione di un sistema di accumulo termico incrementa il risparmio totale fino al 4,67% con un serbatoio in grado di accumulare 110000 kWh di energia termica; tuttavia, in questo caso, è necessario sostenere il costo di installazione del serbatoio. Vengono quindi dibattuti aspetti economici e ambientali in modo da spiegare e rendere chiari i vantaggi che si possono ottenere con l’applicazione di questo studio, in termini di denaro e riduzione di emissioni in atmosfera.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato illustra una serie di modelli termici, che si differenziano principalmente per la loro accuratezza e velocità di calcolo, per essere in grado di scegliere il modello più adatto da utilizzare in relazione all'applicazione prevista e alle esigenze richieste. Per una migliore comprensione del problema, vengono introdotti inizialmente alcuni concetti generali legati alle temperature in gioco nei componenti elettronici di potenza e alla trasmissione del calore, poi si passa alla determinazione della sorgente del calore (ovvero le perdite) in un modulo IGBT. Vengono quindi descritti alcuni modelli che siano in grado di rappresentare il sistema in esame dal punto di vista termico. Infine viene implementato in Simulink uno dei modelli proposti, mettendo così in pratica gran parte dei concetti esposti. Per il calcolo delle perdite, per i modelli e per la simulazione ci si è concentrati su un determinato componente elettronico di potenza per entrare nel cuore di un problema termico. È stato scelto l’IGBT perché è un dispositivo relativamente nuovo, in continuo miglioramento ed è sempre più utilizzato.