999 resultados para chemioterapia,immunoterapia,derivate frazionarie,sistemi di controllo,retroazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il cervello è una rete di cellule nervose connesse da assoni e le cellule stesse sono reti di molecole connesse da reazioni biochimiche. Anche le società sono reti di persone collegate da rapporti di amicizia, parentela e legami professionali. Su più larga scala, catene alimentari ed ecosistemi possono essere rappresentati come reti di specie viventi. E le reti pervadono la tecnologia: Internet, reti elettriche e sistemi di trasporto non sono che pochi degli esempi possibili. Anche il linguaggio che si sta usando in questo momento per veicolare questi ragionamenti a chi legge è una rete, fatta di parole connesse da relazioni sintattiche. A dispetto dell'importanza e della pervasività delle reti, gli scienziati hanno sempre avuto poca comprensione delle loro strutture e proprietà. In che modo le interazioni di alcuni nodi non funzionanti in una complessa rete genetica possono generare il cancro? Come può avvenire così rapidamente la diffusione in taluni sistemi sociali e di comunicazioni, portando ad epidemie di malattie e a virus informatici? Come possono alcune reti continuare a funzionare anche dopo che la maggioranza dei loro nodi ha, invece, smesso di farlo? [...] Le reti reali sono realmente casuali?

Relevância:

100.00% 100.00%

Publicador:

Resumo:

PRESUPPOSTI: Le tachicardie atriali sono comuni nei GUCH sia dopo intervento correttivo o palliativo che in storia naturale, ma l’incidenza è significativamente più elevata nei pazienti sottoposti ad interventi che prevedono un’estesa manipolazione atriale (Mustard, Senning, Fontan). Il meccanismo più frequente delle tachicardie atriali nel paziente congenito adulto è il macrorientro atriale destro. L’ECG è poco utile nella previsione della localizzazione del circuito di rientro. Nei pazienti con cardiopatia congenita sottoposta a correzione biventricolare o in storia naturale il rientro peritricuspidale costituisce il circuito più frequente, invece nei pazienti con esiti di intervento di Fontan la sede più comune di macrorientro è la parete laterale dell’atrio destro. I farmaci antiaritmici sono poco efficaci nel trattamento di tali aritmie e comportano un’elevata incidenza di effetti avversi, soprattutto l’aggravamento della disfunzione sinusale preesistente ed il peggioramento della disfunzione ventricolare, e di effetti proaritmici. Vari studi hanno dimostrato la possibilità di trattare efficacemente le IART mediante l’ablazione transcatetere. I primi studi in cui le procedure venivano realizzate mediante fluoroscopia tradizionale, la documentazione di blocco di conduzione translesionale bidirezionale non era routinariamente eseguita e non tutti i circuiti di rientro venivano sottoposti ad ablazione, riportano un successo in acuto del 70% e una libertà da recidiva a 3 anni del 40%. I lavori più recenti riportano un successo in acuto del 94% ed un tasso di recidiva a 13 mesi del 6%. Questi ottimi risultati sono stati ottenuti con l’utilizzo delle moderne tecniche di mappaggio elettroanatomico e di cateteri muniti di sistemi di irrigazione per il raffreddamento della punta, inoltre la dimostrazione della presenza di blocco di conduzione translesionale bidirezionale, l’ablazione di tutti i circuiti indotti mediante stimolazione atriale programmata, nonché delle sedi potenziali di rientro identificate alla mappa di voltaggio sono stati considerati requisiti indispensabili per la definizione del successo della procedura. OBIETTIVI: riportare il tasso di efficia, le complicanze, ed il tasso di recidiva delle procedure di ablazione transcatetere eseguite con le moderne tecnologie e con una rigorosa strategia di programmazione degli obiettivi della procedura. Risultati: Questo studio riporta una buona percentuale di efficacia dell’ablazione transcatetere delle tachicardie atriali in una popolazione varia di pazienti con cardiopatia congenita operata ed in storia naturale: la percentuale di successo completo della procedura in acuto è del 71%, il tasso di recidiva ad un follow-up medio di 13 mesi è pari al 28%. Tuttavia se l’analisi viene limitata esclusivamente alle IART il successo della procedura è pari al 100%, i restanti casi in cui la procedura è stata definita inefficace o parzialmente efficace l’aritmia non eliminata ma cardiovertita elettricamente non è un’aritmia da rientro ma la fibrillazione atriale. Inoltre, sempre limitando l’analisi alle IART, anche il tasso di recidiva a 13 mesi si abbassa dal 28% al 3%. In un solo paziente è stato possibile documentare un episodio asintomatico e non sostenuto di IART al follow-up: in questo caso l’aspetto ECG era diverso dalla tachicardia clinica che aveva motivato la prima procedura. Sebbene la diversa morfologia dell’attivazione atriale all’ECG non escluda che si tratti di una recidiva, data la possibilità di un diverso exit point del medesimo circuito o di un diverso senso di rotazione dello stesso, è tuttavia più probabile l’emergenza di un nuovo circuito di macrorientro. CONCLUSIONI: L'ablazione trancatetere, pur non potendo essere considerata una procedura curativa, in quanto non in grado di modificare il substrato atriale che predispone all’insorgenza e mantenimento della fibrillazione atriale (ossia la fibrosi, l’ipertrofia, e la dilatazione atriale conseguenti alla patologia e condizione anatomica di base)è in grado di assicurare a tutti i pazienti un sostanziale beneficio clinico. È sempre stato possibile sospendere l’antiaritmico, tranne 2 casi, ed anche nei pazienti in cui è stata documentata una recidiva al follow-up la qualità di vita ed i sintomi sono decisamente migliorati ed è stato ottenuto un buon controllo della tachiaritmia con una bassa dose di beta-bloccante. Inoltre tutti i pazienti che avevano sviluppato disfunzione ventricolare secondaria alla tachiaritmia hanno presentato un miglioramento della funzione sistolica fino alla normalizzazione o al ritorno a valori precedenti la documentazione dell’aritmia. Alla base dei buoni risultati sia in acuto che al follow-up c’è una meticolosa programmazione della procedura e una rigorosa definizione degli endpoint. La dimostrazione del blocco di conduzione translesionale bidirezionale, requisito indispensabile per affermare di aver creato una linea continua e transmurale, l’ablazione di tutti i circuiti di rientro inducibili mediante stimolazione atriale programmata e sostenuti, e l’ablazione di alcune sedi critiche, in quanto corridoi protetti coinvolti nelle IART di più comune osservazione clinica, pur in assenza di una effettiva inducibilità periprocedurale, sono obiettivi necessari per una procedura efficace in acuto e a distanza. Anche la disponibilità di moderne tecnologie come i sistemi di irrigazione dei cateteri ablatori e le metodiche di mappaggio elettroanantomico sono requisiti tecnici molto importanti per il successo della procedura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Generic programming is likely to become a new challenge for a critical mass of developers. Therefore, it is crucial to refine the support for generic programming in mainstream Object-Oriented languages — both at the design and at the implementation level — as well as to suggest novel ways to exploit the additional degree of expressiveness made available by genericity. This study is meant to provide a contribution towards bringing Java genericity to a more mature stage with respect to mainstream programming practice, by increasing the effectiveness of its implementation, and by revealing its full expressive power in real world scenario. With respect to the current research setting, the main contribution of the thesis is twofold. First, we propose a revised implementation for Java generics that greatly increases the expressiveness of the Java platform by adding reification support for generic types. Secondly, we show how Java genericity can be leveraged in a real world case-study in the context of the multi-paradigm language integration. Several approaches have been proposed in order to overcome the lack of reification of generic types in the Java programming language. Existing approaches tackle the problem of reification of generic types by defining new translation techniques which would allow for a runtime representation of generics and wildcards. Unfortunately most approaches suffer from several problems: heterogeneous translations are known to be problematic when considering reification of generic methods and wildcards. On the other hand, more sophisticated techniques requiring changes in the Java runtime, supports reified generics through a true language extension (where clauses) so that backward compatibility is compromised. In this thesis we develop a sophisticated type-passing technique for addressing the problem of reification of generic types in the Java programming language; this approach — first pioneered by the so called EGO translator — is here turned into a full-blown solution which reifies generic types inside the Java Virtual Machine (JVM) itself, thus overcoming both performance penalties and compatibility issues of the original EGO translator. Java-Prolog integration Integrating Object-Oriented and declarative programming has been the subject of several researches and corresponding technologies. Such proposals come in two flavours, either attempting at joining the two paradigms, or simply providing an interface library for accessing Prolog declarative features from a mainstream Object-Oriented languages such as Java. Both solutions have however drawbacks: in the case of hybrid languages featuring both Object-Oriented and logic traits, such resulting language is typically too complex, thus making mainstream application development an harder task; in the case of library-based integration approaches there is no true language integration, and some “boilerplate code” has to be implemented to fix the paradigm mismatch. In this thesis we develop a framework called PatJ which promotes seamless exploitation of Prolog programming in Java. A sophisticated usage of generics/wildcards allows to define a precise mapping between Object-Oriented and declarative features. PatJ defines a hierarchy of classes where the bidirectional semantics of Prolog terms is modelled directly at the level of the Java generic type-system.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesi, pur senza avere pretese di completezza e rimanendo in un ambito di raccolta di informazioni e dati, intende approfondire ed analizzare gli aspetti legati alla normativa vigente ed alle problematiche di diritto e privacy per il rilevamento di immagini in ambito civile, partendo dalla descrizione generale dei più comuni sistemi di rilevamento e attraverso l’analisi di casi di studio e di esempi d’applicazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi inizia con lo studio degli antichi sistemi di adduzione delle acque a Fermo (nel periodo compreso tra l'età romana e l'età medioevale), per poi trattare il tema delle fonti pubbliche medioevali presenti nella città e quelle monumentali esistenti nella regione Marche. Infine si arriva al tema specifico della trattazione, andando ad analizzare la Fonte San Francesco di Paola fino a pervenire al progetto di restauro e di valorizzazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta dei gruppi semplici sporadici, in particolar modo dei gruppi di Mathieu. Sono state ripercorse tappe storiche fondamentali, a partire dalla semplicità del gruppo alterno An, n>4, nota a Galois, fino a giungere al teorema di classificazione dei gruppi semplici, di cui i gruppi sporadici rappresentano un caso particolare. Vengono poi proposte diverse costruzioni dei gruppi di Mathieu, passando dall'algebra alla geometria fino alla teoria dell'informazione. Quindi vengono discusse le proprietà principali dei gruppi di Mathieu, e infine si presentano congetture in cui i gruppi di Mathieu, o più in generale i gruppi sporadici, giocano un ruolo fondamentale, come ad esempio nella congettura "moonshine". Al termine della tesi vengono presentati i gruppi di Mathieu in ambiti diversi dal mondo matematico, dal gioco alla musica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Environmental Management includes many components, among which we can include Environmental Management Systems (EMS), Environmental Reporting and Analysis, Environmental Information Systems and Environmental Communication. In this work two applications are presented: the developement and implementation of an Environmental Management System in local administrations, according to the European scheme "EMAS", and the analysis of a territorial energy system through scenario building and environmental sustainability assessment. Both applications are linked by the same objective, which is the quest for more scientifically sound elements; in fact, both EMS and energy planning are oftec carachterized by localism and poor comparability. Emergy synthesis, proposed by ecologist H.T. Odum and described in his book "Environmental Accounting: Emergy and Environmental Decision Making" (1996) has been chosen and applied as an environmental evaluation tool, in order complete the analysis with an assessment of the "global value" of goods and processes. In particular, eMergy syntesis has been applied in order to improve the evaluation of the significance of environmental aspects in an EMS, and in order to evaluate the environmental performance of three scenarios of future evolution of the energy system. Regarding EMS, in this work an application of an EMS together with the CLEAR methodology for environmental accounting is discussed, in order to improve the identification of the environmental aspects; data regarding environmental aspects and significant ones for 4 local authorities are also presented, together with a preliminary proposal for the integration of the assessment of the significance of environmental aspects with eMergy synthesis. Regarding the analysis of an energy system, in this work the carachterization of the current situation is presented together with the overall energy balance and the evaluation of the emissions of greenhouse gases; moreover, three scenarios of future evolution are described and discussed. The scenarios have been realized with the support of the LEAP software ("Long Term Energy Alternatives Planning System" by SEI - "Stockholm Environment Institute"). Finally, the eMergy synthesis of the current situation and of the three scenarios is shown.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato si pone l'obiettivo di analizzare e valutare la sostenibilità dell'intera filiera dell'olio di palma, che viene importato da paesi del Sud Est asiatico per essere utilizzato in Europa per scopi sia energetici che alimentari. Nell'introduzione è inquadrata la problematica dei biocombustibili e degli strumenti volontari che possono essere utilizzati per garantire ed incentivare la sostenibilità in generale e dei biocombustibili; è presente inoltre un approfondimento sull'olio di palma, sulle sue caratteristiche e sulla crescita che ha subito negli ultimi anni in termini di produzione e compra/vendita. Per questa valutazione sono stati impiegati tre importanti strumenti di analisi e certificazione della sostenibilità, che sono stati applicati ad uno specifico caso di studio: l'azienda Unigrà SpA. La certificazione RSPO (Roundtable on Sustainable Palm Oil) è uno strumento volontario per la garanzia della sostenibilità della filiera dell'olio di palma in termini economici (vitalità nel mercato), ambientali (risparmio delle emissioni di gas ad effetto serra o GHG, conservazione delle risorse naturali e della biodiversità) e sociali (preservazione delle comunità locali e miglioramento nella gestione delle aree di interesse). La Global Reporting Initiative è un'organizzazione che prevede la redazione volontaria di un documento chiamato bilancio di sostenibilità secondo delle linee guida standardizzate che permettono alle organizzazioni di misurare e confrontare le loro performance economiche, sociali e ambientali nel tempo. La Direttiva Comunitaria 2009/28/CE (Renewable Energy Directive o RED) è invece uno strumento cogente nel caso in cui le organizzazioni intendano utilizzare risorse rinnovabili per ottenere incentivi finanziari. A seguito di un calcolo delle emissioni di GHG, le organizzazioni devono dimostrare determinate prestazioni ambientali attraverso il confronto con delle soglie presenti nel testo della Direttiva. Parallelamente alla valutazione delle emissioni è richiesto che le organizzazioni aderiscano a dei criteri obbligatori di sostenibilità economica, ambientale e sociale, verificabili grazie a degli schemi di certificazione che rientrano all'interno di politiche di sostenibilità globale. Questi strumenti sono stati applicati ad Unigrà, un'azienda che opera nel settore della trasformazione e della vendita di oli e grassi alimentari, margarine e semilavorati destinati alla produzione alimentare e che ha recentemente costruito una centrale da 58 MWe per la produzione di energia elettrica, alimentata in parte da olio di palma proveniente dal sud-est asiatico ed in parte dallo scarto della lavorazione nello stabilimento. L'adesione alla RSPO garantisce all'azienda la conformità alle richieste dell'organizzazione per la commercializzazione e la vendita di materie prime certificate RSPO, migliorando l'immagine di Unigrà all'interno del suo mercato di riferimento. Questo tipo di certificazione risulta importante per le organizzazioni perché può essere considerato un mezzo per ridurre l'impatto negativo nei confronti dell'ambiente, limitando deforestazione e cambiamenti di uso del suolo, oltre che consentire una valutazione globale, anche in termini di sostenibilità sociale. Unigrà ha visto nella redazione del bilancio di sostenibilità uno strumento fondamentale per la valutazione della sostenibilità a tutto tondo della propria organizzazione, perché viene data uguale rilevanza alle tre sfere della sostenibilità; la validazione esterna di questo documento ha solo lo scopo di controllare che le informazioni inserite siano veritiere e corrette secondo le linee guida del GRI, tuttavia non da giudizi sulle prestazioni assolute di una organizzazione. Il giudizio che viene dato sulle prestazioni delle organizzazioni e di tipo qualitativo ma non quantitativo. Ogni organizzazione può decidere di inserire o meno parte degli indicatori per una descrizione più accurata e puntuale. Unigrà acquisterà olio di palma certificato sostenibile secondo i principi previsti dalla Direttiva RED per l'alimentazione della centrale energetica, inoltre il 10 gennaio 2012 ha ottenuto la certificazione della sostenibilità della filiera secondo lo schema Bureau Veritas approvato dalla Comunità Europea. Il calcolo delle emissioni di tutte le fasi della filiera dell'olio di palma specifico per Unigrà è stato svolto tramite Biograce, uno strumento di calcolo finanziato dalla Comunità Europea che permette alle organizzazioni di misurare le emissioni della propria filiera in maniera semplificata ed adattabile alle specifiche situazioni. Dei fattori critici possono però influenzare il calcolo delle emissioni della filiera dell'olio di palma, tra questi i più rilevanti sono: cambiamento di uso del suolo diretto ed indiretto, perché possono provocare perdita di biodiversità, aumento delle emissioni di gas serra derivanti dai cambiamenti di riserve di carbonio nel suolo e nella biomassa vegetale, combustione delle foreste, malattie respiratorie, cambiamenti nelle caratteristiche dei terreni e conflitti sociali; presenza di un sistema di cattura di metano all'oleificio, perché gli effluenti della lavorazione non trattati potrebbero provocare problemi ambientali; cambiamento del rendimento del terreno, che può influenzare negativamente la resa delle piantagioni di palma da olio; sicurezza del cibo ed aspetti socio-economici, perché, sebbene non inseriti nel calcolo delle emissioni, potrebbero provocare conseguenze indesiderate per le popolazioni locali. Per una valutazione complessiva della filiera presa in esame, è necessario ottenere delle informazioni puntuali provenienti da paesi terzi dove però non sono di sempre facile reperibilità. Alla fine della valutazione delle emissioni, quello che emerge dal foglio di Biograce e un numero che, sebbene possa essere confrontato con delle soglie specifiche che descrivono dei criteri obbligatori di sostenibilità, non fornisce informazioni aggiuntive sulle caratteristiche della filiera considerata. È per questo motivo che accanto a valutazioni di questo tipo è necessario aderire a specifici criteri di sostenibilità aggiuntivi. Il calcolo delle emissioni dell'azienda Unigrà risulta vantaggioso in quasi tutti i casi, anche considerando i fattori critici; la certificazione della sostenibilità della filiera garantisce l'elevato livello di performance anche nei casi provvisti di maggiore incertezza. L'analisi del caso Unigrà ha reso evidente come l'azienda abbia intrapreso la strada della sostenibilità globale, che si traduce in azioni concrete. Gli strumenti di certificazione risultano quindi dei mezzi che consentono di garantire la sostenibilità della filiera dell'olio di palma e diventano parte integrante di programmi per la strategia europea di promozione della sostenibilità globale. L'utilizzo e l'implementazione di sistemi di certificazione della sostenibilità risulta per questo da favorire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progetto di un aerogeneratore ad asse verticale in grado di erogare una potenza di circa 100 kW con un vento di 16 m/s con l’obiettivo fondamentale di risolvere i problemi di avviamento comuni per le turbine ad asse verticale (VAWT), che affliggono in particolare le turbine Darrieus. Inoltre la turbina eolica in questione non deve necessitare di fondazione nè di trasporti eccezionali per l’installazione, permettendo l’abbattimento dei costi iniziali. Le vele sono state sostituite da profili alari, in grado di generare non solo resistenza ma anche portanza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sviluppo di un aerogeneratore ad asse verticale a pale, che fornisca una potenza di 100 KW utilizzando un generatore senza interposizione di moltiplicatore di giri per la produzione di energia elettrica. Si vuole progettare una macchina che possa essere montata sul luogo di esercizio, avendo quindi tutta la componentistica trasportabile e senza richiedere l’uso di trasporti eccezionali per evitare di avere costi aggiuntivi che con semplici accorgimenti possono essere evitati. La macchina dovrà per quanto possibile evitare la presenza di fondamenta che incrementino i costi di realizzazione e pregiudichino il sito urbanizzandolo fortemente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di ricerca esplora il panorama dell’efficienza energetica dei sistemi acquedottistici, soffermandosi a considerare possibili indicatori che possano valutarla in maniera corretta e completa, in particolare nei confronti della presenza di perdite in rete. Si prendono in considerazione con maggiore attenzione, tra tutte le strategie per aumentare l’efficienza energetica, quelle che contemporaneamente producono anche risparmi idrici, come la riduzione della pressione e la ricerca attiva delle perdite . Dopo un inquadramento internazionale, sono stati analizzati mediante mappe tematiche di intensità energetica, i consumi energetici specifici sui sistemi acquedottistici della regione Emilia Romagna per gli anni 2006 e 2007, si è passati ad una analisi critica degli indicatori attualmente in uso. Inoltre per casi di studio sintetici e tutti i casi di studio proposti, si sono valutate curve di relazione tra percentuale di perdita idrica e aumento del consumo energetico, in grado di dare indicazioni su come ciascun sistema reagisce, in termini di aumento dell’energia consumata, all’aumentare del livello di perdita. Questa relazione appare fortemente influenzata da fattori come la modalità di pompaggio, la posizione delle rotture sulla rete e la scabrezza delle condotte. E’ emersa la necessità solo poter analizzare separatamentel’influenza sull’efficienza energeticadei sistemi di pompaggio e della rete, mostrando il ruolo importante con cui questa contribuisce all’efficienza globale del sistema. Viene proposto uno sviluppo ulteriore dell’indicatore GEE Global Energy Efficiency (Abadia, 2008), che consente di distinguere l’impatto sull’efficienza energetica dovuto alle perdite idriche e alla struttura intrinseca della rete, in termini di collocazione reciproca tra risorsa idrica e domanda e schema impiantistico.Questa metodologia di analisi dell’efficienza energetica è stata applicata ai casi di studio, sia sintetici che reali, il distretto di Marzaglia (MO) e quello di Mirabello (FE), entrambi alimentati da pompe a giri variabili.. La ricerca ha consentito di mostrare inoltre il ruolo della modellazione numerica in particolare nell’analisi dell’effetto prodotto sull’efficienza energetica dalla presenza di perdite idriche. Nell’ultimo capitolo si completa la panoramica dei benefici ottenibili attraverso la riduzione della pressione, che nei casi citati viene conseguita tramite pompe asservite ad inverter, con il caso di studio del distretto Bolognina all’interno del sistema di distribuzione di Bologna, che vede l’utilizzo di valvole riduttrici di pressione. Oltre a stimare il risparmio energetico derivante dalla riduzione delle perdite ottenuta tramite le PRV, sono stati valutati su modello i benefici energetici conseguenti all’introduzione nel distretto di turbine per la produzione di energia

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggi, grazie al continuo progredire della tecnologia, in tutti i sistemi di produzione industriali si trova almeno un macchinario che permette di automatizzare determinate operazioni. Alcuni di questi macchinari hanno un sistema di visione industriale (machine vision), che permette loro di osservare ed analizzare ciò che li circonda, dotato di algoritmi in grado di operare alcune scelte in maniera automatica. D’altra parte, il continuo progresso tecnologico che caratterizza la realizzazione di sensori di visione, ottiche e, nell’insieme, di telecamere, consente una sempre più precisa e accurata acquisizione della scena inquadrata. Oggi, esigenze di mercato fanno si che sia diventato necessario che macchinari dotati dei moderni sistemi di visione permettano di fare misure morfometriche e dimensionali non a contatto. Ma le difficoltà annesse alla progettazione ed alla realizzazione su larga scala di sistemi di visione industriali che facciano misure dimensioni non a contatto, con sensori 2D, fanno sì che in tutto il mondo il numero di aziende che producono questo tipo di macchinari sia estremamente esiguo. A fronte di capacità di calcolo avanzate, questi macchinari necessitano dell’intervento di un operatore per selezionare quali parti dell’immagine acquisita siano d’interesse e, spesso, anche di indicare cosa misurare in esse. Questa tesi è stata sviluppata in sinergia con una di queste aziende, che produce alcuni macchinari per le misure automatiche di pezzi meccanici. Attualmente, nell’immagine del pezzo meccanico vengono manualmente indicate le forme su cui effettuare misure. Lo scopo di questo lavoro è quello di studiare e prototipare un algoritmo che fosse in grado di rilevare e interpretare forme geometriche note, analizzando l’immagine acquisita dalla scansione di un pezzo meccanico. Le difficoltà affrontate sono tipiche dei problemi del “mondo reale” e riguardano tutti i passaggi tipici dell’elaborazione di immagini, dalla “pulitura” dell’immagine acquisita, alla sua binarizzazione fino, ovviamente, alla parte di analisi del contorno ed identificazione di forme caratteristiche. Per raggiungere l’obiettivo, sono state utilizzate tecniche di elaborazione d’immagine che hanno permesso di interpretare nell'immagine scansionata dalla macchina tutte le forme note che ci siamo preposti di interpretare. L’algoritmo si è dimostrato molto robusto nell'interpretazione dei diametri e degli spallamenti trovando, infatti, in tutti i benchmark utilizzati tutte le forme di questo tipo, mentre è meno robusto nella determinazione di lati obliqui e archi di circonferenza a causa del loro campionamento non lineare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La crescita normale di un individuo è il risultato dell’azione coordinata di molteplici ormoni e recettori codificati da geni e a tal proposito, discreto interesse è stato dato ai geni tipici dell’asse del GH. Tuttavia altri geni, più a monte di questi e responsabili dello sviluppo dell’ipofisi contribuiscono alla crescita normale o patologica. Alcuni geni studiati sono POU1F1, PROP1, LHX3, LHX4, HESX1, SOX3 e svariate loro mutazioni sono state identificate come causa di panipopituarismo (CPHD=Combined Pituitary Hormone Deficiency). In realtà la ricerca genetica non spiega ancora molte anomalie ipofisarie e molte mutazioni devono ancora essere identificate. Uno degli scopi del dottorato, svoltosi nel laboratorio di Genetica molecolare di Pediatria, è stata l’identificazione di mutazioni geniche da un gruppo di pazienti CPHD considerando in particolare i geni POU1F1, LHX3, SOX3, non ancora messi a punto presso il laboratorio. L’approccio sperimentale si è basato sulle seguenti fasi: prelievo delle informazioni di sequenza da GeneBank, progettazione di primers per amplificare le porzioni esoniche, messa a punto delle fasi della PCR e del sequenziamento, analisi della sequenza e confronto con le informazioni di sequenza depositate allo scopo di rintracciare eventuali mutazioni o varianti. La bassa percentuale di mutazioni in questi geni non ha permesso finora di rintracciare mutazioni nelle porzioni esoniche salvo che in un soggetto, nell’esone 6 di LHX3b (nuova mutazione, recessiva eterozigote, c.1248A>G implicata nella mutazione p.T377A della sequenza proteica). Un metodo di screening di questa mutazione impiegando l’enzima di restrizione SacII è stato usato, senza rilevare nessun altra occorrenza dell’allele mutato in 53 soggetti di controllo. Oltre alla messa a punto del sequenziamento e di alcune tecniche di analisi di singoli SNP o piccoli INDELs per i 3 geni, la ricerca svolta è stata orientata all’impiego di metodi di rilevamento di riarrangiamenti genetici comportanti ampie delezioni e/o variazioni del copy-number di esoni/interi geni detto MLPA (Multiplex Ligation-dependent Probe Amplification) e progettato da MRC-Holland. Il sequenziamento infatti non permette di rilevare tali alterazioni quando sono ampie ed in eterozigosi. Per esempio, in un’ampia delezione in eterozigosi, l’intervallo delimitato dai primers usati per la PCR può non includere totalmente la porzione interessata da delezione su un cromosoma cosicché la PCR ed il sequnziamento si basano solo sulle informazioni dell’altro cromosoma non deleto. Un vantaggio della tecnica MLPA, è l’analisi contemporanea di una quarantina di siti posti su svariati geni. Questa metodo tuttavia può essere affetto da un certo margine di errore spesso dipendente dalla qualità del DNA e dovrebbe essere affiancato e validato da altre tecniche più impegnativa dal punto di vista sperimentale ma più solide, per esempio la Real Time PCR detta anche PCR quantitativa (qPCR). In laboratorio, grazie all’MLPA si è verificata la condizione di delezione eterozigote di un paziente “storico” per il gene GH1 e la stessa mutazione è stata rilevata anche con la qPCR usando lo strumento Corbett Rotor Gene 6000 (Explera). Invece un’analisi solo con la qPCR di variazioni del copy-number (CNV) per SOX3 in pazienti maschili non ha ancora evidenziato anomalie. Entrambe le tecniche hanno aspetti interessanti, il miglior approccio al momento sembra un’analisi iniziale di pazienti con l’MLPA, seguita dalla verifica di un eventuale esito anomalo impiegando la real-time PCR.