998 resultados para ingegneria clinica, dispositivi medici, parco tecnologico,mercato tecnologie biomediche


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo studio condotto durante il Dottorato di Ricerca è stato focalizzato sulla valutazione e sul monitoraggio delle diverse degradazioni termossidative in oli da frittura. Per raggiungere tale obiettivo si è ritenuto opportuno procedere mediante uno screening dei principali oli presenti sul mercato italiano e successiva messa a punto di due miscele di oli vegetali che sono state sottoposte a due piani sperimentali di frittura controllata e standardizzata in laboratorio, seguiti da due piani di frittura eseguiti in due differenti situazioni reali quali mensa e ristorante. Ognuna delle due miscele è stata messa a confronto con due oli di riferimento. A tal fine è stata identificato il profilo in acidi grassi, la stabilità ossidativa ed idrolitica, il punto di fumo, i composti polari, il contenuto in tocoferoli totali, ed i composti volatili sia sugli oli crudi che sottoposti ai diversi processi di frittura. Lo studio condotto ha permesso di identificare una delle miscele ideate come valida alternativa all’impiego dell’olio di palma ampiamente utilizzato nelle fritture degli alimenti, oltre a fornire delle indicazioni più precise sulla tipologia e sull’entità delle modificazioni che avvengono in frittura, a seconda delle condizioni impiegate.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’attività di ricerca contenuta in questa tesi si è concentrata nello sviluppo e nell’implementazione di tecniche per la co-simulazione e il co-progetto non lineare/elettromagnetico di sistemi wireless non convenzionali. Questo lavoro presenta un metodo rigoroso per considerare le interazioni tra due sistemi posti sia in condizioni di campo vicino che in condizioni di campo lontano. In sostanza, gli effetti del sistema trasmittente sono rappresentati da un generatore equivalente di Norton posto in parallelo all’antenna del sistema ricevente, calcolato per mezzo del teorema di reciprocità e del teorema di equivalenza. La correttezza del metodo è stata verificata per mezzo di simulazioni e misure, concordi tra loro. La stessa teoria, ampliata con l’introduzione degli effetti di scattering, è stata usata per valutare una condizione analoga, dove l’elemento trasmittente coincide con quello ricevente (DIE) contenuto all’interno di una struttura metallica (package). I risultati sono stati confrontati con i medesimi ottenibili tramite tecniche FEM e FDTD/FIT, che richiedono tempi di simulazione maggiori di un ordine di grandezza. Grazie ai metodi di co-simulazione non lineari/EM sopra esposti, è stato progettato e verificato un sistema di localizzazione e identificazione di oggetti taggati posti in ambiente indoor. Questo è stato ottenuto dotando il sistema di lettura, denominato RID (Remotely Identify and Detect), di funzioni di scansione angolare e della tecnica di RADAR mono-pulse. Il sistema sperimentale, creato con dispositivi low cost, opera a 2.5 GHz ed ha le dimensioni paragonabili ad un normale PDA. E’ stato sperimentata la capacità del RID di localizzare, in scenari indoor, oggetti statici e in movimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abbiamo analizzato compiutamente la conformazione attuale della città di Bologna, individuandone gli elementi caratterizzanti, i punti di forza e le criticità, per riuscire a riconnetterla sia al tessuto del centro storico sia a quello rurale. Il tipo di metodo scelto riprende in parte quello utilizzato nell’analisi delle mappe storiche, lavorando attorno a tre temi fondamentali: spazi aperti, tessuto urbano e viabilità. La consapevolezza profonda della realtà e delle dinamiche presenti ci ha portato ad individuare la soluzione che riteniamo essere più funzionale per la riconnessione delle differenti zone, utilizzando la fascia come filtro tra campagna e città. L’obiettivo individuato è quello di sfruttare la linea ferroviaria in disuso convertendola in una linea di tram-treno, una infrastruttura elettrica e a basso impatto ambientale che funzioni in modo agile e puntuale contribuendo in maniera significativa alla mobilità da e verso il centro storico di Bologna, con fermate nei principali fatti urbani come il complesso fieristico, la nuova sede comunale, il centro di ricerca, il polo universitario, i centri sportivi e commerciali. Parte della stessa linea ferroviaria, in particolare il tratto ovest, verrà riqualificato creando un parco lineare sulla sede della linea stessa, come realizzato a Parigi per la “promenade plantée” o a New York con la “highline”, restituendo ai bolognesi un percorso cittadino che valorizzi la natura, la riflessione ed il benessere. Un collegamento tra diverse aree urbane caratterizzato da un flusso più lento esclusivo dei pedoni e dei ciclisti, che trova una sua continuità naturalistica ad ovest andando a collegarsi al parco fluviale del canale Reno, proseguendo invece ad est parallelamente alla linea di tram-treno, creando una continuità di percorsi ciclo-pedonali che si integrano agli esistenti raggiungendo le zone centrali della città. L’intento è quello di incanalare il flusso non carrabile proveniente dalle aree rurali e dalla tangenziale, anche attraverso parcheggi scambiatori, in un percorso privilegiato, funzionale e naturalistico che permetta di raggiungere il centro storico e anche la zona collinare risalendo lungo il parco fluviale, dando ai fruitori la possibilità di osservare Bologna con più tranquillità e da un punto di vista nuovo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’attenzione dei pochi automobilisti che oggi passano velocemente per via Cavalli, nella frazione di Santa Maria Nuova, sotto il comune di Bertinoro (FC), non viene attirata dal palazzo settecentesco seminascosto dalla vegetazione che cresce incolta. L’edificio potrebbe passare per un casolare di campagna abbandonato, senza alcuna pretesa di bellezza, mutilato dei suoi terreni. Solo salendo lo scalone dissestato si può scoprire la ricchezza delle decorazione interne, stucchi baroccheggianti con maschere di volti provenienti da terre lontane e abbondanti cornucopie che circondano lo stemma della famiglia Cavalli. La piccola cappella della villa, in perfetto stato di conservazione, mostra, con un trionfo di stucchi, l’assunzione della Vergine al cielo, osservata dai santi Pietro e Paolo. Le quattro stanze centrali del piano nobile sono finemente dipinte con paesaggi marini e lacustri, stanze sepolcrali egizie e atrii di templi antichi. La ravennate famiglia dei marchesi Cavalli, una delle più ricche della zona nel XVIII e XIX secolo, utilizzava la villa come luogo di villeggiatura e come casino per la caccia. Testimonianze della loro presenza sono conservate nelle mappe storiche all’Archivio del Comune di Bertinoro e nell’Archivio parrocchiale di Santa Maria Nuova, dove si trovano descrizioni della ricchezza sia dell’edificio che delle terre possedute dai marchesi. Il complesso di villa Cavalli ha subito numerosi passaggi di proprietà dal 1900 ad oggi, è stato utilizzato come magazzino, pollaio, essiccatoio per il tabacco e le sue proprietà sono state frazionate fino a ridursi al piccolo parco presente oggi. Poiché gli attuali proprietari non possono garantire né la manutenzione ordinaria né quella straordinaria e il complesso è tutelato dal D. Lgs. 42/2004 Codice dei Beni Culturali e del Paesaggio è stato messo all’asta per tre volte, l’ultima nel dicembre 2011, senza risultato. La tesi sviluppa un’analisi dello stato di fatto della villa e del parco, partendo dal suo inserimento nel territorio fino allo studio dei dettagli costruttivi, per giungere ad un’ipotesi di progetto che vede il complesso strettamente legato a Santa Maria Nuova e alla sua gente. L’edificio fungerà da centro culturale, con mostre permanenti e temporanee, laboratori didattici, ludoteca per bambini e ospiterà la sede distaccata della biblioteca del comune di Bertinoro, ora inserita in un edificio di Santa Maria Nuova ma con dimensioni estremamente limitate. Si intendono effettuare interventi di consolidamento strutturale su tutti i solai della villa, su volte e copertura, con un atteggiamento di delicatezza verso il piano nobile, agendo dal piano inferiore e da quello superiore. Capitoli specifici trattano il restauro delle finiture e delle superfici dipinte e stuccate, per finire con l’intervento di adeguamento impiantistico e di valorizzazione del parco.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Photovoltaic (PV) conversion is the direct production of electrical energy from sun without involving the emission of polluting substances. In order to be competitive with other energy sources, cost of the PV technology must be reduced ensuring adequate conversion efficiencies. These goals have motivated the interest of researchers in investigating advanced designs of crystalline silicon solar (c-Si) cells. Since lowering the cost of PV devices involves the reduction of the volume of semiconductor, an effective light trapping strategy aimed at increasing the photon absorption is required. Modeling of solar cells by electro-optical numerical simulation is helpful to predict the performance of future generations devices exhibiting advanced light-trapping schemes and to provide new and more specific guidelines to industry. The approaches to optical simulation commonly adopted for c-Si solar cells may lead to inaccurate results in case of thin film and nano-stuctured solar cells. On the other hand, rigorous solvers of Maxwell equations are really cpu- and memory-intensive. Recently, in optical simulation of solar cells, the RCWA method has gained relevance, providing a good trade-off between accuracy and computational resources requirement. This thesis is a contribution to the numerical simulation of advanced silicon solar cells by means of a state-of-the-art numerical 2-D/3-D device simulator, that has been successfully applied to the simulation of selective emitter and the rear point contact solar cells, for which the multi-dimensionality of the transport model is required in order to properly account for all physical competing mechanisms. In the second part of the thesis, the optical problems is discussed. Two novel and computationally efficient RCWA implementations for 2-D simulation domains as well as a third RCWA for 3-D structures based on an eigenvalues calculation approach have been presented. The proposed simulators have been validated in terms of accuracy, numerical convergence, computation time and correctness of results.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi 50 anni il mercato alimentare è stato caratterizzato da profondi cambiamenti influenzati soprattutto da evoluzioni sociali e da notevoli mutamenti delle abitudini alimentari (Riquelme et al., 1994). La costante diffusione dei grandi supermarket ed il recente interesse verso la salute e l’ambiente, nonché la modifica dello stile di vita da parte del consumatore, hanno portato le industrie alimentari a sviluppare nuovi metodi di conservazione e di distribuzione e tipologie di prodotti innovative, come i prodotti ortofrutticoli minimamente trasformati. La perdita di qualità dei prodotti ortofrutticoli minimamente trasformati è il risultato di complessi meccanismi chimici e biochimici che si traducono macroscopicamente in modificazioni a carico del colore, delle texture e delle caratteristiche organolettiche (Mencarelli & Massantini, 1994). A fronte dei suddetti fenomeni degradativi, in un contesto di incrementale aumento della domanda dei prodotti freschi, sani, ad elevata convenience e senza additivi chimici (Day, 2002) l’introduzione delle atmosfere protettive per la conservazione degli alimenti è risultata strategica per prolungare la shelf-life ed il mantenimento qualitativo dei prodotti freschi (Jeyas & Jeyamkondan, 2002). Le attuali tecnologie disponibili per le industrie alimentari permettono l’applicazione di condizioni di atmosfera modificata sia in fase di stoccaggio di prodotti ortofrutticoli sia in fase di condizionamento. Il primo obiettivo è generalmente la parziale rimozione dell’O2 e l’aumento dei livelli di CO2 nell’ambiente circostante il prodotto. Oltre ai gas usati tradizionalmente per la realizzazione delle atmosfere modificate, quali N2 e CO2, recentemente è aumentato l’interesse verso i potenziali effetti benefici di nuovi gas, quali argon (Ar) e protossido d’azoto (N2O). Questi ultimi, ora permessi in Europa per uso alimentare, sono risultati efficaci nell’inibizione della crescita microbica e delle reazioni enzimatiche degradative, a carico soprattutto del colore e della consistenza dei vegetali minimamente processati (Spencer, 1995; Kader et al., 1989; Watada et al., 1996). Premesso questo, in tale lavoro di tesi è stata effettuata una ricerca sugli effetti di N2, N2O e Ar e di differenti trattamenti ad immersione, noti come dipping (con acido ascorbico, acido citrico e cloruro di calcio), sul metabolismo di prodotti ortofrutticoli. In particolare, per ciò che concerne la parte sperimentale, gli obiettivi principali sono stati quelli di approfondire le potenzialità di tali gas e dipping nel mantenimento qualitativo (colore, consistenza, metabolismo respiratorio) e di verificare l’efficacia di interventi combinati di dipping e MAP (atmosfera modificata) nel prolungamento della shelf-life del prodotto. Questa sperimentazione è stata effettuata su due varietà di lattuga: una da cespo (Iceberg) e una da taglio (Lattughino).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nel ramo della Information Tecnology, recentemente, nascono sistemi informativi adibiti alla gestione di risorse hardware e software distribuite e visualizzate in rete. Uno degli strumenti più utilizzati e commercializzati per l'utilizzo di tale tipo di tecnologie è rappresentato dal cloud computing. Secondo una ricerca del "Il Sole 24 Ore'' in Italia il 25% delle aziende italiane intende adottare il cloud nei prossimi 12 mesi. E' un mercato da 287 milioni di euro nel 2011, +41% sul 2010, e passerà a 394 milioni nel 2012 per poi risalire a 671 nel 2014. Questa tesi si basa su un lavoro di ricerca precedentemente alla stessa in cui ho esaminato esperienze aziendali o riflessioni di queste ultime sull'applicazione e l'utilizzo della tecnologia cloud come modello di business. Il lavoro si è svolto leggendo ed analizzando due quotidiani italiani (Il Corriere della Sera e il Il Sole 24 Ore), un quotidiano inglese (Financial Times) e un settimanale londinese (The Economist) nell'arco di due anni a questa parte. Attraverso l'analisi degli articoli ottenuti è stata redatta una sintesi degli stessi pervenendo ad una riflessione che ha rappresentato lo spunto di tale tesi. Spesso si discuteva di problemi legati al cloud ma solo in pochi articoli vi era presente una vera e propria case history con analisi di eventuali difficoltà o benefici riscontrati. Da questo l'inizio di tale attività che pone l'obbiettivo di capire, in parte, il perché di così tanta riluttanza verso uno strumento che sembra rappresentare la scelta tecnologicamente più appropriata e strategicamente ottimale. Il cuore della ricerca è rappresentato dalle interviste svolte ad alcune aziende in merito all'utilizzo della "nuvola'' nel loro sistema informatico. Questa tesi si suddividerà: -Descrizione storica della nascita e dello sviluppo del cloud computing -Analisi delle tecnologie attualmente esistenti e dei modelli di distribuzione -Opportunità e minacce legate all'utilizzo di tale tecnologia in un ambiente aziendale -Studio ed analisi di alcuni casi aziendali e del ruolo che svolge l'uso del cloud nel proprio modello di business -Valutazione dell'attuale situazione del cloud computing e delle prospettive future legate all'utilizzo della tecnologia in analisi

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi nasce dall’idea di sfruttare i recenti sviluppi della tecnica nell’ambito delle elaborazioni tridimensionali su immagini interne al corpo umano per creare nuovi strumenti di diagnosi e controllo utili ai fini medici. In particolare, si cercherà un nuovo strumento di diagnosi per una malattia, ampiamente diffusa tra la popolazione, che colpisce l’orecchio interno: la cupololitiasi, anche nota come vertigine parossistica posizionale benigna. Il presente studio, che fa parte di un più ampio progetto di ricerca, è volto a definire un protocollo sia di misure antropometriche che di densità di tessuti e alla verifica di parametri, su un numero limitato di campioni, la cui presenza consente di rilevare la malattia. Si cercano misure che diano valori differenti tra orecchi interni sani e malati, cioè segnali inequivocabili della presenza della cupololitiasi. Si utilizzano immagini provenienti da TAC effettuate a pazienti sofferenti di cupololitiasi per scopi diagnostici; si elaborano in 3D e si misurano con il programma di Materializze: MIMICS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con questo mio lavoro di tesi ho voluto esplorare il fenomeno del maltrattamento e dell’abuso sui minori delineandone, sulla base della letteratura scientifica nazionale ed internazionale, gli aspetti clinici, epidemiologici ed i fattori di rischio. Un breve excursus giuridico illustrerà, poi, gli articoli di legge relativi alla tutela dei minori; in particolare, ci si soffermerà ad illustrare quegli articoli che normano i doveri dei sanitari nei confronti dell’autorità giudiziaria nel caso si sospetti un abuso su minori. La conoscenza della semeiotica dell’abuso, il suo riconoscimento all’interno di una diagnostica differenziale clinico-forense, la corretta repertazione e la consapevolezza che, un approccio autenticamente tutelante verso la vittima, deve sempre realizzarsi all’interno di una cornice giuridica fanno si che, il ruolo della medicina legale, competente in tutti questi ambiti, diventi senza ombra di dubbio “primum inter pares” all’interno dei team multidisciplinari ed interistituzionali che si occupano di minori vitti. Il gruppo scientifico in cui sono stata inserita e con cui si è proceduto alla redazione del manuale è il Gruppo di lavoro per l’abuso e il maltrattamento dell’infanzia coordinato dalla dott.ssa Maria Rosa Giolito ed ha coinvolto professionisti italiani afferenti a tre differenti aree sanitarie: quella ginecologica, quella medico-legale e quella pediatrica. Il testo elaborato è stato immaginato come un aiuto ai professionisti medici che si trovano a valutare un soggetto prepubere con sospetto di abuso sessuale. Non costituisce una linea-guida per la diagnosi di abuso sessuale, ma definisce alcuni requisiti essenziali e diffonde alcune conoscenze per evitare errori che possano ripercuotersi negativamente sulla valutazione clinica e sull’eventuale conseguente iter giudiziario.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scheletro è un tessuto dinamico, capace di adattarsi alle richieste funzionali grazie a fenomeni di rimodellamento ed alla peculiare proprietà rigenerativa. Tali processi avvengono attraverso l’azione coordinata di osteoclasti ed osteoblasti. Queste popolazioni cellulari cooperano allo scopo di mantenere l’ equilibrio indispensabile per garantire l’omeostasi dello scheletro. La perdita di tale equilibrio può portare ad una diminuzione della massa ossea e, ad una maggiore suscettibilità alle fratture, come avviene nel caso dell’osteoporosi. E’ noto che, nella fisiopatologia dell’osso, un ruolo cruciale è svolto da fattori endocrini e paracrini. Dati recenti suggeriscono che il rimodellamento osseo potrebbe essere influenzato dal sistema nervoso. L’ipotesi è supportata dalla presenza, nelle vicinanze dell’osso, di fibre nervose sensoriali responsabili del rilascio di alcuni neuro peptidi, tra i quali ricordiamo la sostanza P. Inoltre in modelli animali è stato dimostrato il diretto coinvolgimento del sistema nervoso nel mantenimento dell’omeostasi ossea, infatti ratti sottoposti a denervazione hanno mostrato una perdita dell’equilibrio esistente tra osteoblasti ed osteoclasti. Per tali ragioni negli ultimi anni si è andata intensificando la ricerca in questo campo cercando di comprendere il ruolo dei neuropeptidi nel processo di differenziamento dei precursori mesenchimali in senso osteogenico. Le cellule stromali mesenchimali adulte sono indifferenziate multipotenti che risiedono in maniera predominante nel midollo osseo, ma che possono anche essere isolate da tessuto adiposo, cordone ombelicale e polpa dentale. In questi distretti le MSC sono in uno stato non proliferativo fino a quando non sono richieste per processi locali di riparo e rigenerazione tessutale. MSC, opportunamente stimolate, possono differenziare in diversi tipi di tessuto connettivo quali, tessuto osseo, cartilagineo ed adiposo. L’attività di ricerca è stata finalizzata all’ottimizzazione di un protocollo di espansione ex vivo ed alla valutazione dell’influenza della sostanza P, neuropeptide presente a livello delle terminazioni sensoriali nelle vicinanze dell’osso, nel processo di commissionamento osteogenico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Si vuole analizzare l’evoluzione della normativa e criticità che il Legislatore si è trovato ad affrontare durante la transizione da un contesto documentale cartaceo ad uno informatico, passando per sistemi ibridi, nell’ottica di incentivare l’informatizzazione e dematerializzazione delle procedure. Viene preso in considerazione l’intero ciclo di vita del documento, partendo dalla formazione (digitale o cartacea) fino alla sua conservazione, con particolare attenzione alle problematiche riscontrate dalle Pubbliche Amministrazioni in quanto produttori massivi di materiale documentale. Si toccheranno tematiche specifiche come la declinazione in ambito digitale della firma, ovvero le firme elettroniche, remote, massive, timbro digitale. Verranno approfonditi gli aspetti legali e problematiche correlate alla protocollazione ed archiviazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Background: l’epilessia è una malattia cerebrale che colpisce oggigiorno circa l’1% della popolazione mondiale e causa, a chi ne soffre, convulsioni ricorrenti e improvvise che danneggiano la vita quotidiana del paziente. Le convulsioni sono degli eventi che bloccano istantaneamente la normale attività cerebrale; inoltre differiscono tra i pazienti e, perciò, non esiste un trattamento comune generalizzato. Solitamente, medici neurologi somministrano farmaci, e, in rari casi, l’epilessia è trattata con operazioni neurochirurgiche. Tuttavia, le operazioni hanno effetti positivi nel ridurre le crisi, ma raramente riescono a eliminarle del tutto. Negli ultimi anni, nel campo della ricerca scientifica è stato provato che il segnale EEG contiene informazioni utili per diagnosticare l'arrivo di un attacco epilettico. Inoltre, diversi algoritmi automatici sono stati sviluppati per rilevare automaticamente le crisi epilettiche. Scopo: lo scopo finale di questa ricerca è l'applicabilità e l'affidabilità di un dispositivo automatico portatile in grado di rilevare le convulsioni e utilizzabile come sistema di monitoraggio. L’analisi condotta in questo progetto, è eseguita con tecniche di misure classiche e avanzate, in modo tale da provare tecnicamente l’affidabilità di un tale sistema. La comparazione è stata eseguita sui segnali elettroencefalografici utilizzando due diversi sistemi di acquisizione EEG: il metodo standard utilizzato nelle cliniche e il nuovo dispositivo portatile. Metodi: è necessaria una solida validazione dei segnali EEG registrati con il nuovo dispositivo. I segnali saranno trattati con tecniche classiche e avanzate. Dopo le operazioni di pulizia e allineamento, verrà utilizzato un nuovo metodo di rappresentazione e confronto di segnali : Bump model. In questa tesi il metodo citato verrà ampiamente descritto, testato, validato e adattato alle esigenze del progetto. Questo modello è definito come un approccio economico per la mappatura spazio-frequenziale di wavelet; in particolare, saranno presenti solo gli eventi con un’alta quantità di energia. Risultati: il modello Bump è stato implementato come toolbox su MATLAB dallo sviluppatore F. Vialatte, e migliorato dall’Autore per l’utilizzo di registrazioni EEG da sistemi diversi. Il metodo è validato con segnali artificiali al fine di garantire l’affidabilità, inoltre, è utilizzato su segnali EEG processati e allineati, che contengono eventi epilettici. Questo serve per rilevare la somiglianza dei due sistemi di acquisizione. Conclusioni: i risultati visivi garantiscono la somiglianza tra i due sistemi, questa differenza la si può notare specialmente comparando i grafici di attività background EEG e quelli di artefatti o eventi epilettici. Bump model è uno strumento affidabile per questa applicazione, e potrebbe essere utilizzato anche per lavori futuri (ad esempio utilizzare il metodo di Sincronicità Eventi Stocas- tici SES) o differenti applicazioni, così come le informazioni estratte dai Bump model potrebbero servire come input per misure di sincronicità, dalle quali estrarre utili risultati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’utilizzo del reservoir geotermico superficiale a scopi termici / frigoriferi è una tecnica consolidata che permette di sfruttare, tramite appositi “geoscambiatori”, un’energia presente ovunque ed inesauribile, ad un ridotto prezzo in termini di emissioni climalteranti. Pertanto, il pieno sfruttamento di questa risorsa è in linea con gli obiettivi del Protocollo di Kyoto ed è descritto nella Direttiva Europea 2009/28/CE (Comunemente detta: Direttiva Rinnovabili). Considerato il notevole potenziale a fronte di costi sostenibili di installazione ed esercizio, la geotermia superficiale è stata sfruttata già dalla metà del ventesimo secolo in diversi contesti (geografici, geologici e climatici) e per diverse applicazioni (residenziali, commerciali, industriali, infrastrutturali). Ciononostante, solo a partire dagli anni 2000 la comunità scientifica e il mercato si sono realmente interessati ed affacciati all’argomento, a seguito di sopraggiunte condizioni economiche e tecniche. Una semplice ed immediata dimostrazione di ciò si ritrova nel fatto che al 2012 non esiste ancora un chiaro riferimento tecnico condiviso a livello internazionale, né per la progettazione, né per l’installazione, né per il testing delle diverse applicazioni della geotermia superficiale, questo a fronte di una moltitudine di articoli scientifici pubblicati, impianti realizzati ed associazioni di categoria coinvolte nel primo decennio del ventunesimo secolo. Il presente lavoro di ricerca si colloca all’interno di questo quadro. In particolare verranno mostrati i progressi della ricerca svolta all’interno del Dipartimento di Ingegneria Civile, Ambientale e dei Materiali nei settori della progettazione e del testing dei sistemi geotermici, nonché verranno descritte alcune tipologie di geoscambiatori innovative studiate, analizzate e testate nel periodo di ricerca.